El programa PISA:
un instrumento para la mejora
del proceso de enseñanza-aprendizaje
Amparo Vilches *
Daniel Gil Pérez **
* Profesora asociada del Departamento de Didáctica de las Ciencias Experimentales y Sociales de la Universidad de Valencia, y catedrática de Física y Química de Bachillerato en el Instituto de Enseñanza Secundaria Sorolla, ambas instituciones educativas en la ciudad de Valencia, España.
** Catedrático de Didáctica de las Ciencias en la Universidad de Valencia, España, en situación de jubilado en activo.
SÍNTESIS: En el presente artículo se refutan opiniones basadas en lecturas superfluas y deformadas, extensamente divulgadas, de la información que proporciona el Programa para la Evaluación Internacional de Alumnos (pisa por sus siglas en inglés: Programme for International Student Assessment). Se trata de un objetivo esencial porque dichas lecturas desvían la atención de lo que constituye el propósito del proyecto: la necesaria y factible mejora de la educación. En el trabajo se muestran ejemplos que permiten apreciar esta finalidad, en particular la de cómo influir en la enseñanza a través de un profundo replanteo de la evaluación, que incorpora las dimensiones procedimental y axiológica a la conceptual y rompe con la memorización de conceptos para plantear la aplicación de los conocimientos en situaciones problemáticas abiertas de interés. La consideración de aquello que debe ser evaluado resulta esencial para evitar reduccionismos empobrecedores, y ha de enfrentarse a tradiciones que sistemáticamente han limitado la evaluación a los aspectos más fácilmente cuantificables. Se trata de algo absolutamente necesario para la formación de ciudadanos capaces de participar, con espíritu crítico, en la toma de decisiones acerca de los problemas que afectan a la humanidad y contribuir a la construcción de un futuro sostenible.
Palabras clave: programa pisa; evaluación formativa; evaluación como instrumento de mejora del proceso de enseñanza-aprendizaje; superación del reduccionismo conceptual; interacciones ciencia, tecnología, sociedad y ambiente (ctsa); educación para la sostenibilidad.
O programa PISA: um instrumento para a melhoria do processo de ensino-aprendizagem
SÍNTESE: No presente artigo questionam-se opiniões baseadas em leituras supérfluas e deformadas, extensamente divulgadas, sobre a informação que o Programa para a Avaliação Internacional de Alunos (pisa, por suas siglas em inglês: Programme for International Student Assessment) proporciona. Trata-se de um objetivo essencial porque estas leituras desviam a atenção do que constitui o propósito do projeto: a necessária e factível melhoria da educação. No trabalho, mostram-se exemplos que permitem apreciar este objetivo, particularmente, como influir no ensino através de um profundo repensar da avaliação, que incorpora as duas dimensões – procedimental e axiológica – à conceptual e rompe com a memorização de conceitos a fim de suscitar a aplicação dos conhecimentos em situações problemáticas abertas de interesse. A consideração daquilo que deve ser avaliado resulta essencial para evitar reducionismos empobrecedores, e haverá de enfrentar tradições que sistematicamente limitaram a avaliação aos aspectos mais facilmente quantificáveis. Trata-se de algo absolutamente necessário para a formação de cidadãos capazes de participar, com espírito crítico, na tomada de decisões sobre os problemas que afetam a humanidade, e contribuir à construção de um futuro sustentável.
Palavras-chave: programa pisa; avaliação formativa; avaliação como instrumento de melhoria do processo de ensino-aprendizagem; superação do reducionismo conceptual; interações ciência, tecnologia, sociedade e ambiente (ctsa); educação para a sustentabilidade.
PISA: an instrument for the improvement of the teaching-learning process
ABSTRACT: In this paper, we will refute a series of points of view based on widely spread superficial and distorted readings of the outcome produced by the Program for International Student Assessment (pisa). This is a core goal, since these readings divert our attention from what constitutes the purpose of the project: a feasible and necessary improvement in education. Throughout the paper, we will present several examples that illustrate this purpose, specially the goal of how to have an influence on teaching through a deep questioning of assessment that incorporates procedural and axiological spheres to the conceptual sphere, and that breaks off with memorizing concepts in order to propose a practical application of knowledge in problematic situations of open interest. Reflecting on that that has to be assessed becomes essential in order to avoid impoverishing reductionisms, and it is mandatory to fight those traditions that have systematically circumscribed assessment to quantifiable aspects. It is something absolutely necessary in order to educate citizens capable of participating with a critical spirit in the decision making process regarding the problems that affect human kind and of contributing to the creation of a sustainable future.
Keywords: pisa, formative assessment, assessment as a tool for the improvement of the learning-teaching process, overcoming conceptual reductionism, interaction between science, technology, society and environment; educating for sustainability.
1. Introducción
El trabajo que aquí presentamos pretende salir al paso de lecturas superficiales y distorsionadas, ampliamente difundidas, de la información que proporciona el programa pisa de la Organización para la Cooperación y el Desarrollo Económicos (ocde). Se trata de un objetivo esencial porque esas lecturas distorsionadas están desviando la atención de lo que constituye el propósito del proyecto: la necesaria y posible mejora de la educación.
Comenzaremos nuestra contribución refiriéndonos, precisamente, a la necesidad y posibilidad de mejora de la educación y, más concretamente, de la educación científica. Debemos aclarar a este respecto que, aunque utilizaremos información correspondiente a la enseñanza de las ciencias, que constituye nuestro campo de trabajo, buena parte de lo que expondremos es aplicable a las demás áreas del conocimiento.
Intentaremos mostrar que existe un amplio consenso, fruto convergente de numerosas investigaciones y «buenas prácticas» debidamente controladas, acerca de la existencia de estrategias susceptibles de despertar el interés de los estudiantes y lograr aprendizajes significativos (Gabel, 1994; National Academy of Sciences, 1995; Fraser y Tobin, 1998; Gil Pérez y otros, 2005a; Rocard y otros, 2007).
La pregunta acerca de por qué dichas estrategias no se han generalizado dirige la atención a distintos aspectos clave del proceso de enseñanza-aprendizaje, entre los que destaca el papel de la evaluación, en el que se centra el interés de este artículo. Dedicaremos, por ello, un amplio apartado al análisis crítico de las concepciones y prácticas evaluativas que pueden estar dificultando la mejora de la enseñanza, e intentaremos mostrar que pisa constituye un programa que responde a la concepción de la evaluación como instrumento de aprendizaje y de mejora de la enseñanza.
Analizaremos seguidamente las razones por las que dicho programa no ha contribuido, al menos hasta ahora, en la mejora de la educación para la que ha sido concebido y expondremos, por último, las medidas necesarias para aprovechar sus potencialidades. 2. La necesidad y posibilidad de mejora de la educación
En un reciente estudio promovido por la Comisión Europea (Rocard y otros, 2007) se reconoce que, en estos últimos años, numerosas investigaciones han mostrado un alarmante descenso del interés de los jóvenes por los estudios científicos. En el informe Rocard se afirma que esto constituye una de las mayores amenazas para el futuro de Europa dada la necesidad tanto de un número creciente de científicos y tecnólogos, como de una alfabetización científica básica de toda la ciudadanía para hacer posible su participación en la toma fundamentada de decisiones.
Consideraciones similares acerca de la necesidad de renovar la enseñanza las encontramos en el ámbito iberoamericano (Maiztegui y otros, 2000, pp. 163-187). En respuesta a dicha necesidad, en mayo de 2008, los ministros de educación del área reunidos en El Salvador asumieron un ambicioso proyecto que convierte a la educación en herramienta fundamental para el desarrollo de la región y que puede tener notables repercusiones en Iberoamérica: acoger la propuesta Metas Educativas 2021. La educación que queremos para la generación de los Bicentenarios, valioso documento hecho público por la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (oei).
Cabe señalar que esta creciente preocupación por la renovación de la educación, y muy particularmente, de la educación científica, no supone que todo continúe igual o peor que hace dos décadas. En realidad, las propuestas actuales se apoyan en un avance fundamental: los responsables de los diseños curriculares han asumido mayoritariamente los resultados de la investigación educativa en lo que respecta a las estrategias de trabajo en el aula susceptibles de favorecer actitudes de interés hacia las ciencias y un mejor aprendizaje. La necesidad de sustituir las estrategias de transmisión-recepción por otras que orienten el aprendizaje como una tarea de indagación o investigación, favorecedora de la participación de los estudiantes en la (re)construcción de los conocimientos, concita hoy un consenso general entre los expertos. Esa es la tesis básica del ya mencionado informe encargado por la Comisión Europea (Rocard y otros, 2007). Sabemos que es necesario introducir en los centros orientaciones basadas en la indagación (Inquiry-based Science Education [ibse]), desplazando el tradicional chalk and talk; la investigación y los numerosos ejemplos de experiencias controladas con éxito así lo prueban (Abd-El-Khalick y otros, 2004, pp. 397-419; Rudolph, 2005, pp. 803-821; Trumbull, Bonney y Grudens-Schuck, 2005, pp. 879-900; Lee y otros, 2006, pp. 607-636).
Asimismo, tesis similares fueron, hace ya más de diez años, el punto de partida de los National Science Education Standards en los Estados Unidos (National Academy of Sciences, 1995), un documento también de fácil acceso que merece ser estudiado, y cuyo cuarto capítulo está destinado al desarrollo profesional de los profesores para posibilitar la introducción en el aula de las nuevas estrategias de aprendizaje como por ejemplo, la investigación.
En definitiva, hay consenso acerca de qué estrategias promover en el aula para despertar el interés de los estudiantes y lograr aprendizajes significativos; y un amplio número de «buenas prácticas» están mostrando la viabilidad y eficacia de aquellas (Rocard y otros, 2007) aunque las mismas –como reconoce el reporte Rocard–, y aquí estriba el problema, no se están aplicando. Las razones de este hecho son complejas y afectan incluso a las condiciones laborales del profesorado (Vilches y Gil Pérez, 2007, pp. 67-85). Pero entre ellas destaca el papel que está jugando una evaluación que, en general, sigue estando incorrectamente planteada (Gil Pérez y Martínez Torregrosa, 2005, pp. 159-182). Es este aspecto el que desarrollaremos aquí por ser el que conecta más directamente con el análisis del programa pisa, objeto central de este artículo.
3. La necesaria superación de las concepciones espontáneas sobre la evaluación
Difícilmente podremos comprender y aprovechar lo que supone el proyecto pisa si no superamos las concepciones y prácticas espontáneas acerca de la evaluación, ampliamente difundidas y compartidas socialmente, incluso por los docentes y los responsables políticos de la educación. Intentaremos, pues, sintetizar los argumentos que cuestionan dichas prácticas y fundamentan otra orientación de la evaluación.
Evaluar es visto de forma habitual, tanto por profesores como por estudiantes y la ciudadanía en general, casi como sinónimo de calificar. Así lo han puesto de relieve los estudios sobre las concepciones docentes espontáneas (Alonso, Gil Pérez y Martínez Torregrosa, 1995a, pp. 6-15), o los análisis de la práctica evaluativa (Hodson, 1986, pp. 7-17; Colombo, Pesa y Salinas, 1986, pp. 122-128; Lorsbach y otros, 1992, pp. 305-317). Dichos estudios muestran que, para la mayor parte del profesorado, la función esencial de la evaluación es medir la capacidad y el aprovechamiento de los estudiantes, asignándoles una puntuación que sirva de base objetiva para las promociones y selecciones.
Esta visión se apoya en otras concepciones íntimamente relacionadas, como el convencimiento de que resulta fácil evaluar las materias científicas con objetividad y precisión debido a la naturaleza misma de los conocimientos evaluados, o que el fracaso de un porcentaje significativo de estudiantes es inevitable en materias de alto nivel cognitivo, como son las ciencias, «que no están al alcance de todo el mundo».
Estas concepciones son asumidas acríticamente, incluso por aquellos profesores que han realizado innovaciones en otros aspectos del proceso de enseñanza-aprendizaje de las ciencias. Todo parece indicar, en efecto, que la evaluación constituye uno de los dominios en los que las ideas y comportamientos docentes «de sentido común» se muestran más persistentes y constituyen un serio obstáculo, en la medida en que son aceptadas sin cuestionamiento como «lo natural».
Es preciso señalar, sin embargo, que basta favorecer una reflexión colectiva con un mínimo de profundidad para que los docentes realicen análisis y elaboren propuestas coincidentes, en buena medida, con los resultados de la investigación educativa y, más concretamente, con las tesis del modelo de orientación constructivista emergente. Estas intuiciones, fruto del distanciamiento crítico que supone adoptar una actitud investigadora, pueden ser reforzadas con la realización efectiva de pequeñas investigaciones y con el análisis de los resultados obtenidos por una ya abundante investigación educativa en este campo. Se pueden dar a conocer, a este respecto, los estudios de docimología que han mostrado notables diferencias en las puntuaciones dadas por distintos profesores a un mismo ejercicio de Física o Matemáticas; y también que las notas dadas por un mismo profesor a los mismos ejercicios en momentos diferentes (tras un intervalo de, por ejemplo, tres meses) pueden sufrir grandes oscilaciones (Hoyat, 1962).
Mayor importancia tiene aún el análisis de la enorme influencia de las expectativas del profesorado: podemos recordar a este respecto la investigación realizada por Spear (1984, pp. 369-377) en la que mostró que un mismo ejercicio de Física era valorado con notas significativamente más bajas cuando era atribuido a una alumna que cuando se suponía obra de un alumno. Se ha mostrado también, de forma reiterada, que los ejercicios atribuidos a estudiantes «brillantes» reciben calificaciones notablemente más altas que los mismos ejercicios cuando se atribuyen a estudiantes «mediocres» (Alonso, Gil Pérez y Martínez Torregrosa, 1995a, pp. 6-15).
Todos estos resultados cuestionan la supuesta precisión y objetividad de la evaluación en un doble sentido: por una parte muestran hasta qué punto las valoraciones están sometidas a amplísimos márgenes de incertidumbre y, por otra, hacen ver que la evaluación constituye un instrumento que afecta muy decisivamente a aquello que pretende medir. Dicho de otro modo, los profesores no solo nos equivocamos al calificar (dando, por ejemplo, puntuaciones más bajas en materias como la Física a ejercicios que creemos hechos por chicas), sino que contribuimos a que nuestros prejuicios –en definitiva los de toda la sociedad– se conviertan en realidad: las chicas acaban teniendo logros inferiores y actitudes más negativas hacia el aprendizaje de la asignatura que los chicos; y los alumnos considerados mediocres terminan, efectivamente, siéndolo. La evaluación resulta ser, más que la medida objetiva y precisa de unos logros, la expresión de unas expectativas en gran medida subjetivas pero con una gran influencia sobre el comportamiento de los estudiantes y de los mismos profesores.
Podemos comprender también que la búsqueda de objetividad tiene otra consecuencia negativa, pues con objeto de garantizar dicha objetividad se limita la evaluación a lo más fácilmente medible, evitando todo lo que pueda dar lugar a respuestas imprecisas. Ello supone, claro está, dejar de lado aspectos fundamentales del trabajo científico tales como los planteamientos cualitativos –necesariamente imprecisos– con que se abordan las situaciones problemáticas, la invención de hipótesis, etc., que por no ser evaluados dejan de tener importancia para los estudiantes.
Un segundo bloque de preconcepciones subyace, en realidad, tras esa búsqueda de «objetividad»: la idea de que solo una parte de los alumnos está realmente capacitada para seguir con éxito estudios científicos. Esa es la razón, por ejemplo, de que una determinada prueba sea considerada tanto mejor diseñada cuanto más se ajustan los resultados a una campana de Gauss con el 5 en el centro (lo que supone que el 50% de los alumnos no puede alcanzar, por definición, el mínimo exigido). Y esa es también la razón de que un profesor que apruebe a la mayoría de sus alumnos en una materia científica no sea considerado serio. Son estas expectativas negativas las que determinan en gran medida, lejos de toda objetividad, el fracaso de un elevado porcentaje de estudiantes.
4. La evaluación como instrumento de intervención
en el proceso de enseñanza-aprendizaje
El análisis crítico de todas estas concepciones abre el camino a un replanteamiento global de la evaluación, que pasa a ser considerada un instrumento de intervención y no de simple constatación.
Desde la concepción del aprendizaje como una investigación dirigida carece de sentido una evaluación consistente en el enjuiciamiento «objetivo» y terminal de la labor realizada por cada alumno. Por el contrario, como formador de investigadores noveles, el profesor ha de considerarse corresponsable de los resultados que estos obtengan: no puede situarse frente a ellos, sino con ellos; su pregunta no puede estar referida a quién merece una valoración positiva y quién no, sino a qué ayudas precisa cada cual para seguir avanzando y alcanzar los logros deseados. Para ello son necesarios un seguimiento atento y una retroalimentación constante que reoriente e impulse la tarea. Eso es lo que ocurre en los equipos de investigación que funcionan correctamente y eso es lo que tiene sentido también, en nuestra opinión, en una situación de aprendizaje orientada a la construcción de conocimientos, a la investigación. Los estudiantes han de poder cotejar sus producciones con las de otros equipos y –a través del profesor/director de investigaciones– con el resto de la comunidad científica; y han de ver valorado su trabajo y recibir la ayuda necesaria para seguir avanzando, o para rectificar de ser necesario.
La evaluación se convierte así en un instrumento de aprendizaje, es decir, en una evaluación formativa, sustituyendo a los juicios terminales sobre los logros y capacidades de los estudiantes. Pero, aunque ello representa un indudable progreso, este resulta insuficiente si no se contempla también como un instrumento de mejora de la enseñanza. En efecto, las disfunciones en el proceso de enseñanza-aprendizaje no pueden atribuirse exclusivamente a dificultades de los estudiantes y resultará difícil que ellos no vean en la evaluación un ejercicio de poder externo, y por lo tanto difícilmente aceptable, si solo se cuestiona su actividad.
Si realmente se pretende hacer de la evaluación un instrumento de seguimiento y mejora es preciso no olvidar que se trata de una actividad colectiva, de un proceso de enseñanza-aprendizaje en el que el papel del profesor y el funcionamiento del centro constituyen factores determinantes. La evaluación ha de permitir, pues, incidir en los com-portamientos y actitudes del profesorado. Ello supone que los estudiantes tengan ocasión de discutir aspectos como el ritmo que el profesor imprime al trabajo o la manera de dirigirse a ellos. Y también es preciso evaluar el currículo para ajustarlo a lo que puede ser trabajado con interés y provecho por los alumnos, quienes de esta forma aceptarán mucho mejor la necesidad de la evaluación, que aparecerá realmente como un instrumento de mejora de la actividad colectiva. Las funciones de la evaluación pueden resumirse, pues, en:
- Incidir en el aprendizaje para favorecerlo.
- Incidir en la enseñanza para contribuir a su mejora.
- Incidir en el currículo para ajustarlo a lo que puede ser trabajado con interés y provecho por los estudiantes.
Nos centraremos aquí, por razones de espacio, en el papel de la evaluación como instrumento de aprendizaje, aunque insistimos en la necesidad de romper con los reduccionismos habituales extendiéndola a la actividad del profesorado y al currículo mismo (Imbernón, 1993, pp. 4-7; Porlán, 1993; Santos, 1993, pp. 23-38; Alonso, Gil Pérez y Martínez Torregrosa, 1996, pp. 15-26).
Conseguir que la evaluación constituya un instrumento de aprendizaje y se convierta en una evaluación formativa supone dotarla de unas características que rompan con las concepciones de sentido común que hemos analizado someramente hasta aquí. Resumiremos a continuación dichas características.
Una primera característica que ha de poseer la evaluación para desempeñar un papel orientador e impulsador del trabajo de los estudiantes es que pueda ser percibida por estos como ayuda real, generadora de expectativas positivas. El profesor ha de lograr transmitir su interés por el progreso de los alumnos y su convencimiento de que un trabajo adecuado terminará produciendo los logros deseados, incluso si inicialmente aparecen dificultades. Conviene para ello una planificación muy cuidadosa de los inicios del curso, comenzando con un ritmo pausado, revisando los prerrequisitos (para que no se conviertan, como a menudo ocurre, en obstáculo), planteando tareas simples, etc. Algunos profesores pueden pensar que ello ha de traducirse en pérdidas de tiempo que perjudicarán a los estudiantes bien preparados, cuyo derecho a avanzar no debe ser ignorado. Pero, en realidad, lo que sucede es todo lo contrario: esta aparente pérdida de tiempo inicial permite romper con la rémora que supone a lo largo del curso la existencia de un núcleo importante de alumnos que «no siguen». Se produce así un progreso global, favorable también para los alumnos mejor preparados. Todo esto, por supuesto, debe ser explicitado para evitar inquietudes y tensiones innecesarias y transmitir, en definitiva, expectativas positivas a todos los alumnos.
Una segunda característica que ha de poseer la evaluación para que pueda desempeñar su función de instrumento de aprendizaje es su extensión a todos los aspectos –conceptuales, procedimentales y actitudinales– del aprendizaje de las ciencias, rompiendo con su habitual reducción a aquello que permite una medida más fácil y rápida: la rememoración repetitiva de los conocimientos teóricos y su aplicación igualmente repetitiva a ejercicios de lápiz y papel. Se trata de ajustar la evaluación –es decir, el seguimiento y la retroalimentación– a las finalidades y prioridades establecidas para el aprendizaje de las ciencias. La evaluación se ajusta, así, a unos criterios explícitos de logros a alcanzar por los estudiantes (Satterly y Swann, 1988, pp. 278-284), al contrario de lo que ocurre con la evaluación atendiendo a la «norma» (basada en la comparación de los ejercicios para establecer los «mejores», los «peores» y el «término medio») a la que habitualmente se ajusta, más o menos conscientemente, gran parte del profesorado.
Por otra parte, no hay que olvidar a la hora de fijar los criterios, que solo aquello que es evaluado es percibido por los estudiantes como realmente importante (Linn, 1987, pp. 191-216; Hodson, 1992, pp. 115-144). Es preciso, pues, evaluar todo lo que los estudiantes hacen: desde un póster confeccionado en equipo hasta los dossiers personales del trabajo realizado. Duschl (1995, pp. 3-14) ha resaltado, en particular, la importancia de estos dossiers o «portafolios», en los que cada estudiante ha de recoger y organizar el conocimiento construido y que puede convertirse –si el profesor se implica en su revisión y mejora– en un producto fundamental, capaz de reforzar, globalizar y sedimentar el aprendizaje, evitando adquisiciones dispersas.
Si aceptamos que la cuestión esencial no es averiguar quiénes son capaces de hacer las cosas bien y quiénes no, sino lograr que la gran mayoría consiga hacerlas bien, es decir, si aceptamos que el papel fundamental de la evaluación es incidir positivamente en el proceso de aprendizaje, es preciso concluir que ha de tratarse de una evaluación a lo largo de todo el proceso y no de valoraciones terminales. Ello no supone –como a menudo interpretamos los profesores y los propios alumnos– parcializar la evaluación realizando pruebas tras períodos más breves de aprendizaje para terminar obteniendo una nota por acumulación sino, insistimos, integrar las actividades evaluadoras a lo largo del proceso con el fin de incidir positivamente en el mismo, dando la retroalimentación adecuada y adoptando las medidas correctoras necesarias en el momento conveniente (Colombo, Pesa y Salinas, 1986, pp. 122-128). Es cierto que cinco pruebas, aunque tengan un carácter terminal –tras la enseñanza de unos determinados temas– es mejor que una sola al final del curso; al menos habrán contribuido a impulsar un estudio más regular evitando que se pierdan todavía más alumnos; pero su incidencia en el aprendizaje sigue siendo mínima, o, peor aún, puede producir efectos deformantes. En efecto, a menudo la materia evaluada ya no vuelve a ser tratada, por lo que los alumnos que superaron las pruebas pueden llegar al final del curso habiendo olvidado prácticamente todo lo que estudiaron los primeros meses, teniendo conocimientos incluso más escasos que quienes fracasaron inicialmente y se vieron obligados a revisar por su cuenta.
Se acentúa así, además, la impresión de que no se estudian las cosas para adquirir unos conocimientos útiles e interesantes, sino para pasar unas pruebas. Es importante a este respecto ser conscientes de las leyes del olvido (Kempa, 1991, pp. 119-128) y planificar revisiones y/o profundizaciones de aquello que se considere realmente importante para que los alumnos afiancen esos conocimientos, aunque ello obligue a reducir el currículo eliminando aspectos que, de todas formas, serían mal aprendidos y olvidados muy rápidamente.
Por último, pero no menos importante, hemos de referirnos a la necesidad de que los estudiantes participen en la regulación de su propio proceso de aprendizaje (Linn, 1987, pp. 191-216; Baird, 1986, pp. 263-282; Jorba y Sanmartí, 1993, pp. 20-30 y 1995, pp. 59-77; Alonso, 1994) dándoles oportunidad de reconocer y valorar sus avances, de rectificar sus ideas iniciales, de aceptar el error como parte del proceso de construcción de conocimientos. Pero esto nos remite a las formas de la evaluación, que abordaremos brevemente a continuación.
Cabe decir, en primer lugar, que una orientación constructivista del aprendizaje permite que cada actividad realizada en clase por los alumnos constituya una ocasión para el seguimiento de su trabajo, la detección de las dificultades que se presentan, los progresos realizados, etc. Es esta una forma de evaluación extraordinariamente eficaz para incidir sobre la marcha en el proceso de aprendizaje, que se produce además en un contexto de trabajo colectivo, sin la distorsión de la ansiedad que produce una prueba individual. Ello no elimina, sin embargo, la necesidad de actividades de evaluación personales que permitan constatar el resultado de la acción educativa en cada uno de los estudiantes y obtener información para reorientar convenientemente su aprendizaje. A tal efecto consideramos muy conveniente la realización de alguna pequeña prueba en la mayoría de las clases sobre algún aspecto clave de lo que se ha venido trabajando. Ello permite:
- Impulsar al trabajo diario y comunicar seguridad en el propio esfuerzo.
- Dar información al profesor y a los alumnos sobre los conocimientos que se poseen, sobre las deficiencias que se hayan producido –haciendo posible la incidencia inmediata sobre las mismas– y sobre los progresos realizados, contribuyendo a crear expectativas positivas.
- Reunir un número elevado de resultados de cada alumno reduciendo sensiblemente la aleatoriedad de una valoración única.
Conviene discutir inmediatamente las posibles respuestas a la actividad planteada, lo que permitirá conocer si la clase está o no preparada para seguir adelante con posibilidades de éxito. Se favorece así la participación de los alumnos en la valoración de sus propios ejercicios y en su autorregulación (Alonso, Gil Pérez y Martínez Torregrosa, 1995b, pp. 5-20). Se puede aprovechar también esta discusión –si se realiza al comienzo de una clase– como introducción al trabajo del día, lo que ayuda a centrar la atención de los estudiantes de una forma particularmente efectiva.
Pese al interés y efectividad de estas pequeñas pruebas, consideramos que los exámenes o evaluaciones más extensos siguen siendo necesarios. Es cierto que el examen es visto a menudo como simple instrumento de calificación siendo criticado a justo título por lo que supone de aleatoriedad, tensión bloqueadora, etc. (Gould, 1982); sin embargo, un examen, o mejor dicho, una sesión de globalización, es también ocasión para que el alumno se enfrente con una tarea compleja y ponga en acción todos sus conocimientos. Por nuestra parte, asumiendo la crítica que lo considera como instrumento exclusivo de calificación, queremos referirnos al papel de las sesiones de globalización como ocasión privilegiada de aprendizaje si se cumplen algunas condiciones.
En primer lugar es necesario que la sesión suponga la culminación de una revisión global de la materia considerada, incluyendo actividades coherentes con un aprendizaje por construcción de conocimientos: desde análisis cualitativos de situaciones abiertas al tratamiento de las relaciones ciencia-técnica-sociedad-ambiente; desde la construcción y fundamentación de hipótesis –más allá de las evidencias de sentido común– a la interpretación de los resultados de un experimento, etcétera.
Asimismo, es necesario que las condiciones de realización de estas actividades globalizadoras sean compatibles con lo que supone una construcción de conocimientos –que conlleva tentativas, rectificaciones, etc.– y, en particular, que los estudiantes no se vean constreñidos por limitaciones de tiempo que solo se compadecen con la simple regurgitación de conocimientos memorizados.
En segundo lugar, es muy conveniente que el producto elaborado por cada alumno en estas sesiones sea devuelto comentado lo antes posible y que se discutan, cuestión por cuestión, las posibles respuestas, las contribuciones positivas y los errores aparecidos, la persistencia de preconcepciones, etc. Los estudiantes, con su producto delante, se mantienen abiertos y participativos como nunca durante estas revisiones, que constituyen actividades de autorregulación muy eficaces. Y es también conveniente, tras esta discusión, solicitarles que rehagan la tarea en su casa con todo cuidado y vuelvan a entregarla. Ello contribuye a afianzar lo aprendido, como puede constatarse en los días siguientes con la realización de pequeños ejercicios sobre los aspectos que hubieran planteado más dificultades.
No podemos detenernos aquí en una descripción detallada de cada uno de los momentos de evaluación a que nos acabamos de referir, ni entrar siquiera a tocar otros aspectos de importancia como, por ejemplo, el tipo de instrumentos destinados a la recogida de información (Geli, 1995, pp. 25-32). Insistiremos tan sólo, para terminar, en que los alumnos han de ver debidamente valoradas todas sus realizaciones, todos sus productos colectivos o individuales –desde la construcción de un instrumento hasta, muy en particular, su cuaderno o dossier de clase– y no solamente aquellas planteadas como pruebas. Se incrementa así la información disponible para valorar y orientar adecuadamente el aprendizaje de los estudiantes y se contribuye a que estos vean reconocidos todos sus esfuerzos con el consiguiente efecto motivador. Se trata, en definitiva, de lograr una total confluencia entre las situaciones de aprendizaje y de evaluación (Pozo, 1992), explotando el potencial evaluador de las primeras y diseñando las segundas como verdaderas situaciones de aprendizaje.
Nos asomaremos ahora al programa pisa con objeto de mostrar su adecuación a esta nueva orientación de la evaluación como instrumento de aprendizaje, así como las limitaciones que ello encuentra debido a la forma en que se presentan sus resultados.
5. Pisa: un programa concebido como instrumento de mejora de la educación
Conviene comenzar señalando que el proyecto pisa no constituye un simple instrumento de constatación, sino que ha sido explícitamente concebido para contribuir a la mejora de la enseñanza, con orientaciones que se apoyan en los resultados convergentes de la investigación educativa de las últimas décadas. Así, para el caso particular de las ciencias, sus documentos señalan:
El programa pisa considera que la formación científica es un objetivo clave de la educación y debe lograrse durante el período obligatorio de enseñanza, independientemente de que el alumnado continúe sus estudios científicos o no lo haga ya que la preparación básica en ciencias se relaciona con la capacidad de pensar en un mundo en el que la ciencia y la tecnología influyen en nuestras vidas. Considera, por tanto, que la formación básica en ciencias es una competencia general necesaria en la vida actual.
Y se precisa seguidamente que la aptitud para las ciencias se define como:
La capacidad para emplear el conocimiento científico para identificar preguntas y obtener conclusiones basadas en pruebas, con el fin de comprender y poder tomar decisiones sobre el mundo natural y sobre los cambios que la actividad humana produce en él (mec, 2005).
De acuerdo con ello, el proyecto pisa evalúa el conocimiento científico a través de tres grandes dimensiones, superando –lo que constituye un primer e importante mérito– el habitual reduccionismo conceptual de las actividades de evaluación ordinarias (Alonso, Gil Pérez y Martínez Torregrosa, 1992, pp. 127-138; Tamir, 1998; Goñi, 2005, pp. 28-31):
- Los procesos o destrezas científicas.
- Los conceptos y contenidos científicos.
- El contexto en el que se aplica el conocimiento científico.
Transcribiremos brevemente cómo se conciben estas tres dimensiones en el programa, lo que permite comprender su orientación.
5.1 Los procesos o destrezas científicas
Por lo que se refiere a los procesos o destrezas científicas, el proyecto pisa identifica cinco procesos científicos y señala, como elemento fundamental, que la evaluación de cada uno de ellos ayuda a entender hasta qué punto la educación científica prepara a los futuros ciudadanos para tomar decisiones sobre los cambios que la actividad humana produce en el mundo natural. Dichos procesos son:
- Reconocer cuestiones científicamente investigables. Este proceso implica identificar los tipos de preguntas que la ciencia intenta responder, o bien reconocer una cuestión que es, o puede ser, comprobada en una determinada situación.
- Identificar las evidencias necesarias en una investigación científica. Conlleva la identificación de las pruebas que se precisan para contestar a los interrogantes que pueden plantearse en una investigación científica. Asimismo, implica identificar o definir los procedimientos necesarios para la recogida de datos.
- Extraer o evaluar conclusiones. Este proceso implica relacionar las conclusiones con las pruebas en las que se basan o deberían basarse. Por ejemplo, presentar a los estudiantes el informe de una investigación dada para que deduzcan una o varias conclusiones alternativas.
- Comunicar conclusiones válidas. Este proceso valora si la expresión de las conclusiones que se deducen a partir de una prueba es apropiada a una audiencia determinada. Lo que se valora en este procedimiento es la claridad de la comunicación más que la conclusión.
- Demostrar la comprensión de conceptos científicos. Se trata de demostrar si existe la comprensión necesaria para utilizar los conceptos en situaciones distintas de aquellas en las que se aprendieron. Esto supone no solo recordar el conocimiento sino también saber exponer la importancia del mismo, o utilizarlo para hacer predicciones o dar explicaciones.
5.2 Los conceptos y contenidos científicos
Por lo que respecta a los conceptos y contenidos se señala que el programa pisa no pretende identificar todos los conceptos que podrían estar asociados a los grandes temas científicos para ser objeto de evaluación, sino que define una serie de temas principales de la ciencia, a partir de los cuales se hace un muestreo seleccionando los contenidos a incluir, según cuatro criterios de relevancia:
- Que aparezcan en situaciones cotidianas y tengan un alto grado de utilidad en la vida diaria.
- Que se relacionen con aspectos relevantes de la ciencia, seleccionando aquellos que con más probabilidad mantengan su importancia científica en el futuro.
- Que sean aptos y relevantes para detectar la formación científica del alumnado.
- Que sean idóneos para ser utilizados en procesos científicos y no que solo correspondan a definiciones o clasificaciones que únicamente deben ser recordadas.
5.3 El contexto en el que se aplica el conocimiento científico
Conviene destacar, por último, la importancia concedida por el proyecto pisa al contexto, tan a menudo ausente en las evaluaciones pero esencial para que la educación científica contribuya a formar ciudadanos preparados para participar en las necesarias tomas de decisiones frente a la actual situación de emergencia planetaria (Comisión Mundial del Medio Ambiente y del Desarrollo, 1988; Tilbury, 1995, pp. 195-212; Vilches y Gil Pérez, 2003 y 2009, pp. 101-122.). El proyecto se refiere aquí a las situaciones y áreas en las que el alumnado tiene que aplicar sus conocimientos científicos, resaltando los contextos donde se aplican y dando prioridad a los que se relacionan con problemas y temas que tienen repercusión en el bienestar humano y precisan la toma de decisiones.
Los espacios de aplicación de las ciencias en el proyecto aparecen agrupados en tres grandes áreas:
- Las ciencias de la vida y la salud.
- Las ciencias de la Tierra y del medio ambiente.
- Las ciencias y el desarrollo tecno-científico.
Atendiendo a todo lo que acabamos de resaltar como elementos básicos de la forma en que el proyecto evalúa el conocimiento científico, podemos afirmar que el tener en cuenta estas tres dimensiones favorece la inmersión en la cultura científica, saliendo al paso de visiones deformadas y empobrecidas de la ciencia y la tecnología (McComas, 1998; Gil Pérez y otros, 2005b, pp. 309-320). Ejemplos de las actividades de evaluación utilizadas en la edición de 2006 siguiendo los criterios enunciados pueden consultarse en ocde (2006).
Una idea central del proyecto pisa es que con el enfoque de la evaluación propuesta –que considera la aplicación del conocimiento científico en vez de la memorización de conceptos– se puede favorecer el desarrollo de una didáctica coherente con los logros a conseguir, por ejemplo resolver problemas que se plantean en la vida real tales como situaciones de viaje, compra, domésticas, económicas, etc., y, en última instancia, mejorar el rendimiento de los estudiantes.
Conviene resaltar que esta estrecha relación entre innovación educativa y evaluación, como aparece en el programa, ha sido reiteradamente puesta de relieve por la investigación (Tamir, 1998; Gil Pérez y Martínez Torregrosa, 2005, pp. 159-182). Muy en particular, los investigadores han llamado la atención sobre la necesidad de acompañar las innovaciones curriculares de transformaciones similares en la evaluación, para contribuir a consolidar el necesario cambio de modelo didáctico (Linn, 1987, pp. 191-216). Porque si la evaluación sigue consistiendo en ejercicios para constatar el grado de retención de algunos conocimientos conceptuales, este será para los alumnos, y gran parte del profesorado, el verdadero objetivo del aprendizaje. Como señala Acevedo (2005, pp. 282-301), las evaluaciones externas, bien planteadas, pueden servir de acicate para orientar la enseñanza de las ciencias hacia las innovaciones de los currículos, reformados en consonancia con las aportaciones de la investigación en didáctica de las ciencias.
El propósito del proyecto pisa es, precisamente, influir en la enseñanza mediante un replanteamiento de la evaluación, favoreciendo al propio tiempo una reflexión sobre los problemas de la educación en una escala internacional y el intercambio de planteamientos, rompiendo el aislamiento de sistemas educativos estancos e impulsando de ese modo las nuevas propuestas didácticas.
Un proyecto como el que nos ocupa se revela, pues, como un instrumento de gran potencialidad para contribuir a la necesaria renovación de la enseñanza de las ciencias y otras áreas de conocimiento. Ahora bien, ¿hasta qué punto un programa de estas características está cumpliendo esta función? Como intentaremos mostrar justificadamente en el siguiente apartado, hasta aquí no ha desempeñado el papel para el que ha sido concebido y debe llegar a desempeñar. Ofreceremos datos correspondientes a España, pero nos consta que la situación es similar en Portugal y todo el ámbito iberoamericano.
6. Un instrumento de mejora de la educación desaprovechado
Una primera condición para que un sistema de evaluación influya sobre la enseñanza es que sea conocido por el profesorado. Cabe, pues, preguntarse, si el profesorado del nivel al que se aplican las pruebas diseñadas por el programa pisa conoce las orientaciones del mismo, las características de las pruebas, lo que se pretende medir con ellas, etcétera.
Un amplio estudio de campo consistente en entrevistar a profesores de ciencias de más de dos docenas de centros de la Comunidad Autónoma de Valencia, y de otro tanto de otras comunidades (Andalucía, Asturias, Canarias, Cataluña, Extremadura, Madrid y País Vasco) nos ha permitido constatar el prácticamente nulo conocimiento que el profesorado tiene sobre los contenidos y las orientaciones de las pruebas utilizadas por el proyecto pisa (Gil Pérez y Vilches, 2006, pp. 295-311). Ello resulta lógico porque, como señalan los entrevistados, ni ha llegado información oficial a los centros, ni se les ha impulsado a acceder a las páginas web que incluyen ejemplos de las pruebas y su fundamentación –que desconocían. Tampoco los medios de comunicación, que se han hecho amplio eco de los resultados de dichas pruebas, han contribuido a dar a conocer su contenido y orientaciones. Y lo mismo puede decirse de la generalidad de los artículos de las revistas especializadas que, con raras y recientes excepciones (Acevedo, 2005, pp. 282-301; Goñi, 2005, pp. 28-31), se han ocupado, en general, de discutir los informes (centrados en el análisis estadístico de los resultados).
En consecuencia, cabe concluir que se está desaprovechando el papel orientador que las evaluaciones trienales –la llevada a cabo el año 2006 concedió una especial atención a los conocimientos científicos– realizadas y proyectadas pudieran y debieran tener sobre el tipo de actividades que se realizan en el aula (Jiménez Aleixandre y otros, 2009). Peor aún, podemos hablar de desorientación provocada por los informes dados a conocer y, muy en particular, por la abundante atención que los medios de comunicación les han prestado.
En efecto, la publicación del informe pisa 2006 ha dado lugar a las mismas abundantes críticas y lamentaciones acerca del fracaso de nuestro sistema educativo –y, en particular, de la educación científica– que provocó el informe de 2003, a causa del lugar que ocupa España en el conjunto de países de la ocde. Nos remitimos, pues, a las consideraciones que entonces hicimos para ayudar a una reflexión reposada y evitar la obnubilación que producen las apariencias (Gil Pérez y Vilches, 2005, pp. 16-19).
Supongamos que en un centro educativo se comparan las notas medias de matemáticas obtenidas en tres grupos-clase distintos y que dichas notas son, respectivamente 4,9; 5,0 y 5,5. ¿Cuál sería nuestra valoración de dichos resultados? ¿Lamentaríamos escandalizados los resultados obtenidos en el primer grupo por quedar detrás de los otros dos? Seguro que no, claro está; nadie con una mínima sensatez diría que reiteradamente puesta de relieve por la investigación (Tamir, 1998; Gil Pérez y Martínez Torregrosa, 2005, pp. 159-182). Muy en particular, los investigadores han llamado la atención sobre la necesidad de acompañar las innovaciones curriculares de transformaciones similares en la evaluación, para contribuir a consolidar el necesario cambio de modelo didáctico (Linn, 1987, pp. 191-216). Porque si la evaluación sigue consistiendo en ejercicios para constatar el grado de retención de algunos conocimientos conceptuales, este será para los alumnos, y gran parte del profesorado, el verdadero objetivo del aprendizaje. Como señala Acevedo (2005, pp. 282-301), las evaluaciones externas, bien planteadas, pueden servir de acicate para orientar la enseñanza de las ciencias hacia las innovaciones de los currículos, reformados en consonancia con las aportaciones de la investigación en didáctica de las ciencias.
El propósito del proyecto pisa es, precisamente, influir en la enseñanza mediante un replanteamiento de la evaluación, favoreciendo al propio tiempo una reflexión sobre los problemas de la educación en una escala internacional y el intercambio de planteamientos, rompiendo el aislamiento de sistemas educativos estancos e impulsando de ese modo las nuevas propuestas didácticas.
Un proyecto como el que nos ocupa se revela, pues, como un instrumento de gran potencialidad para contribuir a la necesaria renovación de la enseñanza de las ciencias y otras áreas de conocimiento. Ahora bien, ¿hasta qué punto un programa de estas características está cumpliendo esta función? Como intentaremos mostrar justificadamente en el siguiente apartado, hasta aquí no ha desempeñado el papel para el que ha sido concebido y debe llegar a desempeñar. Ofreceremos datos correspondientes a España, pero nos consta que la situación es similar en Portugal y todo el ámbito iberoamericano.
6. Un instrumento de mejora de la educación desaprovechado
Una primera condición para que un sistema de evaluación influya sobre la enseñanza es que sea conocido por el profesorado. Cabe, pues, preguntarse, si el profesorado del nivel al que se aplican las pruebas diseñadas por el programa pisa conoce las orientaciones del mismo, las características de las pruebas, lo que se pretende medir con ellas, etcétera.
Un amplio estudio de campo consistente en entrevistar a profesores de ciencias de más de dos docenas de centros de la Comunidad Autónoma de Valencia, y de otro tanto de otras comunidades (Andalucía, Asturias, Canarias, Cataluña, Extremadura, Madrid y País Vasco) nos ha permitido constatar el prácticamente nulo conocimiento que el profesorado tiene sobre los contenidos y las orientaciones de las pruebas utilizadas por el proyecto pisa (Gil Pérez y Vilches, 2006, pp. 295-311). Ello resulta lógico porque, como señalan los entrevistados, ni ha llegado información oficial a los centros, ni se les ha impulsado a acceder a las páginas web que incluyen ejemplos de las pruebas y su fundamentación –que desconocían. Tampoco los medios de comunicación, que se han hecho amplio eco de los resultados de dichas pruebas, han contribuido a dar a conocer su contenido y orientaciones. Y lo mismo puede decirse de la generalidad de los artículos de las revistas especializadas que, con raras y recientes excepciones (Acevedo, 2005, pp. 282-301; Goñi, 2005, pp. 28-31), se han ocupado, en general, de discutir los informes (centrados en el análisis estadístico de los resultados).
En consecuencia, cabe concluir que se está desaprovechando el papel orientador que las evaluaciones trienales –la llevada a cabo el año 2006 concedió una especial atención a los conocimientos científicos– realizadas y proyectadas pudieran y debieran tener sobre el tipo de actividades que se realizan en el aula (Jiménez Aleixandre y otros, 2009). Peor aún, podemos hablar de desorientación provocada por los informes dados a conocer y, muy en particular, por la abundante atención que los medios de comunicación les han prestado.
En efecto, la publicación del informe pisa 2006 ha dado lugar a las mismas abundantes críticas y lamentaciones acerca del fracaso de nuestro sistema educativo –y, en particular, de la educación científica– que provocó el informe de 2003, a causa del lugar que ocupa España en el conjunto de países de la ocde. Nos remitimos, pues, a las consideraciones que entonces hicimos para ayudar a una reflexión reposada y evitar la obnubilación que producen las apariencias (Gil Pérez y Vilches, 2005, pp. 16-19).
Supongamos que en un centro educativo se comparan las notas medias de matemáticas obtenidas en tres grupos-clase distintos y que dichas notas son, respectivamente 4,9; 5,0 y 5,5. ¿Cuál sería nuestra valoración de dichos resultados? ¿Lamentaríamos escandalizados los resultados obtenidos en el primer grupo por quedar detrás de los otros dos? Seguro que no, claro está; nadie con una mínima sensatez diría quede su coherencia con los resultados de la investigación educativa y, por tanto, a su reorientación, si fuera necesario, para que contribuyan al logro de los objetivos planteados. Para el caso de educación científica, en particular, queremos señalar que, en coherencia con los resultados de la investigación en didáctica de las ciencias, es preciso enriquecer aún más el contenido de las pruebas.
La toma en consideración de la naturaleza de la actividad científica y tecnológica (McComas, 1998; Gil Pérez y otros, 2005b, pp. 309-320), así como el desarrollo del modelo de aprendizaje como investigación orientada, fruto convergente de numerosas investigaciones (Gabel, 1994; National Academy of Sciences, 1995; Fraser y Tobin, 1998; Rocard y otros, 2007) permite romper con dichas tradiciones e incluir toda una pluralidad de aspectos como los que recogemos en el cuadro 1, planteado como una red para el análisis del contenido de las pruebas de evaluación (Gil Pérez y Martínez Torregrosa, 2005).
Si analizamos con dicha red los ejemplos de pruebas del proyecto pisa dados a conocer, así como sus presupuestos teóricos, encontraremos una aceptable similitud entre ambas propuestas, aunque es preciso llamar la atención acerca de olvidos fundamentales como es el de la emisión de hipótesis, que encontramos escasamente presente en lo que se ha hecho público del proyecto hasta el momento. Se trata de carencias que deben ser señaladas y corregidas y que afectan también, sin duda, a otras áreas y competencias básicas (Gimeno Sacristán, 2008, pp. 52-55), pero ello no obsta para reconocer el avance que el mismo supone. Para ilustrar sus virtualidades, incluiremos a continuación algunos ejemplos de las pruebas utilizadas en su edición de 2006 (Vilches y Gil Pérez, 2008, pp. 84-88).
8. Ejemplos ilustrativos de las características
de las pruebas pisa
Las pruebas que incluimos en este apartado pueden ser consultadas, como ya hemos indicado anteriormente, en ocde (2006) junto a muchas otras correspondientes a la edición de 2003. Veamos un primer ejemplo:
Como puede constatarse, la correcta realización de un ejercicio como el anterior demanda, sobre todo, razonamiento lógico y tomar en consideración vivencias cotidianas. Sin necesidad ni posibilidad de recurrir a un operativismo ciego, o a conocimientos memorizados acerca del equilibrio térmico, el estudiante puede razonar que no es posible, por ejemplo, que el agua fría alcance una temperatura superior a la del ambiente (lo que excluye la respuesta C); tampoco es verosímil que el café y el agua se mantengan en su temperatura inicial (respuesta B). Quedan como posibles las respuestas A y D, pero la D (igualación con la temperatura ambiente) exigiría bastante más tiempo que los 10 minutos transcurridos. Así, pues, queda la respuesta A como la que mejor indica la temperatura probable del café y el agua mineral.
Que un porcentaje elevado de adolescentes de 15 años no resuelva adecuadamente este ejercicio pone en evidencia, sobre todo, que nuestros estudiantes no están familiarizados con este tipo de actividad, que exige razonamiento en vez de memorización de conocimientos.
La consulta de los ejemplos consignados en pisa muestra otras diferencias con los ejercicios habitualmente propuestos: así, la cuestión anterior acerca de la variación de la temperatura del café y del agua fría, forma parte de un conjunto de tres preguntas correspondientes a una misma situación («Pedro está haciendo obras de reparación en un edificio antiguo…»). No se trata, pues, de preguntas sueltas y descontextualizadas. Podemos apreciar esto en las tres cuestiones siguientes, relacionadas con la acción de fumar, planteadas también en 2006:
Como vemos, se trata de cuestiones que obligan a razonar en torno a una situación de indudable interés –la acción de fumar o dejar de hacerlo– abordando por un lado cómo hacerle frente y, por otro, sus consecuencias. Estas tres cuestiones se completan con otra, explícitamente orientada a conocer, y en alguna medida, provocar, el interés de los estudiantes por profundizar en esta problemática:
Cada una de estas situaciones es comentada con algún detalle dando a conocer lo que se consideran respuestas aceptables, etc. Veremos esto en un último ejemplo particularmente interesante, puesto que plantea las consecuencias ambientales y para la salud de un determinado desarrollo tecnocientífico. Se contribuye así a la formación de los futuros ciudadanos para participar en la toma de decisiones en torno a los problemas socioambientales a los que se enfrenta hoy la humanidad, tal como lo ha solicitado Naciones Unidas a los educadores de todas las áreas y niveles, instituyendo la Década de Educación para el Desarrollo Sostenible para el período 2005-20141.
La cuestión va acompañada de una serie de ejemplos de ventajas y desventajas que pueden ser mencionadas:
9. ¿qué podemos hacer con pisa?
Los ejemplos que acabamos de comentar permiten apreciar que, como ya hemos señalado, un propósito fundamental del proyecto pisa es influir en la enseñanza a través de un profundo replanteamiento de la evaluación. Un replanteamiento que incorpora las dimensiones procedimental y axiológica a la conceptual y rompe con la memorización de conceptos para plantear la aplicación de los conocimientos en situaciones abiertas de interés.
La cuidadosa consideración de aquello que debe ser evaluado resulta esencial, insistimos, para evitar reduccionismos empobrecedores y ha de enfrentarse a tradiciones que sistemáticamente han limitado la evaluación a los aspectos más fáciles de medir. Se trata de algo absolutamente necesario para contribuir a la formación de ciudadanos capaces de participar, con espíritu crítico, en la toma de decisiones acerca de los problemas relacionados con el desarrollo tecnocientífico y para sentir la emoción que provocan los apasionantes desafíos a los que se ha enfrentado, y sigue enfrentándose, la comunidad científica (Bybee, 1997; Gil Pérez y Vilches, 2004, pp. 259-272).
Queremos finalizar insistiendo en la necesidad de dar a conocer los materiales del proyecto pisa al conjunto del profesorado, con la petición explícita y fundamentada de que se analicen cuidadosamente y se considere la conveniencia de utilizarlos como instrumento de evaluación y de enseñanza. Si esto no se produce, no debería extrañarnos que los resultados de las próximas evaluaciones pisa sean semejantes a los obtenidos hasta ahora. El mejor uso que podemos dar al proyecto es, precisamente, facilitar su conocimiento para que desempeñe su papel orientador en la renovación de la enseñanza.
Bibliografía
Abd-El-Khalick, Fouad y otros (2004). «Inquiry in Science Education: International Perspectives», en Science Education, vol. 88, n.º 3.
Acevedo, José Antonio (2005). «timss y pisa. Dos proyectos internacionales de evaluación del aprendizaje escolar en ciencias», en Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, vol. 2, n.º 3. Disponible en: <http://www.apac-eureka.org/revista/Volumen2/Numero_2_3/Acevedo__2005.pdf>, consulta diciembre de 2009.
Alonso, Manuel (1994). La evaluación en la enseñanza de la Física como instrumento de aprendizaje. Tesis doctoral, Universidad de Valencia. Resumen en Alonso, Manuel (1996). Resúmenes de Premios Nacionales a la Investigación e Innovación Educativas, 1994. cide, mec.
— Gil Pérez, Daniel y Martínez Torregrosa, Joaquín (1992). «Los exámenes de Física en la enseñanza por transmisión y en la enseñanza por investigación», en Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, vol. 10, n.º 2.
— (1995a). «Concepciones docentes sobre la evaluación en la enseñanza de las ciencias», en revista Alambique, n.º 4.
— (1995b). «Actividades de evaluación coherentes con una propuesta de enseñanza de la Física y la Química como investigación: actividades de autorregulación e interregulación», en Revista de Enseñanza de la Física, vol. 8, n.º 2.
— (1996). «Evaluar no es calificar. La evaluación y la calificación en una enseñanza constructivista de las ciencias», en Investigación en la Escuela, n.º 30.
Baird, John R. (1986). «Improving Learning through Enhanced Metacognition: A Classroom Study», en International Journal of Science Education, vol. 8, n.º 3.
Bybee, Roger (1997). «Towards an Understanding of Scientific Literacy», en Gräber, Wolfgang y Bolte, Claus (eds.) Scientific Literacy: Anb International Symposium. Kiel: ipn-Institute for Science Education at the University of Kiel.
Carabaña, Julio (2008). «Europeos», en Cuadernos de Pedagogía, n.º 381.
Colombo, Leonor, Pesa, Marta y Salinas, Julia (1986). «La realimentación en la evaluación en un curso de laboratorio de Física», en Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, vol. 4, n.º 2.
Comisión Mundial del Medio Ambiente y del Desarrollo (1988). Nuestro futuro común. Madrid: Alianza.
De Pro, Antonio (2005). «Muchos interrogantes ante los resultados obtenidos en ciencias en el proyecto pisa», en revista Aula de Innovación Educativa, n.º 139.
Duschl, Richard A. (1995). «Más allá del conocimiento: los desafíos epistemológicos y sociales de la enseñanza mediante el cambio conceptual», en Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, vol. 13, n.º 1.
Fraser, Barry J. y Tobin, Kenneth G. (eds.) (1998). International Handbook of Science Education. Londres: Kluwer Academic Publishers.
Gabel, Dorothy L. (ed.) (1994). Handbook of Research on Science Teaching and Learning. Nueva York: McMillan.
Geli, Anna Maria (1995). «La evaluación de los trabajos prácticos», en revista Alambique, n.º 4.
Gil Pérez, Daniel y Vilches, Amparo (2004). «La contribución de la ciencia a la cultura ciudadana», en C&E. Cultura y Educación, vol. 16, n.º 3.
— (2005). «El “escándalo” del Informe pisa», en revista Aula de Innovación Educativa, n.º 139.
Gil Pérez, Daniel y Martínez Torregrosa, Joaquín (2005). «¿Para qué y cómo evaluar? La evaluación como instrumento de regulación y mejora del proceso de enseñanza-aprendizaje», en Daniel Gil Pérez y otros (eds.). ¿Cómo promover el interés por la cultura científica? Una propuesta didáctica fundamentada para la educación científica de jóvenes de 15 a 18 años. Santiago de Chile: Oficina Regional de Educación para América Latina y el Caribe (orealc) / unesco. Disponible en: <http://www.oei.es/decada/libro.htm>.
Gil Pérez, Daniel y otros (eds.) (2005a). ¿Cómo promover el interés por la cultura científica? Una propuesta didáctica fundamentada para la educación científica de jóvenes de 15 a 18 años. Santiago de Chile: orealc / unesco. Disponible en: <http://www.oei.es/decada/libro.htm>.
— (2005b). «Technology as “Applied Science”: A Serious Misconception that Reinforces Distorted and Impoverished Views of Science», en Science & Education, vol. 14, n.os 3-5.
Gil Pérez, Daniel y Vilches, Amparo (2006). «¿Cómo puede contribuir el proyecto pisa a la mejora de la enseñanza de las ciencias (y de otras áreas de conocimiento)?», en Revista de Educación, número extraordinario 1. Disponible en: <http://www.revistaeducacion.mec.es/re2006/re2006_17.pdf>.
Gimeno Sacristán, José (2008). «El poder de un tipo de literatura en educación», en revista Cuadernos de Pedagogía, n.º 381.
Goñi, Jesús M. (2005). «El proyecto pisa: mucho ruido. ¿Dónde están las nueces?», en revista Aula de Innovación Educativa, n.º 139.
Gould, Stephen Jay (1982). La falsa medida del hombre. Barcelona: Bosch.
Hodson, Derek (1986). «The Role of Assessment in the “Curriculum Cycle”: A Survey of Science Department Practice», en Research in Science and Technological Education, vol. 4, n.º 1.
— (1992). «Assessment of Practical Work: Some Considerations in Philosophy of Science», en Science and Education, vol. 1, n.º 2.
Hoyat, Frédéric (1962). Les Examens. París: Institut de l’Unesco pour l’Éducation / Bourrelier.
Imbernón, Francisco (1993). «Reflexiones sobre la evaluación en el proceso de enseñanza-aprendizaje: de la medida a la evaluación», en revista Aula de Innovación Educativa, n.º 20.
Jiménez Aleixandre, María Pilar y otros (2009). Actividades para trabajar el uso de pruebas y la argumentación en ciencias. Santiago de Compostela: Danú.
Jorba, Jaume y Sanmartí, Neus (1993). «La función pedagógica de la evaluación», en revista Aula de Innovación Educativa, n.º 20.
— (1995). «Autorregulación de los procesos de aprendizaje y construcción de conocimientos», en revista Alambique, n.º 4.
Kempa, Richard F. (1991). «Students’ Learning Difficulties in Science. Causes and Possible Remedies», en Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, vol. 9, n.º 2.
Lee, Okhee y otros (2006). «Science Inquiry and Student Diversity: Enhanced Abilities and Continuing Difficulties after an Instructional Intervention», en Journal of Research in Science Teaching, vol. 43, n.º 7.
Linn, Marcia (1987). «Establishing a Research Base for Science Education: Challenges, Trends, and Recommendations», en Journal of Research in Science Teaching, vol. 24, n.º 3.
Lorsbach, Anthony y otros (1992). «An Interpretation of Assessment Methods in Middle School Science», en International Journal of Science Education, vol. 14, n.º 3.
Maiztegui, Alberto y otros (2000). «La formación de los profesores de ciencias en Iberoamérica», en Revista Iberoamericana de Educación, n.º 24.
McComas, William F. (ed.) (1998). The Nature of Science in Science Education. Rationales and Strategies. Dordrecht: Kluwer Academic Publishers.
Ministerio de Educación y Ciencia (2005). Programa pisa. Ejemplos de ítems de conocimiento científico. Disponible en: <http://www.ince.mec.es/pub/index.htm>.
National Academy of Sciences (1995). National Science Education Standards. Washington, dc: National Academy Press. Disponible en: <http://www.nap.edu/readingroom/books/nses/>.
Ocde (2006). Pisa 2006. Marco de la evaluación. Conocimientos y habilidades en ciencias, matemáticas y lectura. Disponible en: <http://www.oecd.org/dataoecd/59/2/39732471.pdf>.
Oei (2008). Metas educativas 2021. La educación que queremos para la generación de los Bicentenarios. Disponible en:<www.oei.es/metas2021/indice.htm>.
Porlán, Rafael (1993). Constructivismo y escuela. Investigación y Enseñanza; Serie Fundamentos. Sevilla: Díada.
Pozo, Juan Ignacio (1992). «El aprendizaje y la enseñanza de hechos y conceptos», en César Coll y otros. Los contenidos en la Reforma. Enseñanza y aprendizaje de conceptos, procedimientos y actitudes. Madrid: Santillana.
Rocard, Michel y otros (2007). Science Education Now: A Renewed Pedagogy for the Future of Europe. European Commission. Community Research. Disponible en: <http://ec.europa.eu/research/science-society/document_library/pdf_06/report-rocard-on-science-education_en.pdf>.
Rudolph, John L. (2005). «Inquiry, Instrumentality, and the Public Understanding of Science», en Science Education, vol. 89, n.º 5.
Santos, Miguel Ángel (1993). «La evaluación: un proceso de diálogo, comprensión y mejora», en Investigación en la Escuela, n.º 20.
Satterly, David y Swann, Nancy (1988). «Los exámenes referidos al criterio y al concepto en ciencias: un nuevo sistema de evaluación», en Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, vol. 6, n.º 3.
Spear, Margaret Goddard (1984). «Sex Bias in Science Teachers’ Ratings of Work and Pupil Characteristics», en European Journal of Science Education, vol. 6, n.º 4.
Tamir, Pinchas (1998). «Assessment and Evaluation in Science Education: Opportunities to Learn and Outcomes», en Barry J. Fraser y Kenneth G. Tobin (eds.) International Handbook of Science Education. Londres: Kluwer Academic Publishers.
Tiana, Alejandro (2008). «Indicadores sobre equidad: una lectura comparativa», en revista Cuadernos de Pedagogía, n.º 381.
Tilbury, Daniella (1995). «Environmental Education for Sustainability: Defining the New Focus of Environmental Education in the 1990s», en Environmental Education Research, vol. 1, n.º 2.
Trumbull, Deborah, Bonney, Rick y Grudens-Schuck, Nancy (2005). «Developing Materials to Promote Inquiry: Lessons Learned», en Science Education, vol. 89, n.º 6.
Vilches, Amparo y Gil Pérez, Daniel (2003). Construyamos un futuro sostenible. Diálogos de supervivencia. Madrid: Cambridge University Press.
— (2007). «La necesaria renovación de la formación del profesorado para una educación científica de calidad», en Revista Tecne, Episteme y Didaxis, n.º 22.
— (2008). «Pisa y la enseñanza de las ciencias», en Cuadernos de Pedagogía, n.º 381.
— (2009). «Una situación de emergencia planetaria a la que debemos y “podemos” hacer frente», en Revista de Educación, número extraordinario. Disponible en: <http://www.revistaeducacion.mec.es/re2009.htm>.
Recursos web
Proclamación de la Década de las Naciones Unidas de la Educación para el Desarrollo Sostenible. Resolución 57/254 aprobada por la Asamblea General de las Naciones Unidas el 20 de diciembre de 2002. Disponible en: <http://www.oei.es/decada/resonu.htm>.
1 Proclamación de la Década de las Naciones Unidas de la Educación para el Desarrollo Sostenible. Resolución 57/254 aprobada por la Asamblea General de las Naciones Unidas el 20 de diciembre de 2002. Disponible en: <http://www.oei.es/decada/resonu.htm>.
|