Nota del editor: El texto original fue publicado en el blog Distancia por tiempos.
Por ser de interés general, reproducimos aquí el artículo.
Desde luego, quien se opone a la reforma educativa por principio… jamás se convencerá de sus virtudes. Ante la fe cualquier acto de persuasión fracasa.
Gilberto Guevara Niebla
Como era de esperarse, una asociación privada se sintió aludida por mi artículo “El (falso) debate sobre PLANEA 2016” y respondió con su estilo acostumbrado: airada, superficial y propensa, como los malos toreros, al espectáculo pero no al arte. Ni hablar: es lo que hay, dicen los españoles.
El texto de marras se resume en que la decisión sobre PLANEA 2016 “fue un cambio de reglas repentino”; cita al INEE para introducir motivos presupuestales y termina conjeturando razones políticas. Ninguna de las tres afirmaciones se sostiene en la verdad pura y dura de los hechos. Pero lo más lamentable, intelectual y moralmente, es que la reacción eluda el planteamiento de fondo: la periodicidad de las distintas familias de evaluaciones de PLANEA y su relevancia para el objetivo central: elevar la calidad de la educación.
Pues bien, como diría Jack el Destripador, vamos por partes.
A estas alturas debiera ser innecesario reiterar que existe un calendario de evaluaciones para 2016 y otro hasta 2020 y que aparecen en la página del INEE; en el primero de ellos se contemplan 14 evaluaciones en total, entre ellas PLANEA, y en el boletín de prensa #40 del INEE, de diciembre de 2015, se señala que éste “y la SEP realizarán de manera conjunta las evaluaciones de PLANEA para alumnos de sexto de primaria y de tercero de secundaria”, lo que evidentemente, para cualquiera que sepa cómo se diseñan, formulan y ejecutan las políticas públicas, supone un trabajo previo conjunto, coordinado y escrupulosamente respetuoso entre ambas instituciones. De hecho, citando la versión estenográfica –no las notas de prensa- de la conferencia que dieron los consejeros del INEE, su presidenta, Sylvia Schmelkes, es clara:
Y respecto a la evaluación de los niños, efectivamente este año la Secretaría de Educación Pública ha decidido que no habrá un Planea tradicional en el sentido de que haya una evaluación externa que recoja la información y la procese; este año más bien lo que se hará es entregar la prueba a cada una de las escuelas para que las escuelas la apliquen y la califiquen y la utilicen internamente. A nosotros nos parece que esta es una decisión hasta cierto punto sensata porque los resultados de los niños no cambian de un año para otro, tardan mucho en modificarse los resultados de aprendizaje de los niños; a nosotros nos parece que tenemos la evaluación externa de la rendición de cuentas cada dos años que es suficiente, y por eso este año va a ser una evaluación con estas características.
Pregunta: Pero ¿porqué si ustedes habían dicho que iba a ser cada año?
Sylvia Schmelkes: No habíamos definido eso.
Como se puede observar fácilmente, salvo en la imaginación febril de algunos, no hay por ningún lado otras motivaciones para hacer este año una de las modalidades de PLANEA que las ya dichas por la SEP y el INEE, y así se hará en el mes de junio.
El segundo aspecto tiene que ver, veámoslo con toda honestidad intelectual, con la naturaleza real de los esquemas de evaluación de este tipo, algo que algunos eluden graciosamente.
La OCDE ha reconocido que puede haber pruebas con distinta periodicidad siempre y cuando sean formativas, es decir, de uso pedagógico para el maestro (PLANEA 2016), no acumulativas o punitivas, principio que correctamente elimina el elemento de suma visibilidad de las pruebas anuales, y que fue suprimido, por ejemplo, en la nueva Ley de EEUU porque después de 15 años de pruebas y pruebas de alto impacto no se mostró ninguna correlación determinista, ni tampoco favoreció la mejora escolar. Argumentando en sentido inverso, se dice que la información generada por las pruebas anuales constituye un “bien público”. No es necesariamente correcto, entre otras razones porque las pruebas anuales son “imperfectas”, es decir, acarrean información pedagógicamente errónea; y porque el uso de la información una vez disponible puede surtir efectos contraproducentes, es decir, cuando las autoridades utilizan dicha información para premiar o castigar injusta o inadecuadamente a niños, maestros o escuelas, les hacen un daño aduciendo que la información es un bien público. Cuando la información no es correcta y se publica como tal, el bien público en realidad es lo opuesto porque cuando la información es utilizada para “estigmatizar” o “señalar a ciertos grupos de niños como deficientes” se les condena de antemano al fracaso social. La evidencia académica al respecto es concluyente.
Las pruebas estandarizadas de rendimiento académico que se utilizan para evaluar la calidad y el progreso educativo de un país, tomar decisiones de política educativa y rendir cuentas a la sociedad, inician –a nivel mundial– en el siglo pasado, en los años sesenta, como aplicaciones a una muestra de alumnos. Sin embargo, fue hasta el año 2000 con la primera prueba PISA, que los gobiernos pusieron atención a los resultados de las evaluaciones del logro.
A partir del acto del congreso de EE.UU. denominado No Child Left Behind, en 2001 se registró un cambio en el propósito diagnóstico y formativo de las evaluaciones de aprendizaje a las evaluaciones de gran escala, convirtiéndose además en un acto de rendición de cuentas. Si bien su objetivo era establecer estándares de desempeño para la rendición de cuentas e incrementar sus puntuaciones en las pruebas estandarizadas de aplicación censal anual (y cerrar las brechas educativas entre los grupos raciales), se condicionaron los recursos federales de las escuelas a los resultados de aprendizaje obtenidos (Linn, Baker y Betebenner, 2002; Koretz, 2010) y se volvió otra cosa.
A nivel internacional, la rendición de cuentas de la evaluación de logro ha adquirido preponderancia debido a la presunción de que una mejor educación traerá un mayor desarrollo económico y una menor desigualdad social, algo que incluso también ya está a discusión así como a la creencia de los gobernantes y de un sector de la sociedad de que la exposición pública de los resultados educativos sirven como “motor” o incentivo por sí mismo para el mejoramiento de la calidad educativa y como exigencia creciente de la sociedad para conocer los resultados educativos por parte de los programas de gobierno A esta exigencia, otros países empezaron a asociar consecuencias de mayor impacto a los resultados de las evaluaciones estandarizadas, tales como el otorgamiento de estímulos económicos y laborales a los maestros, a las escuelas y a los estudiantes con mejores puntuaciones o inclusive, la amenaza de cerrar planteles que no presenten una mejora significativa.
A diferencia de las evaluaciones diagnósticas (PLANEA 2016), las evaluaciones de logro estandarizadas que se diseñan para la rendición de cuentas (PLANEA 2015) son muy susceptibles de mostrar incrementos en sus resultados que no son producto de un mejor aprendizaje, sino del fenómeno social conocido como corrupción de la medida (Campbell, 1975) que trae como consecuencia un incremento en los resultados. Diversos investigadores se han dedicado a estudiar las razones y mecanismos que hacen que los resultados presenten estas inflaciones (Koretz, Linn, Dunbar y Shepard 1991: Heubert y Hauser, 1999, Koretz, 2005; Holcombe, Jennings y Koretz, 2012 por mencionar algunos). La llamada “Ley de Campbell”, por ejemplo, que afirma que “entre más se utilice cualquier indicador social cuantitativo para tomar decisiones sociales, más sujeto estará a las presiones de corrupción y será más propenso a distorsionar y corromper los procesos sociales que pretende monitorear” (Campbell, 1975), sugiere que no es necesario asociar a las mediciones estímulos de cualquier naturaleza para que ésta tienda a corromperse; basta con que haya un interés público del indicador y que éste aparezca con suficiente frecuencia en los medios de comunicación.
Por lo tanto, las pruebas de logro con funciones de rendición de cuentas se consideran evaluaciones de alto impacto porque tienden a responsabilizar a instituciones (autoridades federales, locales, escuelas, etc.) y a las personas (directores y docentes) de los resultados de aprendizaje de los estudiantes; por ende, cuando se rinden cuentas públicas, el prestigio social de las instituciones y personas “responsables” de los bajos resultados educativos se ponen en entredicho (Ravela, 2006). Esta situación genera incentivos para que se “inflen” los resultados de las evaluaciones a través de una gran variedad de mecanismos, algunos muy obvios y otros más sutiles.
Ejemplos en el mundo abundan, pero para seguir con los EE.UU. se encuentra el caso del Kentucky Instructional Information System que mostraba grandes ganancias anuales en las puntuaciones de los estudiantes, supuestamente debido al sistema de altas consecuencias asociadas a las evaluaciones, que no coincidían en magnitud con los resultados del Programa Nacional del Progreso Educativo (Koretz y Barron, 1998). Recordemos también otro caso en un país más cercano culturalmente a México como es Chile donde se creó la prueba SIMCE con el fin de medir el nivel de aprendizaje y para que los docentes identificaran fortalezas y debilidades de sus estudiantes, que después fueron utilizados como indicadores para la evaluación de docentes y para ranking de escuelas. Fueron tantos los efectos negativos asociados que grupos de estudiantes y académicos chilenos emprendieron en 2013 la campaña “Alto al SIMCE” (Pino, 2014) y la presidenta Michelle Bachelet solicitó un análisis técnico para evaluar su posible desaparición.
Como puede verse, en todas partes hay un debate racional y razonable sobre estos temas. En México, al parecer, todavía no, ¿por qué? En mi opinión, porque toda cultura democrática la protagonizan sus distintos actores y es entre todos ellos (nosotros) que se va construyendo una conversación pública, que articula y sobre todo dota de sentido -insisto: dota de sentido- a la política, no a la cólera, sino a esa política que, como decía Max Weber, mueve los hilos de la historia. Eso es lo que falta cuando se discute con algunos la reforma educativa: una conversación pública inteligente, de altura, sofisticada, que realmente mueva conciencias en torno a la importancia de la educación, y no el ruido que dificulta discutir lo verdaderamente relevante.
En cualquier caso, PLANEA se aplicará en sus distintas modalidades, será una prueba sumamente valiosa para evaluar los logros de escuelas y estudiantes, y servirá para fortalecer el avance de una reforma educativa que se está instrumentando con una energía, decisión y claridad inéditas en el México de las últimas décadas.
Subsecretario de Planeación y Evaluación de Políticas Educativas de la SEP.