El Ministerio de Educación comenzó a divulgar hace pocas semanas los resultados del operativo Aprender 2022 llevado a cabo en noviembre del año pasado en casi 4.000 escuelas de todo el país. El primer informe fue presentado por el ministro Jaime Perczyk en la reunión del Consejo Federal de Educación y rápidamente replicado en la prensa. A nivel general, los datos mostraron una marcada recuperación con respecto a la última evaluación, en 2021. Llamó especialmente la atención una mejoría de más de 40 puntos con respecto a los números previos en el área de Lengua, mientras que en Matemáticas este incremento rondó el 6%.
Desde el ministerio destacan que, si bien la recuperación se observa en todos los niveles socioeconómicos, los estudiantes de los sectores de bajos ingresos “proporcionalmente” mejoraron más. Sin embargo, cuando se toman los resultados por tipo de gestión se advierte que las escuelas de gestión privada lograron una recuperación más marcada que las escuelas de gestión estatal. Al respecto, Germán Lodola, responsable del área de Evaluación en el ministerio, explicó: “Aquí hay que tener presente que la matrícula de gestión estatal suele estar mayormente compuesta por chicos de bajos ingresos, y por eso hay una cierta correlación entre sector de gestión y procedencia social […]. Nosotros decimos que la variable que mejor estratifica socialmente el desempeño de los chicos es el nivel socioeconómico, y esto tiende a correlacionarse con el ámbito de gestión público/privado”.
En rigor, al comparar con evaluaciones anteriores puede concluirse que se volvió a la situación de 2018 (última prueba Aprender del nivel primario prepandemia). Es decir que los estudiantes que cursaron 6° grado en 2022, con una trayectoria escolar interrumpida en 2020 y parte de 2021, están en los mismos niveles de aprendizajes que sus pares de 2018, que cursaron los seis años de primaria de manera continua y sin intermitencias significativas. Se trata de una recuperación de aprendizajes extraordinaria y con escasos antecedentes a nivel mundial. Las declaraciones ministeriales –oportunamente reseñadas por los diarios– apuntaron a dos factores para explicar tales resultados: por un lado, la plena recuperación de la presencialidad escolar en 2022 y, por el otro, la aplicación de políticas específicas impulsadas desde Nación como la incorporación de una hora extra en las escuelas de jornada escolar simple y la distribución de libros de lengua y matemáticas.
Varios aspectos de la evaluación y de la comunicación ministerial suscitaron críticas o reparos desde voces autorizadas.
Varios aspectos de la evaluación y de la comunicación ministerial suscitaron críticas o reparos desde voces autorizadas. En primer lugar, surgieron dudas con respecto a los aspectos técnicos del operativo, ya que por primera vez se llevó a cabo una evaluación muestral de los estudiantes de 6° grado (la única experiencia similar databa de 2016 y se había realizado entre estudiantes de 3° grado). Las pruebas Aprender de 2016, 2018 y 2021 se diseñaron y aplicaron en formato censal. Por lo tanto, para que los resultados sean válidos a los fines de las comparaciones, es un requisito excluyente que la muestra esté confeccionada de manera rigurosa. Hasta el momento ese punto no ha sido adecuadamente informado por los responsables de la secretaría de Evaluación e Información Educativa (recomiendo el intercambio que hubo en Twitter entre Germán Lodola y Alejandro Ganimian, especialista en políticas educativas y análisis cuantitativo y profesor en la Universidad de Nueva York).
En segundo lugar, las interpretaciones del propio Perczyk acerca de los motivos de la mejora en los indicadores recibieron objeciones de diferente tipo. Por una parte, varios especialistas le recordaron al ministro que las evaluaciones estandarizadas no son herramientas adecuadas para medir el impacto de medidas puntuales como la extensión de la jornada escolar o la entrega de libros. Por otra parte, se advirtió que difícilmente la implementación de la hora extra pueda considerarse un factor relevante ya que su aplicación comenzó a mediados del año 2022, de manera paulatina y bastante dispar en las distintas provincias. A pesar de tales objeciones, varios funcionarios provinciales replicaron con entusiasmo las explicaciones del ministro nacional sin contemplar la situación de sus propias jurisdicciones. Sin duda, el caso más desopilante fue el de la ministra de Catamarca, quien celebró el efecto de la jornada extendida cuando su implementación había comenzado apenas diez días antes del operativo de evaluación.
En tercer lugar, un aspecto que ha tenido poca prensa es la falta de publicación de las bases de microdatos. Esto impide cualquier análisis por fuera del informe elaborado por la secretaría de evaluación dependiente del ministerio. En consecuencia, jurisdicciones como la Ciudad Autónoma de Buenos Aires, que tienen cuadros técnicos para revisar los datos y presentar informes propios, por ahora no han podido hacerlo. De la misma manera, cualquier ONG o particular interesado tiene impedido el acceso a esa información, al menos por ahora (algo que no ocurrió en su momento cuando se presentaron los resultados de las Aprender 2021). Estas desprolijidades en la divulgación de datos atentan contra la confianza necesaria para fortalecer las herramientas de medición y evaluación educativas.
Evaluar a los que evalúan
Quiero detenerme entonces en el análisis de dos cuestiones imprescindibles para la evaluación de la educación: el funcionamiento del Consejo Federal de Educación y la historia de las pruebas estandarizadas en nuestro país. Para quienes no siguen de cerca el tema educativo, copio una breve definición del CFE proporcionada por Bing: “El Consejo Federal de Educación es un organismo que tiene como objetivo coordinar la política educativa en todo el territorio argentino. Está compuesto por el ministro de Educación de la Nación y los ministros o responsables de las áreas educativas de cada una de las provincias y de la Ciudad Autónoma de Buenos Aires. El Consejo se reúne periódicamente para discutir y acordar políticas educativas comunes, establecer criterios y lineamientos para la elaboración de planes y programas educativos, y coordinar la implementación de políticas nacionales en el ámbito provincial”.
Fue en ese ámbito donde se tomaron decisiones cruciales durante la pandemia, como cerrar las escuelas y, meses más tarde, aprobar protocolos de regreso a la presencialidad (el primer protocolo era tan estricto que prácticamente requería la desaparición del COVID para que los chicos volviesen a tener clases). Las reuniones del Consejo, en principio, no deberían estar vedadas al público. Sin embargo, es poco y nada lo que nos llega de los debates que ocurren (o imaginamos que ocurren) en relación con la educación de nuestros hijos. El artículo 9 del reglamento vigente estipula que “cada miembro de la Asamblea tiene derecho a un voto, que deberá ser nominal y fundado. […] Los miembros del Consejo pueden abstenerse de votar, debiendo fundar su decisión”. En los hechos, lo único accesible para el público general son las resoluciones de este órgano. Desconocemos cuáles son los fundamentos de la mayoría de las decisiones y cuál es la evidencia que orienta sus acciones. Ni siquiera está disponible la agenda de reuniones y el temario correspondiente.
Desconocemos cuáles son los fundamentos de la mayoría de las decisiones y cuál es la evidencia que orienta sus acciones.
En noviembre del año pasado, como representante de la red de Padres Organizados, firmé una carta junto con varios integrantes de la Coalición por la Educación solicitando al ministro Perczyk que las sesiones del CFE fuesen “abiertas a la asistencia de público, filmadas, archivadas y puestas a disposición de la ciudadanía sin restricciones”, de la misma manera que ocurre con las sesiones de las cámaras del Congreso Nacional. La respuesta ministerial se limitó a señalar que las resoluciones eran de acceso irrestricto. En efecto, las resoluciones están disponibles para su consulta, pero no figuran allí ni las argumentaciones ni los fundamentos ni las eventuales disidencias. Así, la resolución que avaló el operativo de evaluación de las escuelas primarias para el año 2022 sólo traza consideraciones generales: ya que los resultados obtenidos de la evaluación Aprender 2021 dieron cuenta de un deterioro en los desempeños en las áreas evaluadas, “se consideró necesario obtener una medición intermedia entre los operativos censales que afectan al nivel primario en el período 2021-2023, mediante una nueva evaluación a implementarse en 2022, a fin de evaluar si se registran mejoras en dichos desempeños en el contexto educativo actual de presencialidad plena, acompañado por la implementación de programas nacionales y jurisdiccionales destinados a la intensificación de la enseñanza y a la provisión de recursos pedagógicos”.
La resolución, con fecha del 26 de agosto de 2022, no indica los montos requeridos para la realización del operativo. Tampoco explicita de dónde se obtendrán esos recursos extraordinarios para llevar a cabo el operativo apenas tres meses después. Es realmente llamativo que, en un contexto de recortes varios y de “manta corta”, se resuelva costear un operativo de evaluación cuya utilidad no ha quedado demostrada, al menos en lo que al sistema educativo se refiere. Lo que sí parece evidente es el provecho que sacaron varios funcionarios nacionales y provinciales que raudamente enviaron gacetillas a los medios para jactarse de los logros obtenidos y dar vuelta la página del daño provocado por el prolongado cierre de las escuelas.
[ Si te gusta lo que hacemos y querés ser parte del cambio intelectual y político de la Argentina, hacete socio de Seúl. ]
El segundo tema que quiero plantear para cerrar la nota es la relación de nuestro sistema educativo con las evaluaciones estandarizadas. Ahí quizás podemos quedarnos con la sensación del vaso medio lleno, pero sólo para intentar avanzar en las materias pendientes. Si comparamos con otros países de la región, el historial argentino de operativos de evaluación de los aprendizajes es relativamente reciente, pero sobre todo bastante caótico. Las primeras pruebas se tomaron en la década de 1990 en el marco de la reforma educativa impulsada por el gobierno del presidente Menem. Las ONE, Operativos Nacionales de Evaluación, comenzaron a aplicarse en 1993 de manera anual hasta el año 2000.
A partir de ahí la frecuencia se modificó: se realizó una evaluación en 2002 y se decidió que desde 2003 se realizarían operativos muestrales cada dos años. Pero en 2010 otra vez se cambió la periodicidad y la cobertura, con pruebas censales que se realizarían cada tres años. Además, en 2005, ya se habían introducido cambios en el diseño de la prueba que volvieron imposible la comparación con las pruebas anteriores. Aunque no generó tanto revuelo como la manipulación de las estadísticas del INDEC, varios especialistas cuestionaron fuertemente esas alteraciones en la frecuencia y modalidad de las evaluaciones y la falta de acceso a la información que recababan los operativos. No sólo se dejó de comunicar los resultados a nivel provincial, sino que dejó de diferenciarse las escuelas de gestión estatal de las escuelas de gestión privada. Y los informes se entregaban con retrasos notorios, de entre dos y tres años.
Avances y asuntos pendientes
Frente a este panorama bastante caótico y de casi nula transparencia, el presente parece más auspicioso. Desde 2016 se introdujeron varias modificaciones sustanciales: las pruebas Aprender reemplazaron a las ONE y estuvieron acompañadas de una clara voluntad de divulgación de resultados y de ordenamiento sobre su periodicidad. Y, a pesar del cambio de gobierno a finales de 2019, esa política se sostuvo. En la columna de logros podemos apuntar que, a excepción del 2020, las pruebas Aprender se realizaron con regularidad y se instaló una cultura de información y divulgación de datos desagregados que permiten un análisis pormenorizado, al menos a nivel jurisdicción, de los aprendizajes en relación con distintas variables (como el nivel socioeconómico, el ámbito de escolarización, el tipo de escuela, etc.). Sin embargo, resta avanzar bastante todavía.
Desde el punto de vista institucional es necesario reabrir el debate acerca del grado de autonomía que necesita la agencia responsable del diseño, aplicación y análisis de las pruebas estandarizadas. Este debate ya fue saldado hace tiempo en varios países de la región como Chile, Uruguay o Colombia con la creación de institutos de evaluación autárquicos, que cuentan con un presupuesto propio y cuyo personal está constituido por técnicos de carrera no sujetos a los vaivenes políticos.
Es necesario reabrir el debate acerca del grado de autonomía que necesita la agencia responsable del diseño, aplicación y análisis de las pruebas estandarizadas.
En lo que se refiere a la relación con la ciudadanía, hay al menos un par puntos que deberían discutirse en pro de la transparencia y la confianza que deben acompañar los ejercicios de evaluación. Por un lado, las escalas con las que se elaboran los informes no son de fácil interpretación y tienen discrepancias con evaluaciones similares que se aplican a nivel regional, puntualmente con las evaluaciones realizadas por UNESCO. Cuando se comparan los rendimientos, los chicos argentinos tiene peor desempeño que sus pares de otros países latinoamericanos. ¿A qué se debe esa disparidad? ¿A los contenidos curriculares que definen el diseño de las evaluaciones? ¿Nuestros chicos aprenden menos porque se les enseña menos? Por otro lado, ¿cómo se comunica a la comunidad educativa el resultado de estas evaluaciones?
Parece obvio que la información debería servir para la mejora y, fundamentalmente, para apuntalar a las escuelas que tienen peores indicadores. Y que de ninguna manera se trata de exponer o castigar a docentes y directivos por el desempeño de sus estudiantes. Al mismo tiempo, no podemos desconocer que las intervenciones precisas y el trabajo articulado son cruciales para revertir situaciones de deterioro o fracaso en los aprendizajes. Sin embargo, no pocas veces hemos escuchado de parte de los funcionarios responsables de la política educativa que el principal predictor de los niveles de aprendizajes es el nivel socioeconómico de las familias. Esa declaración es casi una confesión de que la escuela ha desistido de su función igualadora de oportunidades. Si esto es así, el “efecto cuna” es una condena irreversible.
Si te gustó esta nota, hacete socio de Seúl.
Si querés hacer un comentario, mandanos un mail.