Profesores de los Andes cuestionan los resultados de las pruebas Saber
En un documento señalan que el gobierno no es
transparente a la hora de informar sobre cómo Colombia logró mejorar tantísimo
de un año para otro.
A principios de marzo, se conocieron los resultados de las pruebas
Saber 2016 en las que se evaluaron los conocimientos en Matemáticas y Lenguaje
de 2.388.110 estudiantes de todo el territorio.
El Ministerio de Educación (MEN) confirmó en ese momento, que
los tres grados evaluados (tercero, quinto y noveno), obtuvieron los puntajes
más altos registrados en la historia de estas evaluaciones estatales: un
promedio general de 300 puntos sobre 500.
Ahora, los docentes de la
Facultad de Educación de la Universidad de los Andes, Andrés Molano, Diana Rodríguez
Gómez y Hernando Bayona, cuestionan hasta qué punto estos resultados son
transparentes y reflejan la realidad educativa del país.
Semana Educación recoge sus consideraciones en este documento al
que tuvo acceso en exclusiva y que fue editado para responder a las exigencias
editoriales de este medio.
De acuerdo con los resultados de estas evaluaciones estatales,
el desempeño escolar ha mejorado considerablemente: entre 2015 y 2016, los
resultados cambiaron en un rango de 0.05 a 0.21 en desviaciones estándar.
Además, según el Icfes, los resultados sugieren que “en promedio, los colegios
del sector oficial mejoraron más que los privados”.
Nuestro análisis confirma la conclusión general del Icfes pero
también revela que, si bien los resultados del sector público -que representa
cerca del 81 % de la matrícula- son alentadores, si se compara con los que
obtuvo el sector privado, todavía existen brechas de equidad muy acusadas en
nuestro sistema educativo.
Pero entonces, ¿qué mecanismos de la política pública explican
este incremento en los resultados de la prueba Saber?
El programa de créditos condonables Ser Pilo Paga puede llegar a
impactar la educación si se asume que los jóvenes de básica y secundaria
perciben la iniciativa como una oportunidad real de acceso a la educación
superior. Eso naturalmente genera un cambio en el esfuerzo individual de
estudiantes y profesores, lo que podría estar moviendo los resultados. Sin
embargo, vale la pena preguntarse si estos cambios son producto de una mejora
en la calidad de la educación.
Por otro lado, y centrándonos en el programa de becas para la
excelencia docente, hasta el momento el país no cuenta con evidencia que
demuestre los efectos de esta estrategia en el aprendizaje de los estudiantes.
Existen limitaciones al interior de las Facultades de Educación que impiden una
traducción directa de lo aprendido a las prácticas cotidianas en el aula.
A partir de 2012 se implementó el Programa Todos a Aprender
(PTA) en cerca de 3.000 establecimientos educativos oficiales de bajo
rendimiento para mejorar los desempeños de estudiantes de primaria en lenguaje
y matemáticas. Pero aunque suene muy bien en el papel, el PTA no es una
explicación suficiente para el cambio en los promedios nacionales de la prueba
Saber. La cantidad de casos en esta área es demasiado pequeña para lograr
empujar todo el promedio nacional.
Por último, tenemos el Índice Sintético de Calidad Educativa
(Isce) que, por un lado, brinda información de progreso a la comunidad
educativa para así orientar sus planes de mejoramiento y, por otro, otorga
incentivos económicos al personal docente y administrativo de las escuelas que
alcanzan el mayor progreso. En 2016 el gobierno otorgó cerca de 78.000 millones
de pesos a 869 escuelas.
Si bien es posible que estos estímulos monetarios motiven a
algunos docentes a mejorar sus prácticas, hay evidencia de que este tipo de
estímulos genera una presión adicional. Este análisis no descarta la
posibilidad de que el cambio en los resultados esté motivado por este mecanismo
que prioriza los resultados sobre el bienestar de la comunidad educativa.
Conclusiones
Desde nuestro punto de vista, si bien no desechamos que de
manera conjunta los cuatro programas mencionados puedan explicar el cambio, sin
procesos de evaluación rigurosos que combinen metodologías cualitativas y
cuantitativas de evaluación de impacto para dar cuenta de las experiencias de
los estudiantes y los docentes al enfrentarse a la prueba, los resultados
pierden su potencial para informar el diseño e implementación de la política
educativa en Colombia.
Aunque arrancamos asumiendo que los resultados de la prueba son
válidos, presentamos razones para cuestionar los incrementos mencionados y
requerimos transparencia en la entrega de los documentos técnicos que
garanticen la confiabilidad, validez y comparabilidad de los resultados.
No hay comentarios:
Publicar un comentario