Cuestionario de FARO no fue revisado por la ministra, abogados ni el Consejo Superior de Educación, confirma el MEP

Datos sensibles recopilados se eliminarán por una posible vulneración a la protección de datos personales de los alumnos. Costo de los formularios de preguntas fue de ¢280 millones

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

El polémico cuestionario de las pruebas FARO que se le aplicó a los estudiantes de quinto grado y exigía más 600 respuestas, incluyendo algunas de índole personal, no fue revisado por la ministra de Educación, Guiselle Cruz, ni por ningún abogado para verificar, antes de su aplicación, que el tipo de preguntas no representaran una vulneración a la protección de datos personales de los alumnos. Tampoco fue revisado por el Consejo Superior de Educación (CSE).

Así lo asegura Melania Brenes, viceministra académica del Ministerio de Educación Pública (MEP), quien dio una entrevista a La Nación para detallar lo ocurrido con el cuestionario Factores Asociados, que contenía preguntas sensibles sobre el contexto socioeconómico del alumno, con las que pretendían identificar variables que podrían incidir en el rendimiento de los estudiantes en las materias evaluadas (Español, Matemáticas y Ciencias) en las pruebas Fortalecimiento de Aprendizajes para la Renovación de Oportunidades (FARO).

¿La ministra o usted sabían del contenido de las preguntas que se aplicaron?

“Es realmente un tema tan técnicamente específico que no es un área en que ella (la ministra) esté velando porque ella tiene equipos técnicos en los que se confía. Tenemos personas en diferentes áreas, direcciones que tienen responsabilidad de velar por la calidad técnica de un enfoque. En mi caso, yo sí estuve en el seguimiento total de la construcción de las pruebas y conocí a nivel de tabla de especificaciones el recuento de los diferentes factores que se querían evaluar, pero más propiamente una cuestión técnica tan específica como de un instrumento, a ese nivel de revisión no pueden llegar las autoridades ministeriales. Ese es un tema de función operativa que se sale de las posibilidades que nosotros tenemos de revisión de elementos técnicos. Hay un equipo que uno confía”, reiteró Brenes.

Se le consultó, entonces, si un abogado o especialista revisó el contenido de las preguntas para cerciorarse de que no representaran una posible vulneración a la protección de datos personales de los alumnos, tal como lo afirmó la misma ministra, en un oficio enviado este sábado a los 27 directores regionales, en el cual les ordenó de manera “inmediata procedan con la eliminación de esos formularios, sin ningún tratamiento adicional de la información”.

Ese procedimiento fue de los que hizo falta realizar, no se revisó por esa parte, no se estila, hasta el día de hoy, realizar este proceso dentro de las acciones metodológicas establecidas. Además, porque esto es un proceso absolutamente nuevo, nunca se había aplicado un cuestionario de esa naturaleza que nos permita explicar resultados y, en ese sentido, es parte de las situaciones técnicas que son una lección aprendida”, manifestó Brenes quien agregó que el costo de aplicar el cuestionario de Factores Asociados fue de ¢280 millones.

Sin revisión del CSE

La funcionaria agregó que el cuestionario tampoco fue revisado por el Consejo Superior de Educación, argumentando que no es algo que le corresponde a ese órgano; explicó que ellos actúan a nivel de política educativa, en este caso, lo que aprobaron fue la realización de las pruebas Fortalecimiento de Aprendizajes para la Renovación de Oportunidades (FARO), a inicios de 2019, como pruebas nacionales de evaluación de habilidades y aprendizajes.

Según dijo, son los profesionales técnicos los que deben velar por la aplicación, de manera idónea, del instrumento.

“Esa no es una función del Consejo Superior de Educación. Hay varias capas, se construye un proceso donde el Consejo las aprueba, la ministra los respalda y es a través de sus equipos técnicos que se da este proceso evaluativo; cae capa sobre otra capa, que es la gestión del día a día; cae sobre mí en términos de ligar que las pruebas tengan una articulación con el currículum, con los estudiantes, con otras direcciones que también están vinculadas y una tercera capa que es el personal técnico que aterriza la medición los instrumentos. A ese nivel de desarrollo de la política educativa el Consejo no llega, ni tiene la función, a no ser que se lo demanden”, declaró.

Brenes explicó que el cuestionario fue elaborado por el equipo de la Dirección de Gestión y Evaluación de Calidad quien, hasta ayer, fue liderado por el funcionario Pablo Mena, quien renunció tras las críticas suscitadas.

Este equipo, agregó, está compuesto por expertos en áreas específicas y también en evaluación del aprendizaje. Dentro hay un grupo de asesores que tenían la tarea de desarrollar el test con procesos de investigación y definición de otros factores que se han utilizado en evaluaciones a nivel internacional.

“Destacan una tabla de requerimientos en donde todos estos factores externos al estudiante se sopesan para poder explicar precisamente cómo es que un estudiante se desempeña frente una prueba. No fue desarrollado por una encuestadora ni nadie externo al equipo técnico de la Dirección de Gestión y Evaluación de la calidad”, manifestó Brenes.

Sobre la cantidad de preguntas y tiempo que tomó a los alumnos realizar el test, más de cinco horas, agregó que en 2019 se había hecho un plan piloto de este cuestionario, pero que, en ese entonces, no estaba presente la pandemia, por lo que el instrumento se tuvo que ajustar agregándole preguntas relacionadas con la educación durante la emergencia sanitaria. Agregó que más bien eran más preguntas las que se iban a realizar, pero que hubo que cortarlo. Al final, se aplicaron cuatro cuestionarios con 93 preguntas y 621 ítems.

Necesidad de preguntas socioeconómicas

Brenes defendió la necesidad de que para explicar el desempeño de los estudiantes en las pruebas FARO se tenían que conocer los factores externos que influyen en el desempeño de los estudiantes, incluidos cómo vive la familia, si hay apoyo en la educación por parte de los padres o encargados, cómo imparte el docente la materia y qué apoyos educativos tiene.

El hacer el cuestionario permitía, según dijo, obtener una explicación de dónde están las mejores condiciones y cuáles son las mejores condiciones para aprender.

“Esto nos hubiera permitido definir un escenario de buenas prácticas y de mejores condiciones para el aprendizaje, por ejemplo, hubiésemos podido explicar que un escenario donde un niño tiene una afinidad por las Matemáticas, responde a un escenario donde el docente explica claramente, le da trabajos, generar prácticas y además le da seguimiento con tareas y una familia que apoya al aprendizaje que esté atenta en el desarrollo de los Guías de Trabajo Autónomo, por ejemplo, lo apoya y tienen una condición socioeconómica de cierta naturaleza. Ese un escenario donde el chico puede aprender, donde hay mayor probabilidad de desempeñarse de mejor manera y lograr mejores puntajes. Ese es el tipo de análisis que se puede desarrollar de ese tipo de factores a nivel metodológico y estadístico y no es erróneo ni está mal, pero lo que es erróneo y está mal es fallar la manera en que técnicamente eso se pregunta”, detalló.

¿Qué se preguntó exactamente en el cuestionario?

[ MEP destruirá resultados de polémico cuestionario aplicado a escolares ]

A lo alumnos se les entregaron tres folletos, por separado, de Matemáticas, Ciencias y Español, donde se les preguntaba cómo impartía el docente la clase, qué recursos tecnológicos utilizaba, si los motivaba, si les gustaba la materia, cómo la estudiaban, entre otros.

Hubo un cuarto folleto llamado “tronco común”, que fue el más polémico. Constaba de 36 preguntas sobre el contexto educativo e información socioeconómica del alumno. Se les consultó si asistieron a preescolar, si trabajaban, por qué asistían a la escuela, en qué parte de la casa realizaban los deberes escolares, qué actividades realizaron en pandemia fuera del horario; si tenían celular, computadora e Internet, cuántas veces el maestro les dio clases virtuales, por semana, en el 2020, entre otras.

Ese cuestionario tenía una parte de “información familiar” en el que se consultó el estado de las paredes, piso y techo de la casa. Si la vivienda en que vivía era propia, completamente pagada, si se pagaba en cuotas o era prestada. Si las paredes eran de block o ladrillos, de cemento en la base y madera arriba, prefabricadas; si el piso era de mosaico, cerámica, terrazo, cemento o madera.

También se les consultó si la casa tenía Internet, telefonía fija o móvil, electricidad, empleada doméstica, televisión por cable, agua potable, calle pavimentada, recolección de basura y servicio de bus.

Se solicitó información sobre los bienes de la familia: moto, carro, computadoras, lavadora, cocina de gas o eléctrica, agua caliente, horno de microondas, radio o equipo de sonido. Además, cuántos cuartos tenía la vivienda y cuántas personas vivían en ella.

Vea los cuatro cuestionarios completos en este enlace.