Categories
Reflexiones sobre evaluación

Los monstruos de la evaluación: Frankenstein

Víctor Frankenstein fue un científico que creó una criatura espeluznante. La «Criatura» fue producto de un experimento que el científico creyó exitoso cuando cobró vida durante una tormenta eléctrica, pero que luego se le salió de las manos porque comenzó a asesinar humanos. Frankenstein terminó muerto al perseguir a su propia criatura por el Ártico. Luego de la muerte de su creador, la criatura se perdió en el océano en una balsa de hielo.

Cuando leo el reglamento de evaluación de nuestro país, solo puedo pensar en la «criatura» que hicimos producto de un experimento donde se combinaron los peores monstruos y al que, orgullosamente, dimos vida en el 2010. Pero, igual que a Víctor Frankenstein, sospecho que se nos está saliendo de las manos.

De acuerdo con el reglamento (nuestra Criatura), la evaluación de aprendizajes se define como el logro de las competencias esperadas para el grado. En Guatemala, el currículo nacional contiene indicadores de logro para cada competencia, por lo que este documento constituye la referencia del logro esperado para todos los grados.

A pesar de tener claro el referente de logro, la verdad es que el reglamento de evaluación no regulariza cómo visibilizar el aprendizaje de los estudiantes de forma confiable y válida. Más bien, regulariza el poder de los monstruos de la evaluación que he mencionado en los otros artículos: el Cero, la Bruja Escala y el Vampiro Promedio. Peor aún, solo nos obliga a tomar decisiones sobre los estudiantes sin tener la evidencia de lo que realmente importa: logro de competencias.

En primer lugar, el reglamento de evaluación está basado en la Bruja Escala de 0 a 100 puntos. Con esta, los docentes están obligados a calificar todos los productos de sus estudiantes con una nota entre 0 y 100, diluyendo el desempeño en demasiados números. En segundo lugar, bajo esta escala, el reglamento establece que la puntuación mínima para aprobar con una nota mínima de 60 puntos lo que sea que se use como instrumento de evaluación. De manera que, tal como vimos cuando discutimos este monstruo, dos tercios de la escala se inclinan al fracaso del estudiante solamente por la escala que el reglamento usa. En tercer lugar, el reglamento establece que los estudiantes que no aprueben con dicha nota las materias de matemática y lenguajes o bien que el Promedio de todas sus materias no supere los 60 puntos deben repetir el grado una y otra vez por una eternidad… porque todo lo anterior es posible solo si los estudiantes cumplen con 80% de asistencia, que ―para el caso de los alumnos que trabajan en campo o que tienen alguna otra barrera para asistir a la escuela― no podrán cumplir y, por tanto, acumularán Ceros en el cuadro de notas del docente.

Lo único acertado que el reglamento de evaluación contiene es eximir a los pequeños de Preprimaria de las maldades de estos tres monstruos, aunque algunos establecimientos privados que ofrecen «calidad» educativa ya han sido copados por la Bruja, el Vampiro y el Cero.

El reglamento al que rendimos pleitesía es poderoso como la criatura que creó Frankenstein. Bajo las reglas que allí se establecen, los niños repiten una y otra vez los grados, desertan, ganan becas, ingresan a la universidad, entre otros usos de las «calificaciones» que pueden cambiar el curso de la vida de un estudiante.

El gran vacío en todo esto es responder a la pregunta: ¿Qué han aprendido los estudiantes? En los múltiples años en los que trabajé evaluando en las escuelas, encontré varios escenarios:

  1. Niños que tenían altas calificaciones, pero no habían logrado las competencias del grado.
  2. Niños que habían logrado las competencias del grado, pero tenían bajas calificaciones.

La realidad de lo anterior es que medir competencias no se parece a la forma como se califica en las escuelas. Las calificaciones se producen sobre elementos que no tienen nada que ver con lograr competencias, como entregar o no las tareas, trabajar limpio y ordenado, hacer el trabajo más creativo y demostrar esfuerzo, entre otros. Rara vez se observa en las escuelas que el logro de la competencia se evalúe a través de una evidencia de desempeño directamente relacionada con dicha competencia; por ejemplo, si la competencia es escribir un párrafo, pocas veces he observado que un docente no otorgue o quite puntos por la linda letra en el párrafo, difuminando la calificación.

Todo lo que quiero decir es que muy probablemente los puntos que damos o quitamos a los estudiantes no han tenido nada que ver con el logro de aprendizajes, sino que han sido un artefacto que hemos creado de la misma forma en que Frankenstein creó a su criatura.

No digo que haya estudiantes que no logren las competencias, mi argumento es que, con el sistema actual de evaluación y calificación, realmente no sabemos qué han logrado. Sin embargo, afirmamos con convicción, pero sin evidencia, que un niño merece perder un curso, repetir el año o que no pudo aprender pese a nuestro arduo esfuerzo de enseñarle.

Categories
Reflexiones sobre evaluación

Los monstruos de la evaluación: El vampiro Promedio

Si bien he expuesto a dos monstruos temibles de la evaluación, imagina que aparezca un monstruo más y que haga más fuerte a los otros dos. El tercer monstruo que discutiremos es el Promedio. Un promedio es una medida que resume varios números en uno solo. Esta medida representa una tendencia de varios números. Sin embargo, a pesar de su precisión numérica para representar una tendencia, el promedio distorsiona el sentido del aprendizaje de un estudiante y, como si fuera el Conde Drácula de una película de terror, absorbe lo mejor de la trayectoria de aprendizaje de un estudiante (Feldman, 2019; Witte, 2011; Guskey, 2015). 

Permítanme presentarles a tres niños que reciben clases en el salón del profesor Promedio.

Samantha es una niña de cuarto de Primaria cuyo primer idioma no es el español. Sin embargo, asiste a una escuela donde el primer idioma es ese y, por tanto, las evaluaciones se realizan en ese idioma, incluso las evaluaciones de matemática. Samantha ayuda a sus papás en el campo durante los primeros meses del año, por lo que al inicio del ciclo escolar se ausenta de la escuela con frecuencia y, como consecuencia, este año, no tomó el primer examen. Conforme avanza el año, Samantha suele ponerse al día en matemática y recuperar sus calificaciones a pesar de la dificultad con el idioma español. 

Manolo es un niño que está repitiendo cuarto de Primaria. A Manolo se le dificultan las matemáticas. Al principio del año, pudo comprender algunos temas que le resultaban difíciles el año pasado, pero conforme avanzó en las unidades volvió a caer en sus calificaciones. Él sufre ansiedad por los exámenes, por lo que suele cometer errores por la traición de sus nervios y la inseguridad que siente con algunos temas. Manolo teme volver a perder el grado si no supera el examen de fin de ciclo con al menos 65 puntos.

Cristina es una niña de cuarto de Primaria a la que le encantan las matemáticas y siempre tiene buenas calificaciones. Sin embargo, su amiga Patricia encontró difícil la última unidad, y Cristina, que siempre se preocupa por los demás, decidió que Patricia podía copiar sus respuestas en el último examen. Resulta que el profesor las atrapó copiando y les colocó un cero en el examen a ambas. 

Examen unidad 1Examen unidad 2Examen unidad 3Examen unidad 4Promedio del cursoDecisión
Samantha060656563Aprueba raspada
Manolo7055406560Aprueba condicionado a la última nota
Cristina807581059Reprueba

Fuente: Adaptación de Guskey (2015).

En esta aula, el profesor Promedio toma en cuenta la trayectoria del estudiante y no su desempeño actual. El promedio resume las cuatro notas a través sumar las calificaciones del año y dividirlo entre la cantidad de calificaciones acumuladas. Sin embargo, los estadísticos saben que el promedio no es robusto ante casos extremos. Así, si el niño tiene un mal comienzo, como era el caso de Samantha; tiene dificultad en alguna unidad, como Manolo; o simplemente toma una mala decisión durante el año, como Cristina, el promedio los castigará, porque, tal como si fuera el conde Drácula, el promedio succionará todos los números sin considerar si los extremos son producto de un mal día o de alguna barrera que el estudiante esté teniendo para avanzar. 

Las calificaciones deberían interpretarse como el logro del estudiante en determinada competencia después de haber pasado por un proceso para dominarla. El promedio no representa los logros que el estudiante ha tenido en cada unidad, sino su trayectoria durante el año. No comprender esta distinción puede distorsionar la interpretación de la calificación y, peor aún, provocar que tomemos una decisión que perjudique al estudiante, en lugar de ser inclusivos y justos.

Ahora bien, hay otras medidas de tendencia central; por ejemplo, la mediana o la moda son resistentes a los casos extremos. Seguramente alguno de ustedes pensará que Cristina no merece aprobar si fue capaz de hacer trampa en el último examen. Pero, solo un malvado monstruo utilizaría la calificación para disciplinar a una joven de cuarto de Primaria. Por el contrario, las calificaciones deben utilizarse solamente para mostrar el desempeño en matemática de los estudiantes, no su comportamiento. 

Examen unidad 1Examen unidad 2Examen unidad 3Examen unidad 4MedianaDecisión
Samantha060656565Aprueba 
Manolo7055406560Aprueba condicionado por la última nota
Cristina807581080Aprueba

Sin embargo, a pesar de que la mediana pueda aparentar ser un poco más justa, en realidad también puede llegar a distorsionar el desempeño, sobre todo cuando las notas son muy dispersas, como es el caso de Manolo. Aunque el promedio es la peor de las medidas, el problema radica en utilizar una sola calificación para representar la película completa del año, cuando no se tiene claro a donde se quería llegar.  

Aquí hay algunas recomendaciones para amortiguar los efectos nocivos de los monstruos de la evaluación:

  1. Sume en lugar de promediar.
  2. Si tiene que promediar, utilice evaluaciones similares (muchas oportunidades de demostrar desempeño).
  3. Evalúe desempeño y no actitud o responsabilidad.
  4. Divida la escala en puntos acumulables.  Es decir, distribuya puntos hasta llegar a 100.
  5. Dé mayor peso al desempeño más reciente del estudiante.
  6. Planifique la retroalimentación, pero no la incluya en la calificación.
  7. Cree muestras del desempeño esperado.
  8. Reduzca la escala de 0-100 a una de cuatro puntos.
  9. Elimine el uso de 0 y establezca una calificación mínima.

Dicen que octubre es el mes que en aparecen más monstruos, pero en la clase corremos el riesgo de que los monstruos de la evaluación nos visiten en cualquier época del año.  En próximas entradas, expandiré sobre cómo evitar que los monstruos nos conviertan en maestros que, sin querer, promuevan exclusión y deserción en las escuelas al aplicar prácticas para calificar con algunos vicios que adquirimos de los monstruos de la evaluación.

Works Cited

Feldman, J. (2019). Grading for Equity. Thousand Oaks: Sage.

Guskey, T. (2015). On Your Mark: Challenging the Conventions of Grading and Reporting. Bloomington: Solution Tree.

Witte, A. E. (2011). Understanding International Grading Scales. International Journal of Managment Education, 49-54.

Categories
Reflexiones sobre evaluación

Los monstruos de la evaluación: La Bruja Escala

Desde la época de la Revolución Industrial, hemos creído que usar porcentajes para calificar es más preciso y «objetivo». Actualmente, aunque ya no vivimos la Revolución Industrial, la tecnología ha promovido el uso de porcentajes para facilitar la producción de calificaciones. Así, los profesores tendemos a describir el desempeño de los estudiantes a través de porcentajes que, por definición, es una escala de 0-100. 

La escala de 0-100, aunque ampliamente aceptada, constituye otro de los monstruos de la evaluación. Le diremos «La Bruja Escala». Como si fuera un conjuro, la práctica de usar porcentajes para calificar crea una ilusión de precisión y «objetividad» sobre el desempeño de un estudiante que, en realidad, está llena de errores. 

En 1912 Starch y Elliot, empezaron a sospechar de la malvada bruja cuando pidieron a más de un ciento de docentes que calificaran la misma tarea, y encontraron una variación de casi 30 puntos (rango de 64-98). Desde esa época, las escuelas de Estados Unidos recomendaron alejarse de los porcentajes para calificar. Sin embargo, el conjuro de la bruja fue tan fuerte que los docentes y las escuelas persisten en utilizarlos casi un siglo después. En algunos contextos, ha habido algunas modificaciones; por ejemplo, los porcentajes que ahora se usan en las escuelas son distintos a los originales, cuando se esperaba que el promedio en la escala fuera 50 puntos. Con el tiempo, el promedio se movió a 60 puntos y, entonces, se estableció que la expectativa para pasar los cursos fuera 60 puntos. 

Lo que los cazabrujas no notaron a principios de siglo pasado es que el conjuro sería tan dañino en las escuelas que la combinación de esta escala con el cálculo de promedio condenaría a los estudiantes más vulnerables a continuar rezagándose en su progreso educativo.

Sin cuestionar la práctica, continuamos otorgando puntos por los aciertos que tengan los estudiantes y, por consiguiente, quitando puntos cuando no aciertan. En medición, este concepto aplica cuando se tiene un instrumento de evaluación confiable y válido. Sin un instrumento preciso, los porcentajes crean una ilusión de objetividad que realmente no está allí. Los instrumentos que los docentes crean no tienen las características de las pruebas estandarizadas, donde el porcentaje de respuestas correctas puede defenderse porque pasan por un proceso riguroso de validación. Por el contrario, los docentes utilizan evaluaciones creativas para observar que los estudiantes han logrado las competencias. Esta creatividad es acertada porque las evaluaciones en el aula deben constituir una herramienta accesible donde el estudiante pueda evidenciar su nivel de competencia y, además, ser congruentes con lo que los docentes hemos enseñado. 

Sin embargo, las evidencias que los docentes solicitamos a los estudiantes son difíciles de calificar con un modelo de respuestas correctas o incorrectas, a menos que sean exámenes que simulen una estandarización. Por lo general, los trabajos escolares tienen modelos donde se solicita a los estudiantes que produzcan «algo»; por ejemplo, proyectos, ensayos, reportes, entre otros. 

Cuando tratamos de encajar este tipo de evidencia en una escala de calificación de 0 a 100 es difícil elegir entre 100 posibilidades el número que mejor representa el desempeño del estudiante. Así, un docente puede asignar un número basado en su propia expectativa, mientras que otro docente puede asignar otro número basado también en su expectativa. Y así, para un estudiante, aprobar o no depende del docente que califique y no de su propio desempeño.

Peor aún, cuando se trata de decidir quién tiene derecho a pasar y quién no, determinar el número mínimo para ese propósito en una escala de 0-100 también constituye un truco que la Bruja Escala nos dejó. Bajo el paradigma de que el 60 es el número mágico para pasar se sesga la probabilidad hacia el lado oscuro de la escala. El lado donde el estudiante tiene mayor posibilidad de perder y menos posibilidad de ganar, ya que dos tercios de los números representan fracaso y un tercio representa éxito. Por tanto, la escala 0-100 está orientada a fracasar. 

Por eso, colegas no caigan en el conjuro de la Bruja Escala ni se crean que a más grande la escala más precisas serán sus calificaciones. Convénzanse ustedes mismos de lo contrario. La escala de 0-100, aunque práctica, está sesgada hacia el fracaso y presenta mayor error de clasificación al tener tantas opciones para asignar. Profesionales de evaluación actualmente sugieren reducir la escala incluso a cuatro números (1-4) con una descripción clara de desempeño. Pronto vendrán los artículos donde discutiré esta alternativa.

Crédito de la imagen: Julián Véliz

Starch, D., & Ellliot, E. C. (1912). Reliability of the Grading of High School Work in EnglishThe University of Chicago Press, 442 – 457.

Categories
Reflexiones sobre evaluación

Los monstruos de la evaluación: El cero

En la escuela, el número 0 tiene un simbolismo de fracaso o de irresponsabilidad. No hay nada más tenebroso, más intimidante o donde el niño se sienta más impotente que cuando la figura de poder en el aula le aplica el cero por cometer un “error”.

Así, el cero se asigna cuando los estudiantes no entregan las tareas o cuando se comportan inadecuadamente. El cero rara vez se asigna para evidenciar el aprendizaje de un estudiante. Más bien, se asigna para disciplinar o enviar un mensaje de poder sobre el estudiante. 

Paradójicamente, en evaluación, el cero representa un punto en la escala de calificación, no falta de información de lo que se desea medir porque, a decir verdad, nadie tiene nulo conocimiento o “cero” habilidad en algo. Dicho de otra forma, los evaluadores reconocemos que, al asignar cero cuando no hay evidencia de lo que se desea medir, se puede introducir error en la calificación de forma sistemática: «No tener evidencia de lo que un estudiante no sabe no es lo mismo que tener evidencia de que el estudiante no sabe nada» (Feldman, 2019, p.77).

Veamos este ejemplo adaptado de Feldman (2019):

PezPeso
Pez A2 libras
Pez B1.5 libras
Pez C3 libras
Pez D2 libras
Pez E—-

Como notarán, desconocemos el peso del Pez E. Si el pescador vendiera a Q20.00 cada libra, lo lógico sería que el comprador pagara Q.170 por los peces A, B, C y D y que no comprara el pez E porque desconoce su peso. Asimismo, el vendedor no entregaría el pez E sin cobrar nada al comprador por la misma razón. Ahora veamos el siguiente cuadro:

Asignación Porcentaje basado en respuestas correctas
A80
B60
C100
D60
E0 (no entregó la asignación)

Al igual que el pescador, no tenemos información sobre el desempeño del estudiante en la tarea E. Puede ser que el estudiante haya decidido no hacerla, se haya enfermado el día anterior, la haya olvidado, no la haya entendido o cualquier otra razón. En un sistema de calificaciones bajo la costumbre de obtener el promedio de porcentajes de respuestas correctas en las asignaciones y donde se castiga la no entrega, el estudiante obtendría 60 en lugar de 75 al dividir la suma de calificaciones dentro de 5 y no dentro de 4 asignaciones. ¿La pregunta es si el 60 representa el desempeño del estudiante en una competencia o representa otra cosa? ¿Defenderíamos que la calificación frente a los papás del estudiante o ante un supervisor?

Probablemente la respuesta a las preguntas anteriores sería «NO». Sin embargo, algunos profesores preguntarán de qué forma incentivarán a los estudiante para completar sus asignaciones si no es a través de castigar o premiar por medio de las calificaciones. Es que erradicar el cero de los sistemas de calificaciones representa una batalla contra nuestros propios paradigmas, tanto como educadores y como estudiantes. Incluso, algunos estudiantes prefieren obtener el cero por no entregar una tarea que intentar hacer un trabajo con el cual se ponen en evidencia de no ser competentes (Feldman, 2019, p.78).

La solución retorna al propósito de calificar. En las instituciones educativas, las calificaciones son las que respaldan las decisiones que los docentes toman sobre el aprendizaje de los estudiantes, la aprobación de los cursos y la necesidad de repitencia. De la misma manera, los resultados anteriores inciden en la decisión de los estudiantes de desertar. Las calificaciones como las conocemos, con porcentajes, promedios y ceros, son consecuencia de los paradigmas que heredamos de la revolución industrial. Desde ese momento, nos creímos que las calificaciones son un buen motivador extrínseco y que los números en una calificación contienen la absoluta verdad sobre la capacidad de una persona. Sin embargo, por décadas, se ha sabido que las calificaciones que asignan los profesores son poco confiables y poco certeras porque contienen números que representan algo diferente al aprendizaje del estudiante en un curso, como el acto de entregar o no una tarea. Recientemente, bajo los nuevos marcos de validez de las evaluaciones, también se argumenta que las calificaciones contribuyen a las inequidades sociales que existen en las escuelas (Guskey, 2004). 

Por tanto, autores como Reeves (2004), Guskey (2004) y Feldman (2019) han iniciado una batalla en contra de asignar cero en las escuelas. Esta solución conlleva hacer otros cambios en los sistemas de calificaciones como reducir las escalas y eliminar la tradicional escala de 0 a 100, buscar alternativas al cálculo de promedios, entre otras. Lo cierto es que, por más incluyentes que queramos ser en las escuelas, sin pasar por los sistemas de calificaciones es probable que nunca erradiquemos la inequidad en la educación.

Crédito de la imagen: Julián Véliz

Categories
Reflexiones de una investigadora

Aprender significa lograr y crecer

Tras algunos años trabajando como investigadora educativa en varios países, he leído constantemente sobre las pobres competencias básicas de los jóvenes, sobre todo en poblaciones con bajo nivel socioeconómico. Así, los más pobres del mundo, los que hablan otro idioma, las niñas, los discapacitados y los migrantes tienen menos oportunidades de aprender y, por ende, de tener mejor calidad de vida. De igual forma, las poblaciones con mejor nivel socioeconómico y que dominan el idioma académico de las escuelas tienen mayores posibilidades de lograr competencias y superarse.

Y mientras más se estudien los bajos resultados de aprendizaje, más confirmamos que estos no han cambiado en décadas y que no pinta que haya algún cambio en el futuro próximo. Aquí va la lista de culpables más común en las conclusiones de las investigaciones: 

1) Se culpa a los gobiernos por no invertir suficiente en educación, lo cual nadie puede negar. En Guatemala, la inversión en educación es mínima y los resultados son bajos. También es cierto que hay países que han invertido en educación y sus resultados lo han reflejado, como Costa Rica y Vietnam.

2) Se culpa a los ministros y ministerios de que no hacen un buen trabajo en cualquier tema: en currículo, en distribución de los pocos fondos, en entregar textos, etc. 

3) Los siguientes en la lista de culpables son los docentes. Se culpa a la poca formación que reciben y que resulta en una incapacidad de lograr que sus estudiantes aprendan las habilidades básicas. 

4) Se culpa a los niños mismos y a sus familias. Los docentes se quejan de una generación que no quiere aprender y de padres que no le dan importancia a la educación. 

En fin, estamos atrapados en un vaivén de malas noticias y de tratar de culpar a todos los implicados.

Por otro lado, la investigación educativa se ha enfocado en conocer las diferencias entre grupos y en identificar las «causas» —es decir, los culpables— de los resultados. Sin embargo, en los países del tercer mundo se investiga muy poco soluciones pertinentes para la región y, además, se tiende a reproducir lo que hacen otros países porque después de todo «es mejor copiar algo que haya funcionado en otro lado que a no hacer nada». 

Este no es un blog de filosofía de la educación. En realidad, creo que la educación está saturada de filosofías y pocos resultados. Sin embargo, quiero colocar mi propia filosofía de educación antes de continuar escribiendo sobre evaluación educativa. Aquí van algunos puntos:

Stanislas Dehaene ha estudiado el aprendizaje por algunos años. En su libro ¿Cómo aprendemos?, Dehaene lleva al lector por una serie de funciones del cerebro humano con las cuales todos los humanos aprendemos las diferentes habilidades. Incluso los cerebros con alguna lesión, pueden llegar a aprender. Autores como Dehaene han confirmado que aprender es una cuestión de oportunidades, no de capacidades.

La pregunta ante este nuevo paradigma es qué oportunidades se necesitan para que las niñas y los niños, los que vienen de niveles socioeconómicos bajos, los que no hablan el idioma de instrucción y los que tienen alguna discapacidad puedan aprender y alcanzar las competencias mínimas. 

Aprender es lograr y crecer. Asimismo, aprender no es sinónimo de rendimiento, tampoco es sinónimo de esfuerzo o de responsabilidad en la escuela (Briceño, 2023). Estamos todos tan afanados en que nuestros alumnos ejecuten eficientemente lo que sea que se nos ocurra en la escuela que perdemos de vista el sentido de crecimiento que implica la educación. Las aulas están estructuradas para que los estudiantes rindan de acuerdo con las expectativas de sus profesores o de sus países. El énfasis en rendimiento proviene de la creencia de que los niños deben prepararse para el trabajo y, por tanto, deben producir, ejecutar, completar tareas, ser disciplinados, etc. Sin embargo, enfatizar en rendimiento previene a los estudiantes de crecer y de avanzar (Briceño, 2023). Así, a los estudiantes que no rinden como se espera, se les obliga a estancarse o a salirse del sistema, de allí los altos índices de repitencia de grado o de deserciones. 

Cuando las aulas están enfocadas en rendimiento y no en crecimiento, se cree que trabajar duro es sinónimo de mejorar. Y entonces, los docentes caemos en el error de asignar mucho trabajo a los estudiantes. Trabajo que a muchas veces ni siquiera tenemos tiempo de brindarles retroalimentación. Entonces, los estudiantes se acostumbran a cumplir y a pretender que saben lo que están haciendo (Briceño, 2023). Otra veces reprendemos tanto el error que los estudiantes se acostumbran a no preguntar para no ser avergonzados. En ese afán de rendir, dejamos de crecer. 

Las aulas enfocadas en crecimiento hacen el esfuerzo por cambiar las prácticas de evaluación y la dinámica de retroalimentación para que los estudiantes encuentren motivación interna para seguir aprendiendo. Los docentes están enfocados en que el estudiante logre metas progresivas hasta que alcance la meta del grado en cada una de sus materias. Es decir, son aulas más eficientes. En las aulas donde predomina una mentalidad de crecimiento, siempre hay segundas oportunidades para quien quiera aprender (Feldman, 2019).

Los sistemas educativos de muchos países donde los resultados de aprendizaje son bajos fuerzan a los niños a salir del sistema. Por el estudio de PISA, sabemos que, en muchos países del tercer mundo, conforme los niños van creciendo en edad, van dejando el sistema educativo. En Guatemala, cuatro de cada diez niños están fuera del sistema educativo cuando cumplen quince años. 

Sin embargo, los sistemas educativos no deberían impedirle a un niño continuar en la escuela. Rara vez los investigadores y los tomadores de decisión indagamos sobre las variables en las que se puede incidir para evitar los altos índices de deserción. Al enfocarnos en el problema o en los «culpables» de los bajos resultados, no volteamos a ver las soluciones. Es decir, saber que no las logramos no está trayendo nada productivo a nuestra poblaciones: fuera de saber que no llegamos a donde teníamos que llegar en el momento de la evaluación, realmente no informa sobre cómo avanzar. Debemos voltear nuestro interés a cómo crecer y lograr la meta de cada grado según el contexto de cada país y, como es el caso de Guatemala, de todos los culturales, especialmente los periféricos. 

Las pruebas estandarizadas internacionales son una muestra con un marco de referencia internacional sobre competencias mínimas acordadas en reuniones donde participan representantes de muchos países. Pero cabe hacer la salvedad que es difícil que dichas pruebas puedan considerar todos las variables que influyen en que una persona pueda llegar a lograr la «competencia mínima» desde su contexto; por ejemplo, los países tienen distintos idiomas, orales y académicos, diferentes prioridades curriculares, diferentes oportunidades escolares, entre otras variables. 

La discrepancia entre el idioma de instrucción y el idioma materno y todas la complejidades que conlleva lograr competencias en el idioma de instrucción es un tema de investigación en sí mismo (Gándara, 2021), así como también lo son las complejidades que trae para la vida de un niño no lograrlas en el momento esperado por el currículo nacional, por la prueba estandarizada internacional o por los profesores mismos. 

A su vez, con un mundo cada vez más globalizado, es importante que los jóvenes alcancen los estándares esperados para su edad en los convenios internacionales, a pesar de su contexto o del idioma que hablen. Por tanto, es una cuestión de tener la meta clara, pero de identificar el camino pertinente para cada país y cada cultura para llegar a dicha meta.

En conclusión, dado que nuestros países tienen tantas carencias, la investigación educativa debe enfocarse en encontrar aquellas variables en las que la inversión de recursos valga la pena.  Es decir, aquellas variables que expliquen cómo aprenden los niños y cómo los sistemas educativos pueden crear condiciones para que más niños aprendan.  Eso implica también que salgamos de nuestro confort como investigadores y encontremos preguntas de investigación más relevantes y pertinentes para nuestros contextos.  Finalmente, implica que redefinamos el propósito de las investigaciones educativas.  En primera instancia, la ciencia creada desde nuestro propio conocimiento y contexto debe informar las decisiones de política educativa de dicho contexto. Por tanto, el propósito de las investigaciones que se desarrollen en el país debe ser siempre de aplicación en las aulas y el sistema educativo en general.   

Crédito de la imagen: Julián Véliz

Bibliography

Briceño, E. (2023). The Performance Paradox: Turning the Power of Mindset into Action. New York: Growth.how.

Feldman, J. (2019). Grading for Equity. Thousand Oaks: Sage.

Gándara, F. (2021). Language considerations for the global monitoring agenda: Insights from a large- scale bilingual assessment of literacy from the Democratic Republic of the Congo. New York: UNESCO.


Categories
Aprendiendo sobre evaluación

Los programas de los cursos universitarios

Desde que comencé a estudiar modelos de crecimiento, he estado investigando sobre cómo los estudiantes aprenden y crecen en sus habilidades, sobre cómo los maestros los ayudan a alcanzar su máximo potencial y, finalmente, sobre cómo confirmamos que llegan a ser competentes.

Más allá de mi placer por implementar y comprender la estadística detrás de los modelos de crecimiento, he aprendido los efectos que las decisiones de los docentes tienen sobre el crecimiento reflejado en los modelos estadísticos. Por ejemplo, los profesores suelen enfocarse en el contenido de sus cursos y, a menudo, pierden el alcance de hasta dónde quieren llevar el aprendizaje de los estudiantes. En ese sentido, mi hipótesis es que perder de vista las competencias y la forma como se llega a ser competente en cada área resulta en poco crecimiento o poco aprendizaje.

Permítanme explicarme. Cuando trabajaba con profesores universitarios, les hacía una pregunta al comienzo de cada semestre. La pregunta era: ¿en qué quieres que tus estudiantes sean competentes al final del semestre en tu curso? Sorprendentemente, solo algunos tenían una respuesta clara a la pregunta. La mayoría de los profesores tenían una vaga idea de lo que querían lograr. Respondían con sus aspiraciones como: «Quiero que mis alumnos sean buenos profesionales» o «Quiero que participen en una clase o se sientan cómodos en clase». Otras respuestas estaban relacionadas con completar el contenido del curso; por ejemplo, «quiero que aprendan la historia de las teorías del psicoanálisis». Era difícil para ellos pensar en las competencias o incluso en las tareas que les gustaría que sus estudiantes realizaran al final del semestre.

Como autoridad de la facultad en ese momento, comencé a preocuparme por las prácticas de evaluación de cada curso. Sabía que los profesores diseñarían sus evaluaciones en función de sus expectativas del curso, por lo que, si estas no estaban claras, estaríamos certificando algo completamente diferente de las competencias que la facultad ofrecía a los estudiantes cuando se inscribían por primera vez. Este no es un problema exclusivo de las universidades. Mi colega Mario Moreno acaba de escribir un post sobre este problema de las escuelas públicas en Guatemala.

He estado tratando de ayudar a los profesores a organizar sus programas de estudio para que puedan comunicar mejor el camino hacia alguna competencia de su profesión a partir de la contribución de su curso. En este esfuerzo, he basado mis sugerencias en el libro de Stanislas Dehaene ¿Cómo aprendemos? y en La paradoja del desempeño de Eduardo Briceño.

En los siguientes pasos, comparto mi sugerencia para planificar un curso universitario para que organice las oportunidades hacia lograr una competencia profesional. Ampliaré cada paso en futuras publicaciones.

Paso 1: Convencernos de que todo el mundo puede aprender

Nosotros los educadores debemos convencernos de que todos los estudiantes pueden aprender. Esto no tiene nada que ver con lo que son los estudiantes o el origen del que provienen. Aunque está relacionado con la equidad y la educación inclusiva, basé esta afirmación, no en argumentos de educación inclusiva, sino en los libros de Dehaene, Briceño y Oakley et al., quienes han estudiado el aprendizaje y el crecimiento a través de la neurociencia (Dehaene y Oakley) y la teoría de la mentalidad de crecimiento (Briceño). Aprender significa ajustar los modelos mentales a medida que reflexionamos sobre nuestras experiencias con el mundo exterior; por lo tanto, debemos convencernos de que los estudiantes aprenderán y crecerán con oportunidades adecuadas. Debemos evitar centrarnos en la inteligencia o los antecedentes de nuestros estudiantes al ensenar y centrarnos en el rendimiento y el aprendizaje que pueden lograr.

Paso 2: Pensemos en la gran meta del curso; elijamos un verbo grande

Al comenzar la organización o planificación de un curso universitario, primero debemos pensar en la meta de aprendizaje que esperamos que nuestros estudiantes logren al final del curso. Esta meta debe representar una competencia que el estudiante no tenía o que tiene en un nivel mínimo antes de tomar el curso. Para escribir una meta tan grande, debemos pensar en verbos cuyo significado abarque varias habilidades y cuyo desarrollo requiera al menos un curso para lograrlo; por ejemplo, al final del curso, los estudiantes «escribirán ensayos sobre la coyuntura política de Guatemala» o «escribirán noticias sobre eventos políticos». El verbo escribir requiere que el estudiante domine varias habilidades, como la organización de ideas y la investigación de hechos políticos. Pensar en esta meta es crucial. A menudo, los educadores tienen que elegir la competencia que quieren alcanzar en su curso, pero terminan eligiendo verbos que no toman todo el curso para lograrse; por ejemplo, el verbo reconocer o identificar tal o cual contenido. Tomarse el tiempo de pensar y decidir la gran meta es el paso que hará toda la diferencia al organizar un programa de curso que muestre el logro de una competencia profesional.

Paso 3: Desempaquetemos el verbo en verbos también

El verbo que elegimos para la gran meta implica que la persona ha dominado otras habilidades que, al integrarse, permiten a la persona desempeñarse en el verbo que elegimos para la gran meta; por ejemplo, para «crear un pastel de cumpleaños», los reposteros deben dominar habilidades relacionadas con esa gran meta, como hornear el pastel, medir los ingredientes y preparar fondant, entre otros. Algunos conocimientos se asocian con el logro de esas habilidades; por ejemplo, para hornear el pastel, los panaderos deben conocer sobre temperatura y los diferentes tipos de estufas. A menudo, recomiendo a los profesores universitarios que piensen hacia atrás para organizar los verbos que quieren enseñar y observar en sus alumnos. Observen este ejemplo:

El conocimiento —> las habilidades ——> la gran meta

Temperatura —-> hornear un pastel ——> crear un pastel de cumpleaños

Con demasiada frecuencia, los profesores diseñan sus planes de estudio centrándose únicamente en el conocimiento sin vincularlo a las habilidades y competencias específicas que los estudiantes deben alcanzar en la profesión. Esta práctica les imposibilita de ver la gran meta a la que quieren llegar.

Paso 4: Enseñemos habilidades y organicemos prácticas deliberadas

Una vez que hemos desenredado la gran meta en las habilidades y los conocimientos para alcanzarla, podemos organizar oportunidades para aprender esas habilidades y conocimientos. Las oportunidades para aprender habilidades suelen ser prácticas y están estrechamente alineadas con las tareas en trabajos reales. Las oportunidades para adquirir conocimientos deben garantizar que el estudiante los asimile con prontitud para que los aplique al practicar las habilidades por desarrollar en el curso. Por otro lado, la organización del curso debe mostrar que los estudiantes pueden observar al experto o profesor modelar las habilidades y no solo exponerlas. Por último, la organización debe permitir que el alumno practique las habilidades por desarrollar más de una vez.

Paso 5: Organicemos las tareas y equilibremos la calificación y la retroalimentación

Organizar las oportunidades de aprendizaje facilitará la organización de las calificaciones de los cursos. De esta manera, el programa puede mostrar la práctica de cada habilidad o la calificación del examen. Los programas de estudio deben mostrar un equilibrio entre la calificación y la retroalimentación del profesor. Se recomienda que, cuando el estudiante recién comienza a aprender algo, reciba mucha retroalimentación del experto hasta que domine las habilidades y esté listo para demostrar competencia sin ayuda del experto. Esta organización también establecerá un clima de aprendizaje en el que los estudiantes puedan aprender reflexionando sobre los errores que cometen mientras practican una habilidad.

Paso 6: Evaluemos la gran meta

La evaluación final de un curso debe centrarse en la gran meta del curso. Por esta razón, en la mayoría de las universidades, se espera que la evaluación final sea aproximadamente un tercio de la calificación total del curso para que el estudiante pueda demostrar competencia en la gran meta y el profesor pueda certificar el nivel de competencia del estudiante en dicho objetivo.

De esta manera, la evaluación final debe diseñarse para que el estudiante pueda demostrar competencia en la gran meta del curso sin ayuda del experto; por ejemplo, si la gran meta es «crear un pastel de cumpleaños», la evaluación más pertinente es que el estudiante cree un pastel de cumpleaños al finalizar el curso. Consecuentemente, los aspectos por evaluar en su creación constituyen las habilidades y conocimientos que ha aprendido a lo largo del curso relacionados con creación de pasteles, como hornear, mezclar, medir, decorar, etc.

Finalmente, este modelo de planificación permite comunicar de forma transparente lo que el estudiante será capaz de hacer al finalizar su formación profesional. Por otro lado, esta forma de organizar los programas del curso permite a los estudiantes crear portafolios profesionales donde visibilicen las competencias que han adquirido y que pueden ofrecer a empleadores.

Categories
Reflexiones sobre evaluación

La evaluación artificialmente inteligente

Cuando comencé como psicometrista, me atrajo el estudio de la varianza. Las evaluaciones se basan en la variabilidad de un «rasgo» particular entre personas y de una persona en relación con una meta escolar. Además, me atrajo la posibilidad de crear instrumentos que pudieran capturar la variación de tales rasgos y las decisiones que uno podría tomar en función del resultado de una evaluación.

Para encontrar variación de un rasgo, se debe comprender ese rasgo en profundidad y, hasta cierto punto, comprender cómo lo aprende una persona; por ejemplo, si el rasgo por medir es la lectura, se debe entender cómo el niño aprende a leer y las tareas con las que ese niño demuestra que aprendió a leer en un momento específico. Este conocimiento generalmente lo poseen los maestros que conviven con los niños todos los días y los apoyan en el aprendizaje de dichas habilidades.

Hasta hace unos años, cuando dirigía el desarrollo de pruebas, me tomaba el tiempo para trabajar con los profesores para diseñar tareas (ítems) que, según su experiencia, captaran mejor las habilidades de los estudiantes. Dicho trabajo solía ser muy costoso en el proceso de desarrollar una prueba estandarizada. Actualmente, la inteligencia artificial (IA) ha sustituido en gran medida este trabajo, lo que permite que los costos y el tiempo sean mucho menores. Hoy en día, escucho en muchas conferencias que la IA es el futuro del desarrollo de pruebas y de la educación en general.

Debo confesar que, aunque encuentro impresionante la tecnología detrás de la producción de ítems usando IA, también dejé de ver la conexión de dichos ítems con la experiencia docente. Cuando hacía este trabajo con humanos, me fascinaba la forma en que los profesores diseñaban las tareas de una manera casi artística basándose principalmente en un conocimiento profundo de sus alumnos. Luego, cuando la prueba se analizaba en términos de varianza, era posible explicar los resultados con ejemplos que tuvieran sentido para los docentes. También tengo que reconocer que, en esos esfuerzos, había muchos errores humanos, que son imposibles de controlar y que se aceptaban, reconocían y mejoraban a veces de forma no tan eficiente como lo puede hacer la IA.

Sin embargo, tengo un sentimiento extraño cuando produzco ítems de forma eficiente a través de ChatGPT o cualquier otra herramienta de inteligencia artificial. Al generar los ítems casi de forma automática, los percibo tan artificiales y desconectados de la realidad de los profesores con los que conversaba. No los percibo «reales», como cuando trabajaba con profesores y con personas con un nombre, una historia o un contexto.

Me pasa lo mismo cuando se solucionan «artificialmente» otros aspectos de diseño de pruebas. Esta semana recibí mi ejemplar de la revista académica más prestigiosa de mi profesión y descubrí que más de la mitad de los artículos son simulaciones de especificidades estadísticas de análisis de pruebas.

A veces, siento que estoy en riesgo de quedarme obsoleta porque encuentro menos atractivo leer sobre simulaciones o soluciones producidas con IA. Y, cada vez más, me parece más importante que en nuestra profesión hablemos de inclusión, conciencia social, comunicación de resultados y evaluación formativa, entre otros temas. Sin dejar de conocerla y valorar las ventajas que nos trae, ahora más que nunca me parece importante que los educadores seamos críticos con las soluciones automatizadas que ofrece la vida moderna y la inteligencia artificial.

Finalmente, me parece que, independientemente de las soluciones inteligentes y automatizadas que existan, los educadores no nos podemos permitir dejar de aprender, incluso sobre inteligencia artificial.

Categories
El arte de mejorar la calidad educativa Reflexiones sobre evaluación

Los efectos colaterales de evaluar

No puedo hablar por el resto del mundo, pero Guatemala ha sido un país lleno de estigma, prejuicio y discriminación. Muchas de estas acciones han sido, en parte, culpa del sistema educativo y sus vicios. Recientemente, me he preguntado si algunos vicios que aumentan las brechas educativas, los estigmas y las prácticas discriminatorias se originan en la forma en que comunicamos los resultados de las evaluaciones a quienes pueden decidir sobre las oportunidades educativas para los estudiantes de todos los orígenes.

Entre otros propósitos, para hacer visibles las brechas entre los estudiantes y tomar decisiones informadas sobre la asignación equitativa de recursos, los países han creado evaluaciones nacionales a gran escala y han participado en programas de evaluación internacionales; por ejemplo, Pisa y Llece. Los diseños de evaluación a gran escala suelen ser rigurosos, por lo que puede decirse que los resultados son válidos. Sin embargo, estos diseños son difíciles de explicar porque los procesos se basan principalmente en la estadística.

Al diseñar una prueba, se toman decisiones basadas en la ciencia (estadística, educación, etc.) de modo que los puntajes obtenidos en la prueba representen lo que el estudiante de un contexto o edad específica puede o no hacer. Pero tales decisiones también están influenciadas por los usos que se darán a los resultados y el presupuesto con el que se puede implementar una evaluación. Por lo tanto, en ocasiones, una metodología ideal debe ser compensada por otra posible que sea igualmente rigurosa y permita utilizar los resultados esperados.

Por ejemplo, la evaluación nacional de Aprende+ tuvo un alcance casi censal porque los docentes realizaron la aplicación en sus aulas. Esto permitió darles a los docentes una mayor participación en los procesos de evaluación nacional, obtener resultados de más niños con mayor rapidez y devolver a los docentes resultados sobre sus propios estudiantes casi de forma inmediata. Sin embargo, esto comprometió parcialmente la estandarización y confiabilidad de los resultados. Por el contrario, la evaluación nacional de la primaria no es un censo, sino una muestra porque se implementa una costosa operación de recolección de datos con actores externos que permite una estandarización casi impecable. Aun así, la muestra es más pequeña y los resultados se ven comprometidos si parte de la muestra se pierde y no permite que se entreguen resultados a nivel de la escuela y el aula.

A pesar del rigor de los diseños de evaluación y la documentación para demostrar la confiabilidad y validez de los resultados de las evaluaciones a gran escala, todo termina con su correcta comunicación al público, quien los utilizará para tomar una decisión. En última instancia, lo que quien toma las decisiones entienda sobre la metodología de evaluación y la capacidad o incapacidad de una persona marcará la diferencia en su forma de actuar.

A diferencia de las evaluaciones a gran escala que siguen procesos rigurosos de diseño, estandarización y validación, las evaluaciones en el aula tienden a ser menos confiables.  A pesar de ello, las implicancias de las evaluaciones de aula son altas ya que, estas pueden cambiar el curso de la vida de una persona, para bien o para mal.

Lamentablemente, los profesores de aula tienen poca formación en evaluación, pero están obligados a evaluar y certificar competencias. En consecuencia, se observa que los docentes imitan prácticas de evaluación a gran escala que observan de evaluadores externos, pero sin el conocimiento para imitarlas adecuadamente. Así, las pruebas y hojas de trabajo tienden a estar desconectadas de la competencia u objetivo que pretenden evaluar. Peor aún, los estudiantes reciben consecuencias sobre los puntajes de los exámenes en el aula que no demuestran con precisión lo que un estudiante puede o no puede hacer; por ejemplo, los estudiantes reciben calificaciones por “buena letra” o “formato”, descuidando el contenido de un escrito. Los estudiantes a menudo son castigados o avergonzados por sus errores de ortografía y rara vez reciben retroalimentación sobre sus habilidades para escribir ensayos. Así comunicamos que un niño “falló”, “no es capaz” y “no puede” cuando, en realidad, la prueba midió otra cosa. Si pensamos un poco más allá, con estas prácticas estamos comunicando que cuando el alumno escribe bonito tendrá una buena nota, aunque su escritura no sea coherente o no tenga argumento.

Además, los profesores a veces utilizan las calificaciones como recompensa por el buen comportamiento y pierden de vista el desempeño de los estudiantes. Por lo tanto, las niñas que se quedan quietas y se portan bien obtendrán mejores calificaciones que los niños activos o menos quietos.

Me preocupa que estas prácticas tengan peores consecuencias para los estudiantes vulnerables y que un niño sea castigado o tenga acceso limitado debido a la vulnerabilidad en la que vive al obtener una evaluación válida o poco confiable. Me pregunto si muchos niños que reprobaron el primer grado fueron evaluados con pruebas poco válidas y confiables y con ideas mal concebidas sobre las poblaciones vulnerables.

No digo que el diseño y la comunicación de los resultados de las evaluaciones sean la única causa de conductas excluyentes de las poblaciones vulnerables, pero no está de más repensar cuestiones básicas como:

¿Tenemos claro qué queremos visibilizar con una evaluación?

¿El diseño de nuestras evaluaciones es inclusivo o es excluyente?

¿Qué informamos a través de nuestras evaluaciones? ¿A quién informamos?

¿Qué escuchan y entienden nuestros docentes, políticos y ciudadanos sobre los resultados de una evaluación?

¿Qué decisiones son relevantes en función de los resultados y quién debe tomarlas?

¿Qué posibilidades reales tiene un estudiante de avanzar en función de los resultados de una evaluación?

No olvidemos que al evaluar pretendemos mostrar las desigualdades entre grupos a través de evaluaciones para brindar mejores oportunidades donde sean necesarias y, sospecho, que contrariamente a tal intención, sin querer estamos propiciando conductas de exclusión hacia las poblaciones indígenas, las poblaciones pobres, las mujeres y poblaciones con discapacidad. Aunque los resultados de pruebas estandarizadas muestran que algunos grupos de la población no están alcanzando los niveles requeridos de competencias esenciales, también podríamos estar comunicándoles que “no pueden” y que deberían “perder” el grado, sobre todo cuando se reproducen prácticas de evaluación poco confiables y válidas en las aulas. Es sumamente importante empezar a discutir el tema de comunicación de resultados de pruebas (nacionales o de aula) como un factor de exclusión en países como Guatemala y encontrar mejores estrategias de comunicación (para el desarrollo) de dichos resultados.

Categories
Reflexiones de una mamá maestra

Ciencia en el vecindario: una experiencia de intercambio de conocimientos en la comunidad

La mañana del 1 de octubre, cuando se celebra el día del niño en Guatemala y el día internacional del adulto mayor, siete niños y el abuelo de uno de ellos, todos del mismo vecindario, intercambiaron conocimientos de ciencia con otros niños en el parque Minerva de la ciudad de Guatemala en la actividad organizada por OWSD Guatemala y la Municipalidad de la ciudad. 

Los vecinos más pequeños mostraron el proceso químico para hacer burbujas caseras. «Tienes que colocar jabón de platos, un poco de champú de bebé, agua y azúcar» decía Joaquín de ocho años mientras mezclaba los ingredientes. «¿Por qué tienes que colocar azúcar?» le preguntó un participante de cuatro años. «Porque el azúcar hace que las burbujas se estiren más» respondió Pau de ocho años. Pau y Joaquín habían aprendido el proceso químico detrás de una burbuja gracias a Guayo, el abuelo de Pau y químico de profesión: 

Cuando soplamos la capa elástica formada de jabón, una corriente suave de aire forma la burbuja. Entonces, ocurre un fenómeno de tensión superficial en el que la burbuja está contrarrestando la presión atmosférica. Los componentes químicos del azúcar provocan que haya cohesión con el jabón y que cambien su densidad, volviéndolo más elástico (Guayo Robles- químico).

Los vecinos más grandecitos mostraron a los participantes cómo cambiar el color de una moneda a través de un proceso electroquímico. Julián, de 13 años, y Mateo, de 14, habían aprendido de Guayo cómo depositar un metal en otro. Las niñas de 11 y 12 años y Adrián de 10 decidieron mostrar el efecto inverso de la ley de Newton con almidón y agua. Daniela y Sarita prepararon una masa de almidón y agua que, al apretarla con las manos, mostró cómo se contrarrestan las fuerzas de repulsión y electroestática y, al soltarla, regresan a su posición y se deshace la cohesión. «Este efecto se debe a las fuerzas electroestáticas entre las moléculas del almidón y del agua», les explicó Guayo. 

Ciencia en el vecindario solo fue uno de más de una docena de exposiciones de ciencia donde se promovió el intercambio intergeneracional de conocimientos científicos de forma exitosa. Las iniciativas de intercambio de conocimiento intergeneracional han sido estudiadas en literatura diversa. Una buena parte ha estudiado el uso de tutoría intergeneracional en capacitaciones laborales. Desde la neurociencia, se ha encontrado que la mentoría intergeneracional estimula tanto al mentor como al aprendiz:

Los resultados de la investigación muestran que la mentoría intergeneracional puede ofrecer numerosas ventajas tanto a las personas involucradas en la relación (el mentor y el aprendiz) como a toda la organización. Por tanto, la mentoría intergeneracional parece ser una herramienta eficaz para compartir conocimientos, crear compromiso, desarrollar liderazgo y, ante todo, construir relaciones intergeneracionales basadas en la aceptación mutua” (Gadomska-Lila, 2020). 

Y es que, por mucho tiempo los educadores hemos sabido que aprender de formas no tradicionales como la experimentación pueden beneficiar mucho a los estudiantes en sus aprendizajes. También sabemos que las relaciones entre el tutor y los y las estudiantes propician mejores aprendizajes que las que son hostiles o «frías». Durante la pandemia, también aprendimos sobre tutorías intergeneracionales para no frenar aprendizajes en ausencia de las escuelas. Así que no hay sorpresa que la actividad haya sido tan exitosa. 

Sin embargo, ese día un matemático que se acercó con su pequeño hijo a nuestro centro de experimentos químicos me hizo un comentario que me hizo caer en cuenta sobre el verdadero sentido de la actividad. Él me dijo: «cómo me gustaría compartir en la escuela de mi hijo mi pasión por la matemática y todas las formas como me gano la vida haciendo matemática». Luego de aquel comentario, el matemático preguntó quién era el afortunado científico que compartía su pasión con los vecinos jóvenes de nuestra comunidad.

Aquel comentario me hizo pensar:

  • ¿Sabrán las escuelas el cúmulo de conocimiento que tienen los miembros de la comunidad educativa? ¿Cuántos químicos, músicos, matemáticos habrá entre los padres de familia, abuelos, hermanos, etc.? 
  • ¿Cuántas veces las escuelas propician espacios para compartir conocimientos intergeneracionales fuera de las interacciones entre docentes y estudiantes?
  • ¿Qué tal si tornáramos a las nuevas generaciones a soltar las pantallas y propiciáramos espacios para que los niños se embarquen en un proyecto nuevo con ayuda de los abuelos, tíos, hermanos en lugar de buscar todo en YouTube, Instagram, etc.?
  • ¿Qué tal si aprovecháramos los conocimientos de la comunidad escolar para fortalecer nuestros programas?
  • ¿Qué tal si volvemos a ser comunidad y a pensar la calidad de educación que necesitan las nuevas generaciones?
  • ¿Qué tal si el conocimiento científico saliera de los libros de texto y de los artículos académicos?
  • ¿Qué tal si el conocimiento científico se difundiera en las comunidades que realmente se beneficiarán de dicho conocimiento?

Es que todos tenemos responsabilidad de formar a las nuevas generaciones de nuestra comunidad. No es posible seguir pensando que la escuela lo hará sola y que la maestra o el maestro lo sabe todo. Finalmente, los científicos tenemos responsabilidad de compartir el conocimiento más allá de nosotros mismos. Quizá llegó la hora de romper nuestra burbuja.

Categories
El arte de mejorar la calidad educativa

Datos y más datos

Cuando Vanessa y su esposo tuvieron a su primer hijo, decidieron inscribirlo, desde ese momento, en un colegio internacional al cual es muy difícil ingresar. A pesar de inscribirlos el año que nacían, los niños iniciaban en kindergarten a los 5 años. Vanessa recuerda que ese primer año escolar salió de excursión con familias amigas que tenían a sus hijos en el mismo colegio. Eran cinco familias que iban a un parque temático en Guatemala. Tres de las cinco familias conducían la misma marca y tipo de carro. Todas las madres del grupo tenían una profesión universitaria. En su mayoría los padres tenían un empleo estable y bien pagado y dos eran dueños de su propia empresa. Cuatro de las cinco familias tenían dos hijos y solo la de Vanessa tres. 

Aquel día Vanessa supo que ella y su esposo se parecían mucho más de lo que ella creía con los otros padres del grado de su hijo. Con los años, lo confirmó aún más. Cuando su tercer hijo entró al mismo colegio, tuvo la sensación de que ya no era tan parecida a los otros padres del grado del pequeño como había sido de los del grado de su hijo mayor. Vanessa era al menos cinco años mayor que el resto de los padres. En este grupo, la mayoría tenía un hijo o estaba por tener al segundo. Las profesiones eran muy diferentes a las de ella y su esposo.

Aunque lo pasemos desapercibido, los datos y la estadística tienen sentido por ejemplos como los anteriores. Los seres humanos somos seres sociales y, por tanto, seremos influenciados unos a otros. En las escuelas, el desempeño de los niños estará muy influenciado por el carro que manejen sus padres, la profesión de las madres, el número de hijos, entre otros factores.  Este es un ejemplo que ilustra el sentido del uso de la estadística y los datos en las ciencias sociales y humanísticas. Entre otras cosas, los datos y la estadística fundamentan la ciencia de la implementación y las intervenciones en distintas áreas. 

Es innegable que las mejoras educativas o las intervenciones no son cuestión de azar o de buena voluntad. Estas son actos fundamentados en ciencia donde, sobre todo, conocer e invertir en las variables correctas hará toda la diferencia, y no en el mero acceso de los datos. Esta idea es fundamental de este artículo. Los avances de la tecnología y la inteligencia artificial han puesto a disposición inimaginables cantidades de datos de cualquier tema para cualquier uso, bueno o malo, que cualquier persona quiera. Así, ahora se pueden recolectar datos a través del internet, incluso sin que el sujeto lo sepa. También es posible correlacionar variables provenientes de diferentes fuentes y concluir y sugerir productos, políticas, soluciones, entre otros usos. Además, se pueden generar datos ficticios, en el mejor de los casos para comprobar funciones y estadísticos, como se hace en los estudios tipo Monte Carlo. Pero también se pueden crear datos ficticios que mal informan a los usuarios, como el fake data

Así, nos encontramos en la era de acceso fácil y sin filtro de datos e información. En mi experiencia generando datos para diseñar e implementar programas para mejorar la educación de Guatemala basados en evidencia en los últimos quince años, no deja de preocuparme que la cantidad abrumadora de datos desmerite la investigación y los estándares de calidad con los que se produce para informar lo que debemos hacer, particularmente cuando se trata de una intervención médica, psicológica, educativa, etc. 

Las investigaciones rigurosas tienen estándares de calidad de los datos que recolectan. De ese modo, la instrumentación que produce el dato de una investigación es tratada con escrutinio, sobre todo en las ciencias sociales y humanísticas, donde se espera que el dato se interprete de forma transparente con base en un constructo (validez) y que se garantice consistencia con que el instrumento visibilizaría dicho constructo de una persona (confiabilidad). Esto, con el objetivo de que las varianzas que se identifiquen entre personas sean reales y, por consiguiente, también las conclusiones sobre ellas y el fenómeno que se estudia. 

Quizá hayan intuido que las investigaciones dependen mucho de la varianza existente y de la varianza que se diseña a través de las intervenciones. Por tanto, la importancia de los datos no radica en tenerlos o que estén disponibles, sino en identificar e intervenir en las fuentes de varianza correctas para provocar una mejora (Cummings, 2013). Porque después de todo, la ciencia está al servicio de la humanidad para que los humanos seamos mejores. 

En este sentido, 

  1. No es suficiente recolectar data o accederla sin limitaciones.
  2. No es suficiente identificar o monitorear atributos de los humanos (investigación exploratoria).
  3. No es suficiente correlacionar variables, aunque se tenga big data

Lo más importante es identificar las fuentes de varianza para mejorar las intervenciones y las decisiones que tomamos como humanidad y como país, por lo que:

  1. Hay que recolectar e identificar los datos adecuados (descartar fake data).
  2. Hay que identificar por qué no logramos resultados que esperábamos (investigación experimental).
  3. Hay que encontrar los estudios que nos permitan determinar con cuál intervención tenemos mayor probabilidad de mejorar algo (metaanálisis y revisiones sistemáticas de literatura).
  4. Hay que invertir recursos en aquellas variables donde tendremos mayor oportunidad de mejorar algo (replicar investigaciones).

Tal como el ejemplo de los grupos de padres de familia del colegio de los hijos de Vanessa, los humanos, cada uno con sus atributos, nos influenciamos unos a otros de diferentes maneras, lo que provoca que variemos (que nos parezcamos o difiramos) a diferentes niveles entre nosotros. Como dice el refrán: “dime con quien andas y te diré quién eres”.  Cabe hacer notar que las nuevas tecnologías y redes sociales y los llamados “influencers” están cumpliendo esta función con las nuevas generaciones.

A gran escala, conocer estas variaciones a través de datos precisos y adecuados ayuda a los tomadores de decisión a adjudicar los recursos en las variables correctas para obtener resultados esperados y así lograr mejorar.  Ojalá esta época de datos ilimitados no se quede solo en acceso.  Ojalá también haya quien los lea, los interprete y logre proponer intervenciones para que la humanidad sea mejor. 

Crédito de la imagen: Julián Véliz