Reflexión sobre las herramientas para generar test


Después de dos días escribiendo sobre la utilización de los test en el proceso de evaluación –En defensa de las pruebas tipo test y Evaluando con test: apuntar es acertar-, pretendo ahora analizar el uso de aplicaciones que autocorrigen las pruebas.

No pretendo explicar de forma pormenorizada el uso de Socrative, Grade Scanner, Drive o Moodle. Entre otras cosas porque solo trabajo con una de esas aplicaciones, no con todas. Mi objetivo es otro: reflexionar sobre lo que aporta a la labor docente, así como sus peligros.

Ganando en tiempo y objetividad

Después de publicar mi primera entrada, varias personas comentaron que era una buena opción porque se ganaba tiempo en la corrección. Además, destacaban el carácter objetivo de los test en comparación con otro tipo de preguntas más abiertas a interpretación.

Considero que una buena rúbrica ayuda a alcanzar cierta objetividad en la corrección de cualquier prueba. Pero parece evidente que, aún así, los test mantienen su posición privilegiada en ese aspecto.

En lo que al tiempo se refiere, también debo darles la razón. Aunque es verdad que se tarda mucho más en preparar un cuestionario que en escribir el título de un tema para desarrollar, no es menos cierto que, una vez tienes una base de datos con preguntas de test, ese proceso es bastante sencillo.

A todo esto hemos de añadir el tiempo que nos permiten ahorrar aquellas aplicaciones que corrigen automáticamente los test. Conocer la nota de un alumno escaneando la hoja con el iPad, tal como permite Grade Scanner, es todo un lujo.

¿Ahorrar tiempo para trabajar menos?

No soy enemigo de las aplicaciones auto-correctoras, sino todo lo contrario. Ahora bien, la búsqueda de una fórmula de corrección más rápida puede llevarnos a tener docentes “comodones” e incapaces de detectar las necesidades reales del alumnado.

Una buena fórmula para evitar esos peligros es dedicar al análisis de los resultados el tiempo que nos ahorramos en la corrección. Con esa dedicación, además de evitar convertirnos en profesores aburguesados, adquirimos un conocimiento de las carencias, puntos fuertes y problemas de nuestros estudiantes que difícilmente podríamos tener sin contar con esas herramientas.

Con la información que aporta ese análisis tendremos más posibilidades de saber cómo ayudarles a mejorar.

En resumen, no cabe duda que la tecnología es un gran aliado en nuestra tarea docente. Sin embargo, en la medida que vaya asumiendo cargas que hasta la fecha recaían únicamente en nosotros, hemos de ir abriendo nuevos campos a nuestra actividad. Lo contrario supondría no avanzar en la calidad de la educación: mera sustitución del profesor por la máquina.

Llegaríamos a una situación en la que, salvo la pérdida del elemento humano, no habría cambios reales en el proceso de evaluación. Y eso es una verdadera pena, una gran oportunidad desaprovechada.

Evaluando con test: apuntar es acertar


En mi entrada de ayer, partiendo de la necesidad de enriquecer el proceso de evaluación, defendía la presencia del test como un elemento más –al menos en las Ciencias Sociales- de los exámenes de Secundaria y Bachillerato. Además de aportar argumentos a favor de ese procedimiento, establecía matices al respecto, al tiempo que señalaba algunas de las principales variantes existentes.

En el presente texto me limitaré a narrar una experiencia reciente. Una modalidad de test que he puesto en marcha con los estudiantes de Historia del Mundo Contemporáneo en las pruebas finales del curso.

Alumno dubitativo vs alumno bet365

En 1º de Bachillerato, a partir del segundo examen del curso, suelo bajar puntos por escoger una opción incorrecta. Con eso pretendo evitar que los alumnos que no han estudiado obtengan, por azar, una calificación inmerecida. El mero hecho de saber que pueden perder nota por fallar, les frena a la hora de “jugársela”.

De esta manera, la pregunta acertada les otorga una décima (0.1), mientras que los errores les penalizan en cinco centésimas (0.05). Al respecto, he de aclarar que esa última cifra va evolucionando a lo largo del curso, pues en la primera evaluación solo es una centésimas (0.01) y en la segunda tres (0.03). Evidentemente, una pregunta no contestada no penaliza, pero tampoco bonifica.

Hasta ahí todo normal, pues es una modalidad de test común en el sistema educativo; una variante que permite anular a los amigos del azar, a los alumnos que suelo denominar “bet365”. Sin embargo, había algo en mis test que no terminaba de cuadrar.

Me preguntaba si no estaría perjudicando a los estudiantes que dudaban (“dubitativos”) únicamente entre dos respuestas.

Desde mi punto de vista, no es lo mismo estar entre dos opciones que entre cuatro. Y, en un sistema donde se bajan décimas por fallar, lo más normal es que ambos –dubitativo y bet365- lo dejen en blanco. En definitiva, mis test no establecían diferencias entre los alumnos que habían estudiado sin demasiada profundización y los que no habían tocado el temario.

Dando color al sistema

Teniendo en cuenta que, como docente, mi deber es tratar de valorar en su justa medida el esfuerzo de los estudiantes, empecé a pensar cómo podía alcanzar una mayor exactitud en el test. Fue entonces cuando ideé el sistema de las dos respuestas; una opción que, todo hay que decirlo, fue del agrado del alumnado.

Se trata de una variante en la que, con distintos colores, se les permite marcar dos opciones. Una de ellas es la que llamamos “respuesta directa”, y su acierto supone alcanzar la décima (0.1) que se otorga como máximo en cada pregunta. El segundo color corresponde a la “respuesta secundaria” que, en caso de resultar correcta, les permite ganar tres centésimas (0.03).

Como es lógico, previamente han de indicar en la parte superior de la hoja a qué color corresponde cada una de las respuestas.

Las conclusiones que puedo ofrecer a día de hoy son escasas y se basan en un único examen. Ahora bien, el breve análisis que he realizado de los test me lleva a pensar que he conseguido separar la paja del trigo: se aprecia claramente quiénes son “bet365” y quiénes “dubitativos”. Y, por tanto, considero que la puntuación de la pregunta es más justa con estos últimos.

En defensa de las pruebas tipo test


Durante el curso 2013-2014 decidí introducir en mis asignaturas un apartado de test en los exámenes, y desde entonces han estado presentes en casi todas las asignaturas que he impartido.

Los motivos que me llevaron a tomar esa decisión fueron múltiples y variados. Por un lado, pretendía descubrir hasta qué punto el alumnado era capaz de afinar en el conocimiento de la materia. Y, por el otro, me pareció lógico acostumbrarle a un modelo de examen con el que, probablemente, se tengan que enfrentar en no pocas ocasiones durante su etapa universitaria.

Sobre este último aspecto es interesante señalar que, aunque todos somos capaces de leer y marcar una casilla, no nacemos sabiendo hacer test. Ese tipo de pruebas, como tantas otras, tienen sus trucos, su “arte”. De ahí la importancia de practicar y aprender a enfrentarse a ellas lo mejor posible a partir de la experiencia.

Enriquecer el proceso de evaluación

Ahora bien, aunque defiendo la necesidad de enseñar a los estudiantes a afrontar los test, no soy partidario de que ese sea el único elemento de los exámenes. Entiendo que las pruebas, al igual que la evaluación global de la asignatura, deben abordar diversas capacidades.

Lo contrario sería caer en el error que, al menos en las Ciencias Sociales, hemos cometido durante décadas: la entronización de la memoria.

Desde mi punto de visto, en une examen el alumnado debe demostrar tanto sus conocimientos -preguntas de desarrollo y test- como su aplicación en forma de prácticas. A esto hemos de añadir el correcto manejo de términos específicos de la materia –conceptos- y la expresión escrita. En definitiva, mantengo a la tan denostada memoria, pero en igualdad con respecto a otras capacidades.

Evidentemente, hablo en todo momento de los exámenes escritos, pues considero que en la evaluación de la materia se deben tener en cuenta otros aspectos importantes como la expresión oral, el trabajo de investigación, la competencia digital, el trabajo en equipo…

La amplia familia de los test

Cualquier docente que haya elaborado alguna vez una pregunta de test sabe perfectamente que existen múltiples variantes. Se trata de una cuestión a la que llevo tiempo dándole vueltas y sobre la que, probablemente, escriba en los próximos días.

Sin embargo, ahora mismo me limitaré a plantear una sencilla clasificación:

  1. Según el número de opciones.
  2. Según el número de respuestas correctas.
  3. Según la penalización por error cometido.
  4. Según el tiempo de respuesta con el que cuenten.