Programando la evaluación del curso I


Hace unas semanas, @eneko_fc inició un hilo en Twitter que ha generado un sinfín de reacciones y casi una decena de interesantes aportaciones en formato de vídeo. Con el hashtag #AsíFlipeoEn3Minutos, varios docentes nos lanzamos a explicar cómo programamos un curso siguiendo el modelo de aprendizaje inverso.

Aunque esta entrada recoge la lista de reproducción donde pueden consultarse esos vídeos, el verdadero objetivo de las siguientes líneas es profundizar en algunos aspectos mencionados en mi propia explicación sobre 1º de Bachillerato. Y, más en concreto, en la relación existente entre todas esas actividades, así como en su proceso de evaluación.

La deconstrucción del examen

Al término del pasado curso detecté dos problemas que tenían su origen en mi forma de evaluar la asignatura. El primero de ellos tenía que ver con lo poco que aprovechaban los alumnos es tiempo que se les daba para trabajar en el aula. Mientras que el otro guardaba relación con la tendencia a esforzarse únicamente en el estudio de los exámenes.

En su momento escribí una entrada en este blog en la que hablaba de la necesidad de deconstruir el examen. No me detendré a explicarlo de nuevo, pero sí a comentar cómo se ha plasmado esto en mi programación para este curso.

En lugar de realizar exámenes cada dos unidades didácticas, he recurrido a la fórmula de hacer una única prueba al final de cada trimestre. Ahora bien, con el fin de no darle un valor decisivo en la nota de la evaluación, supone únicamente el 26% de la misma.

iDoceo2.png

A partir de ahí, teniendo en cuenta que el acuerdo de mi departamento establece que el 80% de la nota deben ser exámenes, me las ingenié para distribuir una gran cantidad de pequeñas pruebas a lo largo de cada trimestre. Con esto lo que pretendo alcanzar dos objetivos:

  1. Que el trabajo del alumnado sea continuo y no fruto de la urgencia provocada por un examen puntual.
  2. Hacerles ver que muchas pocas cosas hacen algo muy grande.

Un mini-examen semanal de carácter plural

La idea que tengo en mente es que mis alumnos, en cada unidad didáctica, se enfrentarán a una prueba de conceptos, un kahoot, un test y un pequeño examen oral. Evidentemente, cada uno de esos ejercicios se realiza distanciado varios días del anterior y del posterior. Eso permite que cada semana tengan que demostrar, en una prueba sencilla, sus conocimientos.

iDoceo1.png

Otra ventaja que destacaría de ese sistema es la variedad de los sistemas que se utilizan. Al fin y al cabo, no es lo mismo enfrentarse a un examen oral que a uno escrito, a una prueba de conceptos que a una tipo test o a una actividad donde basta con acertar que a otra donde cuenta también la competencia.

Al final, ese conjunto de pequeñas pruebas completa el 80% de la nota dedicada a los exámenes de la siguiente manera:

– Cada uno de los tres exámenes de conceptos es un 4%.
– Cada uno de los tres test es un 6%.
– Cada uno de los cuatro kahoots es un 1%.
– Cada uno de los cuatro exámenes orales es un 5%.

Reflexiones sobre el curso IV: solucionando el tercer fracaso


Después de abordar en los textos anteriores –Solucionando el primer fracaso y Solucionando el segundo fracaso– los dos primeros problemas que localicé en la entrada “El fracaso final”, pretendo a continuación hincarle el diente al tercero.

En su momento señalé al alumnado como uno de los principales obstáculos para llevar a término mis objetivos como docente. Es muy complicado lograr que trabajen en clase cuando están acostumbrados a ser meros objetos pasivos de una explicación. Comentaba que, al valorar únicamente los exámenes –pues así les hemos tratado los docentes-, desperdician el tiempo que se les da en el aula.

Una cuestión de intensidad

A lo largo del curso he tratado de supervisar todo lo que hacían mis alumnos durante el tiempo de clase. Sin embargo, no se me escapa que podía haber desarrollado mejor esta tarea. No se trata únicamente de estar más activo en el aula, sino de preparar con antelación los comentarios y correcciones que cada uno necesita.

En definitiva, reflexionar sobre la situación de cada estudiante y, a partir de los exámenes y trabajos, analizar sus errores más comunes para buscar soluciones. Todo ello acompañado de una mayor intensidad en el aula por mi parte, pues resulta absurdo pedirles un plus de esfuerzo si el docente no va por delante dando ejemplo.

Cumpliendo esos dos requisitos, pienso que podría poner solución a parte del tercer fracaso que señalaba en mi primera entrada.

La deconstrucción del examen

Ahora bien, resulta imposible terminar con un alumnado pasivo si dos o tres días del trimestre, los que ocupan los exámenes, constituyen más del 80% de la nota final. Así es absurdo tratar de convencerles de que cada sesión cuenta, pues nosotros mismos estamos mostrando lo contrario.

Una solución sería reducir el valor porcentual de los exámenes. Sin embargo, no todos tenemos la posibilidad de cambiar los criterios de evaluación a nuestro gusto. Por ese motivo, he ideado un segundo camino: la desconstrucción de la prueba.

Para ello es necesario eliminar el día del examen. Las distintas preguntas que forman para del mismo –conceptos, preguntas cortas, test, temas a desarrollar, ensayo histórico, prácticas…- se distribuyen entre varias sesiones de clase. De esta manera, desaparece la percepción de que hay un día más importante que otros; o, dicho de otro modo, las restantes clases adquieren mayor importancia.

En resumen, se trata de desorientarles buscando su bien: al no marcar un día con el color rojo en el calendario, todas las clases adquieren importancia.

Quizá pueda parecer una media un tanto radical. Sin embargo, no veo que exista otra forma de terminar con el absolutismo de la prueba. Para tener a los alumnos activados todos los días, no queda otra que terminar con el examen tal y como lo conocemos.

Reflexión sobre las herramientas para generar test


Después de dos días escribiendo sobre la utilización de los test en el proceso de evaluación –En defensa de las pruebas tipo test y Evaluando con test: apuntar es acertar-, pretendo ahora analizar el uso de aplicaciones que autocorrigen las pruebas.

No pretendo explicar de forma pormenorizada el uso de Socrative, Grade Scanner, Drive o Moodle. Entre otras cosas porque solo trabajo con una de esas aplicaciones, no con todas. Mi objetivo es otro: reflexionar sobre lo que aporta a la labor docente, así como sus peligros.

Ganando en tiempo y objetividad

Después de publicar mi primera entrada, varias personas comentaron que era una buena opción porque se ganaba tiempo en la corrección. Además, destacaban el carácter objetivo de los test en comparación con otro tipo de preguntas más abiertas a interpretación.

Considero que una buena rúbrica ayuda a alcanzar cierta objetividad en la corrección de cualquier prueba. Pero parece evidente que, aún así, los test mantienen su posición privilegiada en ese aspecto.

En lo que al tiempo se refiere, también debo darles la razón. Aunque es verdad que se tarda mucho más en preparar un cuestionario que en escribir el título de un tema para desarrollar, no es menos cierto que, una vez tienes una base de datos con preguntas de test, ese proceso es bastante sencillo.

A todo esto hemos de añadir el tiempo que nos permiten ahorrar aquellas aplicaciones que corrigen automáticamente los test. Conocer la nota de un alumno escaneando la hoja con el iPad, tal como permite Grade Scanner, es todo un lujo.

¿Ahorrar tiempo para trabajar menos?

No soy enemigo de las aplicaciones auto-correctoras, sino todo lo contrario. Ahora bien, la búsqueda de una fórmula de corrección más rápida puede llevarnos a tener docentes “comodones” e incapaces de detectar las necesidades reales del alumnado.

Una buena fórmula para evitar esos peligros es dedicar al análisis de los resultados el tiempo que nos ahorramos en la corrección. Con esa dedicación, además de evitar convertirnos en profesores aburguesados, adquirimos un conocimiento de las carencias, puntos fuertes y problemas de nuestros estudiantes que difícilmente podríamos tener sin contar con esas herramientas.

Con la información que aporta ese análisis tendremos más posibilidades de saber cómo ayudarles a mejorar.

En resumen, no cabe duda que la tecnología es un gran aliado en nuestra tarea docente. Sin embargo, en la medida que vaya asumiendo cargas que hasta la fecha recaían únicamente en nosotros, hemos de ir abriendo nuevos campos a nuestra actividad. Lo contrario supondría no avanzar en la calidad de la educación: mera sustitución del profesor por la máquina.

Llegaríamos a una situación en la que, salvo la pérdida del elemento humano, no habría cambios reales en el proceso de evaluación. Y eso es una verdadera pena, una gran oportunidad desaprovechada.

Evaluando con test: apuntar es acertar


En mi entrada de ayer, partiendo de la necesidad de enriquecer el proceso de evaluación, defendía la presencia del test como un elemento más –al menos en las Ciencias Sociales- de los exámenes de Secundaria y Bachillerato. Además de aportar argumentos a favor de ese procedimiento, establecía matices al respecto, al tiempo que señalaba algunas de las principales variantes existentes.

En el presente texto me limitaré a narrar una experiencia reciente. Una modalidad de test que he puesto en marcha con los estudiantes de Historia del Mundo Contemporáneo en las pruebas finales del curso.

Alumno dubitativo vs alumno bet365

En 1º de Bachillerato, a partir del segundo examen del curso, suelo bajar puntos por escoger una opción incorrecta. Con eso pretendo evitar que los alumnos que no han estudiado obtengan, por azar, una calificación inmerecida. El mero hecho de saber que pueden perder nota por fallar, les frena a la hora de “jugársela”.

De esta manera, la pregunta acertada les otorga una décima (0.1), mientras que los errores les penalizan en cinco centésimas (0.05). Al respecto, he de aclarar que esa última cifra va evolucionando a lo largo del curso, pues en la primera evaluación solo es una centésimas (0.01) y en la segunda tres (0.03). Evidentemente, una pregunta no contestada no penaliza, pero tampoco bonifica.

Hasta ahí todo normal, pues es una modalidad de test común en el sistema educativo; una variante que permite anular a los amigos del azar, a los alumnos que suelo denominar “bet365”. Sin embargo, había algo en mis test que no terminaba de cuadrar.

Me preguntaba si no estaría perjudicando a los estudiantes que dudaban (“dubitativos”) únicamente entre dos respuestas.

Desde mi punto de vista, no es lo mismo estar entre dos opciones que entre cuatro. Y, en un sistema donde se bajan décimas por fallar, lo más normal es que ambos –dubitativo y bet365- lo dejen en blanco. En definitiva, mis test no establecían diferencias entre los alumnos que habían estudiado sin demasiada profundización y los que no habían tocado el temario.

Dando color al sistema

Teniendo en cuenta que, como docente, mi deber es tratar de valorar en su justa medida el esfuerzo de los estudiantes, empecé a pensar cómo podía alcanzar una mayor exactitud en el test. Fue entonces cuando ideé el sistema de las dos respuestas; una opción que, todo hay que decirlo, fue del agrado del alumnado.

Se trata de una variante en la que, con distintos colores, se les permite marcar dos opciones. Una de ellas es la que llamamos “respuesta directa”, y su acierto supone alcanzar la décima (0.1) que se otorga como máximo en cada pregunta. El segundo color corresponde a la “respuesta secundaria” que, en caso de resultar correcta, les permite ganar tres centésimas (0.03).

Como es lógico, previamente han de indicar en la parte superior de la hoja a qué color corresponde cada una de las respuestas.

Las conclusiones que puedo ofrecer a día de hoy son escasas y se basan en un único examen. Ahora bien, el breve análisis que he realizado de los test me lleva a pensar que he conseguido separar la paja del trigo: se aprecia claramente quiénes son “bet365” y quiénes “dubitativos”. Y, por tanto, considero que la puntuación de la pregunta es más justa con estos últimos.

En defensa de las pruebas tipo test


Durante el curso 2013-2014 decidí introducir en mis asignaturas un apartado de test en los exámenes, y desde entonces han estado presentes en casi todas las asignaturas que he impartido.

Los motivos que me llevaron a tomar esa decisión fueron múltiples y variados. Por un lado, pretendía descubrir hasta qué punto el alumnado era capaz de afinar en el conocimiento de la materia. Y, por el otro, me pareció lógico acostumbrarle a un modelo de examen con el que, probablemente, se tengan que enfrentar en no pocas ocasiones durante su etapa universitaria.

Sobre este último aspecto es interesante señalar que, aunque todos somos capaces de leer y marcar una casilla, no nacemos sabiendo hacer test. Ese tipo de pruebas, como tantas otras, tienen sus trucos, su “arte”. De ahí la importancia de practicar y aprender a enfrentarse a ellas lo mejor posible a partir de la experiencia.

Enriquecer el proceso de evaluación

Ahora bien, aunque defiendo la necesidad de enseñar a los estudiantes a afrontar los test, no soy partidario de que ese sea el único elemento de los exámenes. Entiendo que las pruebas, al igual que la evaluación global de la asignatura, deben abordar diversas capacidades.

Lo contrario sería caer en el error que, al menos en las Ciencias Sociales, hemos cometido durante décadas: la entronización de la memoria.

Desde mi punto de visto, en une examen el alumnado debe demostrar tanto sus conocimientos -preguntas de desarrollo y test- como su aplicación en forma de prácticas. A esto hemos de añadir el correcto manejo de términos específicos de la materia –conceptos- y la expresión escrita. En definitiva, mantengo a la tan denostada memoria, pero en igualdad con respecto a otras capacidades.

Evidentemente, hablo en todo momento de los exámenes escritos, pues considero que en la evaluación de la materia se deben tener en cuenta otros aspectos importantes como la expresión oral, el trabajo de investigación, la competencia digital, el trabajo en equipo…

La amplia familia de los test

Cualquier docente que haya elaborado alguna vez una pregunta de test sabe perfectamente que existen múltiples variantes. Se trata de una cuestión a la que llevo tiempo dándole vueltas y sobre la que, probablemente, escriba en los próximos días.

Sin embargo, ahora mismo me limitaré a plantear una sencilla clasificación:

  1. Según el número de opciones.
  2. Según el número de respuestas correctas.
  3. Según la penalización por error cometido.
  4. Según el tiempo de respuesta con el que cuenten.