Hoy leo un artículo firmado por, cito, “Mary Curnock Cook CBE, quien preside el Instituto Dyson y es fideicomisaria de HEPI, y Bess Brennan, Jefa de Asociaciones Universitarias con Cadmus, que está llevando a cabo una serie de eventos de colaboración con líderes universitarios del Reino Unido sobre los retos y oportunidades de la IA generativa en la educación superior”. HEPI (The Higher Education Policy Institute, 2020) es un grupo de expertos educativos clave, extendida “por todo el Reino Unido, independiente y no partidista. Estamos financiados por organizaciones y universidades que desean ver un debate vibrante sobre la educación superior, así como a través de nuestros propios eventos”.
El artículo se llama “De la prohibición de la IA a la integración, o por qué las universidades deben acelerar el ritmo”, y se puede ver en el título hacia dónde va. Es un resumen del Foro de enseñanza y aprendizaje organizado por Cadmus y King’s College en junio de 2025, sobre “el desajuste entre el ritmo del cambio tecnológico y social al que se enfrentan las universidades y la lenta velocidad de adaptación institucional en lo que respecta a la IA”. No voy a repetir las ideas principales con las que todos estamos familiarizados, pero, básicamente, el foro trató sobre la situación a la que nos hemos enfrentado en los últimos dos años y medio: los estudiantes están utilizando masivamente la IA, y esto nos ha obligado a cambiar nuestro enfoque sobre la evaluación, con mucho más énfasis en los ejercicios en el aula, lejos de internet.
Las IA generativas (o, más bien, LLM) se están multiplicando, además, y ChatGPT ahora está acompañado por Claude, Copilot, Gemini y DeepSeek. Claude for Education de Anthropic, “que ayuda a los estudiantes guiando su proceso de razonamiento, en lugar de simplemente proporcionar respuestas”, parece tan aterrador como el resto, si no más. Hubo en el foro un reconocimiento general de que la introducción de la IA generativa en la educación superior ha sido forzada por los estudiantes, y no es en absoluto una opción que nosotros, los docentes, hubiéramos aceptado de antemano. El cambio, además, ha sido muy rápido, sin darnos apenas tiempo para reaccionar. Hay referencias en el artículo a la implementación del uso de Cadmus en la Universidad de Birmingham (que logró “ahorrar 735.2 horas de tiempo del personal académico al tiempo que se mejoraron los resultados de los estudiantes”) como un éxito. Cadmus, que dirigía este foro, es una plataforma privada que promete mejorar la evaluación evitando los LLMs. Parece estar unos pasos por delante de Moodle como la herramienta definitiva para digitalizar la evaluación, como si los profesores ya no supiéramos recoger ejercicios y calificarlos.
Me gustaría centrarme en las tres recomendaciones del foro que recopila el artículo. La primera es “Abordar las desigualdades sistémicas, no solo el diseño de la evaluación”, algo que parece de puro sentido común. Los medios digitales están dando una ventaja a los estudiantes más privilegiados que tienen acceso a ordenadores y teléfonos inteligentes actualizados, el ancho de banda requerido, etc. Los que carecen de estas herramientas sufren de, ¡atención!, ‘pobreza digital’. Segunda sugerencia: “Reducir la evaluación de alto riesgo”. Otra sugerencia de sentido común: “reducir la dependencia de los exámenes de alto riesgo en favor de métodos de evaluación diversos y más auténticos”. Esto me sorprende dado que, precisamente, el problema de la IA generativa ha surgido porque, en los últimos quince años desde la implantación de las titulaciones basadas en ECTS, hemos ido sustituyendo los exámenes por otro tipo de ejercicios realizados en casa.
He aquí está la sugerencia que más me molesta: “Co-crear con los estudiantes como socios”. Cito: “Los estudiantes están impulsando el ritmo del cambio, ya están usando IA. Deben ser socios en el diseño de soluciones, no solo receptores de políticas”. La acción recomendada es “Involucrar a los estudiantes en el diseño conjunto de evaluaciones, rúbricas y políticas sobre la IA. Crear un diálogo bidireccional sobre las experiencias de aprendizaje y capacitar a los estudiantes para que compartan estrategias de aprendizaje. Generar confianza a través de la transparencia y una asociación genuina”. Para que se entienda mi postura, en mis clases de máster ya he delegado totalmente en los estudiantes la responsabilidad de su evaluación. Tienen una rúbrica y pueden calificar su rendimiento. Si exageran sus méritos, entonces intervengo, pero ha sido innecesario hasta ahora. En mis clases de Grado, solía pedirles a los estudiantes que calificaran su participación en el aula, también sobre la base de una rúbrica. Hablo en pasado porque solía hacer esto con mis estudiantes de segundo año. Ahora que estoy enseñando cuarto año, estoy usando un modelo completamente diferente para la participación en el aula, que necesita mi calificación, pero que estoy dispuesta a repensar.
Por lo tanto, los estudiantes YA son mis colaboradores, aunque solo sea porque no puedo enseñar si no quieren colaborar conmigo. Incluso pueden calificar mi tarea docente en las encuestas semestrales aunque, como mi Facultad sabe muy bien por mis constantes protestas, dichas encuestas deben modificarse para que reflejen la opinión de toda la clase y no solo del 30% que se molesta en completarlas, y que, en algunos casos, ni siquiera asisten a clase. A pesar del poder que las encuestas han puesto en manos de los estudiantes, y que puede afectar la obtención de nuestro complemento salarial quinquenal por una enseñanza de calidad, la educación superior no está diseñada para ser una colaboración plena e igualitaria. El desequilibrio de poder del que depende la evaluación no se puede eliminar, aunque se puede reducir.
Sin embargo, lo que más me preocupa no es la evaluación, sino la pedagogía. Para mí, la idea de que las opiniones de los estudiantes sobre cómo deben ser educados tenga el mismo peso que las de los docentes no es aceptable. Sé que algunos de mis antiguos maestros, particularmente en la escuela secundaria, se burlarían si leyeran esto porque yo era una estudiante chulilla que siempre protestaba contra los exámenes, que he odiado con pasión toda mi vida. Creo que los estudiantes deben expresar su opinión sobre la evaluación, si la encuentran injusta, sesgada o defectuosa, pero no estoy dispuesta a aceptar imposiciones, y el uso de la IA generativa es una imposición implícita que se está volviendo explícita, con la complicidad de las universidades bajo la presión de los think tanks y las empresas. Esta laxitud es fruto de otras bajadas de pantalones, que también hemos aceptado a lo largo de los años. Me refiero a la resistencia a la lectura, que hemos aceptado mansamente como signo de los tiempos y de nuestra obsolescencia como profesores de Literatura. Hemos ido reduciendo nuestras listas de lectura y ahora estamos cediendo al uso de la IA generativa. No hay nada más allá de esta rendición, excepto la muerte de las Humanidades.
Tuve un desacuerdo en BlueSky con el muy amable Prof. Jon Jackson (@iamjonjackson.bsky.social), Profesor Titular de Ingeniería y Gestión de Software de la Universidad Queen Mary de Londres. De hecho, él fue quien recomendó el artículo que he estado comentando. Escribí en respuesta a uno de sus mensajes que “Los estudiantes no están impulsando el ritmo del cambio, están imponiendo su mal uso de la IA y destruyendo prácticas clave en el aprendizaje y la investigación. Al menos los estudiantes más perezosos. Los más motivados tampoco están contentos con el uso de la IA. ¿Por qué esta connivencia total?” Él respondió que aunque en “lengua, literatura y artes, por ejemplo, entiendo totalmente cómo la IA generativa puede verse como un flagelo + una afrenta a la dignidad de la creatividad humana” en ingeniería de software, los estudiantes más motivados “tendrán (y deberían tener) una visión muy diferente sobre la IA generativa en comparación con los estudiantes de literatura inglesa, por ejemplo. El contexto es muy importante…” Terminé nuestro breve intercambio de acuerdo en que, sí, el contexto es clave, es por eso que el uso de la IA me parece un ataque frontal contra las Humanidades.
No veo así pues ventaja alguna en colaborar con los estudiantes para decidir cómo pueden usar la IA para la evaluación en el aula de Literatura Inglesa. Equivaldría a colaborar en la destrucción de las prácticas académicas que he defendido durante la mayor parte de mi vida, desde que era una estudiante de educación secundaria que soñaba con ser profesora universitaria. Otras revoluciones en la vida académica, introducidas por la digitalización gradual de catálogos, bases de datos y textos, han sido compartidas por estudiantes y profesores por igual, y han mejorado nuestro trabajo dentro y fuera del aula. De hecho, los docentes sabemos que somos mucho más competentes a la hora de encontrar fuentes secundarias e información en línea que nuestros estudiantes, porque, naturalmente, tenemos más práctica. Lo que la IA generativa ha aportado a la educación superior no tiene nada que ver con la mejora, sino con la destrucción de nuestros procesos intelectuales, por eso no la acepto.
No soy una talibana digital, y veo las ventajas de usar la IA generativa en algunos campos y para algunos propósitos. Desde que Google introdujo Gemini, la uso para resolver dudas o buscar información, con rendimiento algo más avanzado que simplemente usando Google. Le he preguntado a ChatGPT en ocasión sobre fuentes primarias y secundarias. Sin embargo, no he usado ningún LLM para escribir o corregir mis textos, calificar ejercicios de estudiantes, escribir reseñas de libros o hacer revisiones por pares y, en resumen, para ninguna actividad que requiera el uso de mis habilidades intelectuales. Ayer leí un comentario de una estudiante que prefería que una IA calificara sus exámenes, ya que los docentes se cansan al calificar y se vuelven cada vez más injustos después de unas horas. Sin embargo, imaginad una situación en la que el estudiante escribe los ejercicios usando ChatGPT y los docentes, felices por poder usar su tiempo para investigar, también usan ChatGPT para calificar. ¿Sería esa una pedagogía aceptable? ¿Qué tipo de colaboración educativa retorcida es esta?
Siempre les digo a mis alumnos que usar ChatGPT es como tener un amigo que te ayude con tus ejercicios, y ese podría ser un tema clave. Jeremy Ettinghausen, un profesor que ha explorado las 12000 preguntas que tres de sus alumnos (varones) le habían hecho a ChatGPT a lo largo de 18 meses llegó a la conclusión de que estos tres estudiantes, que “no son chicos solitarios sin amigos” están “escribiendo en el vacío con solo un algoritmo haciéndoles compañía”. Ellos “recurren cada vez más a los ordenadores para hallar respuestas a las preguntas que deberían hacerles a otras personas. ChatGPT se equivoca, nos dice lo que queremos oír y nos adula, pero nunca juzga, siempre es accesible y parece saberlo todo. Hemos entrado en un salón de espejos y aparentemente nos gusta lo que vemos”. ChatGPT y otras IAs están causando lo que mi buena amiga Carme Torras llamó una “mutación sentimental” en su novela homónima. Carme, ingeniera en robótica, imaginó una humanidad debilitada por la dependencia de asistentes robóticos omnipresentes provistos de IA. Ahora que tenemos una IA mínimamente funcional, no me sorprendería si pronto salta del smartphone o el portátil a asistentes robóticos humanoides.
No quiero colaborar en la evaluación con estudiantes dependientes de la IA, pero estoy abierta a sugerencias de aquellos pocos que se resisten a su omnipresencia y ven cómo su mal uso está destruyendo las Humanidades. Insistiré en la expresión “mal uso”, ya que de hecho hay formas positivas de usar la IA. La cuestión es que estas formas positivas deben excluir siempre la suplantación de la creatividad intelectual y artística humana. La IA debería ayudarnos, no reemplazarnos.