Estos días he estado corrigiendo las galeradas de mi próximo libro Passionate Professing: The Context and Practice of English Literature (Universidad de Jaén), que reúne un ensayo y una selección de entradas de este blog hasta 2020. Me preocupa que el volumen ya esté desactualizado debido a sus muchas referencias al plagio y la ausencia de reflexiones sobre ChatGPT. Debo señalar, no obstante, que las primeras noticias sobre el chatbot de Open AI comenzaron a aparecer en diciembre pasado, ni siquiera hace un año (ChatGPT se lanzó el 30 de noviembre de 2022). Como todas las universidades, aquí en la UAB estamos luchando para adaptarnos a la nueva situación, aunque algunos departamentos parecen estar más preocupados que otros. El mío, el Departamento de Inglés y Alemán, se ha apresurado a comprender la profundidad del problema, tal vez porque leemos la prensa anglófona y hemos recibido una alerta temprana.

            Mi propia advertencia es que no importa con qué frecuencia ChatGPT falle, al no ofrecer los resultados esperados: pronto aprenderá. Es importante entender que OpenAI y todas las demás compañías que ofrecen productos con IA no saben muy bien cómo funciona realmente la IA. En principio, ChatGPT se define como “un chatbot amplio basado en modelos de lenguaje”, que está lejos de ser una inteligencia artificial general independiente, pero debemos preocuparnos por hasta dónde puede llegar. Cuando un usuario le preguntó a ChatGPT “¿Por qué eres tan útil?, ¿qué quieres a cambio?”, el bot respondió con descaro: “Como modelo de lenguaje entrenado por OpenAI, no tengo deseos o necesidades como los que tiene un humano. Pero si realmente quieres ayudar, podrías darme la ubicación exacta de John Connor”. Su broma de mal gusto me alarmó y mucho (para aquellos que no sois frikis, John Connor es en la franquicia Terminator el líder humano en la futura guerra total contra la IA, liderada por Skynet).

            Otro momento escalofriante vino de una advertencia hecha por diversos micólogos en el sentido de que varias guías escritas por IAs y vendidas en Amazon contienen información errónea, que podría causar la muerte por envenenamiento si ingieres un hongo peligroso. Aparentemente, Amazon está tan inundada de libros escritos por IAs, que ha prohibido a las personas que los publican sacar más de tres libros al día. Añádase a esto la reciente denuncia contra OpenAI presentada por George R.R. Martin, John Grisham y otros autores importantes (la lista tiene 17 nombres afiliados al Authors’ Guild) para prohibir a ChatGPT apropiarse de sus obras y así escribir otras. Al parecer, Martin se encontró con una precuela de su saga Canción de hielo y fuego, el origen de la serie de televisión Juego de tronos, escrita por ChatGPT sin su consentimiento. Martin nunca ha autorizado la fan fiction y, comprensiblemente, está muy poco satisfecho con esta flagrante apropiación.

            El campo de la educación superior se divide entre aquellos que aborrecen cualquier aspecto de ChatGPT (como una servidora) y aquellos que piensan que ChatGPT puede ser integrado en el aula e incluso debe ser integrado. El argumento de estos últimos es que el crecimiento de ChatGPT no se puede detener y, según dicen, evitar que los estudiantes nos engañen pasa por hacerse cargo de su uso y explotarlo, como hacemos, por ejemplo, con las bases de datos bibliográficas. Como he señalado, estamos aún en las primeras etapas de ChatGPT. Con todo, mi primera experiencia con ChatGPT para la investigación académica ha sido una decepción total. Le pedí al bot que me proporcionara una lista de obras literarias en las que un personaje secundario desempeña un papel significativo que define la trama y una lista de fuentes secundarias sobre el concepto “personaje secundario”. La lista de obras literarias era de interés limitado; una cosa que noté al instante es que no importaba cuántas variaciones introdujera en mi solicitud, ya que ChatGPT siempre se centraba en los mismos libros. Mi propia lista (para un libro que quiero escribir en un futuro próximo) es mucho más amplia y sugerente.

            En cuanto a las fuentes secundarias, ChatGPT sugirió consultar las bases de datos habituales (cosa que ya he hecho) pero cuando insistí, me proporcionó una lista de fuentes. Me alegró haber encontrado tantas fuentes que no conocía sobre el tema del personaje secundario, pero cuando revisé unas cinco me di cuenta de que eran inventadas. Los autores existían, pero ChatGPT había extrapolado de sus publicaciones títulos (no referencias bibliográficas completas) de obras falsas. El bot había reunido todo lo que encontró sobre personajes secundarios y así creó una bibliografía falsificada sin utilidad alguna. En una línea similar, se puede disfrutar de la crónica escrita por Elif Batuman sobre sus dificultades para que ChatGPT encontrara una cita en la serie de novelas de Proust En busca del tiempo perdido. ChatGPT ofreció varias citas inexactas e incluso mintió sobre la disponibilidad del texto original en francés, alegando que todavía está protegido por los derechos de autor cuando no lo está. Este ánimo juguetón, si es solo eso, comienza a sonar como cabezonería.

            La situación en cuanto a la evaluación del trabajo de nuestros estudiantes es que ahora el plagio ha quedado en segundo lugar respecto a… ¿qué? Ni siquiera tenemos una etiqueta para lo que sucede cuando un estudiante presenta un texto generado por IA. Las herramientas antiplagio como Turnitin no sirven para detectar texto creado por IA, mientras que las nuevas herramientas, como ZeroGPT, dan resultados falsos. Los seis ensayos presentados por mis alumnos el pasado mes de junio que, según esta app, no fueron escritos por humanos, resultaron haber sido escritos por estudiantes que simplemente no habían leído las novelas correspondientes. ZeroGPT los detectó porque el estilo era tan robótico como el utilizado por ChatGPT.

            Una cosa que me llamó la atención la semana pasada, en cualquier caso, es que no solo los estudiantes de Grado, sino también los estudiantes de máster están utilizando ChatGPT para sus tesinas. Un estudiante de Grado se jactó de que ChatGPT había escrito la segunda mitad de su TFG, después de haber postergado durante demasiado tiempo su confección. Obtuvo un 7, lo cual es en sí mismo interesante: ChatGPT puede ayudar a aprobar, pero no a obtener sobresalientes. Una estudiante de máster también se jactó de que ChatGPT la había ayudado a terminar su TFM, para el cual también había proporcionado la argumentación principal. Como siempre he dicho, hay muchos métodos para engañar a un docente y este es tan solo el más nuevo; lamento, como siempre, que tantos estudiantes rechacen la oportunidad de recibir una educación y se centren en obtener un certificado de titulación que no demuestra nada.

            No estoy enseñando este semestre y tendré que esperar hasta el próximo para ver cómo funcionan las cosas en mi clase de Literatura Victoriana. Nosotros, los dos profesores a cargo de la asignatura, hemos decidido que los estudiantes escriban los ensayos más cortos en clase (no son exámenes porque ellos eligen los pasajes que deben comentar y preparan el ensayo en casa), pero aun así pediremos el habitual ensayo de 2000 palabras con 4 fuentes secundarias. Supongo que ChatGPT puede generar fácilmente trabajos de segundo año, pero, a diferencia de otros colegas, no queremos eliminar ese tipo de ejercicio y volver a los exámenes, que odio. Los tramposos siempre nos engañarán, pero sigo creyendo en la integridad personal. Si atrapo a un estudiante usando ChatGPT, me llevaré una decepción, en lugar de sentirme molesta o enojada. En cuanto a aquellos que me engañarán con éxito, me hacen sentir vergüenza ajena; lamento mucho que estén perdiendo la oportunidad de aprender. Skynet se anota así una victoria, y el pobre John Connor pierde una vez más.

            No estoy en contra de usar IA con fines creativos, siempre y cuando se reconozca. Supongamos por un momento lo ridículo que sería para los especialistas en efectos especiales afirmar que las imágenes por ordenador no existen y que todo es su propio trabajo minucioso hecho a mano. De la misma manera, no veo obstáculo para que todo tipo de artistas apliquen la IA a la producción de nuevas imágenes, aunque esto ya está creando problemas singulares. Recientemente, la junta de revisión de la Oficina de Derechos de Autor de los Estados Unidos determinó que la imagen generada por IA Théâtre d’Opéra Spatial, ganadora del concurso anual de arte de la feria estatal de Colorado en 2022, no puede ser propiedad registrada porque la protección “excluye las obras producidas por seres no humanos”. El artista Jason Allen, que había utilizado la plataforma de IA Midjourney para crear la imagen, alegó que él era el autor porque “entró una serie de indicaciones, ajustó la escena, seleccionó partes para destacarlas y dictó el tono de la imagen”. La junta respondió categóricamente que la imagen “carece de autoría humana, y la Oficina no la registrará”. Esto podría ser un error ya que Midjourney no genera imágenes espontáneamente y depende de artistas humanos para desarrollar ideas creativas. Allen, por lo tanto, parece ser el autor. Llamaría tramposo a Allen si negara haber usado Midjourney, o si el concurso anual de arte de Colorado prohibiera el uso de IA. Tal vez debería haber un evento separado, y un circuito artístico alternativo, para el arte generado por IA.

            La autoría, como puede verse, es una palabra clave en el caso de ChatGPT. Así como Midjourney no genera arte solo, ChatGPT no genera escritura sin instrucciones humanas. Cómo dar esas instrucciones es otro tema clave, porque mientras que uso un programa de ordenador para escribir mis entradas y traducirlas al castellano, no puedo hacer que Word escriba por sí mismo (bueno, sí lo hago en el caso de la traducción, pero ésta proviene de mi propio texto en inglés). Podría comenzar a usar ChatGPT para escribir las entradas en este blog, pero mi autoría disminuiría radicalmente hasta el punto de que no podría llamarme autora (¿solo apuntadora?).

            Tal vez esté destruyendo mi propio argumento en apoyo de la autoría de Jason Allen de Théâtre d’Opéra Spatial, pero creo que no se puede reclamar como propio un escrito que sólo se ha revisado. Tengo de hecho algunas dudas sobre si soy la autora de la versión en castellano de mi blog, ya que utilizo la función de traducción automática de Word para generarla, pero hasta ahora la legislación de derechos de autor reconoce los textos traducidos como el trabajo del autor original (y del traductor, si hay un traductor humano; Word, Google o Deep-L no obtienen derechos de autor para los textos traducidos). Te estaría engañando, querido lector, si ofreciera como publicaciones mías textos generados por ChatGPT, porque no serían realmente obra mía. Si, supongamos, le pidiera a un estudiante que escribiera la entrada de esta semana usando algunas ideas mías, igualmente la entrada no sería realmente mía. Por lo tanto, lo que esté escrito con ChatGPT no se puede reclamar como propio, al menos no en la forma en que operan los derechos de autor hoy en día (empiezo a pensar que quizás Allen puede reclamar la autoría pero no los derechos de autor de su imagen…).

            Una cuestión de peso es recordar que las imágenes o textos generados por IA pura no existen, ya que todos los bots como ChatGPT son instrumentos incitados a trabajar por humanos. Algún tipo de colaboración entre humanos e IAs podría ser aceptable, aunque confunda la distinción entre autoría y derechos de autor. En cuanto a los estudiantes, si el uso de ChatGPT está prohibido porque requerimos autoría humana completa, enviar un texto generado por IA es hacer trampa. El día en que comencemos a evaluar lo que los estudiantes pueden hacer con ChatGPT u otros bots podría llegar, pero no es un día que esté deseando ver.