La semana que viene iba a participar en un seminario, que tendré que perderme, con una charla sobre cómo utilizar correctamente la IA. En esta charla iba a describir, una vez más, cómo el difunto Iain M. Banks presenta la IA en sus novelas sobre la Cultura (véase https://en.wikipedia.org/wiki/Culture_series).
La Cultura es una sociedad anarco-socialista post-escasez, nacida de una confederación de civilizaciones humanoides que acuerdan que la supervivencia en sus gigantescas naves espaciales, sus orbitales, y los planetas y asteroides vacíos que ocupan requiere habilidades de gestión excelsas. Por lo tanto, la Cultura confía esa gestión a sus IAs, apodadas las Mentes, que se alojan en las computadoras que manejan las naves espaciales. Las Mentes ayudan progresivamente a los ciudadanos de la Cultura a deshacerse del dinero, del trabajo obligatorio y de la propiedad, de modo que estos afortunados ciudadanos llegan finalmente a un estado utópico en el que pueden vivir como les plazca.
Banks se muestra muy optimista al suponer que las Mentes pueden gestionar una economía del todo estable (los miembros de la Cultura no están interesados en el consumo desaforado) y que los ciudadanos pueden encontrar satisfacción en el ocio; la mayoría ocupa su tiempo en satisfacer sus deseos personales sin necesidad de agresión, posesividad o dominio. La Cultura está lejos de ser perfecta, como señalan constantemente sus enemigos, pero muestra cómo la IA puede ser utilizada para la liberación humana: como ayuda para alcanzar la estabilidad social, deshacerse de los trabajos que nadie debería ser obligado a hacer y liberar a los ciudadanos de las compulsiones que a menudo hacen la vida insoportable aquí en la Tierra. También, para garantizar la salud y el control total sobre el cuerpo. Banks no dice prácticamente nada sobre cómo se educa a los ciudadanos de la Cultura, pero supone que una vez que se eliminan el patriarcado y el capitalismo, la educación puede basarse en el respeto mutuo y el desarrollo de las capacidades de cada persona.
En cambio, la forma en que la IA está progresando aquí en la Tierra ya se ha convertido en una pesadilla, dado que está dominada por intereses corporativos basados en la codicia. La IA se está utilizando de muchas maneras diferentes que facilitan la vida humana, pero me refiero aquí a la IA generativa que está privando a muchas personas de sus trabajos en profesiones creativas y que amenaza con acabar con la capacidad humana de procesar el pensamiento. Como escribió Brian Klaas ayer (https://www.forkingpaths.co/p/the-death-of-the-student-essayand), “En las etapas formativas de la educación, ahora corremos el riesgo de despojarnos de la competencia básica que hace que nuestra especie prospere: no de trata de aprender qué pensar, sino cómo para pensar”. Klaas, un profesor, se refiere en particular a “un nuevo género de ensayo que otros académicos que lean esto reconocerán instantáneamente, una torpe colaboración entre los estudiantes y Silicon Valley. Yo la llamo lodos refulgentes”. Sin embargo, quiero ir aquí mucho más allá del problema de las trampas que hacen los estudiantes y adentrarme en un tema mucho más amplio, inspirado por el taller de innovación docente al que asistí ayer en la Facultad de Filosofía y Letras de la UAB.
El taller no fue un debate monográfico sobre la IA. Se trataron otros temas, como el absentismo, la gamificación, cómo conectar la enseñanza con la práctica (desde las experiencias con los museos hasta los contactos con las autoridades locales), etc. Sin embargo, inevitablemente, cada vez que los profesores se reúnen, la IA cobra un gran protagonismo. Hubo en concreto una mesa redonda que me asustó bastante. Los dos colegas despistados que malinterpretaron por completo el proceso de detección de ejercicios generados por IA fueron una advertencia sobre el hecho de que muchos de nosotros nos sentimos abrumados por una situación que apenas podemos procesar. Sin embargo, me turbaron mucho más (esta es la palabra) las propuestas de dos colegas que propusieron que integráramos la IA en nuestra enseñanza e investigación, respectivamente.
Un colega del Departamento de Filosofía describió cómo el nuevo programa de una asignatura básica ahora integra cuatro niveles diferentes de uso de la IA para los diferentes ejercicios. Se da por hecho que los alumnos van a utilizar la IA y, por eso, ahora los profesores les piden que especifiquen qué servicios o programas han utilizado para cada ejercicio. No tengo ni idea de por qué la compañera que explicó todo esto piensa que esta estrategia es feminista y conecta con el concepto de Haraway del ciborg. Ella sabrá. Un colega de mi propio departamento mostró cómo usar NotebookLM de Google (https://notebooklm.google/), un ayudante de investigación vinculado al LLM (Large Language Model) Gemini. Mi colega señaló que la investigación requiere mucho tiempo, especialmente en las Humanidades, ya que necesitamos leer mucho, y NotebookLM puede ofrecer una valiosa ayuda para aliviar nuestra carga. Viniendo de él, un excelente académico con la paciencia de Job para indagar en textos antiguos, esto me sonó como poco inquietante. Trataré de explicar por qué.
Como amante de la ciencia ficción y fan de Banks, estoy a favor del uso de la IA. Sin embargo, no estoy a favor del mal uso de la IA. Hemos estado usando la IA durante décadas para, por ejemplo, ayudarnos a localizar bibliografía a través de bases de datos y catálogos en línea, aunque estas IA son más opacas que los nuevos asistentes pseudo-humanos y parlanchines, desde Alexa hasta ChatGPT. Yo misma le he pedido recientemente a ChatGPT que me haga una lista de personajes de una novela que estoy estudiando o que encuentre el título de una película cuya trama apenas recuerdo. Entiendo que NotebookLM puede ser muy útil para localizar características clave de un texto en lugar de tener que leerlo una vez más, resumir fuentes secundarias que quizás no queramos leer por completo, dar mejor forma a nuestros pensamientos mal estructurados, etc. Puede ofrecer atajos.
Sin embargo, no quiero que este ayudante de IA termine siendo un colaborador demasiado cercano o incluso un coautor, como lo han sido los ayudantes de investigación de carne y hueso para tantos catedráticos aprovechados. Es posible que todos lleguemos a ese punto, de la misma manera que hemos estado usando Google para encontrar o verificar información, pero en este momento, en esta etapa, todavía quiero hacer el trabajo sucio yo misma. Mi colega argumentó que con tantos compromisos docentes y administrativos apenas tenemos tiempo para la investigación, de ahí su uso de NoetbookLM, pero mi impresión es que deberíamos reducir la velocidad con la que investigamos en lugar de apresurarnos más. Por supuesto, ese es mi privilegio como investigadora que actualmente tiene poca docencia y ningún cargo de gestión.
Lo que se me había escapado, de repente me di cuenta durante el taller, es que el problema al que nos enfrentamos ahora es mucho más grave de lo que pensaba. Alguien mencionó cómo cuando aparecieron las calculadoras, todos temieron que perdiéramos la capacidad de usar matemáticas básicas, y todos en la sala se rieron. Pues bien, hemos perdido esa capacidad. Con los LLM y los ayudantes de investigación como NotebookLM perderemos la capacidad de pensar, organizar la información, extrapolar ideas de nuestras fuentes y, en general, escribir ensayos argumentativos, que son la base de la educación y la erudición en las Humanidades. Se trata de un pacto fáustico que ya ha contaminado la educación a todos los niveles y que amenaza con engullir la escritura académica, al menos, insisto, en las Humanidades. Hay cierta esperanza en el regreso a los exámenes presenciales, pero son ejercicios demasiado básicos para la educación superior actual.
No hace mucho tiempo, los académicos escribían sus libros sin usar computadoras, pero no podemos volver a esa etapa pasada, al igual que no podemos deshacernos de las calculadoras. Sin embargo, el problema es que en el momento en que usamos ordenadores sucumbimos a la tentación de la IA. Si dejamos de pedir a los alumnos ejercicios escritos en casa con ordenadores, con citas de fuentes secundarias, porque nos preocupa que utilicen ChatGPT o similares IAs, estamos cortando la correa de transmisión que lleva adelante el pensamiento y el conocimiento. Este corte es extremadamente grave.
Hemos utilizado la escritura y el método académico basado en citar autoridades (bibliografía, fuentes secundarias) para transmitir lo que sabemos. Hasta ahora, hemos confiado en que cada generación produciría personas capaces de hacer avanzar el conocimiento humano, pero desde el 30 de noviembre de 2022, cuando se lanzó ChatGPT, nos asomamos a un abismo. O permitimos que los estudiantes usen la IA tanto como puedan, y corremos el riesgo de ser reemplazados por generaciones de, perdón, idiotas analfabetos, o suprimimos todo contacto con la IA, lo que tal vez signifique perder los métodos académicos que han servido a la humanidad durante miles de años.
¿Estoy exagerando? Al fin y al cabo, tenemos aviones, trenes y coches, pero seguimos caminando y no hemos perdido mucho por dejar de esclavizar caballos (todo lo contrario). Aun así, estoy consternada. Ya no se trata de que los estudiantes hagan trampa para obtener títulos, sino de destruir los cimientos mismos de la vida académica. Dentro de unos años, si no ya mismo, solo las IA ‘leerán’ nuestras publicaciones; seremos citados por estudiantes que nunca nos leerán y que no entenderán cómo producimos bibliografía. La crítica literaria académica podría estar pronto tan muerta como el dodo (o la poesía pastoril renacentista), lo que significa que necesitamos urgentemente repensar qué hacemos y para qué. Tal vez pueda imaginar un futuro sin ningún tipo de crítica literaria, pero la maldición de la IA se está extendiendo a todas las disciplinas, y simplemente no puedo aceptar un futuro sin, por ejemplo, la historiografía, o la ética. Ni sin la ciencia.
En cierto modo, yo misma ya me he rendido, en tanto que he dejado de enseñar a los estudiantes a escribir trabajos académicos (como hacía en Literatura Victoriana) y ahora les estoy enseñando a escribir reseñas sin fuentes secundarias (en Literatura Contemporánea). Ayer me preguntaba qué va a pasar con los trabajos de fin de Grado dentro de solo dos años si dejamos de enseñar a los estudiantes a escribir trabajos con citas por miedo a ChatGPT. Si nuestros estudiantes de Grado no leen fuentes secundarias y no escriben trabajos, ni siquiera entenderán el propósito del TFG y mucho menos el método para escribirlo. Si se suprime el TFG, ¿qué tipo de ejercicios harán los estudiantes a nivel de máster? ¿Acabaremos abandonando las tesis doctorales? Si insisto en escribir un libro a lo largo de dos años, a pesar de que ChatGPT o NotebookLM podrían ayudarme a hacerlo en menos de dos meses, ¿es porque soy estúpida? ¿Con el tiempo, nos acostumbraremos a aceptar la bibliografía generada por la IA?
Nos enfrentamos ahora a las consecuencias de dos decisiones éticas muy equivocadas. En primer lugar, la IA generativa se ha puesto a disposición del público independientemente de las consecuencias. En segundo lugar, la gente (sobre todo los estudiantes jóvenes) ha empezado a utilizarla también sin tener en cuenta las consecuencias. Es una muestra más del clásico capitalismo interesado: estamos muriendo de cáncer en masa porque muchas corporaciones nos están vendiendo productos tóxicos, pero también porque elegimos consumirlos; ya no podemos permitirnos una vivienda porque preferimos ser turistas en tierras ajenas; y mataremos el planeta en lugar de detener el cambio climático porque es demasiado esfuerzo renunciar al consumo exagerado. El colmo de nuestra estupidez, sin embargo, es usar IA que nos privarán en una sola generación de la capacidad de pensar, posiblemente lo que el capitalismo siempre ha querido.
Bienvenidos, pues, a las nueva edad oscura de la estupidez humana, suponiendo que el cambio climático no nos mate antes.