Hoy estoy usando mi entrada como excusa para leer un artículo titulado (traduzco el título del inglés) “Contra la adopción acrítica de las tecnologías de ‘IA’ en la academia” firmado por Olivia Guest y otros 18 autores empleados principalmente en los Países Bajos. Este texto se puede encontrar en un repositorio de pre-impresiones (https://philarchive.org/rec/GUEATU) donde se archivó el 7 de septiembre del año en curso. El resumen advierte que “bajo la bandera del progreso” muchos productos nocivos, como el tabaco, los motores de combustión o las redes sociales, han sido aceptados sin reflexionar sobre las consecuencias, como estamos haciendo ahora con la IA. Los autores, que ya habían publicado una carta abierta sobre este tema (véase https://openletter.earth/open-letter-stop-the-uncritical-adoption-of-ai-technologies-in-academia-b65bba1e), piden ahora “a nuestros empleadores que reviertan y reconsideren su postura sobre la adopción acrítica de las tecnologías de IA”. Su objetivo es convencer a las universidades de que “contrarresten el marketing, el hype y el daño causado por la industria tecnológica; y que salvaguarden la educación superior, el pensamiento crítico, la experiencia dada por el conocimiento, la libertad académica y la integridad científica”. Comparto sus preocupaciones al 100%, de ahí mi resumen de su largo artículo para beneficio de mis lectores (aviso que contiene una larguísima bibliografía por si interesa).
Destacaré un par de declaraciones iniciales, aunque es difícil elegir entre tantas frases valiosas:
- “La industria de la tecnología se está aprovechando de nosotros, a veces incluso hablando a través de nosotros, para convencer a nuestros estudiantes de que estas tecnologías de IA son útiles (o necesarias) y no dañinas”.
- “En relación con la industria tecnológica de la IA, rechazamos sus marcos, impugnamos su tecnología adictiva y frágil, y exigimos que se restaure la santidad de la universidad como institución y como conjunto de valores”.
Los principales puntos planteados y debatidos son (en mi paráfrasis):
a) el hecho de que la terminología sobre la IA, que existe desde la década de 1950, es deliberadamente confusa, parte del uso de jerga a la moda por parte de las corporaciones para vender productos creando publicidad engañosa.
b) como profesores, carecemos de los conocimientos tecnológicos para comprender adecuadamente los sistemas actuales de IA y así explicarlos de manera matizada a nuestros estudiantes (además, “En el presente, la IA no tiene un significado fijo. Puede ser cualquier cosa, desde un campo de estudio hasta un software”). Comprobad esto: ¿cuántos de vosotros de verdad entendéis que ChatGPT es un LLM (Large Language Model) que posiblemente use una ANN (Red Neuronal Artificial)? Digo posiblemente porque OpenAI es totalmente opaco sobre cómo funciona y no ha publicado el código fuente de ChatGPT (por lo que entiendo, se trata de una infracción de las regulaciones científicas).
c) cualquier rechazo de la IA te coloca en el campo de los luditas retrógrados. Nuestra experiencia basada en el conocimiento es rechazada en favor de las empresas que promueven el uso de la IA, a cuyo poder (casi) nadie puede oponerse (un miembro de @BlueSky me dijo que al prohibir a mis estudiantes usar IA daña sus perspectivas profesionales futuras). Las palabras “ética” y “transparencia” a menudo se invocan para frenar nuestra resistencia, pero no provienen de expertos en la aplicación de la IA: provienen de los fabricantes. El greenwashing hipócrita también juega un papel clave. Los autores piden “a la comunidad tecnológica educativa que desmitifique los sistemas de IA y, en cambio, se acerque a aquellos con más espíritu crítico y humildad”.
d) la IA no es imparable. Además, si contribuimos a su colonización de la universidad, ayudamos a erosionar el futuro y a descualificar a “los estudiantes y a nosotros mismos”, potenciando la destrucción del medio ambiente.
e) los fracasos anteriores de diversas promesas tecnológicas deberían enseñarnos que la IA actual está también abocada al fracaso. Su burbuja estallará, dejando a su paso la destrucción de muchos empleos e instituciones educativas. Agregaré que, si recordáis, las clases de la escuela primaria se digitalizaron en años pasados, solo para que los maestros concluyeran que se ha estado perjudicando a los niños. Los escandinavos, siempre a la vanguardia, ya están vaciando el aula de dispositivos digitales.
f) el antropomorfismo nos ha hecho llegar a la conclusión equivocada de que los LLM como ChatGPT son similares a las personas en la forma en que interactúan con los humanos. En realidad, los LLM simulan el comportamiento humano en función de la información que se les proporciona, pero DE NINGUNA MANERA son pensadores independientes y conscientes.
g) estamos integrando la IA en nuestra enseñanza (¡e investigación!) asumiendo erróneamente que TODOS los estudiantes usan ChatGPT, cuando en realidad muchos entienden sus peligros y cómo socava la adquisición de habilidades clave. Siempre les digo a mis alumnos que usar ChatGPT para escribir un ejercicio es como si lo hiciera otra persona. Algunos son felices haciendo trampa de esa manera, pero muchos no. Una cosa es enseñar a los estudiantes sobre las tecnologías de IA y sus peligros, y otra muy distinta usarlas sin crítica.
Finalmente, los autores proporcionan cinco principios para proteger “el ecosistema del conocimiento humano”:
1) Honestidad (“no usamos en secreto tecnologías de IA sin divulgación” y “no se hacen afirmaciones infundadas sobre las presuntas capacidades de las tecnologías de IA”).
2) Escrupulosidad (solo utilizamos “productos de IA cuya funcionalidad está bien especificada y validada para su uso científico específico”).
3) Transparencia (las tecnologías de IA son “de código abierto y computacionalmente reproducibles”).
4) Independencia (la investigación es “imparcial en relación con las agendas de las empresas de IA” y siempre “se declaran posibles conflictos de intereses”).
5) Responsabilidad (nuestro uso de productos de IA no puede dañar a las personas, los animales o el medio ambiente, ni “violar las pautas legales” como los derechos de autor, la privacidad de los datos personales, o las leyes laborales).
Los autores terminan señalando que “el mundo académico tiene incentivos estructurales bien conocidos que invitan a hacer trampa”, lo que inclina no solo a los estudiantes sino también a los investigadores a usar ChatGPT. Recientemente tuve que decirle a un joven investigador que preguntaba si estaba bien escribir resúmenes de sus propios artículos usando ChatGPT que debería considerar dejar de publicar. Los autores del artículo que comento, inteligentes como son, ven el vínculo directo entre el fascismo y la IA, ya que los regímenes fascistas siempre atacan la integridad académica y prefieren que los votantes sean incultos y acríticos. Encuentro la analogía que trazan con el tabaco muy pertinente: conocer los riesgos mortales conlleva que ahora podemos elegir entre fumar o no, asumiendo las consecuencias. La diferencia entre la IA y el tabaco es que no necesitamos esperar siglos para saber que la IA es adictiva y dañina: ya tenemos la evidencia.
Agregaré algunas ideas más:
- lo que tenemos ahora no es una verdadera IA, con lo que me refiero a una inteligencia digital no orgánica capaz de tomar decisiones autónomas y sentientes sobre la base de una auto-consciencia, PERO todo llegará. Puede llevar un año o un siglo, pero la “singularidad” sucederá. Al ceder a los modelos actuales de LLM, preparamos aún más el terreno para que la IA real se apodere de la vida humana cuando aparezca (por favor, leed y ved ciencia ficción, que está llena de ese tipo de fábulas admonitorias).
- La IA, en su forma básica actual o avanzada, puede ser una fuerza para el bien si libera a los humanos de ocupaciones onerosas y arriesgadas, de peligros diarios y de problemas médicos. PERO para eso es esencial que sus beneficios económicos reviertan a la sociedad y que la IA no esté controlada por corporaciones. Lo que está mal en el desarrollo actual de la IA no es la IA en sí, sino que su crecimiento corresponde a empresas codiciosas, ultra-capitalistas, inhumanas, fascistas y patriarcales dirigidas por un puñado de hombres crueles y nada empáticos (en su mayoría blancos y residentes en los EE. UU.). Hay usos maravillosos a los que se puede abrir la IA (por ejemplo, la comunicación con los animales), pero el modelo actual se basa en provocar dependencia para conducir a ganancias financieras (pronto tendremos que pagar la suscripción) y a prácticas depredadoras a todos los niveles.
- La IA puede tener un lugar en la educación y la investigación, pero solo como una ayuda instrumental, nunca como un reemplazo de la adquisición de habilidades académicas. Cuando comencé a estudiar en 1984, los catálogos de las bibliotecas eran colecciones de tarjetas mecanografiadas impresas en papel mientras que ahora los catálogos de las bibliotecas son herramientas digitales de búsqueda. Sigo necesitando el mismo conjunto de habilidades para encontrar bibliografía pero, por supuesto, los recursos a mi alcance son mucho más grandes. Sin embargo, si le pides a ChatGPT que te haga una bibliografía, no usas ninguna habilidad académica y lo más probable es que termines con una lista llena de entradas falsas (las famosas alucinaciones). Se puede usar la IA actual como una versión mucho más avanzada de la búsqueda típica de Google, pero aun así, se debe tener cuidado, ya que los LLM están programados para complacer a sus usuarios y le proporcionarán información para satisfacerlo incluso si es falsa.
- Los LLM como ChatGPT siempre están extrapolando el conocimiento ya existente y no pueden innovar. Hasta ahora, solo los cerebros humanos tienen la capacidad de juntar 2+2 y obtener un 5 en lugar de un 4 como resultado, es decir, de tener una visión que haga saltar la chispa y conduzca a una nueva idea. Los LLM devoran vorazmente los documentos que los investigadores producimos para cortar y pegar, y así hacer collages, razón por la cual las empresas de tecnología son actualmente los mayores ladrones de propiedad intelectual de la historia, si bien lo que producen los LLM es necesariamente un derivado. Puede bastar para aprobar una asignatura, pero no para producir investigación de calidad ni para entrenar las neuronas.
Este semestre estoy enseñando a los estudiantes a escribir reseñas de libros y, recordando la experiencia del año pasado en la misma asignatura, confío plenamente en que no usarán ChatGPT. He intentado establecer las bases de nuestra mutua confianza señalando lo absurdo que sería dejar que ChatGPT les dicte su opinión personal sobre un libro, para que así se enorgullezcan de expresar su punto de vista sobre los textos que deben reseñar. Creo que esto es crucial: necesitamos invitar a los estudiantes a producir ejercicios más personales para que no se limiten a repetir como loros lo que les decimos, o lo que otros investigadores han afirmado.
Si los estudiantes encuentran usos para ChatGPT que no dañen su capacidad para adquirir habilidades académicas, los escucharé, pero tendré en cuenta la impecable disección del problema que presentan Guest at al. en el artículo comentado, y los cinco principios que deben regir nuestra total transparencia y nuestra ética deserción de la IA actual en el mundo académico. Tratad de imaginar qué pasaría si en lugar de IA los estudiantes hubieran comenzado a usar alguna droga ilegal que mejore la mente, y pensad si la recibiríamos con los brazos abiertos en nuestras aulas. Esta es la analogía más cercana a lo que está sucediendo ahora mismo en la universidad.