Esta nueva entrada en el blog “Derecho y digitalización empresarial. Reflexiones sobre el impacto de la digitalización en el Derecho que regula la actividad empresarial” (UAB) pretende ser una continuación de la anterior que lleva por título “Algunas consideraciones acerca del ChatGPT y otros modelos fundacionales a la luz de la futura Ley europea de inteligencia artificial”(https://webs.uab.cat/derecho-y-digitalizacion-empresarial/2023/06/09/algunas-consideraciones-acerca-del-chatgpt-y-otros-modelos-fundacionales-a-la-luz-de-la-futura-ley-europea-de-inteligencia-artificial/), si bien se centra en otro aspecto importante de la denominada inteligencia artificial generativa dentro de la cual se integran los “modelos fundacionales” como el conocido ChatGPT. Me refiero a la aplicación de las normas europeas reguladoras del principio de no discriminación.

Debe partirse de la base de que el Derecho antidiscriminatorio europeo solo cubre determinadas áreas como, por ejemplo, el empleo, la educación o la oferta al público de bienes y servicios (Navas Navarro, Susana, “El principio de no discriminación por razón de sexo en el derecho contractual europeo” en Integración europea y género, Inma Pastor/Laura Román/Ana Giménez (eds.), Tecnos, Madrid, 2014, pp. 253-285). Por otro lado, los modelos fundacionales, como quedó expuesto en la entrada previamente citada, son sistemas de IA con una finalidad general que pueden eventualmente ser aplicados a usos específicos. La cuestión entonces a plantearse estriba en ver si se aplican las normas contra la discriminación antes de que estos sistemas de IA se dediquen a ese uso específico, es decir, a una etapa previa al desarrollo del sistema con miras a ese uso particular (“intended purpose”). La respuesta podría hallarse en la extrapolación de dos decisiones del Tribunal de Justicia de la Unión Europea. Se trata de los casos C-54/07, Feryn, y del C-507/18, Associazione Avvocatura per i diritti LGBTI. En ellos se establece que el derecho antidiscriminatorio se aplica a las actividades preparatorias que preceden, por ejemplo, a contratar a una persona para un empleo determinado o a prestar un servicio. Así, las normas antidiscriminación serían de aplicación a la selección de personas bajo ciertas condiciones para un empleo.

Como decía, si se extrapola esta doctrina jurisprudencial al caso que me ocupa, podría entenderse que estas normas se aplican en la fase preparatoria del modelo siempre y cuando el uso específico se corresponda con el ámbito de aplicación de las Directivas europeas en la materia. Por tanto, más allá de esos ámbitos específicos, al desarrollo de un sistema de IA generativa no podrán serles de aplicación. Este planteamiento genera, a su vez, cuestiones de interés en relación con la carga de la prueba de la conducta discriminatoria o del daño cuando el criterio que origina la discriminación no es el sexo (Directiva 97/80/CE del Consejo de 15 de diciembre de 1997 relativa a la carga de la prueba en los casos de discriminación por razón de sexo, DOUE 14, 20.1.1998, p. 6–8). La Propuesta de Directiva relativa a la adaptación de las normas de responsabilidad extracontractual a la IA [28.9.2022 COM(2022) 496 final] no sirve de demasiada ayuda en este sentido. Al no concebirse los modelos fundacionales como sistemas de alto riesgo, la aplicación de la norma relativa a la presunción de “parte” del nexo causal queda al arbitrio judicial cuando considere que es “excesivamente difícil” para la víctima probarla (art. 4.5). A ello se añade que, en la mayoría de estos casos, el daño ocasionado suele ser un daño no material, esto es, un daño moral, el cual posee, por un lado, una regulación sectorial en los ordenamientos jurídicos internos y, por otro, los criterios jurisprudenciales respecto de la compensación del mismo son muy dispares entre los estados miembros de la UE. No existe un marco normativo armonizado en relación con el daño moral (Wendehorst, Christiane, Safety and Liability Related Aspects of Software, EU Commission, 2021).

De otra parte, la propuesta de reglamento sobre IA revisada y aprobada por el Parlamento europeo el 9 de mayo de este mismo año [Draft Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD)), https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/CJ40/DV/2023/05- 11/ConsolidatedCA_IMCOLIBE_AI_ACT_EN.pdf. Fecha de la consulta: julio 2023] que establece obligaciones específicas para “providers” de modelos fundacionales alude casi de pasada a los posibles sesgos que puede presentar el modelo fundacional, algunos de los cuales pueden ser discriminatorios. En efecto, advierte que una de las obligaciones del proveedor es (art. 28b apartado 2):

“b) to process and incorporate only datasets that are subject to appropriate data governance measures for foundation models, in particular measures to examine the suitability of the data sources and possible biases and appropriate mitigation”.

De ahí que quizá deba plantearse, por un lado, la aplicación de las normas antidiscriminatorias desde la perspectiva de los grupos de personas legalmente protegidos cuyos derechos fundamentales pueden verse lesionados por el incorrecto funcionamiento del sistema de IA y, por otro, el establecimiento de obligaciones específicas para los proveedores de modelos fundacionales, en la futura Ley de IA, en relación con la representatividad y equilibrio adecuado entre los grupos protegidos mediante el establecimiento de mecanismos que corrijan los sesgos históricos y sociales que pueden existir en los datos que el modelo fundacional capta de fuentes online [Hacker, Philipp, “Teaching Fairness to Artificial Intelligence: Existing and Novel Strategies Against Algorithmic Discrimination Under EU Law”, 55 Common Market Law Review, 1143-1186 (2018) Fecha de la consulta: julio 2023)].

Precisamente, el art. 23.1 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y no discriminación (BOE núm. 167, de 13 de julio) establece en relación con los algoritmos involucrados en la toma de decisiones empleados por las administraciones públicas que se podrán incluir mecanismos en el diseño y en los datos de entrenamiento para abordar su potencial impacto discriminatorio y minimizar así los posibles sesgos que presenten.

Dra. Susana Navas Navarro