1. Si seguimos la enseñanza de Don Joaquín Garrigues y observamos atentamente la realidad veremos que los algoritmos y la inteligencia artificial están omnipresentes en nuestras vidas: hablamos con robots (y no, no me refiero a nuestros estudiantes, sino a altavoces inteligentes como Alexa), hay coches que ya aparcan solos y, si hemos invertido en bolsa, es posible que un robot gestione nuestros ahorros. Está realidad está también presente en el ámbito jurídico, y es que ya existe software que ayuda a los abogados a gestionar documentación ingente, a encontrar los argumentos más utilizados por un juez o que canaliza los conflictos entre los empresarios y los consumidores. Nuestra disciplina no es ajena a esta realidad, tal como han demostrado los diversos autores que, bajo la dirección de Ana Felicitas Muñoz Pérez, escribieron Revolución digital, Derecho mercantil y token economía (Tecnos, Madrid, 2019).

El libro Algorithms and law (Cambridge University Press, Cambridge, 2020) gira en torno a la inteligencia artificial, los algoritmos y los robots. Se trata de una obra colectiva que reúne las aportaciones de doce juristas, mayoritariamente profesores de universidad. A lo largo de diez capítulos analizan los retos conceptuales y prácticos que genera la inteligencia artificial en el ámbito jurídico. Los coordinadores son Martin Ebers y Susana Navas. El primero es profesor de Derecho de la Tecnología y la Información en la Universidad de Tartu (Estonia) y Privatdozent en la Universidad von Humboldt de Berlín, además de un colaborador asiduo de la Comisión Europea en Derecho privado y Derecho del consumo comunitarios. Susana Navas es catedrática de Derecho civil en la Universidad Autónoma de Barcelona, gran compañera, y autora de múltiples publicaciones sobre el binomio derecho y tecnología, además de otros temas propios de su especialidad académica.

2. La obra empieza con un artículo introductorio de Sami Haddani y Dennis Knobbe (“Robotics and artificial intelligence. The present and future vision”) en el que repasan la evolución de las “máquinas inteligentes” a lo largo de la historia hasta llegar a los robots actuales y a la inteligencia artificial, respecto de los que nos explican cómo “aprenden” y subrayan la necesidad de fiabilidad y seguridad. También exponen cuáles pueden ser sus aplicaciones más novedosas, en un futuro cercano, y los retos que se presentarán. Concluyen que todavía falta mucho para estar rodeados de robots que interactúan “amigablemente” con los humanos.

Martin Ebbers es el autor del segundo capítulo, titulado “Regulating AI and robotics: ethical and legal challenges”. Se trata de una contribución excelente, a pesar de su longitud, en la que el autor empieza explicando las cuestiones éticas y legales más importantes que generan los algoritmos y la inteligencia artificial. Por ejemplo, subraya los problemas que se derivan de la interconectividad, la opacidad o la autonomía de los algoritmos, de la inteligencia artificial y de los robots. Presenta las cuestiones éticas que suscita la sustitución de seres humanos por máquinas o la conexión de los cerebros a los ordenadores. Alude a las dudas existentes sobre la responsabilidad por los daños generados por las máquinas que aprenden por sí mismas y el riesgo de utilizar algoritmos para manipular a las personas, tanto en el ámbito empresarial como político. A continuación expone panorámicamente las principales iniciativas legislativas que existen en los ámbitos internacional (Consejo de Europa, OCDE y Naciones Unidas), europeo y empresarial. Y termina con unas reflexiones sobre los temas que deberían regularse y las opciones del legislador. Así, advierte en contra de una normativa prematura que puede inhibir la innovación y apuesta por una investigación comprometida con los derechos y libertades fundamentales.

La opacidad de los algoritmos es el objeto de la contribución de Mario Martini, profesor de la Deutsche Universität für Verwaltungwissenschaften Speyer, entre otros cargos. En el capítulo “Regulating algorithms: how to demystify the alchemy of Code?”, analiza los problemas que genera la opacidad de los algoritmos (opacidad, discriminación, monopolización del mercado y del conocimiento), las soluciones legislativas actualmente existentes y las que podrían adoptarse. Se muestra muy crítico con el Reglamento General de Protección de Datos y propone un modelo regulatorio con cuatro pasos: instrumentos normativos preventivos, gestión de los riesgos existentes, protección ex post facto, y elaboración de códigos de responsabilidad algorítmica.

La autora de la cuarta contribución es Diana Sancho, profesora de la Universidad de Leicester, que centra su atención en los procesos automatizados de toma de decisiones (“Automated decision-making under article 22 GDPR: towards a more substantial regime for solely automated-making”). Empieza explicando qué son y cuáles son sus principales riesgos, como explotar las debilidades de los consumidores. A efectos de protegerles analiza el artículo 22 del Reglamento General de Protección de Datos, a la luz de la interpretación que ofrece el Comité Europeo de Protección de Datos (WP29) y en relación con los artículos 13.2.f, 14.2.g y 15.1.h de la misma norma. Alaba la exégesis del Comité referido.

Los dos siguientes capítulos versan sobre la responsabilidad civil por los daños causados por robots inteligentes. Susana Navas presta mayor atención a la responsabilidad del fabricante. Empieza su discurso con el concepto y la clasificación de los robots, tanto desde una perspectiva técnica como jurídica. Y también repasa la normativa existente. Continua con unas reflexiones sobre la responsabilidad del propietario del robot y rechaza utilizar el régimen de la responsabilidad vicaria, pues considera que los robots se asemejan más a una cosa peligrosa que a un auxiliar. Acto seguido valora la aplicación de la Directiva 85/374/CEE, que disciplina la responsabilidad sobre productos defectuosos. Concluye que no se adapta a la realidad actual ni a la evolución técnica que se avecina, como revelan múltiples informes, por lo que es necesaria su modificación o novación.

Ruth Janal, profesora de Derecho civil, propiedad intelectual y Derecho del comercio en la Universidad de Bayreuth, se explaya sobre la responsabilidad extracontractual por los ilícitos cometidos por los sistemas autónomos. Tras explicar que pueden generar nuevas categorías de daños, expone quienes pueden ser los posibles responsables (el usuario del sistema, el propietario, el guardián [keeper], el fabricante y el operador). Dada la ausencia de unas normas específicas, decide proponer un sistema de responsabilidad para los ilícitos generados por la inteligencia artificial. Para ello examina brevemente los los regímenes de responsabilidad francés, inglés y alemán por culpa, por los daños ocasionados por bienes, por los auxiliares y por los menores. Su propuesta varía en función de la persona que deba pechar con la responsabilidad, aunque mayoritariamente apuesta por la objetiva.

El libro cambia bruscamente de dirección, pues el capítulo séptimo tiene por objeto el control de los algoritmos en la negociación de valores mobiliarios. Su autor es Gerald Spindler, profesor de la Universidad de Göttingen, que centra su atención el régimen normativo comunitario y alemán de la llamada “negociación de alta frecuencia” (hing-frequency trading). Considera que la legislación especial existente (requisitos de organización y régimen de los controles) puede servir de modelo para otros ámbitos.

A continuación Susana Navas diserta sobre la propiedad intelectual de las obras creadas por algoritmos (“Creativity of algorithms and copyright law”). Empieza examinando el concepto y tipos de creatividad para determinar si los seres humanos tienen la exclusiva sobre la misma, o si puede también atribuirse a la inteligencia artificial. Acto seguido, explica y clasifica las obras de arte realizadas a través algoritmos. En tercer lugar analiza la protección de las obras creadas por ellos; en particular, qué requisitos son necesarios y quién sería el titular de los derechos que se originaran. Concluye proponiendo el cambio del régimen jurídico de los derechos de autor para dar protección a las obras creadas por algoritmos.

En el capítulo nueve (“Wake neutrality’ of artificial intelligence devices”), los estadounidenses Brian Subirana, Renwick Bivings y Sanjay Sarma estudian los altavoces inteligentes (Open Conversational Commerce Devices), como Alexa u Ok Google. En particular, examinan las opciones legislativas para conseguir la neutralidad en los dispositivos inteligentes de conversación, a fin de lograr un equilibrio entre los beneficios de la tecnología, la protección de los derechos humanos (la intimidad, por ejemplo) y el cumplimiento de la ley (i.e. la normativa tuitiva del consumidor). Así analizan cómo conseguir que se comporten de forma neutral y, por ejemplo, no sean sesgados o discriminatorios. Proponen diversos requisitos para alcanzar ese objetivo y consideran que el blockchain y los llamados contratos “inteligentes” pueden ser de gran utilidad. Igualmente, sostienen que hay que incidir en la arquitectura de la inteligencia artificial.

Cierra el libro el capítulo de Björn Steinrötter sobre el marco jurídico de los datos personales y no personales (“The (envisaged) Legal Framework for commercialization of digital data within the EU: Data protection law and data economic law as a conflicted basis for algorithm-based products and services”). El joven profesor de la Universidad de Potsdam denuncia el conflicto que se produce entre los objetivos esenciales de sus regímenes jurídicos: la protección de la intimidad y la libre circulación. Empieza su contribución con la exposición sobre la relación entre datos y algoritmos y la definición de datos digitales. Seguidamente expone el régimen jurídico comunitario básico de los datos no personales, que esencialmente persigue agilizar su circulación y uso, aunque la evolución técnica propicia que sus operadores disfruten de exclusividad. Después hace lo mismo con la normativa sobre los datos personales, cuya finalidad es proteger al titular de los datos. Y concluye que se genera un conflicto que no es posible harmonizar.

3. El libro coordinado por Susana Navas y Martin Ebers es altamente recomendable, pues analiza con rigor y profundidad algunos de los principales retos de la inteligencia artificial, los algoritmos y los robots en el ámbito jurídico. Como obra colectiva que es, resulta heterogénea, pues cada autor tiene su propio estilo literario y metodología. Pero, a pesar de las diferencias, los capítulos tienen una aproximación similar, lo que da coherencia a la obra. Se empieza introduciendo la dimensión técnica o práctica del tema objeto de estudio para proceder luego al análisis jurídico. En cuanto al último, es usual que presenten la normativa existente, valoren su aplicación, expongan los problemas que genera y realicen propuestas de mejora. Interesa subrayar que el libro se centra sobre todo en el Derecho vigente en la Unión Europea, aunque no necesariamente en el comunitario.

Los autores son reconocidos especialistas en la materia, que cuentan con una impecable trayectoria investigadora. Como hemos dicho, la mayoría trabaja en universidades alemanes, pero también hay dos profesoras españolas, una que imparte docencia en Barcelona y otra en Leicester, y tres estadounidenses. Esta diversidad no perjudica la obra, sino que enriquece su contenido.

El rigor y la profundidad de las diez contribuciones de los doce autores determina que el nivel sea alto. En efecto, no estamos ante una obra introductoria, que ilustre al lector los rudimentos básicos de la materia. Tanto la temática como la lengua dificultan la inteligencia del libro, pero el esfuerzo -como casi siempre- merece la pena.

Evidentemente hay aspectos mejorables. Uno de ellos es una mayor sistemática de contenidos. Los capítulos están relacionados y guardan coherencia entre sí, pero se echa de menos un hilo conductor más explícito. Igualmente, hay cuestiones que se repiten en varios capítulos, como el tema de la posibilidad de “apropiarse” de los datos a través de derechos de exclusiva o el riesgo que genera para la competencia la negativa de las grandes empresas tecnológicas a compartir los datos que utilizan. Pero esta repetición no es perjudicial, pues cada autor aporta su visión. Y ninguna de estas objeciones, si es que pueden considerase tales, empaña la calidad de la obra, que es excelente. De ahí que no dude en recomendarla.