{"id":63,"date":"2022-10-14T06:07:14","date_gmt":"2022-10-14T04:07:14","guid":{"rendered":"https:\/\/webs.uab.cat\/lexmercatoria\/?p=63"},"modified":"2022-10-14T06:12:06","modified_gmt":"2022-10-14T04:12:06","slug":"la-comision-presenta-una-propuesta-de-directiva-sobre-responsabilidad-civil-extracontractual-en-materia-de-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/webs.uab.cat\/lexmercatoria\/2022\/10\/14\/la-comision-presenta-una-propuesta-de-directiva-sobre-responsabilidad-civil-extracontractual-en-materia-de-inteligencia-artificial\/","title":{"rendered":"Propuesta de la Comisi\u00f3n Europea de  Directiva sobre responsabilidad civil extracontractual en materia de Inteligencia \/ Proposal of the EU Commission for a Directive on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive)"},"content":{"rendered":"\n<p><\/p>\n\n\n\n<p>Mar\u00eda del Carmen N\u00fa\u00f1ez Zorrilla recomienda:<\/p>\n\n\n\n<p><strong>La Comisi\u00f3n presenta una propuesta de Directiva sobre responsabilidad civil extracontractual en materia de IA<\/strong><\/p>\n\n\n\n<p>Fern\u00e1ndez Hern\u00e1ndez, Carlos<\/p>\n\n\n\n<p><strong>Diario La Ley<\/strong>, N\u00ba 65, Secci\u00f3n Ciberderecho, 29 de Septiembre de 2022,&nbsp;<strong>LA LEY<\/strong><\/p>\n\n\n\n<p>La propuesta simplifica el proceso jur\u00eddico para las v\u00edctimas a la hora de demostrar que la culpa de una persona ha provocado los da\u00f1os, al introducir dos caracter\u00edsticas principales: la llamada \u00abpresunci\u00f3n de causalidad\u00bb, que eximir\u00e1 a las v\u00edctimas de tener que explicar detalladamente c\u00f3mo el da\u00f1o fue causado por una determinada falta u omisi\u00f3n, en circunstancias en las que se haya probado una culpa pertinente y parezca razonablemente probable que exista un nexo causal con el rendimiento de la IA; y el acceso a las pruebas de las empresas o proveedores, cuando se trate de IA de alto riesgo.<\/p>\n\n\n\n<ul class=\"wp-block-list\" id=\"ISIN\"><li>\u00cdNDICE<\/li><li><a href=\"https:\/\/diariolaley.laleynext.es\/Content\/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1jTAAAkNzY3MTC7Wy1KLizPw8WyMDIyMDSyNLkEBmWqVLfnJIZUGqbVpiTnEqABZDVI01AAAAWKE#I5\">Objetivo de la propuesta<\/a><\/li><li><a href=\"https:\/\/diariolaley.laleynext.es\/Content\/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1jTAAAkNzY3MTC7Wy1KLizPw8WyMDIyMDSyNLkEBmWqVLfnJIZUGqbVpiTnEqABZDVI01AAAAWKE#I6\">Relaci\u00f3n con la propuesta de la Ley de Inteligencia Artificial<\/a><\/li><li><a href=\"https:\/\/diariolaley.laleynext.es\/Content\/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1jTAAAkNzY3MTC7Wy1KLizPw8WyMDIyMDSyNLkEBmWqVLfnJIZUGqbVpiTnEqABZDVI01AAAAWKE#I7\">Estructura y contenido de la propuesta<\/a><\/li><\/ul>\n\n\n\n<p><strong>Carlos B Fern\u00e1ndez.\u2014<\/strong>&nbsp;Cuando todav\u00eda se est\u00e1 tramitando el futuro Reglamento (Ley) de<a href=\"Redirection('NE0002178806_Vigente.html')\">&nbsp;lnteligencia Artificial (IA)<\/a>, la Comisi\u00f3n ha presentado una&nbsp;<a href=\"openMultimedia('PD0000184618','PDF','PROPUESTADEDIRECTIVADELPARLAMENTOEUROPEOYDELCONSEJORELATIVAALAADAPTACIONDELASNORMASDERESPONSABILIDADCIVILEXTRACONTRACTUALALAINTELIGENCIAARTIFICIALDIRECTIVASOBRERESPONSABILIDADENMATERIADEIA',null);\">propuesta de Directiva sobre responsabilidad civil extracontractual en materia de Inteligencia Artificial<\/a>&nbsp;(<em>Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence &#8211; AI Liability Directive<\/em>) (COM(2022) 496 final).<\/p>\n\n\n\n<p>Se trata de la primera propuesta de armonizaci\u00f3n espec\u00edfica de las regulaciones nacionales sobre responsabilidad civil de la UE en materia de IA, para complementarlas y modernizarlas, introduciendo unas normas espec\u00edficas para los da\u00f1os causados por los sistemas de IA y facilitar que las v\u00edctimas de da\u00f1os relacionados con la IA obtengan una indemnizaci\u00f3n.<\/p>\n\n\n\n<p>Seg\u00fan la Comisi\u00f3n, estas nuevas normas, en consonancia con los objetivos del Libro Blanco sobre la IA y con la propuesta de Ley de IA de 2021 de la Comisi\u00f3n, que establece un marco de excelencia y confianza en materia de IA, garantizar\u00e1n que las v\u00edctimas se beneficien de las mismas normas de protecci\u00f3n cuando se vean perjudicadas por productos o servicios de IA que cuando se producen da\u00f1os en cualquier otra circunstancia.<\/p>\n\n\n\n<p>Seg\u00fan la Comisi\u00f3n, esta propuesta se basa en 4 a\u00f1os de an\u00e1lisis y en la estrecha participaci\u00f3n de las partes interesadas, incluidos acad\u00e9micos, empresas, asociaciones de consumidores, Estados miembros y ciudadanos. El trabajo preparatorio comenz\u00f3 en 2018 con la creaci\u00f3n del Grupo de Expertos en Responsabilidad y Nuevas Tecnolog\u00edas (Formaci\u00f3n en Nuevas Tecnolog\u00edas) &#8211;Expert Group on Liability and New Technologies (New Technologies Formation&#8211;. El Grupo de Expertos elabor\u00f3 un Informe en noviembre de 2019 (<em>Liability for artificial intelligence and other emerging<a href=\"Redirection('DT0000303633_Vigente.html')\">&nbsp;digital technologies<\/a>)<\/em>,que evaluaba los desaf\u00edos que algunas caracter\u00edsticas de la IA plantean a las normas nacionales de responsabilidad civil. Adem\u00e1s, se ha tenido en cuenta la propuesta del Parlamento Europeo de&nbsp;<a href=\"Redirection('NE0002174343_Vigente.html')\">20 de octubre de 2020<\/a>&nbsp;. Posteriormente, en noviembre de 2021, la Comisi\u00f3n Europea abri\u00f3 a consulta p\u00fablica la adaptaci\u00f3n de la Directiva sobre responsabilidad por los da\u00f1os causados por productos defectuosos a la<a href=\"Redirection('NE0002182795_Vigente.html')\">&nbsp;Inteligencia Artificial,<\/a>&nbsp;cuyos resultados se han tenido en cuenta tambi\u00e9n a la hora de redactar esta propuesta.<\/p>\n\n\n\n<p>La propuesta de la Comisi\u00f3n, presentada conjuntamente con la de otra Directiva para modernizar las normas existentes sobre la responsabilidad objetiva de los fabricantes por los productos defectuosos, pretende ofrecer seguridad jur\u00eddica a las empresas para que puedan invertir en productos nuevos e innovadores y velar por que las v\u00edctimas puedan obtener una compensaci\u00f3n justa cuando los productos defectuosos, incluidos los productos digitales y reacondicionados, provoquen da\u00f1os o perjuicios.<\/p>\n\n\n\n<p>La Comisi\u00f3n considera que una Directiva es el instrumento m\u00e1s adecuado para esta propuesta, ya que proporciona el efecto de armonizaci\u00f3n y la seguridad jur\u00eddica deseados, al tiempo que ofrece la flexibilidad necesaria para que los Estados miembros puedan integrar las medidas armonizadas sin fricciones en sus reg\u00edmenes nacionales de responsabilidad.<a><\/a><\/p>\n\n\n\n<p><strong>Objetivo de la propuesta<\/strong><\/p>\n\n\n\n<p>El objetivo de la Directiva sobre responsabilidad en materia de IA es establecer normas uniformes sobre el acceso a la informaci\u00f3n y la reducci\u00f3n de la carga de la prueba en relaci\u00f3n con los da\u00f1os provocados por los sistemas de IA, fijando una protecci\u00f3n m\u00e1s amplia para las v\u00edctimas (ya sean particulares o empresas) y fomentando el sector de la IA mediante mayores garant\u00edas.<\/p>\n\n\n\n<p>La Directiva armonizar\u00e1 determinadas normas aplicables a las reclamaciones que no entran en el \u00e1mbito de aplicaci\u00f3n de la Directiva sobre responsabilidad por los da\u00f1os causados por productos defectuosos, en los casos en que los da\u00f1os se deban a un comportamiento il\u00edcito. Esto incluye, por ejemplo, las violaciones de la privacidad o los da\u00f1os causados por problemas de seguridad. Las nuevas normas facilitar\u00e1n, as\u00ed, la obtenci\u00f3n de una indemnizaci\u00f3n si alguien ha sido discriminado en un proceso de contrataci\u00f3n que implique tecnolog\u00eda de IA.<\/p>\n\n\n\n<p>La propuesta pretende equilibrar los intereses de las v\u00edctimas de los da\u00f1os relacionados con los sistemas de IA y los de las empresas del sector.<\/p>\n\n\n\n<p>Para ello, la Comisi\u00f3n ha elegido la herramienta menos intervencionista (presunciones refutables,&nbsp;<em>rebuttable presumptions<\/em>) para aliviar la carga de la prueba. De este modo, la Directiva no plantea una inversi\u00f3n de la carga de la prueba, para evitar exponer a los proveedores, operadores y usuarios de los sistemas de IA a mayores riesgos de responsabilidad, lo que podr\u00eda obstaculizar la innovaci\u00f3n de los productos y servicios basados en la IA.<\/p>\n\n\n\n<p>Adem\u00e1s, destaca la Comisi\u00f3n, al garantizar que las v\u00edctimas de la IA disfruten del mismo nivel de protecci\u00f3n que en los casos en los que no est\u00e1n implicados los sistemas de IA, la propuesta de Directiva contribuye a reforzar la confianza del p\u00fablico en las tecnolog\u00edas de la IA, fomentando as\u00ed el despliegue y la adopci\u00f3n de la IA en toda la Uni\u00f3n.<\/p>\n\n\n\n<p>En particular, se se\u00f1ala, las empresas estar\u00e1n en mejor posici\u00f3n para anticipar c\u00f3mo se aplicar\u00e1n las normas de responsabilidad existentes y, por tanto, para evaluar y asegurar su exposici\u00f3n a la responsabilidad. Este es especialmente el caso de las empresas que comercian a trav\u00e9s de las fronteras, incluidas las peque\u00f1as y medianas empresas (PYME), que se encuentran entre las m\u00e1s activas en el sector de la IA.<\/p>\n\n\n\n<p><strong>Productos defectuosos y da\u00f1os causados por la IA<\/strong><\/p>\n\n\n\n<p>La Comisi\u00f3n destaca que la nueva Directiva sobre la responsabilidad por IA supone una reforma espec\u00edfica de los reg\u00edmenes nacionales de responsabilidad basados en la culpa, que se aplicar\u00e1 a las reclamaciones contra cualquier persona cuya culpa haya influido en el sistema de IA que haya causado el da\u00f1o; contra cualquier tipo de da\u00f1o regulado por la legislaci\u00f3n nacional (incluido el resultante de la discriminaci\u00f3n o la violaci\u00f3n de derechos fundamentales como la intimidad); y contra las reclamaciones presentadas por cualquier persona f\u00edsica o jur\u00eddica.<\/p>\n\n\n\n<p>En lo que respecta a las atenuaciones de la carga de la prueba, las dos Directivas introducen herramientas similares (derecho a la divulgaci\u00f3n de pruebas, presunciones refutables) y utilizan una redacci\u00f3n similar para garantizar la coherencia, independientemente de la v\u00eda de indemnizaci\u00f3n elegida.<\/p>\n\n\n\n<p>Presunci\u00f3n de causalidad y derecho de acceso a las pruebas<\/p>\n\n\n\n<p>Las nuevas normas garantizar\u00e1n que las v\u00edctimas de los da\u00f1os causados por la tecnolog\u00eda de la IA puedan acceder a una reparaci\u00f3n, de la misma manera que si hubieran sido perjudicadas en cualquier otra circunstancia.<\/p>\n\n\n\n<p>Para ello, la propuesta simplifica el proceso jur\u00eddico para las v\u00edctimas a la hora de demostrar que la culpa de una persona ha provocado los da\u00f1os, al introducir dos caracter\u00edsticas principales: la llamada \u00abpresunci\u00f3n de causalidad\u00bb, que eximir\u00e1 a las v\u00edctimas de tener que explicar detalladamente c\u00f3mo el da\u00f1o fue causado por una determinada falta u omisi\u00f3n, en circunstancias en las que se haya probado una culpa pertinente y parezca razonablemente probable que exista un nexo causal con el rendimiento de la IA; y el acceso a las pruebas de las empresas o proveedores, cuando se trate de IA de alto riesgo.<\/p>\n\n\n\n<p>En primer lugar, la denominada \u00abpresunci\u00f3n de causalidad\u00bb abordar\u00e1 las dificultades experimentadas por las v\u00edctimas para tener que explicar detalladamente la manera en que se ha provocado el da\u00f1o por una culpa u omisi\u00f3n concretas, lo que puede ser especialmente dif\u00edcil al intentar comprender y lidiar con sistemas de IA complejos.<\/p>\n\n\n\n<p>En segundo lugar, las v\u00edctimas dispondr\u00e1n de m\u00e1s herramientas para solicitar reparaci\u00f3n legal gracias a la introducci\u00f3n de un derecho de acceso a las pruebas presentadas por empresas y proveedores, en los casos en que est\u00e9 implicada IA de alto riesgo.<\/p>\n\n\n\n<p>Pero la propuesta trata de establecer tambi\u00e9n un equilibrio entre la protecci\u00f3n de los consumidores y el fomento de la innovaci\u00f3n, pues a la vez que elimina obst\u00e1culos para que las v\u00edctimas accedan a la indemnizaci\u00f3n, establece garant\u00edas para el sector de la IA mediante la introducci\u00f3n, por ejemplo, del derecho a impugnar una reclamaci\u00f3n de responsabilidad basada en una presunci\u00f3n de causalidad.<a><\/a><\/p>\n\n\n\n<p><strong>Relaci\u00f3n con la propuesta de la Ley de Inteligencia Artificial<\/strong><\/p>\n\n\n\n<p>Seg\u00fan la Comisi\u00f3n, las propuestas de Ley de Inteligencia Artificial y de la Directiva de Responsabilidad de la IA son dos caras de la misma moneda: se aplican en momentos diferentes y se refuerzan mutuamente.<\/p>\n\n\n\n<p>Las normas orientadas a la seguridad tienen como objetivo principal reducir los riesgos y prevenir los da\u00f1os, pero esos riesgos nunca se eliminar\u00e1n por completo. Las disposiciones sobre responsabilidad son necesarias para garantizar que, en caso de que un riesgo se materialice en da\u00f1os, la compensaci\u00f3n sea efectiva y realista. As\u00ed, mientras que la Ley de IA tiene como objetivo prevenir los da\u00f1os, la Directiva de Responsabilidad por IA establece una red de seguridad para la compensaci\u00f3n en caso de que se produzcan esos da\u00f1os.<\/p>\n\n\n\n<p>Para ello, la Directiva sobre responsabilidad por IA utiliza las mismas definiciones que la Ley de IA, mantiene la distinci\u00f3n entre IA de alto riesgo y de no alto riesgo, reconoce los requisitos de documentaci\u00f3n y transparencia de la Ley de IA haci\u00e9ndolos operativos para la responsabilidad a trav\u00e9s del derecho a la divulgaci\u00f3n de informaci\u00f3n, e incentiva a los proveedores\/usuarios de sistemas de IA a cumplir con sus obligaciones en virtud de la Ley de IA. Adem\u00e1s, la Directiva sobre responsabilidad se aplicar\u00e1 a los da\u00f1os causados por los sistemas de IA, independientemente de si son de alto riesgo o no seg\u00fan la Ley de IA.<\/p>\n\n\n\n<p>Con respecto a la IA en particular, la Comisi\u00f3n destaca que la propuesta de Directiva confirma que los sistemas de IA y los bienes habilitados para la IA son \u00abproductos\u00bb y, por lo tanto, entran en el \u00e1mbito de aplicaci\u00f3n de la Directiva sobre productos defectuosos, lo que significa que la indemnizaci\u00f3n est\u00e1 disponible cuando la IA defectuosa causa da\u00f1os, sin que la persona perjudicada tenga que demostrar la culpa del fabricante, al igual que para cualquier otro producto.<\/p>\n\n\n\n<p>En segundo lugar, la propuesta deja claro que no solo los fabricantes de hardware, sino tambi\u00e9n los proveedores de software y los proveedores de servicios digitales que afectan al funcionamiento del producto (como un servicio de navegaci\u00f3n en un veh\u00edculo aut\u00f3nomo) pueden ser considerados responsables de los da\u00f1os.<\/p>\n\n\n\n<p>En tercer lugar, la propuesta garantiza que los fabricantes puedan ser considerados responsables de los cambios que introduzcan en los productos que ya han comercializado, incluso cuando estos cambios sean provocados por actualizaciones de software o aprendizaje autom\u00e1tico.<\/p>\n\n\n\n<p>En cuarto lugar, la nueva directiva sobre responsabilidad de los productosalivia la carga de la prueba en casos complejos, que podr\u00edan incluir determinados casos relacionados con sistemas de IA, y cuando los productos no cumplen los requisitos de seguridad. Con ello, responde en gran medida a las peticiones del Parlamento Europeo para que las normas de responsabilidad se adapten a la IA.<\/p>\n\n\n\n<p>Como complemento a estos cambios, la propuesta paralela de directiva sobre la responsabilidad por culpa de la IA pretende garantizar que, cuando una persona perjudicada tenga que demostrar que fue culpa de alguien que un sistema de IA caus\u00f3 da\u00f1os para obtener una indemnizaci\u00f3n con arreglo a la legislaci\u00f3n nacional, la carga de la prueba pueda aliviarse si se cumplen determinadas condiciones.<a><\/a><\/p>\n\n\n\n<p><strong>Estructura y contenido de la propuesta<\/strong><\/p>\n\n\n\n<p>El texto consta de nueve art\u00edculos, de los que rese\u00f1amos el contenido de los principales.<\/p>\n\n\n\n<p>El&nbsp;<strong>art\u00edculo 1 regula el objeto y el \u00e1mbito de aplicaci\u00f3n de la Directiva<\/strong>. Esta se aplicar\u00e1 a las demandas civiles extracontractuales por da\u00f1os y perjuicios causados por un sistema de IA, cuando dichas demandas se presenten con arreglo a reg\u00edmenes de responsabilidad basados en la culpa.<\/p>\n\n\n\n<p>Es decir, los reg\u00edmenes que prev\u00e9n una responsabilidad legal para indemnizar los da\u00f1os causados intencionadamente o por una acci\u00f3n u omisi\u00f3n negligente.<\/p>\n\n\n\n<p>Las medidas previstas en esta Directiva pueden encajar sin fricci\u00f3n en los sistemas de responsabilidad civil existentes, ya que reflejan un enfoque que no toca la definici\u00f3n de conceptos fundamentales como \u00abculpa\u00bb o \u00abda\u00f1o\u00bb, dado que el significado de esos conceptos var\u00eda considerablemente en los Estados miembros.<\/p>\n\n\n\n<p>As\u00ed pues, m\u00e1s all\u00e1 de las presunciones que establece, la presente Directiva no afecta a las normas de la Uni\u00f3n o nacionales que determinan, por ejemplo, qu\u00e9 parte tiene la carga de la prueba, qu\u00e9 grado de certeza se requiere en cuanto al nivel de prueba o c\u00f3mo se define la culpa. Adem\u00e1s, la presente Directiva no afecta a las normas existentes que regulan las condiciones de responsabilidad en el sector del transporte ni a las establecidas por la Ley de Servicios Digitales.<\/p>\n\n\n\n<p>Aunque esta Directiva no se aplica con respecto a la responsabilidad penal, puede ser aplicable con respecto a la responsabilidad del Estado. Las autoridades estatales tambi\u00e9n est\u00e1n cubiertas por las disposiciones de la Ley de IA como sujetos de las obligaciones prescritas en ella.<\/p>\n\n\n\n<p>La presente Directiva no se aplica con car\u00e1cter retroactivo, sino \u00fanicamente a las reclamaciones de indemnizaci\u00f3n por da\u00f1os y perjuicios que se produzcan a partir de la fecha de su transposici\u00f3n.<\/p>\n\n\n\n<p>La propuesta de esta Directiva se ha adoptado junto con la propuesta de revisi\u00f3n de la Directiva 85\/374\/CEE (LA LEY 1943\/1985) sobre responsabilidad por productos defectuosos, en un paquete destinado a adaptar las normas de responsabilidad a la era digital y a la IA, garantizando la necesaria alineaci\u00f3n entre estos dos instrumentos jur\u00eddicos complementarios.<\/p>\n\n\n\n<p>El&nbsp;<strong>art\u00edculo 2 contiene un bloque de definiciones<\/strong>&nbsp;que siguen las de la propuesta de Ley de IA para garantizar la coherencia.<\/p>\n\n\n\n<p>El art\u00edculo 2(6)(b) establece que las reclamaciones por da\u00f1os y perjuicios pueden ser presentadas no s\u00f3lo por la persona perjudicada, sino tambi\u00e9n por las personas que se hayan subrogado en los derechos de la persona perjudicada. La subrogaci\u00f3n es la asunci\u00f3n por parte de un tercero (como una compa\u00f1\u00eda de seguros) del derecho legal de otra parte a cobrar una deuda o unos da\u00f1os. As\u00ed, una persona tiene derecho a hacer valer los derechos de otra en su propio beneficio. La subrogaci\u00f3n tambi\u00e9n abarcar\u00eda a los herederos de una v\u00edctima fallecida.<\/p>\n\n\n\n<p>Adem\u00e1s, la letra c) del apartado 6 del art\u00edculo 2 establece que la acci\u00f3n por da\u00f1os y perjuicios tambi\u00e9n puede ser ejercida por alguien que act\u00fae en nombre de una o varias partes perjudicadas, de conformidad con el Derecho de la Uni\u00f3n o nacional. Esta disposici\u00f3n pretende dar m\u00e1s posibilidades a las personas perjudicadas por un sistema de IA para que sus reclamaciones sean evaluadas por un tribunal, incluso en los casos en los que las acciones individuales puedan parecer demasiado costosas o engorrosas, o cuando las acciones conjuntas puedan suponer un beneficio de escala. Para que las v\u00edctimas de los da\u00f1os causados por los sistemas de IA puedan hacer valer sus derechos en relaci\u00f3n con esta Directiva mediante acciones representativas, el art\u00edculo 6 modifica el anexo I de la&nbsp;<a href=\"Redirection('LE0000682350_Vigente.html')\">Directiva (UE) 2020\/1828 (LA LEY 23718\/2020)<\/a>.<\/p>\n\n\n\n<p>El&nbsp;<strong>art\u00edculo 3 se refiere a la divulgaci\u00f3n de pruebas (<em>disclosure of evidence<\/em>)<\/strong>.<\/p>\n\n\n\n<p>Dado que la Directiva tiene por objeto proporcionar a las personas que solicitan una indemnizaci\u00f3n por da\u00f1os causados por sistemas de IA medios eficaces para identificar a las personas potencialmente responsables y las pruebas pertinentes para una reclamaci\u00f3n, el apartado 1 del art\u00edculo 3 de la Directiva establece que un tribunal puede ordenar la divulgaci\u00f3n de las pruebas pertinentes sobre sistemas espec\u00edficos de IA de alto riesgo que se sospecha que han causado da\u00f1os.<\/p>\n\n\n\n<p>Estas solicitudes de pruebas se pueden dirigir al proveedor de un sistema de IA, a una persona sujeta a las obligaciones del proveedor establecidas en el art\u00edculo 24 o en el art\u00edculo 28 (1) de la Ley de IA o a un usuario en virtud de la Ley de IA. Las solicitudes deben estar respaldadas por hechos y pruebas suficientes para establecer la plausibilidad de la reclamaci\u00f3n de da\u00f1os y perjuicios contemplada y las pruebas solicitadas deben estar a disposici\u00f3n de los destinatarios. Las solicitudes no pueden dirigirse a partes que no tengan obligaciones en virtud de la Ley de AI y que, por tanto, no tengan acceso a las pruebas.<\/p>\n\n\n\n<p>Seg\u00fan el apartado 2 del art\u00edculo 3, el demandante puede solicitar la divulgaci\u00f3n de pruebas a proveedores o usuarios que no sean demandados s\u00f3lo en el caso de que se hayan realizado sin \u00e9xito todos los intentos proporcionados para obtener las pruebas del demandado. Para que los medios judiciales sean eficaces, el apartado 3 del art\u00edculo 3 de la Directiva establece que el tribunal tambi\u00e9n puede ordenar la conservaci\u00f3n de dichas pruebas.<\/p>\n\n\n\n<p>Seg\u00fan lo dispuesto en el primer p\u00e1rrafo del apartado 4 del art\u00edculo 3, el tribunal podr\u00e1 ordenar dicha divulgaci\u00f3n, s\u00f3lo en la medida necesaria para sostener la demanda, dado que la informaci\u00f3n podr\u00eda ser una prueba decisiva para la reclamaci\u00f3n de la persona perjudicada en el caso de da\u00f1os que impliquen sistemas de IA. Al limitar la obligaci\u00f3n de divulgar o conservar a las pruebas necesarias y proporcionadas, el primer p\u00e1rrafo del apartado 4 del art\u00edculo 3 pretende garantizar la proporcionalidad en la divulgaci\u00f3n de las pruebas, es decir, limitar la divulgaci\u00f3n al m\u00ednimo necesario y evitar las solicitudes generales.<\/p>\n\n\n\n<p>Los p\u00e1rrafos segundo y tercero del apartado 4 del art\u00edculo 3 pretenden adem\u00e1s lograr un equilibrio entre los derechos del demandante y la necesidad de garantizar que dicha divulgaci\u00f3n est\u00e9 sujeta a salvaguardias para proteger los intereses leg\u00edtimos de todas las partes afectadas, como los secretos comerciales o la informaci\u00f3n confidencial.<\/p>\n\n\n\n<p>En el mismo contexto, el cuarto p\u00e1rrafo del apartado 4 del art\u00edculo 3 pretende garantizar que los recursos procesales contra la orden de divulgaci\u00f3n o conservaci\u00f3n est\u00e9n a disposici\u00f3n de la persona sometida a ella.<\/p>\n\n\n\n<p>El apartado 5 del art\u00edculo 3 introduce una presunci\u00f3n de incumplimiento del deber de diligencia. Se trata de un instrumento procesal, pertinente \u00fanicamente en los casos en que es el propio demandado en una reclamaci\u00f3n de da\u00f1os y perjuicios quien soporta las consecuencias de no cumplir una petici\u00f3n de revelaci\u00f3n o conservaci\u00f3n de pruebas. El demandado tendr\u00e1 derecho a refutar esa presunci\u00f3n. La medida establecida en este apartado tiene por objeto promover la divulgaci\u00f3n, pero tambi\u00e9n agilizar los procedimientos judiciales.<\/p>\n\n\n\n<p>El&nbsp;<strong>art\u00edculo 4 establece la presunci\u00f3n de nexo causal en caso de culpa<\/strong>.<\/p>\n\n\n\n<p>Dado que la Directiva tiene por objeto proporcionar una base eficaz para reclamar una indemnizaci\u00f3n por el incumplimiento de un deber de diligencia con arreglo al Derecho de la Uni\u00f3n o nacional, y que puede resultar dif\u00edcil para los demandantes establecer un v\u00ednculo causal entre dicho incumplimiento y el resultado producido por un sistema de IA, el apartado 1 del art\u00edculo 4 establece una presunci\u00f3n iuris tantum de causalidad en relaci\u00f3n con este v\u00ednculo.<\/p>\n\n\n\n<p>Dicha presunci\u00f3n es la medida menos gravosa para abordar la necesidad de una indemnizaci\u00f3n justa de la v\u00edctima. La culpa del demandado debe ser probada por el demandante de acuerdo con las normas nacionales o de la Uni\u00f3n aplicables. Dicha culpa puede establecerse, por ejemplo, por el incumplimiento de un deber de cuidado en virtud de la Ley de IA o de otras normas establecidas a nivel de la Uni\u00f3n, como las que regulan el uso de la supervisi\u00f3n y la toma de decisiones automatizadas para el trabajo en plataformas o las que regulan el funcionamiento de las aeronaves no tripuladas.<\/p>\n\n\n\n<p>El tribunal tambi\u00e9n puede presumir dicha falta sobre la base del incumplimiento de una orden judicial de divulgaci\u00f3n o conservaci\u00f3n de pruebas en virtud del art\u00edculo 3, apartado 5. Sin embargo, s\u00f3lo es apropiado introducir una presunci\u00f3n de causalidad cuando pueda considerarse probable que el fallo en cuesti\u00f3n haya influido en el rendimiento del sistema de IA o en su ausencia, lo que puede evaluarse en funci\u00f3n de las circunstancias generales del caso.<\/p>\n\n\n\n<p>Al mismo tiempo, el demandante tiene que demostrar que el sistema de IA (es decir, su producci\u00f3n o la falta de ella) dio lugar al da\u00f1o.<\/p>\n\n\n\n<p>Los apartados (2) y (3) diferencian entre, por un lado, las reclamaciones presentadas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA y, por otro lado, las reclamaciones presentadas contra el usuario de dichos sistemas. A este respecto, se siguen las disposiciones respectivas y las condiciones pertinentes de la Ley de IA.<\/p>\n\n\n\n<p>En el caso de las reclamaciones basadas en el apartado 2 del art\u00edculo 4, el cumplimiento por parte de los demandados de las obligaciones enumeradas en dicho apartado debe evaluarse tambi\u00e9n a la luz del sistema de gesti\u00f3n de riesgos y sus resultados, es decir, las medidas de gesti\u00f3n de riesgos, con arreglo a la Ley de IA.<\/p>\n\n\n\n<p>En el caso de los sistemas de IA de alto riesgo definidos por la Ley de IA, el apartado 4 del art\u00edculo 4 establece una excepci\u00f3n a la presunci\u00f3n de causalidad, cuando el demandado demuestre que el demandante tiene acceso razonable a suficientes pruebas y conocimientos t\u00e9cnicos para demostrar el v\u00ednculo causal. Esta posibilidad puede incentivar a los demandados a cumplir con sus obligaciones de divulgaci\u00f3n, con las medidas establecidas por la Ley de IA para garantizar un alto nivel de transparencia de la IA o con los requisitos de documentaci\u00f3n y registro.<\/p>\n\n\n\n<p>En el caso de los sistemas de IA que no son de alto riesgo, el apartado 5 del art\u00edculo 4 establece una condici\u00f3n para la aplicabilidad de la presunci\u00f3n de causalidad, seg\u00fan la cual \u00e9sta est\u00e1 sujeta a que el tribunal determine que es excesivamente dif\u00edcil para el demandante probar el v\u00ednculo causal. Dichas dificultades deben evaluarse a la luz de las caracter\u00edsticas de ciertos sistemas de IA, como la autonom\u00eda y la opacidad, que hacen que la explicaci\u00f3n del funcionamiento interno del sistema de IA sea muy dif\u00edcil en la pr\u00e1ctica, lo que afecta negativamente a la capacidad del demandante para probar el nexo causal entre la culpa del demandado y el resultado de la IA.<\/p>\n\n\n\n<p>En los casos en que el demandado utiliza el sistema de IA en el curso de una actividad personal no profesional, el art\u00edculo 4.6 establece que la presunci\u00f3n de causalidad s\u00f3lo debe aplicarse si el demandado ha interferido materialmente en las condiciones de funcionamiento del sistema de IA o si el demandado estaba obligado y pod\u00eda determinar las condiciones de funcionamiento del sistema de IA y no lo hizo. Esta condici\u00f3n se justifica por la necesidad de equilibrar los intereses de los perjudicados y de los usuarios no profesionales, eximiendo de la aplicaci\u00f3n de la presunci\u00f3n de causalidad los casos en que los usuarios no profesionales no a\u00f1aden riesgo con su comportamiento.<\/p>\n\n\n\n<p>Por \u00faltimo, el apartado 7 del art\u00edculo 4 establece que el demandado tiene derecho a refutar la presunci\u00f3n de causalidad basada en el apartado 1 del art\u00edculo 4. Estas normas efectivas de responsabilidad civil tienen la ventaja adicional de que dan a todos los que participan en actividades relacionadas con los sistemas de IA un incentivo adicional para respetar sus obligaciones en cuanto a su conducta esperada.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Mar\u00eda del Carmen N\u00fa\u00f1ez Zorrilla recomienda: La Comisi\u00f3n presenta una propuesta de Directiva sobre responsabilidad civil extracontractual en materia de IA Fern\u00e1ndez Hern\u00e1ndez, Carlos Diario La Ley, N\u00ba 65, Secci\u00f3n Ciberderecho, 29 de Septiembre de 2022,&nbsp;LA LEY La propuesta simplifica el proceso jur\u00eddico para las v\u00edctimas a la hora de demostrar que la culpa de [&hellip;]<\/p>\n","protected":false},"author":440,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-63","post","type-post","status-publish","format-standard","hentry","category-general"],"_links":{"self":[{"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/posts\/63","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/users\/440"}],"replies":[{"embeddable":true,"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/comments?post=63"}],"version-history":[{"count":2,"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/posts\/63\/revisions"}],"predecessor-version":[{"id":66,"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/posts\/63\/revisions\/66"}],"wp:attachment":[{"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/media?parent=63"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/categories?post=63"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/webs.uab.cat\/lexmercatoria\/wp-json\/wp\/v2\/tags?post=63"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}