Responsabilidad civil derivada del uso de la Inteligencia Artificial

Jul 29, 2021

¿Está nuestro ordenamiento jurídico capacitado para dar solución a los nuevos retos que plantea la inteligencia artificial?

La interacción entre humanos y robots es cada vez mayor. Si bien hoy día el nivel de autonomía de las máquinas que conviven con nosotros es todavía limitado, no es menos cierto que el objetivo que se persigue es que la inteligencia artificial (IA) sea capaz de superar a los humanos en cualquier tarea de carácter cognitivo, lo que algunos expertos estiman podría llegar en el año 2060.

En nuestro ordenamiento jurídico, el sistema de atribución de responsabilidad civil descansa sobre el criterio de imputación basado en la culpa del agente del daño (art. 1902 Cc), de suerte que el régimen general de responsabilidad civil obedece a un criterio subjetivo de imputación por culpa. Por tanto, es requisito sine quanon para el nacimiento de la responsabilidad una conducta negligente o culposa.

Empero, aun partiendo de este concepto jurídico fundamental de la culpa o negligencia como eje vertebrador sobre el que pivota y se asienta nuestro sistema de responsabilidad civil, no es menos cierto que existen en nuestro ordenamiento jurídico supuestos específicos en los que se parte de una objetivación de esa responsabilidad, también llamada responsabilidad por riesgo, en los que la atribución de la misma encuentra su fundamento en el riesgo específico de daño que comporta una determinada actividad.

 

¿Pueden los robots considerarse productos defectuosos y, por tanto, estar sometidos a la regulación vigente sobre los mismos?

En principio, y atendiendo a la definición de producto contenido en la Directiva 85/374, cabe considerar a un robot como un producto más, de tal forma que, cuando éste fuese o resultase defectuoso, pueden entrar en juego las garantías contenidas en la normativa europea y nacional. En nuestro ordenamiento jurídico, en materia de responsabilidad civil por productos defectuosos, el principio general, según disponen los artículos 135 y ss. del RD Legislativo 1/2007, por el que se aprueba el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios (LGDCU), es que será responsable el productor o fabricante del mismo.

Ahora bien, hemos de precisar que la LGDCU parte de un sistema que recoge los patrones clásicos de la responsabilidad por culpa, en tanto en cuanto el fabricante sólo responde cuando es posible demostrar algún grado de culpa o negligencia en el proceso de fabricación y en el daño producido, atendiendo a las notas de previsibilidad y seguridad anteriormente referidas.

En este contexto es difícil que el fabricante de un robot inteligente pueda garantizar una seguridad esperable, precisamente porque el punto de partida es que el robot es una máquina capaz de adoptar, como consecuencia del machine learning y de sus propias redes neuronales artificiales, decisiones propias que no encuentren cobijo en orden expresa humana, de suerte que puede llevar a cabo acciones absolutamente imprevisibles. Por tanto, la cuestión a dilucidar sería ¿responsabilidad del fabricante o responsabilidad del robot? ¿cabe imputar la responsabilidad a un ente sin conciencia?

De lo que no cabe duda es que impera la necesidad de definir la legitimidad de los nuevos sistemas robóticos y establecer un régimen común de derechos y obligaciones, en aras a conseguir el tan ansiado y a veces efímero principio de seguridad jurídica, creando un marco regulatorio que permita la coexistencia entre la innovación y el desarrollo tecnológico y los derechos subjetivos de los particulares.

 

¿Cuáles son las propuestas e iniciativas que se han adoptado desde las instituciones europeas?

El Parlamento Europeo dictó una Resolución, de fecha 16 de febrero de 2017, que contiene recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica (2015/2103(INL).

La precitada resolución se hace eco del debate acerca de si la normativa general sobre responsabilidad civil es suficiente o, si por el contrario, se requieren normas y principios específicos que aporten claridad sobre la distintas responsabilidades de los agentes intervinientes, partiendo del considerando de que en el actual marco jurídico, los robots no pueden ser responsables de los actos u omisiones que causan daños a terceros, en tanto en cuanto las normas vigentes en materia de responsabilidad civil contemplan los casos en los que únicamente es posible atribuir la acción u omisión del robot a un agente humano concreto, ya sea el fabricante, el operador, el propietario o el usuario.

En materia de responsabilidad, recomienda establecer un régimen de seguro obligatorio, de forma que los fabricantes y propietarios de los robots estarían obligados a suscribir por los posibles daños y perjuicios causados por estos, abogando por la creación de un fondo de compensación para los casos en los que concurra ausencia de seguro.

Asimismo, aun cuando el Parlamento parece postular como fórmula idónea el sistema de responsabilidad objetiva, sí permite que el fabricante, programador, propietario o usuario del robot pueda beneficiarse de un sistema de responsabilidad limitada, siempre y cuando éste contribuya al fondo de compensación o bien suscriba conjuntamente un seguro que garantice la compensación de daños y perjuicios causados por los robots.

Por último, y como cuestión capital, plantea crear a largo plazo una personalidad jurídica específica para robots, de forma que, al menos los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, aplicando esa personalidad electrónica a aquéllos supuestos en los que los robots tomen decisiones autónomas inteligentes o sean capaces de interactuar con terceros de forma independiente.

En octubre de 2020, el Parlamento Europeo dictó Resolución en la que se contienen recomendaciones a la Comisión sobre el régimen de responsabilidad civil en materia de IA (2020/2014/INL).

En la Propuesta de Reglamento que se contiene en la meritada Resolución, el Parlamento parte de que la persona que cree, mantenga, controle, explote el sistema de IA, ha de ser responsable del daño o perjuicio que cause el dispositivo o la actividad que lleve a cabo el mismo. Partiendo de este hito, el Parlamento entiende que la meritada Directiva 85/374 del Consejo sobre responsabilidad por los daños por productos defectuosos puede aplicarse en relación con las reclamaciones por responsabilidad civil formuladas frente al productor de un sistema de IA defectuoso.

La responsabilidad civil del operador se basa en el hecho de que éste ejerce un grado de control sobre un riesgo asociado al funcionamiento y la operación de un sistema de IA. Ahora bien, el riesgo predicable de los distintos sistemas de IA no es equivalente, por lo que se propone la creación de un régimen basado en el riesgo (imputación objetiva), el cual habrá de regularse de forma exhaustiva.

Así, para los sistemas de IA de alto riesgo (aquéllos que funciona de forma autónoma), la Propuesta de Reglamento pivota sobre un sistema de responsabilidad objetiva del operador, tal y como se recoge en el artículo 4.  En cambio, el operador de un sistema de IA que no sea de alto riesgo, estará sujeto a un régimen de responsabilidad subjetiva (artículo 8). En este último caso, el operador no será responsable siempre y cuando pueda demostrar que no tuvo culpa o negligencia en el daño causado.

Respecto al plazo de prescripción para el ejercicio de acciones por responsabilidad civil, la propuesta de reglamento diferencia entre daños a la vida, a la salud y a la integridad física de los daños materiales o morales. Para la primera categoría de daños, el plazo de prescripción es de 30 años a partir de la fecha en que se produjo el daño.

Para la segunda categoría, a saber, daños materiales o morales, se establecen dos plazos (aplicando el que venza antes): 10 años a partir de la fecha en que se produjo el menoscabo a los bienes o la pérdida económica comprobable resultante del daño moral; o 30 años a partir de la fecha en que se produjo la operación de sistema de IA de alto riesgo que causó el menoscabo a los bienes o el daño moral.

En definitiva, nuestros ordenamientos jurídicos habrán de hacer un loable esfuerzo en adaptarse, pues la tecnología se ha convertido en el principal motor de cambio de nuestra sociedad. Debemos tener la capacidad de prever y regular los futuros problemas que desde un punto de vista jurídico se nos van a plantear. Es evidente que la IA provocará un impacto importante para los actuales marcos de responsabilidad civil. Ello no implica necesariamente que nos veamos en la necesidad de revisar completamente todas las normas que rigen en la referida materia, pero será necesario realizar los ajustes oportunos para que, ponderando los intereses en juego, podamos hacer frente a los retos que plantea la IA.

Manuel Cazalilla Ruiz
Abogado Senior. García Carbonell Abogados

Contacto

Calle Teodoro Camino, 24 Piso 1
02002 Albacete
t.: 967 55 04 41
f.: 967 50 45 30
e.: info@garciacarbonellabogados.es