JURÍDICO LATAM
Doctrina
Título:Inteligencia Artificial y Responsabilidad Civil de robots autónomos
Autor:Dell’Osa, Sandra Laura
País:
Argentina
Publicación:Homenaje del Instituto Noroeste de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba al Presidente Honorario Prof. Dr. Julio I. Altamira Gigena - Homenaje del Instituto Noroeste de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba al Presidente Honorario Prof. Dr. Julio I. Altamira Gigena
Fecha:07-07-2020 Cita:IJ-CMXXI-161
Índice Relacionados Libros
I. El Trending Topic
II. Big Data
III. El sesgo de la inteligencia artificial
IV. Diferentes tipos de inteligencia artificial
V. Los peligros de la inteligencia artificial
VI. Posibles soluciones a la luz de la responsabilidad civil
VII. La imputabilidad de la I.A.
VIII. Extensión del resarcimiento
IX. El Derecho y la inteligencia artificial
X. Conclusión
Notas

Inteligencia Artificial y Responsabilidad Civil de robots autónomos

Por Sandra Laura Dell’Osa

La Inteligencia artificial consiste, en términos muy generales, en programas informáticos que pueden desarrollar mecanismos inteligentes. Es un sistema que puede analizar datos en grandes cantidades, identificar patrones y tendencias, y formular predicciones.

La principal característica de la inteligencia artificial es su autonomía, definida como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos; que esa autonomía es puramente tecnológica y que será mayor cuanto mayor sea el grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno[1]

“El concepto de inteligencia artificial, también conocido por las siglas I.A., se le debe al informático estadounidense John Mc Carthy, quien en el año 1956 lo pronunció por primera vez en una conferencia causando un gran impacto en el ámbito de la tecnología”[2]

El Parlamento Europeo ha pedido en su informe del 27/1/2017 que se propongan definiciones europeas comunes de sistema ciber-físico, sistema autónomo, robot autónomo inteligente y sus distintas subcategorías, tomando en consideración las siguientes características de un robot inteligente:

- capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el intercambio y análisis de dichos datos;

 -capacidad de autoaprendizaje a partir de la experiencia y la interacción (criterio facultativo);

- un soporte físico mínimo;

- capacidad de adaptar su comportamiento y acciones al entorno;

- inexistencia de vida en sentido biológico.

La expresión inteligencia artificial no tiene un único significado. Podemos utilizarla para referirnos a trending topic, big data, sesgo, ente con o sin conciencia, entre otros.

Podemos decir que la existencia de inteligencia artificial es un programa informático constituido por algoritmos.

Los algoritmos han avanzado en su desarrollo en los últimos tiempos de una forma exponencial, y ello ha enfrentado a los seres humanos con sus temores más profundos: que la inteligencia artificial llegue a superar a las personas humanas. Tal vez ello explique la necesidad de otorgarle un marco de ética y valores a los desarrollos científicos, propiciando una inteligencia artificial dirigida a complementar las capacidades humanas y no a sustituirlas. Pues en el imaginario colectivo se erige cada vez con mayor fuerza la idea de que las inteligencias artificiales alcancen el rango de entidades vivas, con o sin conciencia. Tal vez sea esta la razón por la que la Unión Europea señala la necesidad de que las personas humanas mantengan en todo momento el control sobre las máquinas inteligentes.

I. El Trending Topic [arriba] 

El desarrollo de nuevas tecnologías siempre se presenta como disruptivo y genera alarma y controversias. Basta con recordar, en un pasado no muy lejano, las diferentes reacciones de la sociedad ante la clonación, luego ante la nanotecnología, y en la actualidad, con la edición genómica.

La inteligencia artificial ha emprendido un camino sin descanso de desarrollo y esto ha producido algunas alarmas en cuanto a los riesgos que puede acarrear a la humanidad. Las declaraciones de diferentes científicos sobre este tópico se replicaron en redes sociales y medios masivos de comunicación, generando diferentes posturas y opiniones. El Parlamento Europeo, universidades, organismos de investigación, entre otros, fueron presentando informes, algunos de ellos bastantes apocalípticos.

En verdad creemos que de a poco la sociedad se irá familiarizando con este tipo de inteligencia artificial y su desarrollo, llegando a un punto en que comience a desaparecer su elemento sorpresivo y alarmante y se incorpore aún más en nuestra vida cotidiana.

II. Big Data [arriba] 

Big Data es el proceso por el cual se recopila y analizan gran cantidad de datos que pueden versar sobre distintos temas, tales como preferencias de consumo personalizado, datos deportivos, cantidad de personas con determinada enfermedad, etcétera.

El proceso de datos tiene como objeto realizar predicciones sobre un futuro comportamiento. Se entiende que, cuantas más entradas para procesar tenga la inteligencia artificial, mayor será la posibilidad de anticiparse a determinado suceso o comportamiento.

La Unión Europea ha propiciado la creación de la Empresa Común de Informática de Alto Rendimiento con la utilización de superordenadores. Cuantos más datos logre recolectar y cuanto más se incremente el grado de complejidad de sus algoritmos, mayor será su capacidad predictiva de futuro.

La Big Data puede procesar datos relacionados a nuestra información genética, lo que nos enfrenta con grandes problemas éticos.

Así se podría utilizar la inteligencia artificial para buscar perfiles genéticos y psicológicos de los aspirantes a un empleo. Podrían utilizarlos las compañías de seguros para predecir determinadas enfermedades que puede sufrir un individuo y ello incidiría en el cálculo de la prima o en la determinación de otorgar o denegar un crédito.

La consecuencia de la big data, y todos los aspectos en que podría incidir, son aún difíciles de prever. Es por ello que el Convenio Europeo de Bioética ha proscrito la utilización de la secuenciación genética más allá del campo de la medicina.

El perfil de consumidores verbigracia, puede ser delimitado por la big data utilizando información de hábitos, rasgos faciales, comportamiento en redes sociales, etcétera.

Algunos sistemas legales proscriben, por ejemplo, la recolección de datos raciales o étnicos. Otros delimitan el uso de datos para determinados fines.

Estamos avanzando hacia la concentración del poder en manos de quienes manejan inmensos volúmenes de información sobre las personas, lo que requerirá que cada Estado de una pronta y adecuada respuesta desde su normativa legal.

III. El sesgo de la inteligencia artificial [arriba] 

El algoritmo es un conjunto de instrucciones o reglas lógicas definidas y ordenadas, que permite solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas o actividades.

El sesgo algorítmico ocurre cuando un sistema informático refleja los valores de las personas humanas que participaron en su codificación y en la recolección de datos usados como entradas para el aprendizaje.

La inteligencia artificial toma información recogida por seres humanos y ello puede provocar que refleje sus sesgos.

Los sesgos pueden ser estadísticos, culturales o cognitivos.

El sesgo estadístico se presenta por el modo en el que se obtiene la información de la que se nutre la inteligencia artificial. Así, por ejemplo, si se toma información de un determinado sector de la sociedad o en un determinado barrio o ciudad, ello se verá reflejado en los comportamientos de los consumidores y sus preferencias.

El sesgo cultural se genera a partir de la sociedad, sus costumbres, su forma de comunicarse, que determina un estereotipo de personas. Este sesgo deriva de nuestras creencias.

El inconveniente radica en que la inteligencia artificial tiene cada vez mayor injerencia en nuestras vidas, y los sesgos que posean le harán perder su imparcialidad, lo que puede derivar en la afectación de derechos y libertades para las personas.

La elaboración de perfiles y estereotipos puede llevar a discriminar a un grupo de personas, negándole el acceso a ciertos bienes y servicios. Por lo tanto, el punto clave es cómo programar y alimentar de datos a la inteligencia artificial con sentido ético, sin afectar los derechos fundamentales de las personas.

Una posibilidad sería que la inteligencia artificial copie los sesgos que ya existen en la sociedad a fin de que actúe como lo haría un ser humano ante determinada situación.

Otra opción sería que la inteligencia artificial fuera neutra, sin que pueda discriminar por grupos étnicos, sociales, de edad, sexuales, etcétera.

Luego, otra alternativa sería que la inteligencia artificial discriminara positivamente. Es decir, favorezca a las minorías más vulnerables desde el punto de vista social. Por ejemplo, que en el buscador de Internet aparezcan en primer lugar opiniones de minorías étnicas. En definitiva, estaríamos en presencia de una inteligencia artificial con fuerte injerencia en la estructura social.

IV. Diferentes tipos de inteligencia artificial [arriba] 

Existen distintos tipos de inteligencia artificial.

Hay sistemas que imitan el pensamiento humano y su sistema nervioso, es decir, piensan o intentan pensar como seres humanos.

Luego, encontramos sistemas que actúan como los humanos, imitando su comportamiento, ejemplo de ello son los robots.

Otros sistemas piensan de modo racional.

Por último, hay sistemas que actúan de modo racional. Ellos pueden percibir el entorno en el que se desenvuelven y actuar en consecuencia.[3]

V. Los peligros de la inteligencia artificial [arriba] 

La inteligencia artificial podría resultar peligrosa para las personas por el solo hecho de su accionar. Es decir, por la combinación entre automaticidad y ausencia de criterio ético o pensamiento. Con un elevado nivel de complejidad podría provocar cambios inesperados y sin posibilidad de frenarlos.

La autonomía nos confronta con dos problemas: la “irreversibilidad” y la “responsabilidad”. Los algoritmos pueden estructurarse sobre la base de reglas que produzcan decisiones imprevistas. En este caso: ¿cuáles serán las normas jurídicas aplicables si tales decisiones, fuera del control humano, causaran daño?

¿Los robots autónomos pertenecen a algunas de las categorías jurídicas existentes o debe crearse una nueva categoría con sus propias características jurídicas?

VI. Posibles soluciones a la luz de la responsabilidad civil [arriba] 

¿Cuál sería la respuesta que puede darse desde la responsabilidad civil?

Podemos ensayar distintas opciones.

1) Otorgar personería jurídica a los robots

Una solución legal que en la actualidad se abre paso lentamente en algunos ordenamientos jurídicos es la de otorgar a los robots una personería jurídica.

Ello cobra sentido en los robots autónomos. Son sistemas más complejos que tienen capacidad de aprender, adaptarse al medio y tomar decisiones. Por ende, sus acciones son impredecibles.

La inteligencia artificial funciona con algoritmos inteligentes o algoritmos de aprendizaje, es decir, con un conjunto preciso de instrucciones o reglas, o con una serie metódica de pasos que puede utilizarse para hacer cálculos, resolver problemas o tomar decisiones. El algoritmo es la fórmula que se emplea para hacer un cálculo[4].

El programador del sistema no establece límites ni condiciones al proceso de aprendizaje. Por el contrario, es el propio algoritmo que, con sustento a la entrada de datos que experimenta y a la casuística, va incorporando información. De esta forma realiza una estadística y discrimina entre datos que le resultan relevantes con aquellos que considera innecesarios. Ello le permite formular una regla general que luego utilizará en la toma de decisiones. Esta característica es la que nos permite afirmar que las acciones de este tipo de inteligencia artificial son imprevisibles, incluso para el programador. Éste, aun teniendo acceso al diseño del algoritmo y al código fuente, no tiene posibilidad de saber qué antecedente tomó como válido para ejecutar una determinada acción.

Esta ausencia de previsibilidad en la toma de decisiones es la característica que nos desvela a los fines de dar un marco normativo a la responsabilidad civil de los robots. Y es precisamente esta cualidad la que permite que algunos ordenamientos jurídicos le reconozcan personería jurídica. Tal es el caso del robot humanoide Sophia, al que Arabia Saudita le reconoció la ciudadanía. Este robot posee características hasta ahora solo reservadas a los humanos, tales como expresiones corporales, interacción con humanos de los que puede aprender y desarrollar nuevas habilidades. Puede servir, enseñar a niños y ayudar a personas ancianas. ¿Pero qué ocurriría si, por ejemplo, al atender a un niño o a un anciano el robot administra en forma imprevisible un protocolo o da una medicación equivocada, provocando un daño?

En estos casos avanzados de inteligencia artificial autónoma, el sistema tradicional de responsabilidad civil no sería suficiente para dar respuesta a los posibles daños ocasionados, ya que, de conformidad a lo anteriormente señalado, el diseñador o programador se encuentran alejados no sólo de la toma de decisiones del robot, sino también, en muchos casos, de poder descifrar el método y los datos tomados en cuenta para ello.

No han sido pocas las voces que se han alzado contra la posibilidad de que se cree una categoría jurídica para los robots, intermedia entre las personas y las cosas. Las críticas se centran básicamente en la idea de que solo el ser humano puede tener personalidad jurídica y aptitud para ser titular de derechos y obligaciones. Para esta postura, el Derecho solo se concibe en la medida en que regule relaciones humanas.

Aquellos que ven en forma favorable la solución de otorgar a los robots personalidad jurídica, sostienen que ésta no tiene que estar estrictamente vinculada al hecho de portar el ADN de los humanos, sino a la capacidad de autoconciencia.

Sin embargo, no son pocos los obstáculos que se deberían superar para otorgar a este tipo de inteligencia artificial avanzada y completamente autónomas su personalidad jurídica.

¿Con qué patrimonio contaría el robot para indemnizar por daños y perjuicios?

El robot carecería de patrimonio para responder civilmente ante el resarcimiento de daño. Una posibilidad sería que responda con su propio valor económico y como activo que pueda ser incautado, embargado o enajenado para que, con su precio se pueda resarcir a la víctima[5].

¿Quién detentaría la titularidad del robot?

Debería esclarecerse en forma suficiente quién detenta la propiedad y/o el uso del robot. Esto sería preciso por cuanto en sistemas avanzados, el accionar del robot no depende exclusivamente del software inicial, sino también del uso que de él haga el dueño o guardián.

A priori parecería sencillo resolver el dilema de la titularidad del robot utilizando el concepto clásico de dominio. Sin embargo, se presentan grandes desafíos para la ciencia jurídica. ¿Qué sucedería si un robot inventa algo? ¿De quién sería la titularidad de la obra? Un tema de particular importancia y aún no resuelto es que del software nacen dos titularidades: la del fabricante, por un lado, y por otro, la del usuario que la adquiere[6].

¿Qué pasaría si un robot crease, por ejemplo, un cuadro? ¿Pueden ser protegidos por la propiedad intelectual? De ser así, ¿cómo se protegería? ¿Quién sería el titular de esos derechos? ¿Fabricante, usuario o el propio robot?[7]

Estos interrogantes han sido planteados en varios países como Japón y la República de Corea, los que propician ampliar los derechos de los robots en tal sentido.

La titularidad de los robots y de sus obras es un capítulo sin resolver que dará lugar a extensos debates doctrinarios.

VII. La imputabilidad de la I.A. [arriba] 

La imputabilidad de la inteligencia artificial no podría ser otra que aquella asentada en un factor objetivo de atribución. Quien alegue tal responsabilidad, solo tendrá que probar la existencia de un daño o perjuicio y el establecimiento de una relación de causalidad entre el funcionamiento del robot y los daños o perjuicios causados como resultado de su accionar.

1. Otro sector de la doctrina propone aplicar las mismas normas de responsabilidad civil por daños causados por animales a los daños causados por los robots provistos de inteligencia artificial autónoma.

El elemento relevante y preocupante de la inteligencia artificial es, como ya se dijo, la ausencia de previsibilidad en la toma de decisiones. Algo similar ocurre con el comportamiento de los animales, receptado en el art. 1759 del Código Civil y Comercial de la Nación, en virtud del cual queda comprendido en el art. 1757 del mismo cuerpo normativo, cualquier daño causado por animales, cualquiera sea su especie.

Es decir, que el dueño y el guardián del robot con inteligencia artificial autónoma tendrían una responsabilidad concurrente y objetiva.

El informe del Parlamento Europeo del 27/01/2017 contiene recomendaciones de responsabilidad civil sobre robótica, y allí se destaca precisamente el paralelo establecido entre el comportamiento de inteligencia artificial autónoma y el comportamiento animal, centrado en la ausencia de previsibilidad.

2. En el seno de la Comunidad Europea se abordó también la posibilidad de que la responsabilidad civil de la inteligencia artificial sea un supuesto más de responsabilidad por el hecho ajeno. Esto implicaría no reconocerle la calidad de sujeto de derechos, no aplicarles imputabilidad directa culposa, pero crear la figura de un tutor quien sería el responsable principal por el hecho del robot con tales características.

3. La aplicación de la teoría del riesgo creado, parece ser, por el momento, la más afín a la problemática planteada. Es decir, poner el resarcimiento de los daños y perjuicios en cabeza de quien introduce en la sociedad una cosa con aptitud para causar un daño. La cosa puede ser peligrosa por su propia naturaleza o por la forma en que es utilizada. Pero siempre la responsabilidad recaería en una persona humana o jurídica.

VIII. Extensión del resarcimiento [arriba] 

Pero aun cuando pueda establecerse un responsable civil, quedarían puntos por precisar. Como la extensión del resarcimiento. El informe del Parlamento Europeo a la Comisión de Asuntos Jurídicos sobre normas de Derecho Civil sobre robótica propone que, cuando el sujeto responsable sea debidamente identificado, su responsabilidad debería ser proporcional al nivel real de las instrucciones impartidas a los robots y a su grado de autonomía, de forma que cuanto mayor sea la capacidad de aprendizaje o la autonomía y cuanto mayor haya sido la “formación” del robot, mayor debiera ser la responsabilidad de su formador. Señala que deberían diferenciarse bien las competencias adquiridas a través de la formación del robot, de las competencias estrictamente dependientes de su capacidad de aprender de modo autónomo.

Considera que, independientemente del instrumento jurídico futuro que se escoja en materia de responsabilidad civil por los daños y perjuicios causados por robots en casos distintos a los perjuicios patrimoniales, dicho instrumento legislativo no debería en modo alguno limitar el tipo o el alcance de los daños y perjuicios que puedan ser objeto de compensación, ni tampoco limitar la naturaleza de dicha compensación, por el único motivo de que los daños y perjuicios hayan sido causados por un agente no perteneciente a la especie humana.

 Sería conveniente establecer un régimen de seguro obligatorio, que podría basarse en la obligación del productor de suscribir un seguro para los robots autónomos por él fabricados.

El sistema de seguro debería complementarse con un fondo para garantizar la compensación de los daños y perjuicios en los supuestos en los que no exista una cobertura de seguro.

IX. El Derecho y la inteligencia artificial [arriba] 

Cass R. Sunstein, catedrático de la Universidad de Chicago, se pregunta si puede la inteligencia artificial realizar razonamientos legales utilizando la analogía.

Se propone demostrar que ello no es posible, porque no puede participar en la tarea crucial de identificar el principio normativo que vincula o separa los casos a resolver.

Destaca que actualmente se ofrece asistencia para la investigación, en lugar de razonamiento analógico. Pero advierte que esto es una afirmación sobre la tecnología actual, y que esto podría cambiar en el futuro.

El destacado profesor entiende que el razonamiento legal es mayormente analógico y formula un distingo entre lo que denomina una versión fuerte y una versión débil de la inteligencia artificial en el razonamiento legal.

Según la versión débil, la inteligencia artificial puede servir como una gran mejora en el ejercicio y razonamiento del derecho, porque los programas bien diseñados pueden decirle a un abogado, o incluso a un juez, qué casos son aquellos similares al caso en cuestión. Pero pierde un punto central sobre el razonamiento legal: su carácter inevitablemente educativo impulsado por un juicio de valor. Porque la identificación de un principio es una cuestión de evaluación de casos parecidos.[8]

Citando a Ronald Dworkin, señala que “la analogía sin teoría es ciega. Un analogía es una manera de establecer una conclusión, no una forma de llegar a una, y la teoría debe hacer el trabajo real”[9].

X. Conclusión [arriba] 

A esta altura de los acontecimientos, resultaría vano todo intento de negarnos a admitir los avances tecnológicos, que ya son una realidad.

La ciencia jurídica debe dar respuestas ante el surgimiento de inteligencias artificiales autónomas.

Resulta útil a la sociedad que las investigaciones tecnológicas avancen, pero siempre adecuando el accionar de los ingenieros en robótica a valores éticos, sobre los que se debe generar consensos a nivel mundial. Valores y principios tales como la dignidad humana, la igualdad, la justicia, la equidad, la privacidad, la autonomía y la responsabilidad social, deben erigirse como premisas fundamentales de cualquier sistema normativo, cualquiera sea la solución que se propicie desde el área de la Responsabilidad Civil.

Sin lugar a dudas, debe primar el principio de prevención. Las investigaciones y sus consecuentes resultados, introducidos en la vida cotidiana de la sociedad, deben ser previamente observados en cuanto a sus posibles impactos sobre la seguridad, su peligrosidad, y ofreciendo respuestas y garantías suficientes ante la posible ocurrencia de daños derivados del accionar de inteligencias ratifícales autónomas.

 

 

Notas [arriba] 

[1] Documento de sesión del Parlamento Europeo del 27/01/2017 con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, disponible en https://www.europarl.europa.eu/doceo/document/A-8-2017-0005
[2] UCHA, Florencia, Inteligencia Artificial, sitio: Definición ABC, fecha 14/08/2013 URL: https//www.de finicionabc.co m/tecnología/inteli gencia-artificial. php
[3] Robótica e inteligencia artificial: nuevos desafíos jurídicos- Caber Derecho, Law And Trenes (2017), 15 de mayo de 2017, from http//www.lawan dtrends.co m/noticias/ tic/robotica-e -inteligencia- artificial- nuevos.html
[4] Corvalán, Juan Gustavo, “La Primera Inteligencia Artificial predicativa al Servicio de la Justicia: Prometea”, LL AR/DOC/2520/2017.
[5] Gómez- Riesco Tabernero de Paz, Juan, “Los Robots y la responsabilidad civil extracontractual”, en BARRIO ANDRÉS, Moisés (dir.), Derecho de los Robots, Ed. Wolters Kluwer, Madrid, 2018, pág. 115.
[6] Inteligencia Artificial. Grado en Derecho. Alumno: Carmen Vallejo de Hoyos. Director: Ramón Heras de las Heras. Facultad de Derecho. Universidad de Almería. Almería, junio de 2017. URL: https//www.r epositorio ,ual.es.
[7]The Rise of Robots and the Law of Humans (2017).
[8] Sunstein, Cass R., Of Artifical Intelligence and Legal Reasoning. University of Chicago Law School, Chicago Unbound, Public Law and Legal Theory Working Papers, 2001.
[9] Dworkin, Ronald. El imperio de la Ley (1985).