JURÍDICO LATAM
Doctrina
Título:La crisis del Coronavirus y la aceleración del uso de la Inteligencia Artificial. Una hoja de ruta sobre sus beneficios y riesgos desde una perspectiva ético-jurídica
Autor:González Saborido, Juan B.
País:
Argentina
Publicación:Revista de Derecho Civil - Número 11 - Julio 2020
Fecha:02-07-2020 Cita:IJ-CMXX-545
Índice Voces Citados Relacionados Ultimos Artículos
1. Introducción
2. Qué es la Inteligencia Artificial y que derechos están involucrados en su desarrollo
3. La centralidad de Dignidad de la persona humana para desarrollar criterios éticos
4. Conclusión
Notas

La crisis del Coronavirus y la aceleración del uso de la Inteligencia Artificial

Una hoja de ruta sobre sus beneficios y riesgos desde una perspectiva ético-jurídica

Por Juan Bautista González Saborido*

1. Introducción [arriba] 

Es muy difícil vaticinar las consecuencias de la pandemia provocada por el COVID-19 y prever todos sus alcances. Sin embargo, sí es posible plantear algunas hipótesis a partir de ciertos hechos verificados durante la misma.

Una de esas hipótesis es que la crisis actuará como un acelerador de la revolución digital. Es decir, que provocará un auge de la utilización de la Inteligencia Artificial, del análisis de datos, de la robótica, del teletrabajo y de la enseñanza virtual. En efecto, las medidas de confinamiento social han actuado como un catalizador de todas las plataformas y tecnologías digitales, principalmente el teletrabajo y la enseñanza virtual.

En lo que respecta propiamente al combate contra el virus, se advierte una intensa utilización del análisis de datos. Por ejemplo, en Asia la epidemia no fue combatida solamente por virólogos y epidemiólogos, sino también por informáticos y especialistas en macrodatos[1]. De hecho, se señala a Corea del Sur por la lucha contra el COVID-19 como un ejemplo para el mundo en términos de cómo la tecnología complementó la gestión humana. Lo hizo, en el trazado del recorrido del virus, más el testeo de casos como base de la estrategia, complementada a su vez, por la producción de insumos sanitarios[2].

Es muy posible que, una vez terminada la emergencia provocada por el Coronavirus, asistamos a un mundo con espacios dotados de mayor distancia física, menos herramientas y superficies comunes, y más tecnología: geolocalización para subir a un avión -para evitar personas que vengan de zonas de contagio-, datos biométricos para ingresar en edificios públicos o medios de transporte, entre otras restricciones o criterios de admisión sujetos a datos.

Simultáneamente, mientras estamos confinados en nuestras casas como consecuencia del aislamiento social preventivo y obligatorio, la Inteligencia Artificial y los algoritmos, se van insertando en la cotidianeidad de nuestras vidas. Nos filtran lo que queremos ver en Google o Netflix, nos sugieren productos para que los compremos en tiendas online, nos seleccionan los contenidos para ver en las redes sociales, orientan nuestros gustos y deseos y procesan millones de datos que generamos diariamente en nuestra interacción digital.

Antes de la pandemia, esta tecnología se venía utilizando de manera generalizada en prácticamente todos los sectores y en todas las profesiones: en las telecomunicaciones, en la salud, en la educación, en la justicia, en los seguros, en el sistema financiero, etcétera. Por consiguiente, es muy probable que su utilización se incremente sostenidamente en la post pandemia.

Por tanto, de lo expuesto podemos deducir que la transformación digital ha devenido irreversible. Es un factor que es fuente de productividad y competitividad en la política, en la economía y en la sociedad, de suerte que ningún país puede perder la carrera de la digitalización si desea alcanzar un crecimiento sostenible.

Ahora bien, no todo es prometedor con el advenimiento de esta revolución digital. Hace poco tiempo, la filósofa española Adela Cortina[3] señaló que uno de los principales peligros es que la transformación digital de la sociedad puede conformar nuestras mentes y nuestra cultura de tal modo que pongamos de nuevo nuestras vidas en manos del taylorismo. Es decir, en un entramado donde el hombre puede quedar subordinado a un sistema dominado por la eficiencia, creando una utopía de sociedad perfecta.

Ciertamente, es imposible detener los avances tecnológicos; sin embargo, lo que sí es posible, es anticipar para qué mundo los queremos. El gran reto es que preveamos el impacto de la transformación digital para ponerla al servicio del hombre y de su dignidad. Y, simultáneamente, que evitemos que sean vulnerados los derechos personalísimos de la persona humana, como el derecho a la intimidad, a la información, a la identidad y al honor.

En este trabajo nos planteamos -modestamente- una hoja de ruta sobre los alcances de la Inteligencia Artificial, sus oportunidades y riesgos desde una perspectiva ética y jurídica. Nos parece importante destacar con particular énfasis que todo avance e innovación conlleva grandes beneficios, pero también posibles riesgos. El mayor peligro de los riesgos estriba en ignorarlos y el hecho de que los mismos sean complejos, no significa que sean insuperables.

2. Qué es la Inteligencia Artificial y que derechos están involucrados en su desarrollo [arriba] 

No existe una definición establecida y unánimemente aceptada de la Inteligencia Artificial (en adelante, IA). La IA es un concepto que engloba muchas otras (sub)áreas, como la informática cognitiva (algoritmos capaces de razonamiento y comprensión de nivel superior -humano-), el aprendizaje automático (algoritmos capaces de enseñarse a sí mismos tareas), la inteligencia aumentada (colaboración entre humanos y máquinas o cobótica) o la robótica con IA (IA integrada en robots).

Sin embargo, el objetivo fundamental de la investigación y el desarrollo en materia de IA es la automatización de comportamientos inteligentes como razonar, recabar información, planificar, aprender, comunicar, manipular, observar e incluso crear, soñar y percibir.

En términos generales, se puede distinguir entre IA débil (narrow AI) e IA fuerte (general AI). La IA débil es capaz de realizar tareas específicas. La IA fuerte es capaz de realizar las mismas tareas intelectuales que un ser humano[4].

En otras palabras, la IA implica que un sistema pueda recabar datos y en base a ellos sacar conclusiones o tomar decisiones, replicando o imitando la inteligencia de las personas o bien actuando o desarrollando un pensamiento racional en busca del mejor resultado posible[5] con cierto grado de autonomía, e incluso con la posibilidad de tener auto aprendizaje. Esto es posible gracias a los avances en términos de almacenamiento y procesamiento de datos, que cada vez permitirán mayor autonomía por parte de la IA.

A la IA se la asocia con el big data. Esta asociación no es casualidad, sino que aclara el significado de la Inteligencia Artificial: se recolectan y analizan ingentes cantidades de datos, desde los climáticos hasta los de consumo personalizado, pasando por el comportamiento de las bolsas, los insectos o el deporte, con objeto de poder hacer predicciones lo más fidedignas posibles. La supuesta “inteligencia” se basa en la presuposición de que, cuantos más datos se puedan procesar, más posibilidades habrá de anticiparse a una conducta, comportamiento o suceso[6].

En el ámbito comercial, las empresas centran sus inversiones y esfuerzos en obtener más y mejor información, a mayor velocidad y en un tiempo reducido con el objeto de incrementar su eficiencia, multiplicar la capacidad de respuesta y optimizar los recursos. Ya no toman decisión alguna importante sin llevar a cabo un análisis de los datos y de la información completa del mercado, de las preferencias de los potenciales clientes, usuarios o consumidores[7].

A diferencia del software y de Internet, los sistemas de IA están diseñados para actuar sobre el mundo off-line. La capacidad de actuar físicamente sobre el mundo real se traduce, a su vez, en el potencial de dañar materialmente a las personas o a las cosas. Un punto que debe ser particularmente tenido en cuenta porque la cuestión de la responsabilidad civil aún no está definida.

Las secuelas y derivaciones de la actividad de los sistemas de Inteligencia Artificial son múltiples y polifacéticas y ello trasciende el ámbito de la intimidad y privacidad de las personas, pues se afectan otros derechos, tales como la verdad, la información, el patrimonio, la imagen, la identidad, el honor, la imagen, la voz, la autodeterminación informativa, el trabajo, en definitiva se puede afectar la misma dignidad humana[8].

El reconocimiento de la dignidad de la persona humana es de singular trascendencia porque es el fundamento de los derechos humanos. Luego de la reforma del Código Civil y Comercial se encuentra expresamente tutelada en el artículo 51 que dispone:

“ARTÍCULO 51: Inviolabilidad de la persona humana La persona humana es inviolable y en cualquier circunstancia tiene derecho al reconocimiento y respeto de su dignidad.”

Todos los derechos de la personalidad derivan y se fundan en la noción de dignidad. Al introducirse en el Código, esto implica un cambio de concepción y paradigma donde el hombre es principio y fundamento del orden social y político. En palabras de la Corte Suprema, esto significa que:

“el hombre es eje y centro de todo el sistema jurídico y en tanto fin en sí mismo -más allá de su naturaleza trascendente- su persona es inviolable y constituye valor fundamental con respecto al cual los restantes valores tienen siempre carácter instrumental”[9].

Por consiguiente, la dignidad de la persona humana es la fuente, el fundamento y el sustrato, en el que se asientan y de la que derivan todos los derechos humanos. Es la conexión de un derecho con la dignidad humana la que lo convierte en derecho fundamental. Ella -la dignidad humana- es tan sustancial e inalienable que de ninguna manera podemos perderla, en ningún supuesto[10].

2.1. Cuáles son los beneficios y los riesgos de la Inteligencia Artificial

La IA, reporta beneficios y utilidades en todos los sectores y servicios y será un factor de transformación de la vida cotidiana. Entre las probables ventajas sociales que ofrece la IA, podemos mencionar: la agricultura sostenible, la seguridad vial, la seguridad del sistema financiero, procesos productivos más respetuosos con el medio ambiente, mejor sanidad, mayor seguridad en el trabajo, una enseñanza más personalizada, una justicia de mayor calidad y una sociedad más segura. La IA también puede contribuir de manera importante al crecimiento de la industria y a la mejora de la competitividad de nuestro país[11]. Se trata de un conjunto de beneficios de enorme trascendencia.

La IA, a su vez, puede reportar grandes ventajas cuando se utiliza en trabajos peligrosos, pesados, extenuantes, sucios, desagradables, repetitivos o aburridos. A su vez, los sistemas de IA también son capaces, y cada vez más, de realizar tareas rutinarias, procesar y analizar datos o desempeñar funciones que requieren un alto grado de planificación o predicción, trabajos que a menudo se encomiendan a trabajadores muy capacitados. El potencial de la IA es enorme.

Sin embargo, como cualquier otra tecnología disruptiva, la IA entraña riesgos y retos políticos complejos en áreas como la seguridad, la controlabilidad, la libertad, los aspectos socioeconómicos, el trabajo, la ética, la privacidad, la fiabilidad, entre otros.

A continuación, enumeraremos algunos de los riesgos.

- Pérdida de fuentes de trabajo: Todo cambio tecnológico provoca la pérdida de fuentes de trabajo, por un lado, y la generación de nuevos puestos de trabajo por otro. Sin embargo, todavía nadie puede prever a ciencia cierta cuáles serán estos nuevos trabajos, ni con qué celeridad aparecerán. Empresas como Google y Facebook han logrado crear un valor inconmensurable con un número relativamente reducido de empleados. Por otra parte, los empleos nuevos no son siempre buenos empleos. Existe la preocupación de que la continuidad del desarrollo de la IA deje solo tareas pequeñas y mal remuneradas para un grupo creciente de trabajadores flexibles.

- Control excesivo sobre empleados: Las consecuencias de la IA pueden afectar la cantidad de trabajo disponible, y también la naturaleza del trabajo existente. Los sistemas de IA ofrecen cada vez más opciones para supervisar y controlar a los empleados, lo que pone en tela de juicio su autonomía y privacidad.

- Empobrecimiento de tareas: La organización y distribución del trabajo cada vez se hace más mediante algoritmos, sin intervención humana, lo que influye en la naturaleza y las condiciones del trabajo. El uso de los sistemas de IA conlleva un riesgo de empobrecimiento de las tareas y pérdida de habilidades importantes[12].

- Falta de transparencia y existencia de cajas negras: Los sistemas de IA deben ser transparentes, comprensibles y controlables. Su funcionamiento debe ser objeto de rendición de cuentas a posteriori. Además, debería establecerse qué procesos de toma de decisiones pueden confiarse a los sistemas de IA y cuáles no y cuándo es aconsejable o necesaria la intervención humana.

Empero, actualmente ya hay muchos sistemas de IA que resultan poco comprensibles para los usuarios. Lo mismo se aplica, cada vez en mayor medida, a los desarrolladores de esos sistemas. Las redes neuronales (neural networks) de IA, sobre todo, son a menudo cajas negras donde ocurren procesos de decisión que ya no se pueden descifrar y para los que no existen mecanismos explicativos.

Para precisar lo afirmado en el párrafo anterior, cabe señalar que, si queremos usar la IA para ayudar a tomar decisiones complejas, como por ejemplo en la aplicación de la ley o en los diagnósticos médicos, entonces Es imprescindible que las personas tengan siempre el poder de rechazar una decisión automatizada[13].

- Riesgo de sesgos: A través del “aprendizaje automático”, de técnicas de “minería de datos” o de algoritmos predictivos, las máquinas son capaces de tratar millones de datos y hacer análisis y deducciones, pero pueden hacerlo con sesgos que, si no son revisados y reinterpretados, podrían incluso definir perfiles personales que ni siquiera sean exactos, almacenarlos y tratarlos sin autorización.

- Sesgos cognitivos - burbujas de pensamiento: Los algoritmos tienen la capacidad de crear sesgos cognitivos que derivan en burbujas de pensamiento en la opinión pública. Es decir, en ideas que se retroalimentan endogámicamente y que distorsionan la realidad. Los algoritmos son en muchos casos transmisores de sesgos y prejuicios discriminatorios que producen mayor fragmentación social.

- Manipulación de información: Es motivo de preocupación el uso específico de los sistemas de IA (en forma de algoritmos inteligentes) para la agregación de informaciones, por ejemplo en las redes sociales, que parece haber entrañado una limitación y fragmentación de la sociedad (por ejemplo, las filter bubbles[14] y las pseudonoticias en Twitter y Facebook durante las elecciones estadounidenses).

- Influencia en conductas electorales: Los indicios de que supuestamente se utilizaron sistemas de IA para influir en el comportamiento electoral de los ciudadanos. A través de los algoritmos inteligentes es posible predecir los comportamientos humanos e influir en ellos. Esto es una amenaza para una democracia abierta y fiable. En la época actual de polarización y desmantelamiento de instituciones internacionales, la precisión y el poder de semejante tecnología de propaganda puede acarrear rápidamente una mayor desestabilización social. Esta es una de las razones por las que se necesitan normas de transparencia y rendición de cuentas de los algoritmos inteligentes[15].

Los desafíos que planteamos en este trabajo, tienen como único fin suscitar en la comunidad académica, en la sociedad civil y en la dirigencia política una reflexión y un dialogo para que pensemos conjuntamente en qué modelo de sociedad queremos que se inserten estas nuevas tecnologías. Esta reflexión es esencial para diseñar la regulación de las mismas.

En este contexto, y considerando la trascendencia de la revolución digital en tantos órdenes de la vida, es bueno preguntarse: ¿son nuestros marcos jurídicos en vigor adecuados para hacer frente a los avances de la IA y de la robótica? ¿Pueden regularse las nuevas tecnologías, en particular si se caracterizan por un comportamiento autónomo cada vez mayor, dentro de los marcos legales y éticos existentes?[16]

2.2. La cuestión en torno a la indebida protección de los datos personales, afectación de derechos y necesidad de actualizar la legislación

La garantía de privacidad de los sistemas de IA es motivo de preocupación. Muchos productos de consumo ya llevan IA incorporada: aparatos domésticos, juguetes, coches o dispositivos de control de la salud. Todos ellos transmiten datos -a menudo personales- a las plataformas de los fabricantes en la nube.

En vista del auge del comercio de datos, es decir, que los datos generados no van a parar solo al fabricante, sino que se venden a terceros, nos permite suponer que la privacidad no está suficientemente garantizada. Pero lo que es una nueva amenaza y un reto para la adecuada protección de los datos personales es que los datos sean recolectados y tratados sin ningún consentimiento[17].

En el marco precedentemente descripto, el riesgo de que los datos personales estén indebidamente protegidos es notorio, y ello agrega otro argumento para pensar sobre si la legislación actual no está basada en modelos antiguos que deben adaptarse a las realidades y necesidades actuales.

Debemos tener presente que nunca antes en la historia de la humanidad se ha podido recopilar tal volumen de información. Es previsible que la entrada en vigor del Internet de las cosas (cualquier objeto será conectado a la red, desde la ropa hasta los vehículos, pasando por las heladeras o nuestros cuerpos), aumente el flujo de datos, y, por tanto, el campo de actuación de la Inteligencia Artificial.

Otro aspecto de singular relevancia es que la información genética forma parte de este proceso de recolección y análisis de datos. Las bases de datos que dispongan de toda la información genética de una población podrán realizar predicciones que incidirán en aspectos nada triviales, como los contratos con las compañías de seguros (una prima personalizada de un seguro de vida se basará en la predisposición, o no, a determinadas enfermedades), la búsqueda de trabajo (los recursos humanos dispondrán de sofisticados software para relacionar el puesto a desempeñar con el perfil psicológico/genético de los candidatos); o incluso la búsqueda de pareja (programas capaces de hacer predicciones acerca de las enfermedades o habilidades de los potenciales hijos), etc.[18]

Por estas razones, es que el problema del uso indebido de los datos personales es alarmante y la potencial lesión a la privacidad, la intimidad e incluso la dignidad del ser humano es tan seria. De hecho, en la actualidad, es más que probable que nosotros, los usuarios de la tecnología digital (redes sociales, Internet, etc.) hayamos perdido el control de nuestros datos y en ese caso, es importante retomarlo.

Por otra parte, la IA es capaz de influir en las decisiones humanas a través del análisis de grandes cantidades de datos, a menudo personales, en muchos terrenos desde decisiones comerciales a elecciones políticas. A este respecto, los menores constituyen un grupo particularmente vulnerable. Por eso, es motivo de singular inquietud que existan aplicaciones de IA dirigidas explícitamente a influir en el comportamiento y los deseos de los niños[19].

Por lo tanto, debe evitarse que la aplicación de la IA al tratamiento de los datos personales restrinja la libertad real o percibida de las personas. Es preciso controlar adecuadamente si en la práctica está suficientemente garantizado el derecho de las personas al consentimiento informado y la libertad de elección en la transmisión de datos, y también al acceso, la adaptación y el control de los datos emitidos, considerando la evolución de la IA.

2.3. Función del Derecho

Al Derecho le corresponde actuar para proteger los derechos frente a las amenazas de su vulneración y operar como límite a la explotación y al abuso sobre los más débiles. En esta ocasión, al derecho le corresponde proteger a la persona y a su dignidad de la gestión de la tecnología. Y es que el ser humano ha de ser capaz de disfrutar de los beneficios de estas tecnologías, pero al mismo tiempo, debe articular instrumentos que le permitan evolucionar en su uso y desarrollo[20].

El desafío es mayúsculo, a través del análisis de datos, genes, hábitos, rasgos faciales, redes sociales y familiares, etc., se podrá predecir a la perfección nuestro comportamiento inmediato. Esta pluralidad de fuentes de información personal creará perfiles que abarcarán tanto el rol de consumidores como el de votantes, pasando por el de trabajadores, amantes, progenitores o simples ciudadanos.

Obviamente, el manejo de un volumen de información elefantiásico como el descrito resulta singularmente perturbador, toda vez que confiere a quien lo detente un poder sin precedentes. Debemos asumir que el ser humano para la IA se ha convertido en un paquete de bits prestos a ser interpretados por un mercado globalizado, ya que el capitalismo financiero ha dado paso al capitalismo de los datos. Por ello, la IA, entendida como Big Data, debe ser eficazmente controlada tanto por el Estado como por la sociedad civil y a su vez, debe ser regulada jurídicamente[21].

Considerando que a nivel internacional la regulación específica de la IA todavía es escasa, nos preguntamos si localmente contamos con un conjunto de normas que sea suficiente frente a esta realidad y que tenga la capacidad de enfrentar sus riesgos y lograr los objetivos mencionados. Para ello es necesario revisar el ordenamiento jurídico de manera integral a fines de discernir si logra cumplir los objetivos del uso de la IA.

En la Argentina, más allá de ciertas disposiciones que apuntan al estudio y desarrollo de propuestas de marcos regulatorios o a la promoción de buenas prácticas en términos de IA, la materia no ha sido específicamente regulada. La única legislación específica vigente es la Ley N° 25.326 de Protección de Datos Personales, que debe ser actualizada.

De todas formas, es posible encuadrar las situaciones que surjan con motivo del uso de la IA aplicando los principios generales vigentes del derecho civil y comercial, las normas sobre propiedad intelectual o las normas de la Ley N° 24.240 de Defensa del Consumidor conjuntamente con la ya mencionada Ley de Protección de los Datos Personales, entre otras.

Sin embargo, debemos aclarar que existe todavía una desconexión entre las autoridades de protección de datos y las de defensa del consumidor, como lo señaló recientemente el Director de la Agencia de Acceso a la Información Pública, doctor Eduardo Bertoni quién dijo:

“hay una desconexión a nivel global entre las autoridades de protección de datos y las de defensa del consumidor”. En consecuencia "debemos trabajar de manera conjunta para mejorar la protección de estos derechos no sólo en Argentina, sino a nivel internacional”[22].

En definitiva, podemos concluir que el marco jurídico debe mejorarse para que los derechos sean tutelados de forma más eficaz. Este es, indudablemente, uno de los grandes objetivos que tenemos por delante.

2.4. Responsabilidad por daños

El desarrollo en los robots de rasgos cognitivos y autónomos, como la capacidad de aprender de la experiencia y de tomar decisiones independientes, ha hecho que los sistemas de IA se asimilen cada vez más a agentes que interactúan con su entorno, siendo capaces de modificarlo de forma significativa.

Por su parte, la denominada IA fuerte, está dotada de capacidad de adaptación y de auto aprendizaje, lo que entraña un grado de imprevisibilidad en su comportamiento. Son sistemas que pueden aprender de forma autónoma de su propia experiencia variable e interactuar con su entorno de forma única e imprevisible. Nos estamos refiriendo a sistemas cada vez más autodidactas. En este contexto, la posible responsabilidad jurídica derivada de la actuación perjudicial de un sistema de IA se torna una cuestión crucial.

El Código Civil y Comercial de la Nación establece la reparación integral del daño, con clara tendencia a incluir en la composición las consecuencias inmediatas, mediatas y remotas del acto lesivo. Sin embargo, en el entorno digital suceden hechos a gran velocidad, y con repercusión masiva, que merecen un tratamiento particular previo y que no pueden ser asimilados automáticamente a la posible aplicación de normas de la teoría general de la responsabilidad civil.

Posiblemente, es momento de plantearse algunos interrogantes, tales como: ¿Cómo aplicar esta línea sancionatoria a los daños causados por la Inteligencia Artificial? ¿Cómo operan los deberes de custodia y guarda del fabricante o del usuario respecto de daños causados por algoritmos que mutan en el cyber espacio interactuando con éste y se alejan de su alcance? ¿Quién es el responsable y cómo identificarlo? ¿Existe obligación de monitoreo? ¿Cuál es el alcance de la reparación en daños causados por un sistema de IA? ¿Qué ocurre con los actos de terceros extraños de los que se nutre o alimenta el robot para mutar y dañar? ¿Cómo afectan las tendencias regulatorias sobre protecciones de datos en esta materia?[23]

Pues bien, parece extremadamente difícil responder estas preguntas recurriendo solamente a la teoría general de la responsabilidad civil. Empero, en principio, tanto a los fabricantes como a quienes comercializan productos con IA se les puede atribuir responsabilidad. Incluso, dependiendo del caso, se puede interpretar que el daño se produce en el marco de una relación de consumo, tornándose aplicable lo prescripto por los arts. 2 y 40 de la Ley N° 24.240 de Defensa del Consumidor. Estas normas endilgan responsabilidad objetiva y solidaria al productor, fabricante, proveedor, vendedor, entre otros, por los daños resultantes de la prestación del servicio, como así también del vicio o riesgo de la cosa.

No obstante lo expuesto en el párrafo anterior, lo cierto es que la variedad de situaciones que se pueden producir cuando interviene un sistema de IA en la producción de un daño es tan compleja, que deviene necesario una regulación específica. Ahora bien, debemos destacar que la introducción de cualquier tipo de personalidad jurídica para los robots o la IA, es una cuestión muy polémica, puesto que ello puede socavar los efectos correctores y preventivos de la legislación en materia de responsabilidad y puede generar un riesgo moral tanto en el desarrollo como en la utilización de la IA.

Asimismo, debemos considerar, que la autonomía de las IA afecta a dos conceptos claves, responsabilidad e irreversibilidad, de ahí que se haya propuesto distinguir entre “autonomía” y “automatismo”, con objeto de mostrar que las IA pueden estar bajo la cobertura de la “automaticidad”, pero que esto no implica que sean entidades propiamente autónomas, toda vez que la autonomía presupone “responsabilidad moral”, rasgo ausente en este tipo de entidades[24].

Por último, se suscita la cuestión sobre la naturaleza de la IA y de si pertenecen a una de las categorías jurídicas existentes o si debe crearse una nueva categoría con sus propias características jurídicas. Deben extremarse los recaudos para prevenir el riesgo moral de que la responsabilidad sobre los sistemas de IA se transfiera a entidades que, en la práctica, sean incapaces de responder patrimonialmente, con el daño que eso puede producir a la seguridad jurídica.

3. La centralidad de Dignidad de la persona humana para desarrollar criterios éticos [arriba] 

Después de haber hecho una síntesis sobre las oportunidades y riesgos de la IA, y un paneo sobre la insuficiencia de su actual regulación, nos parece apropiado delinear los grandes trazos de un marco ético que servirá de base para el marco jurídico. De esta manera tendremos herramientas para poder subordinar este avance tecnológico al bien del hombre.

Para realizar esta tarea debemos hacer un juicio ético sobre el paradigma económico imperante. Un paradigma que hasta ahora se afianzaba pletórico de un eficientismo abstracto fundado en la supuesta superioridad de la economía de mercado, en el gran poder de la tecno-ciencia y en la lógica de la racionalidad instrumental medio-fin.

Este “nuevo” orden no promete un lugar para todos, sino que exalta la ideología de la competencia y la eficiencia abstracta: el mundo es de ganadores y perdedores (winners y losers). Pero, este orden prescinde de toda referencia a los seres humanos concretos como fuente de legitimidad[25].

Este paradigma, pone en peligro cada vez mayor los ámbitos de la vida social y de la naturaleza, y tiene una carga de auto-destructividad creciente que socava las propias condiciones de posibilidad de la vida humana, natural y social. Como dijo el Papa Francisco en su homilía del 27 de marzo de este 2020:

“En nuestro mundo, que Tú amas más que nosotros, hemos avanzado rápidamente, sintiéndonos fuertes y capaces de todo. Codiciosos de ganancias, nos hemos dejado absorber por lo material y trastornar por la prisa. No nos hemos detenido ante tus llamadas, no nos hemos despertado ante guerras e injusticias del mundo, no hemos escuchado el grito de los pobres y de nuestro planeta gravemente enfermo. Hemos continuado imperturbables, pensando en mantenernos siempre sanos en un mundo enfermo.”[26]

Por eso, frente a la crisis socio ambiental existente, esta epidemia provocada por el COVID-19, puede transformarse en una oportunidad por la recuperación del ser humano en cuanto sujeto corporal, de la vida humana concreta (personal, social y espiritual), de la vida para todos, en las relaciones humanas, en las instituciones sociales y en las construcciones culturales. Recuperar hoy al ser humano concreto no es un simple juicio de valor, es la exigencia de recuperar un realismo perdido. Esta recuperación parte de un juicio de la razón práctica, de una afirmación sobre la realidad en la cual vivimos.

En ese orden de ideas, nos parece que se ha puesto de manifiesto en medio de esta pandemia, la importancia del cuidado de la vida, de la naturaleza, de la dignidad de la persona humana y la interdependencia que nos vincula a todas las personas.

Por lo tanto, estamos frente a la posibilidad de construir una racionalidad que trascienda, pero no necesariamente elimine, la racionalidad instrumental. Una racionalidad que no se basa en las preferencias del consumidor sino en las necesidades de las personas. Que no se funda en cálculos económicos, sino en una ética del bien común. Una racionalidad que permita conservar y reproducir el circuito natural de la vida humana y de la naturaleza.

Para construir esta nueva racionalidad son necesarios principios éticos, en donde la dignidad humana debe recuperar la centralidad, pero no sólo en las declaraciones, sino en los hechos concretos. Eso es lo que nos permitirá humanizar al mundo y a la tecnología. Para lograr esta humanización de la tecnología debemos recordar algunos viejos principios fundamentales que nos permitirá regular adecuadamente la cuestión.

Uno de ellos es que los derechos y los deberes de las personas en relación a la vida en sociedad se delimitan, se esclarecen y cobran su sentido verdadero, a partir del reconocimiento de su dignidad inalienable, de su carácter único e irrepetible, única manera de saber qué lugar se ocupa en el mundo y de reconocer el papel que cumplimos en él[27].

El orden social y su progresivo desarrollo deben en todo momento subordinarse al bien de la persona, ya que el orden real debe someterse al orden personal, y no al contrario. La persona humana es el único ser que es autoconsciente, que está dotado de interioridad, de “in-sistencia” en la terminología de Ismael Quiles.

En efecto, la interioridad como constitutivo ontológico de su ser, como condición del encuentro entre ser y dignidad del hombre, es la razón profunda por la que la persona humana es el principio, el sujeto y el fin de todas las instituciones sociales, la cual por su misma naturaleza, tiene absoluta necesidad de la vida social[28].

Estas nociones son importantes para reflexionar sobre la orientación ética y la regulación jurídica que deben tener los sistemas de IA. Nos parece imprescindible la amplitud y profundidad que nos otorga la categoría jurídica de la dignidad de la persona humana, considerando especialmente la situación de desigualdad que padecen los titulares de los datos personales frente a los responsables de los archivos, registros, bases o bancos de datos y usuarios de dichos datos.

Es preciso entonces, por un lado, retomar la vía de exaltar la dignidad de la persona y por el otro, señalar la interdependencia, la intersubjetividad relacional que es constitutiva del mundo de la vida del hombre. Es necesario abrir el horizonte de comprensión a estas realidades, toda vez que la mera racionalidad, es una abstracción sin sustancia, si se la separa de la referencia a lo vital, a lo afectivo y a lo axiológico.

En suma, el contexto nos indica que estas nuevas tecnologías deben insertarse en un marco en donde se “humanice” la técnica y se subordine al bien del hombre. Desde esa perspectiva, se advierte la necesidad de buscar nuevos caminos para una racionalidad que nos conduzca a una concordia humana universal. Una racionalidad que sea algo más que una arquitectura de mercados económicos, de poderío militar y de desarrollo tecnológico guiado por el lucro.

3.1. Necesidad de criterios éticos orientadores

La tecnología “per se”, no tiene una finalidad axiológica a la cual se someta. Por el contrario, ella está sujeta a un imperativo racional de eficiencia, donde todo puede ser medio para otra cosa. Es pura racionalidad instrumental. Es por esta razón que hay que constituir espacios de debate en materia axiológica, donde se distinga la falacia entre lo tecnológicamente posible y lo éticamente aceptable, transformándose esto último en un mero correlato de lo primero. Esta es una forma de construir una nueva racionalidad humanista en donde podrá insertarse la tecnología digital.

El debate ético que propiciamos, conlleva un imprescindible sistema axiológico donde la dignidad de la persona humana ocupa el lugar central. Así se posibilitará resolver el círculo vicioso entre tecnología, consumo y la mentalidad hedonista imperante. Esto porque el sistema de valores comprende la obligación de aceptar deberes y prohibiciones, es decir un orden de conducta que no provendrá de la tecnología, sino que se fundamentará en la escala de valores del individuo o de la sociedad[29].

Desde esta perspectiva, en la Academia Pontificia para la Vida, desarrollaron el concepto de “algor-ética”, cuyo objetivo es asegurar una verificación competente y compartida de los procesos mediante los cuales se integran las relaciones entre los seres humanos y las máquinas en nuestra era, para señalar que éste puede ser enriquecido por los principios de la Doctrina Social de la Iglesia, a saber, dignidad de la persona, justicia, subsidiariedad y solidaridad. Son principios que ayudarán a poner estos avances tecnológicos al servicio de cada persona humana en su totalidad, sin discriminaciones ni exclusiones[30].

Por consiguiente, los sistemas de IA que se diseñan actualmente no contienen valores éticos. Incorporarlos a dichos sistemas y al entorno donde se utilizan es tarea de los seres humanos. Para humanizar la tecnología, el desarrollo, la activación y los usos de los sistemas de IA, tanto públicos como comerciales, deben supeditarse a nuestros valores, normas, libertades y derechos humanos fundamentales.

Para ello, una herramienta que puede ser muy valiosa es que se elabore un código deontológico para el desarrollo, despliegue y utilización de la IA, de modo que durante todo su proceso de funcionamiento los sistemas de IA sean compatibles con los principios de la dignidad humana, la integridad, la libertad, la privacidad, la cooperación, la solidaridad y los derechos humanos fundamentales.

3.2. Compromisos o principios que deben guiar la IA

La respuesta a los desafíos que genera esta cuarta revolución tecnológica, no puede articularse a partir de la oposición a la tecnología, sino mediante la búsqueda de su humanización, y es este el principio fundante de todo código ético o deontológico[31].

A continuación, planteamos algunos principios orientadores:

- La prioridad del ser humano sobre todas sus creaciones, como la tecnología, que está a su servicio.

- La integridad de la persona, más allá del reduccionismo de los datos que pretenden cosificarlo.

- La prevalencia del bien común sobre los intereses particulares, por mayoritarios y legítimos que éstos sean.

- La reivindicación de la autonomía y responsabilidad personales frente a las tendencias paternalistas y desresponsabilizadoras.

- La equidad y justicia universal en el acceso, protección y disfrute de los bienes y derechos que posibilitan una vida digna del ser humano.

- Necesidad de supervisión humana: “Nuestra supervisión es imprescindible. Siempre se necesita una interacción entre inteligencia humana y artificial y verificaciones para que esta última sea confiable y verdaderamente útil”[32]. El hombre es y debe ser siempre el responsable último de las decisiones.

- La posibilidad de un dividendo digital y el reparto equitativo de dividendos, con el fin de lograr que la incorporación de estas tecnologías beneficie al conjunto de la humanidad, que no generen ni sobrantes ni excluidos.

4. Conclusión [arriba] 

Todavía estamos a tiempo de controlar la IA y los algoritmos que aparentemente ya nos controlan. Para ello, lo más importante es que pongamos la razón moral por encima de la razón técnica. Tenemos que parar y reflexionar sobre las metas que queremos alcanzar con la revolución digital y cómo las vamos a conseguir.

Porque la tecnología siempre podrá ser un aliado de progreso, pero si se la incorpora en un marco ético y jurídico que jerarquice la dignidad humana. La tecnología no es algo que “sobrevenga” sin más. Los poderes públicos, la academia y la sociedad civil tienen la posibilidad de determinar cómo se desarrollará la IA y cómo se aplicará en el marco de la actividad profesional; hay que aferrarse a esta posibilidad.

Por eso es importante no centrarse solo en lo que puede hacer la IA, sino también en lo que pueden hacer las personas (creatividad, empatía, colaboración), lo que queremos que sigan haciendo, y buscar formas de qué humanos y máquinas puedan trabajar mejor juntos (complementariedad).

Hay una cuestión de fondo que debemos abordar, es la posibilidad de construir una racionalidad que trascienda, pero no necesariamente elimine la racionalidad instrumental que esté basada en las necesidades de las personas y no primordialmente en el afán de lucro.

En definitiva, lo que necesitamos es humanizar la tecnología para poner los derechos humanos en el centro de todos los avances tecnológicos.

 

 

Notas [arriba] 

*Abogado. Investigador y Docente de Economía Política y Derecho Comercial en la Facultad de Ciencia Jurídicas de la USAL.

[1] Según la ONU, los macrodatos son los datos que proceden de las interacciones cotidianas con productos o servicios digitales, entre los que se incluyen los teléfonos móviles, las tarjetas de crédito y las redes sociales.
[2] Byung-Chul Han, “La emergencia viral y el mundo del mañana. Byung-Chul Han, el filósofo surcoreano que piensa desde Berlín”, El País (marzo 21, 2020). Disponible en: https://elpais.c om/ide as/2020-0 3-21/la-emergenci a-viral-y-el-m undo- de-manana -byung-chul-han-el-filosofo- surcore ano-que-pien sa-desde-ber lin.html
[3] Adela Cortina, Ciudadanía Digital y Dignidad Humana, consulta en línea el 15 de abril de 2020 en https://elpai s.com/elpais/ 2018/03/22/opinio n/1521737007_8541 05.html
[4] Dictamen del Comité Económico y Social Europeo sobre la Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad C 288/1 del 31.8.2017, publicado en el Diario Oficial de la Unión Europea el 31 de agosto de 2017.
[5] Villena C.A.O. (2019). Derecho y Economía de la Inteligencia Artificial. El futuro problema de la responsabilidad penal de las personas electrónicas. Programa de Actualización en Cibercrimen y Evidencia Digital. Universidad de Buenos Aires.
[6] Manuel Jesús López Baroni, Las narrativas de la inteligencia artificial - Rev. Bio y Der. 2019; 46: 5-28.
[7] José Luis Goñi Sein, Defendiendo los derechos fundamentales frente a la inteligencia artificial. Lección inaugural del curso académico 2019-2020. Pamplona, Universidad Pública de Navarra, 13 de septiembre de 2019, cconsulta en línea en https://www. unavarr a.es/digitalAss ets/244/244921_1 Leccion-inaug ural-Castellano-1 9-20_web.pdf
[8] Mario Masciotra, Protección de datos personales ante la pandemia del Coronavirus”, en “La Tutela de la Salud Pública, IJ Editores, 9 de abril de 2020, IJ-CMXV-266.
[9] CSJN, “Bahamondez, Marcelo s/ medida cautelar”, 06/04/1993.
[10] Eleonora Lamm, “Código Civil y Comercial Comentado”, Tomo I, consulta en línea en http://www.saij.go b.ar/docs-f/co digo-comentado /CCyC_Com entado_T omo_I%20(arts. %201%20a %20400).pdf
[11] Dictamen del Comité Económico y Social Europeo sobre la Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad C 288/1 del 31.8.2017, publicado en el Diario Oficial de la Unión Europea el 31 de agosto de 2017.
[12] Dictamen del Comité Económico y Social Europeo sobre la Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad C 288/1 del 31.8.2017, publicado en el Diario Oficial de la Unión Europea el 31 de agosto de 2017.
[13]  Douglas Heaven, Caja negra vs. de cristal: la IA que funciona contra la que se explica, traducción de Ana Milutinovic, 7 febrero, 2020, consulta en línea el 15 de abril de 2020 en https://www.tech nologyrevie w.es/s/11839/c aja-negra -vs-de-crista l-la-ia-que-fu nciona-co ntra-la-que -se-explica
[14] Según Eli Pariser, el acceso a la información y a la participación en la web está condicionado por el diseño algorítmico de las plataformas utilizadas para ingresar a la misma. El concepto burbujas de filtro refiere al aislamiento informativo donde estarían quedando atrapados los usuarios como consecuencia de dichas configuraciones, en El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos, Barcelona, Taurus, 2017.
[15] Dictamen del Comité Económico y Social Europeo sobre la Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad C 288/1 del 31.8.2017, publicado en el Diario Oficial de la Unión Europea el 31 de agosto de 2017.
[16] Andrés Moisés Barrio, Robótica, inteligencia artificial y Derecho, consulta en línea el 15 de abril de 2020 en,http://www.reali nstitutoelca no.org/w  ps/portal/rielca no_es/contenido ?WCM_GLOBAL_C ONTEXT=/el cano/elcano_ es/zonas_es /ari103-20 18-barrioandres-ro botica-in teligencia -artificial -derecho
[17] YouTube deberá pagar una multa de USD 170 millones por recolectar datos personales de niños, en https://tecno.am eric aeconomia.c om/articulo s/youtube- pagara-m ulta-de-us1 70-millone s-por-recolecta r-datos-per sonales -de-ninos
[18] Manuel Jesús López Baroni, Las narrativas de la inteligencia artificial, Rev. Bio y Der. 2019; 46: 5-28.
[19] Dictamen del Comité Económico y Social Europeo sobre la Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad C 288/1 del 31.8.2017, publicado en el Diario Oficial de la Unión Europea el 31 de agosto de 2017.
[20] Universidad de Deusto, Declaración de Derechos Humanos en entornos digitales, en https://www.d eusto.es/cs/Sa tellite/deusto/es/u niversida d-deusto/vive -deusto/el- lunes-se-p resenta-la- declaracion -deusto-  sobre-d erechos-human os-en-en tornos-digitale s-elaborada-po r-la-unive rsidad/noticia
[21] Manuel Jesús López Baroni, Las narrativas de la inteligencia artificial, Rev. Bio y Der. 2019; 46: 5-28.
[22] Organizado con fecha 19 de noviembre de 2019, por la Dirección Nacional de Defensa del Consumidor del Ministerio de Producción y Trabajo de la Nación y la Comisión Federal de Comercio de los Estados Unidos (U.S. Federal Trade Commission), el encuentro contó con un panel sobre “Precios personalizados” en el cual participaron del Director de la Agencia Eduardo Bertoni, el Director Nacional de Defensa del Consumidor Fernando Blanco Muiño y el Presidente de la Asociación Latinoamericana de Privacidad Juan Pablo Altmark.
[23] José Pablo Sala Mercado, El alcance de la responsabilidad civil por daños causados por la inteligencia artificial, en Derecho y Nuevas Tecnologías: el impacto de una nueva era, Themis, Lima, Perú, 2019, pág. 175 y siguientes.
[24] Manuel Jesús López Baroni, Las narrativas de la inteligencia artificial, Rev. Bio y Der. 2019; 46: 5-28.
[25] Franz J. Hinkelammert y Henry Mora Jiménez, Por una economía orientada hacia la reproducción de la vida, en Iconos. Revista de Ciencias Sociales. N° 33, Quito, enero 2009, págs. 39-49
[26] Papa Francisco, Homilía del Momento Extraordinario de Oración en Tiempo de Epidemia, 27 de marzo de 2020, consulta en línea el 15 de abril de 2020 en http://www.vatican.v a/content/ francesco/es/h omilies/2020/ document s/papa-france sco_2020 0327_omelia-epidemia .html
[27] Royo Urrizola, Paulina La pregunta antropológica en la filosofía in-sistencial de Ismael Quiles, en CUYO Anuario de Filosofía Argentina y americana, Volumen 16, año 1999, Mendoza, Argentina, págs. 104 – 115.
[28] Ismael Quiles, Antropología filosófica in-sistencial, Ediciones Depalma, Buenos Aires, 1983, pág. 12.
[29] Fishel Szlajen, Inteligencia Artificial y Transhumanismo: Falacias del humano exacerbado y desfondado en la tecnología, en el IV Coloquio Internacional de Bioética e do II Coloquio Emoções que, reuniu pesquisadores, docentes e discentes de cursos de pós-graduação em filosofia, bioética, medicina, ciências jurídicas, neurociência, ciências sociais e humanas de todo o País, nos dias 25 a 27 de setembro de 2019, Porto Alegre, Brasil.
[30] Papa Francisco en su discurso a los participantes en la Plenaria de la Pontificia Academia para la Vida del 28 de febrero de 2020, en https://www.vatican news.va/es/pa pa/news/2020-02/p apa-pontificia-a cademia-vid a-palab ra-tradicion-ayuden -interpret.ht ml
[31] Universidad de Deusto, Declaración de Derechos Humanos en entornos digitales, en https://www.deusto .es/cs/Satellite/deu sto/es/universi dad-deusto/vive-d eusto/el-lune s-se-presen  ta-la-declaracio n-deusto-sobr e-derech os-humanos-en-e ntornos-digit ales-elaborada-po r-la-univer sidad/noticia
[32]Javier Sánchez Cañizares, La inteligencia artificial al servicio de la inteligencia humana para frenar la pandemia del coronavirus, consulta en línea el 16 de abril de 2020 en https://www.unav .edu/ web/vida-unive rsitaria/deta llenoticia2/2 020/04/07/l a-inteligencia-artificial-al-s ervicio-de-la- inteligencia-huma na-para-fren ar-la-pandemia -de-coronavirus/- /asset_publis her/eYU5/c ontent/202 0_04_07_ics _caniz ares/10174