JURÍDICO LATAM
Doctrina
Título:Responsabilidad solidaria y nuevas tecnologías. Big data. Algoritmos. Inteligencia artificial. Blockchain. Smart contracts
Autor:Brunno, Leonardo
País:
Argentina
Publicación:Revista Argentina de Derecho Comercial y de los Negocios - Número 24 - Marzo 2021
Fecha:04-03-2021 Cita:IJ-I-X-875
Índice Voces Relacionados Ultimos Artículos
1. Introducción
2. Nuevas tecnologías y big data
3. Los algoritmos
4. Inteligencia artificial
5. Blockchain
6. Smart contracts
7. Las nuevas tecnologías y la responsabilidad
8 Conclusiones
Notas

Responsabilidad solidaria y nuevas tecnologías

Big data. Algoritmos. Inteligencia artificial. Blockchain. Smart contracts

Por Leonardo Pablo Brunno

1. Introducción [arriba] 

En el enfoque actual de la función resarcitoria de la responsabilidad civil, preocupado por garantizar la indemnización a las víctimas de daños injustos[1], la aspiración de ampliar el catálogo de posibles responsables resulta una consecuencia natural.

 Proliferan, en tal sentido, construcciones jurídicas con enfoque en las obligaciones de sujeto plural, principalmente sobre la faz pasiva de tales obligaciones, que abarca a los deudores de indemnizaciones.

El crecimiento de las obligaciones solidarias, en ese sentido, es un reflejo de esta evolución[2].

El tema resulta trascendente, si se tiene en cuenta que la mayor parte de los perjuicios que se presentan en la sociedad actual[3] comprometen a más de un responsable.

Dentro del universo de temas que han recibido nuevos enfoques a partir del surgimiento del derecho de consumo, se encuentra el de la responsabilidad del proveedor, la cual se expande a supuestos que quizás en relaciones de Derecho común no llegarían a plantearse, excluyendo incluso causales de eximición de responsabilidad, tales como el hecho de la víctima[4].

Estamos vivenciando el comienzo de un cambio de paradigma tecnológico y digital, que se inició hace unas décadas con la masificación de internet, y que potencialmente va a cambiar nuestros estilos de vida y muchas de nuestras pautas culturales.

El cambio más radical, comienza a observarse en la forma de “acceder” al consumidor, y el aprendizaje que se efectúa respecto de sus gustos, de sus necesidades, y de lo que no necesita, pero puede llegar a desear[5].

Tal como señala la doctrina, en otros tiempos la distancia podía limitar los intercambios, pero en la actualidad el factor geográfico ha perdido gran parte de sus virtualidades restrictivas del consumo[6]. Paradójicamente, las nuevas formas de comunicación profundizan las distancias –ya no meramente físicas– entre el vendedor y el comprador, al punto de que resulta difícil para el consumidor saber realmente con quien está contratando.

La ampliación de la intermediación en la cadena de producción y la llegada efectiva a los adquirentes se acentúa día a día y fenómenos como el comercio electrónico, las aplicaciones de plataforma, y los smarts contracts, entre otros, se presentan como los nuevos desafíos que afronta la protección del consumidor y usuario.

Ya asistimos a la revolución causada por la facilidad en el acceso a la información brindada por los motores de búsqueda como Google, pero a su vez también somos testigos de la problemática que genera esa información cuando perjudica derechos fundamentales, tales como la privacidad, la dignidad o el honor.

Partiendo del derecho como un conjunto de reglas que permiten la vida en sociedad, nuestra época nos obliga a repensar instituciones y mecanismos que imponen responder ante el quebrantamiento de dichas reglas.

Es quizás nuestra época un punto de quiebre entre lo que fue y lo que será, y en ese marco, en el cual debe abrirse paso a la tecnología, es que surge la pregunta sobre quién debe soportar los sacrificios que naturalmente conlleva toda evolución.

La extensión de responsabilidad a proveedores que integran la cadena de comercialización parece ser una tendencia que se consolida.

La revolución de las starts up, generará tensiones lógicas entre una normativa consumerista que protege al sujeto débil necesitado de tutela, y la necesidad de desarrollo de emprendedores, pymes y pequeños negocios.

Es objetivo de este trabajo analizar si resultan aplicables los mecanismos de extensión de responsabilidad dispuestos por el sistema consumerista a la responsabilidad derivada de la utilización de nuevas tecnologías, y cuál debe ser la extensión de la misma.

2. Nuevas tecnologías y big data [arriba] 

Estamos asistiendo a lo que se ha denominado la cuarta revolución industrial que se caracteriza por el avance de tecnologías que están desintegrando las fronteras entre las esferas física, digital y biológica[7].

Los cambios culturales producidos en los últimos 50 años han sido relevantes y seguramente los cambios a producirse en los próximos 10 años, serán mucho más intensos. La época actual está caracterizada por la aparición y la búsqueda constante de innovaciones que se apartan de modo significativo de lo conocido, que se han denominado como disruptivas[8].

La tecnología es parte de nuestra vida, aun cuando la neguemos o creamos encontrarnos ajenos a ella. El uso de computadoras, Smart phone y dispositivos electrónicos es hoy una constante, y se acrecienta día a día. Internet ha pasado de ser una novedad intrigante a un recurso imprescindible.

La cantidad de interacciones que tenemos con medios tecnológicos en el transcurso del día son incontables.

Existe un mundo real, con interacciones físicas, que hoy prácticamente está siendo eclipsado por un mundo cibernético, que intenta dominar un gran porcentaje de nuestras interacciones, e incluso produce una enorme cantidad de interacciones entre maquinas que no requieren la intervención humana.

Se ha señalado que el espacio cibernético, con sus proveedores de contenidos, los proveedores de servicios, los proveedores de red y los usuarios a diferencia del espacio físico, tiene una arquitectura caracterizada por su maleabilidad, puesto que cualquiera puede redefinir códigos e interactuar, lo que lo convierte en un objeto inasible y renuente a las reglas legales sobre jurisdicción[9].

Hoy estamos asistiendo a la aparición del denominado “internet de las cosas” (internet of things –IoT– por sus siglas), en el que las personas, además de transmitir información, pueden llegar a transmitir genuino valor a través de una red.

Se ha señalado que La IoT, es la “internetización” de las cosas, es decir, la capacidad de ciertas máquinas, objetos y dispositivos que, sin ser computadoras (propiamente dichas), se encuentran conectadas a internet. La interconexión de estos dispositivos (v.gr., televisores, heladeras, automóviles, alarmas, cámaras de seguridad, etc.) genera que muchísimos de nuestros datos particulares y personales también se encuentren en la red[10].

En este mundo en constante cambio, ciertamente no resulta fácil acostumbrarnos a esta corriente denominada de la “economía disruptiva”, donde se quiere imponer modelos o costumbres, no por el hecho de ser prolijamente desarrolladas, sino pura y simplemente porque irrumpen como soluciones, eliminando intermediarios y reduciendo costos[11].

Como fuera remarcado anteriormente, lo que se ha modificado exponencialmente, es la forma de acceder al consumidor.

Pero no sólo la forma de acceder a su atención a través de la publicidad, sino de acceder a sus gustos, a sus necesidades, y principalmente a sus deseos, a partir del entendimiento de que, tal como fuera señalado, los comportamientos de los consumidores y la toma de decisiones no están basados constantemente en parámetros racionales[12].

Si como fuera señalado, la producción de bienes y servicios genera en el individuo la necesidad de adquirir cosas, aun cuando no las necesite, esta realidad se ve completamente agravada, cuando las campañas publicitarias pueden ser segmentadas, específicamente según el tipo de gusto del consumidor[13].

Desde hace algún tiempo, las grandes empresas basan su estrategia de negocios a partir del resultado de sistemas de inteligencia artificial (Netflix, Spotify, YouTube, Google, Instagram, Facebook, entre otras), a los efectos de recopilar datos e información para poder predecir futuras compras, movimientos o comportamientos[14].

Así se ha señalado que cada una de estas aplicaciones se convirtió en una fuente de datos que traza una huella digital sobre nuestras preferencias, hábitos de consumo y patrones de conducta durante las veinticuatro horas del día y esta huella digital a lo largo de las semanas, meses y años registra crudamente nuestra más íntima identidad, conformando nuestro perfil digital[15].

Esta enorme cantidad de información que circulaba a través del espacio cibernético, junto con avances tecnológicos, ha generado en los proveedores la necesidad de producirla y captarla, lo que se ha denominado como big data.

La Big data no tiene una única definición, pero a los efectos de este trabajo podemos referirla como el conjunto de datos que están circulando en la red, utilizados por las empresas para obtener información que luego es procesada[16].

Este procesamiento específico de los datos es denominado data mining, y consiste en la transformación de esa enorme cantidad de datos, en información relevante.

El data minning es considerado como un paso posterior al big data, que significa el procesamiento de toda dicha información para convertirla en datos útiles para las necesidades y los requerimientos de las empresas.

A través de estos mecanismos, los proveedores pueden acceder a información precisa, adecuada y relacionada a los fines de elaborar perfiles digitales, e identificar oportunidades de negocio, realizar operaciones más eficientes, reducir costos, y/u ofrecer nuevos y mejores productos y servicios.

A su vez, se ha señalado que este tratamiento automatizado, posibilita una actualización constante de estos perfiles digitales[17].

Los datos masivos, se señala,

“alteran la naturaleza de los negocios, los mercados y la sociedad. En el siglo XX, el valor se desplazó de las infraestructuras físicas, como la tierra y las fábricas, a los intangibles como las marcas y la propiedad intelectual. Este se expande ahora a los datos que se están convirtiendo en un activo corporativo importante, un factor económico vital y el fundamento de nuevos modelos económicos. Aunque los datos todavía no se registran en los balances de las empresas, probablemente sea solo cuestión de tiempo"[18].

3. Los algoritmos [arriba] 

En la actualidad, el big data, data minning, y la inteligencia artificial, giran sobre el eje del algoritmo. Por lo cual resulta importante poder analizar que podemos conocer –y que no– respecto de estos algoritmos.

De manera simplificada se ha señalado que son procesos que guían paso a paso para la obtención de un resultado determinado, de manera tal que siguiendo esas instrucciones se puede lograr la solución al problema planteado y tomar decisiones[19]. También se los ha definido como un "conjunto de reglas que, aplicada sistemáticamente a unos datos de entrada apropiados, resuelven un problema en un numero finito de pasos elementales"[20].

En sentido más técnico son entendidos como los procedimientos generalizados para convertir entradas de datos desorganizados en salidas manejables a través de una serie de reglas lógicas[21].

Todo algoritmo tiene un número finito de pasos tendientes a obtener un resultado, por lo que hay una entrada (input) y una salida (output). En el medio de esos dos extremos se encuentran las instrucciones específicas para resolver el problema[22].

Se ha señalado que, si bien los algoritmos son utilizados desde hace muchos años, se ha producido un gran avance desde que comenzaron a realizar un aprendizaje automático, denominado, machine learning, que significa la capacidad que tienen estos sistemas informáticos de aprender por sí mismos[23]. Los algoritmos que se utilizan en el desarrollo del machine learning captan patrones complejos por intermedio de datos adquiridos para, posteriormente, tomar decisiones por sí mismos a los fines de resolver problemas no previstos.

Ello tiene la gran ventaja de que el ser humano no tiene que estar programando en forma constante a los algoritmos, sino que estos se van actualizando en forma constante y permanente a través de patrones y tendencias de análisis. La evolución del machine learning es el deep learning (aprendizaje profundo), que trata de emular el enfoque de aprendizaje que las personas usan para procesar datos y crear patrones que se utilizarán en la toma de decisiones[24].

El machine learning distingue tres tipos de algoritmos, a saber: a) algoritmos supervisados: se enseña al algoritmo por medio de ejemplos proporcionándole una cierta cantidad de datos que se agrupan en etiquetas; b) algoritmos no supervisados: aprenden a identificar patrones a través de procesos de abstracción y comprensión, no se les ofrece etiquetas, es el propio algoritmo el que clasifica y ordena la información estructurándola. Aprende y refina su performance durante el proceso; y c) algoritmos de refuerzo: aprenden con base en la experiencia a través de un proceso de ensayo/error, posee un sistema de recompensas que refuerza su aprendizaje. La experiencia pasada es lo que le proporciona la información necesaria para adaptar su respuesta al mejor resultado posible.

El denominado "aprendizaje profundo" no es otra cosa que un tipo de machine learning. Se trata de una versión de aprendizaje automático que intenta imitar el razonamiento humano: los algoritmos trabajan en capas de redes neuronales artificiales

Se sostiene que los algoritmos nos convierten en sujetos medibles, predecibles e influenciables. Todo ello debido al creciente proceso de digitalización imperante en nuestras sociedades que alimenta las grandes bases de datos. A partir de esta transformación digital es que los algoritmos clasifican y predicen nuestro futuro[25].

4. Inteligencia artificial [arriba] 

Si bien no existe consenso en torno a la definición de inteligencia artificial (en adelante, también, IA)[26], quizás porque el carácter multidisciplinario y su plena evolución, genera que sus alcances y limitaciones aún no estén demarcados, la misma ha sido descripta por uno de sus fundadores, como un proceso consistente en hacer que una máquina se comporte de formas que serían llamadas inteligentes si un ser humano lo hiciera[27].

Destacada doctrina ha señalado que

“la IA es una innovación tecnológica disruptiva que tiene que ver con el reconocimiento de patrones. Los sistemas de IA utilizan ordenadores, algoritmos y diversas técnicas para procesar datos e información y resolver problemas o tomar decisiones que antes solo podían ser realizadas por nuestra capacidad cognitiva. A fin de cuentas, así como el cerebro extrae, selecciona, recorta y organiza la información disponible para tomar decisiones, la IA hace lo mismo, pero con otros métodos y a otra velocidad”[28].

En sentido técnico se ha definido a la inteligencia artificial (IA) como "...una disciplina que estudia y desarrolla artefactos operativos que exhiben propiedades de autonomía, interoperabilidad o interacción y que pueden aprender de esas interacciones"[29]. De manera simplificada, se la ha referido como sistemas informáticos que realizan tareas semejantes a la inteligencia humana y que tienen como características la autonomía y el autoaprendizaje[30].

Tal como señala destacada doctrina, las posibles aplicaciones y estudios respecto a las bondades, ventajas, peligros y desafíos que trae aparejada la denominada Inteligencia Artificial (IA) se aceleró de una manera evidente en los últimos dos o tres años, siendo el abanico de aplicaciones es de lo más diverso[31].

La IA impacta de algún modo en miles de millones de personas, desde la ruta que debemos utilizar para llegar al trabajo, la cantidad de calorías que debemos gastar y consumir, la determinación de nuestra capacidad crediticia, la chance de contraer determinada enfermedad, hasta la posibilidad de predecir y advertir la evolución de commodities y la logística en transportes multimodales[32].

En la actualidad, la inteligencia artificial ha sido estudiada y desarrollada, clasificándola en débil o especial y en fuerte o general; en el primer caso, se trata de algoritmos para una tarea concreta; en cambio, en el segundo de los casos, la inteligencia artificial podría hacer cualquier actividad[33].

Se llama IA "débil", "restringida", "estrecha" o "blanda" el procesamiento de datos e información para resolver problemas y tomar decisiones a partir de utilizar algoritmos inteligentes, sobre la base de aplicar diferentes técnicas informáticas. La programación se realiza para efectuar tareas concretas y puntuales[34].

La idea básica, en esta conceptualización, es obtener resultados específicos en ciertas actividades o ámbitos concretos que antes solo podían obtenerse a partir de nuestros cerebros[35].

En la actualidad, todos los desarrollos de inteligencia artificial se encuentran dentro de esta categoría, de forma que la actividad concreta prevista es el límite específico.

Señala Corvalán[36] que, dentro de este concepto de IA débil o restringida, podemos encontrar dos grandes áreas de desarrollo. Por un lado, lo que se conoce como aprendizaje profundo (deep learning), que requiere de grandes cantidades de datos para ser "entrenada" y se asemeja a una "caja negra" (black box), porque no es posible determinar el paso a paso de la lógica de procesamiento de datos que sucede en el interior del sistema, de lo que pasa en las "capas ocultas de la red”.

Y otro sistema de "caja blanca", que se basa en un conjunto de técnicas que se utilizan para obtener predicciones, automatizaciones, clasificaciones o detecciones inteligentes, utilizable en la tarea judicial y a la transformación digital de las organizaciones, sin el riesgo de "inexplicabilidad" del razonamiento que tienen los sistemas de "caja negra". Gracias a las cajas blancas, los resultados a los que se arriba son trazables, explicables e interpretables, y ello resulta muy beneficioso para comprender la dinámica del tratamiento automatizado cuando se usan estas técnicas.

Por otro lado, en la Inteligencia artificial fuerte o general, la capacidad inteligente no se limita a un caso concreto, sino que –al igual que el cerebro de un ser humano– podría llegar a resolver todo tipo de problemas. Se alude a una IA que pueda reproducir dos características de nuestro cerebro: el sentido común y la habilidad de manejar diversos campos de conocimiento a la vez. Es decir, se trata de simular el comportamiento humano o la inteligencia humana en un plano integral, lo cual todavía no se ha alcanzado.

5. Blockchain [arriba] 

La Blockchain o cadena de bloques, ha sido definida como un mecanismo que permite organizar una base de datos electrónica, a través de una serie de bloques consecutivos con información, vinculados entre sí, los cuales incluyen en forma resumida a través de un hash criptográfico, los datos contenidos en el bloque previo[37]. Al decir de la doctrina es una base de datos conformada por una red de registros que no está centralizada y distribuida en distintos usuarios (nodos), que se caracteriza por tener un alto grado de seguridad[38].

Esta cadena de bloques descentralizada, está replicada en todos los ordenadores de los usuarios, y no puede ser alterada[39], ya que, aunque pueda vulnerarse una copia, quedan millones intactas que, además, son abiertas y públicas.

Siguiendo a Bielli y Ordoñez, nos enseñan que cada participante, constituye un "nodo" el cual —una vez que pasa a formar parte de la Blockchain— obtiene una copia exacta de la base de datos descentralizada, cuya actualización es realizada en forma automática cuando el nodo accede a la Internet en cada oportunidad que lo realice. En el Blockchain se registran las operaciones, fechas, cantidades y participantes del contrato.

La tecnología Blockchain es especialmente adecuada para escenarios en los que se requiera almacenar de forma creciente datos ordenados en el tiempo, sin posibilidad de modificación ni revisión y cuya confianza pretenda ser distribuida en lugar de residir en una entidad certificadora[40].

Su tecnología ha surgido a partir de la criptomoneda bitcoin, que fue creada bajo un sistema de cifrado seguro, aunque hoy su utilización ya no es exclusiva de las criptomonedas, señalándose que es, en sí, una base de datos compartida, que funciona como un libro contable descentralizado para el registro de operaciones[41].

En la actualidad existen plataformas basada en cadenas de bloques, tales como Ethereum, que permiten la creación de los denominados "contratos legales inteligentes"[42].

6. Smart contracts [arriba] 

El denominado contrato inteligente (o smart contract) se trata de un programa informático que facilita, asegura, hace cumplir y ejecuta acuerdos registrados entre dos o más partes (personas físicas o jurídicas). Consiste en algoritmos que operan en un ambiente con la característica principal de no poder ser controlados por ninguna de las partes y que ejecuta un contrato en forma automática[43].

Ha sido conceptualizados como aquellos contratos celebrados a través de una página web accesible para las partes cuya forma está constituida por la interfaz de usuario de la aplicación externa y uno o varios programas autoejecutables residentes en la cadena de bloques con capacidad para interactuar recíprocamente y con dicha interfaz[44].

Asimismo, también han sido descriptos como procesos informáticos autoejecutables[45].

La doctrina señala que el programa de prestaciones está definido en un código que determina acciones de una computadora, de un sistema que objetivase el proceso. Así los contratos inteligentes vinculan máquinas, ordenan pagos, requieren aprobaciones, liberan stocks, entregas, remitos, facturas, todo a partir de un programa acordado entre los intervinientes que no requiere de intervención humana, salvo el supuesto en que el diseño del programa (software) lo requiere[46].

Señala Granero que el programa funciona con líneas de código de programación de las conocidas como if–then (si se da una premisa, entonces actúo de tal manera) de cualquier otro programa de computación, pero la diferencia radica en que se realiza de una manera que interactúa con activos reales. Fueron creados con el objetivo de brindar una seguridad superior al contrato tradicional y reducir costos de transacción asociados a la contratación, como los relacionados con la ejecución por incumplimiento, por ejemplo.

Su principal característica es que es autoejecutable. Si se cumple alguna de las condiciones programadas, el proceso informático cumplirá con las instrucciones del programa. Un "contrato inteligente" será un "código programado" en donde la última intervención de las partes es, precisamente, esa: su programación; que luego se ejecuta automáticamente hasta consumir, por ejecución de las prestaciones pactadas, el vínculo contractual[47].

A los efectos de diferenciar los Smart contracts, de los contratos electrónicos, se ha señalado que los contratos legales inteligentes se ejecutan por sí mismos y no requieren la participación física de alguna de las partes. Asimismo, son escritos en idioma de programación y no en idioma tradicional[48], que se refleja en una Blockchain, compartido por otras computadoras, desde la que se ejecuta, con la propiedad de no poder ser modificadas las partes, si no está así previamente acordado.

Ha señalado con acierto la doctrina que puede ser problemático el encuadre legal de los Smart contracts que no se concluyan entre personas sino entre computadoras directamente o entre cosas conectadas (una heladera “comprueba” la falta de manteca y “emite” una “orden de compra” al supermercado que remite la manteca al propietario de la heladera), concluyendo que la ley únicamente admite la contratación entre personas, así que a efectos legales siempre habrá que buscar quién es la persona física o jurídica bajo cuyo control actúa el dispositivo o agente, y a quien se atribuirán las obligaciones y responsabilidades[49].

Resulta trascendente para la operatividad de estos contratos, la circunstancias de que para ejecutar ciertos pasos contractuales pueden tener que valerse de terceros, que reciben el nombre de "oráculos", los cuales pueden –o deben– aportar información trascendente para el contrato[50].

Estos intermediarios externos ajenos a las partes permitan confirmar cuando se ha sucedido una condición suspensiva o resolutoria, y así comprobar determinados hechos, acciones o eventos para que sea posible la autoejecución de las cláusulas[51].

Así se ha afirmado que la tarea del oráculo será obtener información del mundo externo y transmitirla al contrato legal inteligente con la finalidad de que se puedan verificar las estipulaciones previamente establecidas y, a posteriori, se inicie la autoejecución del mismo. Todo lo cual le da a dicha figura el carácter de un tercero de confianza previamente seleccionado por las partes intervinientes en la contratación electrónica[52].

7. Las nuevas tecnologías y la responsabilidad [arriba] 

La propia autonomía de estas nuevas tecnologías “inteligentes”, nos permiten preguntarnos fundadamente si las mismas son capaces de generar daños y en su caso quien debería responder por ellos. Asimismo, nos permite indagar si serían aplicables los mecanismos de extensión de responsabilidad dispuestos en el régimen del consumidor.

No hay dudas, de que la revolución tecnológica contribuirá, en muchos supuestos, a una mejora en procesos que permitirán mejorar la calidad de vida y que cuando se deba analizar una predicción humana versus una predicción estadística, a través de algoritmos, es harto probable que exista un acierto significativamente mayor por parte de los algoritmos[53].

Sin perjuicio de ello, tal como ha señalado la doctrina

"los algoritmos utilizados no pueden ser considerados como simples técnicas objetivas o formas imparciales de obtención de conocimiento por las fuertes consecuencias que generan en la vida real y cotidiana de las personas, lo que provoca que el abordaje de los mismos deba ser multidisciplinario"[54].

La referencia a algoritmos, inteligencia artificial y contratos inteligentes, no debe producir la falsa sensación de perfección. Son sistemas falibles que pueden producir resultados equivocados, ya sea porque la información cargada sea errada, parcial o insuficiente o porque hay un error en la programación del software, entre otros[55].

Señala destacada doctrina[56] que se pueden advertir al menos tres situaciones generadoras de daños en los algoritmos: a) los bugs o errores informáticos; b) los sesgos en los algoritmos; y c) la manipulación algorítmica (efecto burbuja).

Los errores informáticos o bugs constituyen errores de programación, ya sea porque el programa no se comportó conforme la intención del programador o porque las intenciones del programador no cumplieron las expectativas razonables de los usuarios.

Recordemos que, tal como había sido expuesto, existen determinados tipos de algoritmos que operan como una caja negra, no se puede conocer cuál es la secuencia de instrucciones que el algoritmo está siguiendo para obtener determinado resultado.

 En relación a los sesgos en los algoritmos, creemos que es una de las cuestiones que más preocupa a la teoría general del derecho por el impacto que puede tener sobre los derechos humanos.

Se ha señalado que las pautas utilizadas para el autoaprendizaje de los algoritmos pueden no ser neutras, dado que existe una valoración para realizar el análisis pertinente, posibilitando situaciones de discriminación, generando resultados que chocan contra la normativa vigente, en especial, referida a la dignidad de las personas[57].

Los sesgos en los algoritmos encierran un gran peligro, porque promueven la discriminación indirecta y directa, reafirmando prejuicios e inequidades contra grupos minoritarios y/o de escasos recursos.

El riesgo de discriminación de parte de sistemas de la IA está vigente, ya que dependerá del proceso por el cual es entrenado, en la medida en que en el mismo existan riesgos de estigmatización en los algoritmos[58].

Asimismo, la propia recopilación de datos a gran escala puede exponer las características y comportamientos de los individuos y llevar a la toma de decisiones sesgadas, basadas en muestras de datos no representativas o inexactas o por traslado de discriminaciones (intencionales o no) al tiempo de su programación, lo que impide que los individuos ejerzan sus derechos y sufran daños[59].

El daño provocado por los algoritmos, también puede provenir de la manipulación algorítmica y/o el efecto "burbuja".

Así se señaló que

"los internautas suministran grandes cantidades de datos y, al hacerlo, están entregando a los anunciantes la capacidad de descubrir hasta el mínimo detalle de sus vidas. Esto permite a las empresas lanzar acciones específicamente dirigidas a los consumidores precisamente en el momento y en el lugar adecuado, y utilizando la información que consideren más valiosa"[60].

Tal como lo señaláramos anteriormente, los proveedores extraen una enorme cantidad de datos de los usuarios, los cuales a través del data minning analizan y convierten en información, generando perfiles digitales.

Al generar estos perfiles, se señala, los algoritmos nos envuelven en el denominado "efecto burbuja", proveyéndonos únicamente la información, preferencias, productos y/o servicios según lo que el algoritmo de búsqueda entiende se ajusta a nuestro historial de consumo, diseñando la realidad que consumimos[61].

Lo cual también está ligado a la poca posibilidad de conocer en detalle los fundamentos y los análisis que realizan los algoritmos para obtener los resultados uno de los grandes problemas de los algoritmos es que sean opacos o cajas negras, de forma tal que, si bien nos brindan un resultado, no conocemos en profundidad y en detalle las bases, los fundamentos y los razonamientos que realizan[62].

Dicha circunstancia, exhibe de por sí, la posibilidad cierta y concreta de que exista una infracción al deber de información que tienen que cumplir los proveedores de bienes y servicios frente a los consumidores, lo cual constituye uno de los pilares fundamentales sobre los cuales se apoya el régimen jurídico que tutela a estos últimos, y tiene objetivo básico disminuir la asimetría negocial existente entre proveedor y consumidor, derivada del conocimiento detallado del bien o servicio que posee el primero, y del que carece total o, parcialmente, el segundo[63].

Lógicamente, esta potencialidad dañosa de los algoritmos se traslada al machine learning y deep learning que fueron analizados

Ahora bien, resulta aplicable la extensión dispuesta por el art.40 de la LDC, a los programadores de los algoritmos, o en su caso a los programadores de Smart Contract, ¿cuándo se genere un incumplimiento de alguna de las prestaciones?

El primer interrogante que se abre es la cuestión de que los algoritmos no son cosas en los términos del art. 16 del Cód. Civ. y Com.

En una aproximación a su naturaleza jurídica podemos señalar que es un bien inmaterial, por lo que entendemos que no podría entenderse al daño causado por algoritmo como derivado del riesgo o vicio de la cosa.

No obstante, la actividad desplegada por las técnicas de machine learning y deep learning encuadran en el concepto desarrollado por Zavala de González en cuanto se trata de una actividad desplegada por el hombre sirviéndose de bienes inmateriales y que, por los medios y circunstancias de su realización, es susceptible de ocasionar un daño.

Se ha señalado que la actividad puede ser riesgosa por las circunstancias de su realización,

"cuando existen factores contingentes referidos a la manera de llevar a cabo la actividad. Se trata de un riesgo accidental, que puede o no presentarse, según el caso. Se vincula con las circunstancias que son determinantes para la calificación riesgosa de la actividad desplegada, que se relacionan, principalmente, con los medios o elementos empleados para el despliegue de la actividad”[64].

Señala la doctrina que la actividad desplegada por las técnicas de machine learning y deep learning no siempre es inocua, sino que posee una notable e intrínseca potencialidad dañosa para terceros cuando hace uso de algoritmos defectuosos como toda actividad desplegada por el hombre, puede eventualmente ocasionar daños a terceros producto de los medios, elementos y/o circunstancias de realización.

Respecto a los algoritmos y la inteligencia artificial, la Comisión Europea en el marco del proyecto “Inteligencia Artificial para Europa"[65], en un documento titulado: Liability for emerging digital technologies, indagó respecto a si corresponde aplicar a los sistemas de la IA las normas de la responsabilidad subjetiva u objetiva. Al respecto, precisa que la responsabilidad basada en la culpa generalmente se justifica por el razonamiento de que un sujeto no desplegó una conducta diligente (es decir, si se comportó con negligencia, imprudencia y/o impericia), lo que llevaría a tener que hacer un juicio de reproche a una cosa dotada de IA, o incluso a un bien inmaterial, como lo es un algoritmo –cuestión que no parecería muy lógica–.

En cuanto a la responsabilidad objetiva, se señala que reposa en el principio de que una persona que generó un riesgo para su propio beneficio, debería ser responsable de cualquier daño materializado en relación con ese riesgo. Y a continuación refiere que las disposiciones actuales de responsabilidad objetiva podrían aplicarse al uso de ciertos dispositivos alimentados con inteligencia artificial, en particular, en el caso de los automóviles automatizados.

Sobre tal base se puede concluir que los algoritmos defectuosos –e incluso los que no son defectuosos, pero aprenden sobre la base de parámetros disvaliosos– pueden discriminar, provocar pérdidas patrimoniales, inducir nuestro comportamiento, etc.

Por lo cual si dicha actividad se realiza en el marco de una relación de consumo claramente, encuadrarían en el supuesto de extensión de responsabilidad del art. 40 de la LDC[66].

La autonomía que posee la inteligencia artificial es el gran desafío con el que se encuentra el derecho de daños. La imprevisibilidad en la toma de sus decisiones pone en jaque a los institutos tradicionales de la responsabilidad civil, por lo que resulta difícil hallar uno capaz de abordar todas particularidades de presenta la IA.

Frente a ello, y ante la ausencia de una regulación específica, la responsabilidad por la actividad de ciertas actividades y cosas riesgosas (arts. 1757 y 1758, Cód. Civ. y Com.), aparece como la más razonable ante la elevada potencialidad dañosa que posee la IA[67].

Siendo que dicha actividad puede ocasionar daños en función de las circunstancias y/o elementos utilizados en su realización, lógicamente podría entenderse a la misma como actividad riesgosa en los términos del art. 1757 de la ley de fondo[68].

A esta conclusión se llegó por unanimidad en las XXVII Jornadas Nacionales de Derecho Civil realizadas en Santa Fe, en las cuales se destacó que "puede incluirse en el elenco de actividades riesgosas, entre otras: la utilización de algoritmos, las actividades cibernéticas, las plataformas digitales y sistemas operados por inteligencia artificial"[69].

Asimismo, respecto a la responsabilidad por los Smart contracts, primigeniamente se podría señalar que desde su propia conceptualización nos encontramos con una contradicción en su vocabulario, ya que parte de la doctrina discute si son contratos, y asimismo se discute su carácter de “inteligentes”.

Tal como se ha señalado en el punto anterior, si bien su principal característica es su autoejecutabilidad, de ninguna manera puede pensarse que el contrato aprenda, o actúe por sí solo, tal como lo realizan los algoritmos utilizados en la IA, sino que simplemente ejecuta según los parámetros que le fueron preestablecidos por su programador.

Si bien lógicamente, debe abrirse paso a los mismos, ya que su utilización va a generar una revolución en algunas industrias, tales como el seguro, y ciertamente vendrá a ocupar un lugar de vital importancia en el mundo jurídico de los próximos 10 años, desde la perspectiva de la protección al consumidor y usuario, deberá seguirse con mucha atención su evolución y desarrollo, atento a que los mismos podrían configurarse en una suerte de contrato de adhesión del futuro, predispuesto por su programador (o el proveedor que lo encargó), y con la peligrosa cualidad de que responderá automáticamente ante situaciones predeterminadas por el mismo, pudiendo generar un estado de indefensión aún mayor que en la actualidad, en la parte débil contractual.

No puede obviarse, que estos acuerdos poseen una restricción, en lo que se refiere a la autonomía para autoejecutarse, ya que únicamente corroboran los datos almacenados en la cadena de bloques sin poder recurrir a otros medios para obtener información del mundo exterior con el objeto evaluar la veracidad acerca de la ocurrencia o no de determinadas condiciones preestablecidas por las partes intervinientes.

Es esta necesaria recurrencia a los denominados oráculos, la que enciende algunas alarmas respecto de la decisión que pueden tomar estos contratos autoejecutables, respecto de inputs brindados por el propio programador del contrato.

A modo de ejemplo tal como lo sostiene el BBVA en su página web[70], el Smart contract podría utilizarse para garantizar el cumplimiento del contrato de la compra o alquiler de una casa. En estos casos el contrato ejecutaría las instrucciones que hayan sido previamente establecidas por las partes. Por ejemplo, ante el impago de una cantidad determinada en la fecha mensual elegida, podría decidirse rescindir el contrato de propiedad, donde debería intervenir los oráculos[71].

Asimismo, se ha señalado que pueden utilizarse para la compra o alquiler de un auto, y que el contrato autoejecutable ordene no arrancar el mismo, si no se cumple con las condiciones expuestas en el acuerdo.

Como puede verificarse, la clave del sistema, estará en la información externa que necesariamente debe ingresarse al código de programación para que se autoejecute.

Y lógicamente, no resulta descabellado, que dicha información será provista, ordenada, o programada por la parte fuerte del contrato, lo cual podría generar daños aún mayores.

No resulta exagerado imaginar, en el caso del alquiler o compra de un vehículo, un pago pueda retrasarse por cuestiones propias de los servicios brindados por un banco, y así el vehículo detenerse o no funcionar a las 00hs del día posterior al pago. O, en las actuales condiciones de los planes de ahorro en nuestro país, que determinadas circunstancias lleven a que las cuotas sean calculadas sobre parámetros establecidos unilateralmente.

En lo que hace a la responsabilidad por este tipo de contratación, el cuestionamiento surge respecto de la extensión de responsabilidad que puede hacerse a los programadores del contrato, si existe algún tipo de incumplimiento o daño generado a un consumidor, por una orden “mal autoejecutada” del contrato.

Conforme los lineamientos expuestos respecto a la responsabilidad por IA, creemos que encuadrarían dentro de la responsabilidad por riesgo o vicio de la cosa, y por ende serían pasibles de extenderle responsabilidad en virtud de lo dispuesto por el art. 40[72].

8 Conclusiones [arriba] 

Señala con atino Aciarri, que los operadores jurídicos revelan, en relación a los avances tecnológicos, típicas tendencias conservadoras y una mayor preocupación por alertar —a veces, apresuradamente— acerca de peligros de la innovación, que por descubrir ventajas, señalando que quizás el rasgo que mejor caracterice la actitud de los juristas frente a la innovación sea poner el énfasis en sus peligros[73].

So pena de caer “en las generales de la ley”, sin perjuicio de reconocer y entender que el avance de la tecnología es incontenible –y de hecho estimo un hecho positivo que así sea–, al ser el presente trabajo un análisis de la responsabilidad solidaria respecto al consumidor, no podemos evitar resaltar algunos peligros que estos avances representan para el consumidor.

Como dijimos anteriormente, no se trata de intentar detener el progreso, sino de determinar quién debe soportar los costos que implica la evolución.

No puede pensarse en la actualidad, –quizás sí en un futuro no tan lejano, donde sean las nuevas generaciones las que ocupen el rol de consumidores activos masivos– que el consumidor se mueva con la misma soltura o conocimiento en el mundo físico que en el mundo virtual.

Incluso no sería exagerado, como sostiene un sector de la doctrina, encuadrar a determinados consumidores electrónicos, dentro de la categoría que se ha denominado como hipervulnerables[74].

En primer lugar, no podemos obviar si nos resulta difícil a los operadores jurídicos encuadrar las relaciones que se generan a través de plataformas digitales y portales de comercio electrónico, entre otros, reconociendo que involucran operatorias complejas y que todavía carecen de una regulación normativa específica, resultaría ilógico que pretendamos que sean entendidas por el consumidor, y que actúe en todos los casos como un ser probo y racional que realiza una operación que está bajo su entendimiento.

Alterini advertía, hace ya tiempo, que el consumo es inducido por el mercado y no por la voluntad del sujeto. Se consume por oferta de bienes y servicios y no por su demanda[75].

La publicidad, metafóricamente y no tanto, es la causa–fuente de todas las relaciones de consumo, porque es uno de los principales motivos (quizás sea el único) por el cual una persona decide que necesita comprar un producto. Lo más probable es que sin la intervención publicitaria ese sujeto jamás hubiera imaginado que necesitaba cambiar, una vez más, el teléfono celular que tanto le gusta y que apenas está aprendiendo a usar[76].

Las perspectivas a futuro profundizan aún más esta posición dominante a partir de la masificación de nuevas tecnologías, tales como el e-commerce y la inteligencia artificial con sus nuevos algoritmos, que van a incidir directamente en las elecciones del consumidor. El consumidor se encuentra inmerso en un mercado de bienes y servicios, en el cual la tecnología y la publicidad generan necesidades o deseos.

El reciente fallo del Superior Tribunal de Córdoba[77], ha señalado que la generación confianza en los usuarios en torno a las operaciones que se celebran, y la expectativa de seguridad que se genera en el consumidor es fuente de obligaciones y debe ser protegida.

Se ha señalado que hemos presenciado cambios tan vertiginosos que suele decirse que al científico le es imposible conocer absolutamente todo, pero a la vez que, basta el saber utilizar las computadoras para que podamos recopilar la información necesaria[78].

Me permito agregar que, en la sociedad actual, a través de la utilización de una computadora o un Smart phone podemos llegar a recopilar información necesaria, innecesaria, a veces veraz y otras veces falsas.

Solamente podemos afirmar que podemos acceder a mucha información. Pero no podemos afirmar que accedamos a informar cierta, veraz, detallada.

Las personas no somos algoritmos procesadores de big data, por lo cual resulta lógico que nos veamos abrumados por la cantidad de información que traen estos cambios. Pretender que “los que no se suben al barco” queden sin protección, es una peligrosa tendencia, impulsada por los que se encuentran favorecidos por los cambios.

Como fuera señalado, la referencia a algoritmos, inteligencia artificial y contratos inteligentes, no debe producir la falsa sensación de perfección ya que los mismos, también son sistemas falibles que pueden producir resultados equivocados, ya sea porque la información cargada sea errada, parcial o insuficiente o porque hay un error en la programación del software, entre otros.

Por lo cual, nuestra conclusión es que pueden activarse los mecanismos expansivos de responsabilidad dispuestos por el art.40 de la LDC, cuando derive de la prestación de un servicio o la ejecución de una actividad riesgosa, entre las que pueden incluirse, la utilización de algoritmos, las actividades cibernéticas, las plataformas digitales, y sistemas operados por inteligencia artificial.

 

 

Notas [arriba] 

[1] Entendiéndola como un crédito a la reparación por parte de la víctima en contraposición a la mirada clásica que imponía la reparación como una sanción a la conducta del autor, como lo señalan entre otros, Lorenzetti, Ricardo Luis, “La responsabilidad civil”, LL 2003–A, 973, Responsabilidad Civil Doctrinas Esenciales Tomo I, 153, RCyS 2011–II, 255; De Lorenzo, Miguel Federico, “El daño injusto en la responsabilidad civil”, Abeledo Perrot, 1996, pág.13.
[2] Incluso en el Proyecto de Código Civil de 1993 de la Comisión designada por la Cámara de Diputados de la Nación, se propuso como nuevo texto del art. 701 del Cód. Civil, el siguiente: "Los codeudores están obligados solidariamente, excepto que de la ley o la voluntad de las partes resulte lo contrario. En la actualidad destacada doctrina sostiene que “debería consagrarse la regla legal de la solidaridad en todos los casos en que exista pluralidad de sujetos (activa o pasiva) y se deba el mismo objeto; y por excepción la mancomunación simple, sea que surja de la ley o las partes la pacten”, Ossola, Federico Alejandro, “Obligaciones solidarias y concurrentes: necesidad de un replanteo. La cuestión en el Derecho vigente y en el Proyecto de 2012”, RCyS2014–IX, 5.
[3] Y que previsiblemente se profundizará en el futuro cercano.
[4] Quaglia, Marcelo Carlos, "La relación de consumo: su incidencia en los principios contractuales", LL, 2006–C, 903.
[5] A través de la publicidad segmentada, y la profundización de nuevas tecnologías como el Big Data, Data minning, etc.
[6] Schotz, Gustavo J., “Las relaciones de consumo transfronterizas y el sistema protectorio de derecho internacional privado”, Tesis Doctoral Facultad de Derecho Universidad Austral, Buenos Aires, 2011, pág.75.
[7] Toto, José Elvis, “«Big Data», Inteligencia artificial y algoritmos. el derecho a una explicación ante la adopción automática de decisiones. tensión entre las nuevas tecnologías y los derechos de las personas” en Álvarez Larrondo Federico M., “Inteligencia artificial y derecho”, 1ª Edición, Hammurabi, Buenos Aires, 2020, pág. 144.
[8] Acciarri, Hugo A., “Smart contracts, criptomonedas y el Derecho”, LL 2019–B, 1082.
[9] Lorenzetti, Ricardo, "Comercio electrónico y defensa del consumidor", LL 2000–D–1003.
[10] Sobrino, Waldo, “Contratos, neurociencias e inteligencia artificial”, La Ley, Buenos Aires, 2020, pág. 248.
[11] Granero, Horacio R. (Dir.), “E–Mails, chats, WhatsApp, SMS, Facebook, filmaciones con teléfonos móviles y otras tecnologías. Validez probatoria en el proceso civil, comercial, penal y laboral”, Editorial Albrematica S.A., 2019, Buenos Aires, pág.11.
[12] Remitimos, ut supra, a las referencias que se han dado en el capítulo 2, respecto a los estudios de la economía del comportamiento.
[13] Que contribuyen a generar, entre otras cuestiones que, por el mecanismo de asimilación, el consumidor cree que por poseer ese bien conseguirá el entorno que rodea a la propaganda Garrido Cordobera, Lidia M. R., “La consagración de la responsabilidad por riesgo de desarrollo en la Ley de Defensa del Consumidor proyectada: una garantía al consumidor y a las generaciones futuras”, Sup. Especial Comentarios al Anteproyecto de LDC, 27/03/2019, 525, Cita Online: AR/DOC/638/2019.
[14] Corvalán, Juan, “Perfiles digitales humanos”, La Ley, Buenos Aires, 2020, pág. 1.
[15] Colombo, María Celeste, ¿La utilización de algoritmos es una actividad riesgosa?, LL 2019–F, 678, Cita Online: AR/DOC/3516/2019.
[16] Ottolia, Andrea, “Derecho, big data e inteligencia artificial”, Tirant Lo Blanch – G. Giappichelli, Torino, diciembre de 2018. Citado por Sobrino, Waldo, ob.cit., pág. 255.
[17] Corvalán, Juan G., ob.cit., pág. 50.
[18] Toto, José Elvis, ob.cit., pág. 144.
[19] Sobrino, Waldo, ob.cit., pág. 243.
[20] Colombo, María Celeste, ¿La utilización de algoritmos es una actividad riesgosa?, LL 2019–F, 678, Cita Online: AR/DOC/3516/2019.
[21] Koed Madsen, “Big Data: Issues for an International Political Sociology of Data Practices”, recuperado de www.dhi.ac.uk/sa n/wayso fbeing/da ta/data–cr one–madsen –2016.pdf.
[22] Colombo, María Celeste, ¿La utilización de algoritmos es una actividad riesgosa?, LL 2019–F, 678, Cita Online: AR/DOC/3516/2019.
[23] Sobrino, Waldo, ob.cit., pág. 245
[24] Zapiola Guerrico, Martin, “Insurtech. El impacto de las nuevas tecnologías en la actividad aseguradora”, LL 2019–E, 1011.
[25] Sobrino, Waldo, ob.cit., pág. 253.
[26] La Real Academia Española la conceptualiza como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico
[27] Kaplan, Jerry, “Inteligencia artificial, lo que todo el mundo debe saber”, Oxford University Press, Teell, España, 2017, pág. 1 citado por Danesi, Cecilia C., “Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos”, Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018, 39, Cita Online: AR/DOC/2374/2018
[28] Domingos, Pedro, “The master algorithm: how the quest for the ultimate learning machine will remake our world, Basic Books”, New York, 2015, págs. 1 y ss.; Harari, Yuval Noah, Homo Deus, Debate, Ciudad Autónoma de Buenos Aires, 2016, págs. 99–107; Palma Méndez, José – Marín Morales, Roque, Inteligencia artificial, Mc Graw–Hill, Madrid, 2011, p. 683 citados por Corvalán, Juan G, ob.cit., pág. 33.
[29] Dignum, Virginia, directora ejecutiva del Delft University Center on Design for Values, en "High–Level Hearing: A European Union Strategy for Artificial Intelligence", 27/3/2018, disponible al 1/10/2018 en https://ec.europ a.eu /epsc/event s/high–le vel–hearing–e uropean–uni on–strategy–ar tificial–intelligenc e_en.
[30] Sobrino, Waldo, ob.cit., pág. 242.
[31] Chamatropulos, Demetrio A., “Inteligencia artificial, prevención de daños y acceso al consumo sustentable”, LL 2017–E, 1044, señalando el autor que permite, p. ej., detectar el cáncer de piel, mejorar significativamente la predicción de terremotos, tsunamis y otros desastres naturales, conducir vehículos, pintar cuadros (con estilos de artistas célebres), escribir guiones o historias, componer música, detectar enfermedades en cultivos con la finalidad de evitar su contagio, reconocer emociones en fotografías y en la voz humana, entre otras ilimitadas posibilidades que crecen día a día.
[32] Maglio, Ignacio y Wierzba, Sandra M., “Medicina digital, inteligencia artificial y nuevos confines de la responsabilidad civil”, Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018, pág. 213.
[33] Zapiola Guerrico, Martín, "Insurtech. El impacto de las nuevas tecnologías en la actividad aseguradora", LL 2019–E, 1011.
[34] Sobrino, Waldo, ob.cit., pág. 244.
[35] Corvalán, Juan G., ob.cit., pág. 35.
[36] Corvalán, Juan G., ob.cit, pág. 35 y sgtes.
[37] Antonopoulos, A. M., “Mastering Bitcoin: Programming the Open Blockchain”, 2ª ed., versión para Kindle, Ed. O'Reilly Media, cap. 10 citado por Bielli, Gaston E. y Ordoñez, Carlos J, “Contratos Electrónicos”, La Ley 2020, Buenos, pág. 373.
[38] Sobrino, Waldo, ob.cit., pág. 256.
[39] Lo cierto es que sí puede ser alterada, pero resulta altamente dificultoso, ya que, para engañar al resto de nodos, es preciso manipular más del 50% de dichos nodos que la integran, lo que es prácticamente imposible.
[40] Bielli, Gaston E. y Ordoñez, Carlos J, ob.cit, pág. 369.
[41] Tschieder, Vanina Guadalupe, “Derecho y Criptoactivos”, Editorial La Ley, 2020, pág.14.
[42] Ethereum, con la llamada Ethereum Virtual Machine hace posible el desarrollo de auténticos smart legal contracts, siendo el Ether la criptomoneda utilizada por lo general para los pagos correspondientes efectuados a través de los mismos.
[43] Granero, Horacio R., “Contratos inteligentes y blockchain. ¿Las cadenas de bloques pueden convertir a Uber en pasado de moda?”, en Granero Horacio R. (Dir.), ob.cit., pág.16.
[44] Tur Fernandez, C, “Smart Contracts. Análisis jurídico”, Editorial Reus, España, 2018, pág. 33.
[45] Sobrino, Waldo, ob.cit. pág. 327.
[46] Santarelli, Fulvio G., “Contratos autoejecutables. Smart contracts. Apenas una descripción para proponer su uso virtuoso”, LL fasc. del 03/06/2020, pág.14 y sgtes.
[47] Marzorati, Osvaldo J., "Las nuevas tecnologías el impacto de la venta online en los contratos frente al blockchain y los contratos inteligentes", RDCO 297–859.
[48] Bielli, Gastón E. y Ordoñez, Carlos J., ob.cit., pág.383.
[49] Granero, Horacio R., ob.cit., pág.18.
[50] Santarelli, señala a modo enunciativo que estos pueden ser: i) entidades financieras para determinar evolución de tasas de interés; saldos de cuentas; flujos de fondos; etc.; ii) oficinas públicas, nacionales o internacionales para determinar índices de depreciación monetaria, evolución de precios mayoristas; salarios; o del PBI de un país dado o evolución de la economía regional, de determinado segmento o producto; o cualquier otro tipo de información inherente al contrato; iii) salidas o llegadas de transportes o movimiento de mercaderías a través de buques, aeronaves; iv) interacción con registros públicos: propiedad inmueble, marcas y patentes rodados, prendarios, etc. Conforme a la información de los oráculos, el circuito contractual tomará su curso (al solo efecto de seguir con un ejemplo), aplicará cierta tasa de interés, impondrá cierto precio promedio, ordenará la remisión de un contenedor ya arribado a puerto; impondrá penalidades por estadías; etcétera, Santarelli, Fulvio, ob.cit.
[51] Bielli, Gastón E. y Ordoñez, Carlos J., ob.cit., pág. 390.
[52] La doctrina ha señalado como ejemplo la utilización de un oráculo en un contrato legal inteligente concebido para apuestas en el mundo de los deportes, dado que el acuerdo, a los fines de cumplir la prestación, deberá necesariamente recibir información sobre los resultados del juego deportivo respectivo, Marzoratti, ob.cit.
[53] Kahnemann, Daniel, “Pensar rápido, pensar despacio”, Penguin Random House, Buenos Aires, 2018, tercera parte "Exceso de confianza", acápite 21 "Intuiciones vs. fórmulas", pág. 29.
[54] Toto, José Elvis, ob.cit, pág.175.
[55] Sobrino, Waldo, ob.cit., pág. 247.
[56] Colombo, María Celeste, ob. Cit.
[57] Sobrino, Waldo, ob.cit., pág. 247.
[58] Cfr. Maglio, Ignacio y Wierzba, Sandra M., “Medicina digital, inteligencia artificial y nuevos confines de la responsabilidad civil”, Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018, pág.213 señalan que tres décadas atrás se implementó un algoritmo para automatizar la primera etapa de admisión de estudiantes de medicina, se construyó sobre la base de "datos históricos" y tuvo una precisión del 95% respecto de lo que hubieran decidido humanos, pero luego se pudo advertir que se otorgaba menos puntaje a las mujeres y a grupos de minorías étnicas, señalando que el algoritmo no discriminó, sino que aprendió sobre datos históricos y allí claramente se comprobó el riesgo de perpetuar el estigma.
[59] Álvarez Larrondo Federico M., “Inteligencia artificial y derecho”. (1ª Edición). Hammurabi, 2020, pág. 156.
[60] O'neil, Cathy, "Armas de destrucción matemática, Cómo el Big Data alimenta la desigualdad y amenaza la democracia", Capitán Swing, 2017, pág. 87.
[61] Colombo, Maria Celeste, ob.cit.
[62] Sobrino, Waldo, ob.cit., pág. 249.
[63] Chamatropulos, Demetrio A., “Qué hacer ante las decisiones "no racionales" de los consumidores?”, LL fasc. del 19/10/2017, pág.3.
[64] Molina Quiroga, Eduardo, "Responsabilidad de los buscadores o intermediarios en internet", Revista de Derecho de Daños, Responsabilidad objetiva–I, 2017–1, Rubinzal–Culzoni, pág. 206.
[65] En este punto seguimos el desarrollo realizado por Danesi, Cecilia C., “Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos”, Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018, pág.39 Cita Online: AR/DOC/2374/2018.
[66] En idéntico sentido Colombo, Maria Celeste, ob.cit.
[67] Danesi, Cecilia C., “Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos”, Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018, 39 Cita Online: AR/DOC/2374/2018.
[68] Criterio que, si bien puede generar algunas dudas conforme el análisis que ha hecho la Corte Nacional respecto de la responsabilidad de los motores de búsqueda en los precedentes citados ut supra “Belén Rodriguez” y “Gimbutas”, entiendo que es el que jurídicamente se ajusta a la realidad actual.
[69] XXVII Jornadas Nacionales de Derecho Civil realizadas este año en la ciudad de Santa Fe: en las conclusiones de la Comisión de Daños, Comisión Nº 3 que se encuentran en https://www.fcjs.unl.edu.ar/sitios/ jndc.Páges.showSubcategoria&id=1009.
[70] https://www.bbva.com/es/smart–contracts–cinco–preguntas–clave/.               
[71] Proyectos como Orisi y Oraclize están creando sistemas que recogen toda la información de distintos proveedores y determinan el dato más fiable en función de lo que la mayoría indica. De esta forma, se descentraliza también esta parte del proceso para evitar tener que introducir una tercera parte que valide que se trate de información certera y real.
[72] Tal como señala Castillejo Arias, Víctor A., “Régimen de responsabilidad civil de los exchanges de criptomonedas”, RCCyC 2020 (agosto), 05/08/2020, 139 Cita Online: AR/DOC/1758/2020, existen antecedentes de errores de programación que generaron cuantiosos daños, y fueron investigados por la "Securities and Exchange Commisions" de los Estados Unidos en el evento denominado "The DAO". El antecedente del DAO o "Decentralized Autonomous Organization" fue, básicamente, un intento de un privado de realizar una empresa completamente automatizada a través de códigos e instrucciones de computación. El DAO se creó con el fin de ser una organización transparente en el uso de sus recursos (que estarían compuestos por criptomonedas valuadas en millones de dólares) y que respondiera exclusivamente a sus accionistas. Todas estas instrucciones de computación estarían transparentemente previstas en una cadena de bloques (que en el caso en cuestión fue la cadena de bloques de Ethereum, con su token nativo Ether). Por lo tanto, todo el sistema sería perfectamente transparente para todos los participantes del DAO. De esta manera, en la medida en que se fueran dando ciertas condiciones predispuestas, el DAO las iría ejecutando automáticamente y se cumplirían sus propósitos que —principalmente— consistirían en el cumplimiento automatizado de las instrucciones emitidas por los accionistas. Las "acciones", que le permitirían a cualquier poseedor tener un poder de voto para elegir qué iba a pasar con los recursos del DAO y que le permitirían obtener "dividendos", eran llamadas DAO tokens. Estos tokens tenían un precio variable en diversos mercados secundarios. Lo que ocurrió con el DAO, fue que, por un error en el código de programación, un atacante pudo sustraer una cantidad equivalente a 50 millones de dólares de la criptomoneda Ether de los recursos del DAO de manera ilegítima. Estos eran parte de los fondos con los que el DAO contaba para cumplir con su finalidad de creación.
[73] Acciarri, Hugo A., “Smart contracts, criptomonedas y el Derecho”, LL 2019–B, 1082. Cita Online: AR/DOC/1017/2019.
[74] Se ha señalado que todos los consumidores son vulnerables en sus relaciones con los proveedores de bienes y servicios, por los embates de la sociedad de consumo y las fallas del mercado. Sin embargo, afirman que existe otra subcategoría de consumidor, a los cuales, su condición de debilidad se le suma otra, vinculada a su edad, condición psicofísica, de género, socioeconómica o cultural o a otras circunstancias permanentes o transitorias, que genera la señalada hipervulnerabilidad, Barocelli, Sergio Sebastián “Consumidores hipervulnerables. hacia la acentuación del principio protectorio”, LL 2018–B, 783. En idéntica dirección se señaló que “Existen ciertos consumidores sobre los que todavía no se ha puesto el ojo de forma certera, representados por un colectivo que, en los trámites y transacciones tradicionales (digamos, en el cara a cara, en el apretón de manos) se desenvuelven perfectamente; pero, cuando deben interactuar a través de medios informáticos, se paralizan, encuentran inseguridades y temores que de otra forma no tendrían … la realidad evidencia que muy por debajo de esa edad existen consumidores que no pueden, no saben, no quieren (por la razón que sea) manejar plataformas digitales, realizar transacciones online, brindar datos personales sensibles a un ordenador, a una computadora de la que no pueden recibir respuesta física ... Los caminos conducen indefectiblemente hacia la utilización de la tecnología, extremo que revictimiza al consumidor una y otra vez, lo frustra y lo desciende a una situación de particular desventaja en relación con los consumidores que rompieron la barrera y "se animaron" a vincularse a través del mundo electrónico”, Pérez, Eduardo A., “El consumidor hipervulnerable: ¿se justifica un nuevo régimen?”, ADLA 2020–7, 36.
[75] Alterini, Atilio A., “El consumidor en la sociedad posmoderna”, LL, 1996–E, 818.
[76] Shina, Fernando E., “Un nuevo factor objetivo de atribución de responsabilidad. La creación de expectativas”, LL, ejemplar del 06/09/2019, pág.1 Cita Online: AR/DOC/2641/2019.
[77] T.S. Córdoba, Sala Civil y Com, “Mercado Libre SRL c. Dirección de Defensa del Consumidor y Lealtad Comercial s/ Recurso apelación c/ decisiones de persona jur. pub. no estatal – recurso directo”, 19/05/2020, LLC2020 (agosto), 12 – RCyS2020–VIII, 100.
[78] Garrido Cordobera, Lidia M. R., “La consagración de la responsabilidad por riesgo de desarrollo en la Ley de Defensa del Consumidor proyectada: una garantía al consumidor y a las generaciones futuras”, Sup. Especial Comentarios al Anteproyecto de LDC, 27/03/2019, pág. 525.