El seguro en la era del big data
Por Sebastián J. Cancio
I. Introducción [arriba]
En la actualidad, la vida de todos discurre en el complejo e inevitable ámbito del big data. Cada uno de nuestros actos deja un trazo digital de datos y metadatos susceptibles de ser analizados y relacionados para obtener información. Esta información, pocas veces neutral, encierra un innegable valor potencial, ya sea para beneficio o perjuicio de alguien.
La industria del seguro no ha sido ajena a la oleada de cambios que la llegada de esta nueva era ha impuesto. Por el contrario, el análisis del big data (BDA) y su inexorable relación con la inteligencia artificial (AI) han generado profundos cambios en el mercado asegurador. Desde nuevos productos y nuevas formas de medir el riesgo, hasta el surgimiento de las llamadas insurtechs y eventuales conflictos de competencia comercial, todo lo que amerita una nueva y prudente aproximación, tanto desde lo legal, como desde lo ético.
Este debate recién comienza y posee una riqueza dual: formal y sustancial. Formal, porque trae a la palestra la discusión abstracta sobre las regulaciones en sí mismas y la legitimidad de los entes reguladores, en tanto que las decisiones de este tipo son creadoras y condicionantes del futuro de la vida social. Sustancial, porque el grado de innovación que estos cambios suponen inaugura una nueva era, una nueva forma de ver el mundo.
En las páginas que siguen se intentará responder a algunos de estos planteos.
II. ¿Qué es el big data? [arriba]
2.1. Definición
La expresión anglosajona big data no es técnica sino jerga, y alude a la inmensa cantidad de datos y metadatos que las personas generan espontáneamente –de manera voluntaria e involuntaria- por la interacción con dispositivos interconectados.[1]
Se trata de un par de términos de más o menos sencilla conceptualización, pero muy difícil definición. Por eso no debe extrañar que a lo largo de los años se hayan realizado muchos intentos, algunos menos infructuosos que otros.
Por ejemplo, en un intento de definición por caracteres esenciales, Laney hizo referencia a las famosas tres “V”: gran volumen, gran velocidad y gran variedad de información que exigen una forma novedosa y económica de procesamiento para obtener mejores resultados a la hora de la toma de decisiones.[2]
La primera de las “V”, volumen, hace referencia a la gran cantidad de datos que el concepto implica. La segunda “V”, alude a que los datos del big data se generan a una velocidad que los hace disponibles a una tasa prácticamente virtual, en tiempo real.[3] La tercera V, variedad, apunta a la naturaleza espontánea y anárquica del objeto que se denomina “dato”.[4][5]
Otro intento de definición que logró alguna aceptación fue el expuesto por Cukier y Mayer-Schöenberger, quienes se refirieron al big data como: “las cosas que uno puede hacer a gran escala y que no pueden ser realizadas a una escala menor, para obtener nuevas percepciones o crear nuevas formas de valor, en modos que cambien o afecten mercados, organizaciones, relaciones entre los ciudadanos y el gobierno, y más.”[6]
Una definición más reciente intenta simplificar las ideas hasta aquí vertidas: "Big data representa los activos de información caracterizados por un volumen, velocidad y variedad tan altos que requieren una tecnología específica y métodos analíticos para su transformación en valor".[7]
2.2. Del dato a la información. Otros términos relevantes
De lo expuesto en el apartado anterior surge que, en líneas generales, las definiciones sobre big data coinciden en que se está ante una enorme cantidad de datos, extremadamente variados, que se generan a una velocidad asombrosa por la interacción de las personas con dispositivos interconectados. En este contexto, es comprensible que para que estos datos inconexos puedan convertirse en información propiamente dicha (datos en relación) es necesario un proceso especial, dado que la mente humana por sí sola no puede analizarlos (o al menos dentro un margen de tiempo razonable en cuanto a criterios de utilidad).
Este proceso –denominado data mining- hace uso de lo que se conoce como Inteligencia Artificial (AI, por sus siglas en inglés). Es que, en efecto, el big data per se, sin el correspondiente analitycs que aporta la AI nada de valioso agrega a la actividad del hombre.
La expresión AI fue utilizada por primera vez en 1956 por Mc Carthy, aludiendo a la ciencia e ingeniería de hacer máquinas inteligentes. En concreto máquinas (y especialmente software) que pudieran efectuar tareas propias de la inteligencia humana pero sin estar constreñidas a métodos biológicamente observables.[8]
Una definición sencilla es la aportada por Lopez Takeyas al decir que la AI es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos con base a dos de sus características primordiales: el razonamiento y la conducta.[9]
Existen varios tipos y aplicaciones de AI. A los efectos de este trabajo posee especial relevancia la conocida como machine learning. Esta consiste en la capacidad otorgada a las computadoras de actuar sin haber sido específicamente programadas a tal efecto. Es decir, la capacidad de aprender por sí solas y mejorar en base a su propia experiencia.
Aunque pueda sonar a ficción, el machine learning o aprendizaje automático es parte de la vida diaria de todos desde hace un par de décadas. Desde el primer ensayo de jugar “tres en línea” y luego ajedrez “humanos vs. máquinas”, hasta la utilización eficiente de motores de búsqueda, la mejora del método predictivo del lenguaje, la conducción automática de autos autónomos, el análisis del genoma humano, etc. Todo esto fue logrado con hardware y software que utilizaron AI en su variante de aprendizaje automático.
Es importante destacar también que desde los más complejos sistemas de AI (como el machine learning), hasta el más sencillo software operativo, se sirven para la realización de su tarea de los llamados algoritmos.
Una definición simple de algoritmo lo describe como una secuencia ordenada de pasos que permiten alcanzar la resolución de un problema.[10]O dicho de manera más técnica: “Conjunto de reglas que, aplicado sistemáticamente a unos datos de entrada apropiados, resuelven un problema en un número finito de pasos elementales”.[11]
Por último, es relevante brindar una noción de aquello que se conoce como internet de las cosas (IoT, por sus siglas en inglés). El IoT refiere a dispositivos, objetos y elementos en general que tienen la capacidad de conectarse en red y efectuar tareas informáticas sin ser computadoras en sentido estricto (por ejemplo: teléfonos y relojes inteligentes).
A continuación, veremos alguna relación de estos conceptos con el núcleo de la actividad aseguradora.
III. El seguro en la era del big data [arriba]
3.1. El nuevo rol de los datos en el modelo de negocios del seguro
Desde la aparición de la ciencia actuarial y la teoría de la probabilidad en el siglo XVII, los datos han jugado un rol fundamental en la industria del seguro. Estos avances científicos permitieron al seguro evolucionar desde una industria basada en apuestas más o menos intuitivas a una fundada en bases de cálculo racional.
En un primer momento la Iglesia jugó un papel fundamental para pasar de un modelo a otro, colectando (desde el siglo XVI) datos acerca de nacimientos, matrimonios y funerales. Esta base de datos permitió al astrónomo y matemático Halley desarrollar la primer “tabla de anualidad”, que a la postre funcionaría como cimiento de los incipientes seguros de vida.[12]
Además de la información personal solicitada a los asegurados a la hora de suscribir pólizas, datos como tablas de mortalidad o estadísticas sobre accidentes son importantes para las aseguradoras a los efectos de estimar riesgos en determinados segmentos poblacionales.
En las últimas décadas, además de estos las compañías aseguradoras comenzaron a utilizar datos obtenidos a partir de fuentes tercerizadas, como por ejemplo estudios realizados por consultoras de riesgo o empresas especializadas en el análisis estadístico.
En la actualidad, el BDA, la AI y el IoT han transformado el rol de los datos en el negocio del seguro. Los sistemas basados en inteligencia artificial y machine learning utilizan una enorme cantidad de datos obtenidos en tiempo real para mejorar permanentemente sus procesos. Estos datos tienen su principal origen en dos fuentes:[13]
(i) la primera tiene que ver con los datos que son generados de manera automática por el comportamiento online de las personas (Ej: redes sociales, compras online, uso de motores de búsqueda, etc.). Estos datos personales sobre comportamiento online revelan importante información acerca de hábitos y estilo de vida de los individuos, complementando y sustituyendo –en algunos casos- los datos tradicionalmente utilizados por las compañías de seguros.
(ii) La segunda fuente de datos proviene de los sensores colocados en vehículos (telemática) u otros dispositivos del IoT (Ej: relojes inteligentes, drones, etc.).
La aparición del BDA y la AI ha disparado una carrera por el desarrollo de nuevas aplicaciones todo a lo largo de la cadena de valor de la industria del seguro, ya sea a través de las compañías. tradicionales o las puramente tecnológicas denominadas InsurTech. Estas nuevas aplicaciones en general se enfocan a una de estas tres áreas:[14]
(i) Nuevos modelos de distribución: aplicaciones que revolucionan la interacción de los clientes a través de asistentes virtuales, brokers digitales y chatbots que utilizan AI para mejorar la segmentación de consumidores, marketing personalizado y precios dinámicos.
(ii) Automatización de procesos: para mejorar la eficiencia de procesos internos tales como suscripción de pólizas, denuncias de siniestro, asesoramiento sobre riesgos o marco regulatorio, etc.
(iii) Nuevas propuestas: tales como seguros On demand, seguros para nuevos riesgos, etc.
Además de lo mencionado hasta aquí, es importante destacar que el verdadero potencial de la permanente recolección de datos estriba en el intento de crear una nueva función para el seguro, más enfocada a la prevención del daño que a la indemnización. En otras palabras, apuntar a la “mitigación del riesgo”, neutralizando los grandes riesgos antes de estos acaezcan.[15]
3.2. Beneficios económicos y sociales
Más allá de su poder financiero, diversos estudios demostraron que el nivel de innovación tecnológica en la industria del seguro es uno de los más bajos del sector.[16] Así, no es de extrañar que la actividad se encuentre entre las de peor resultado a la hora de medir la satisfacción del cliente y la lealtad de sus consumidores. En este contexto, las mejoras tecnológicas están claramente dirigidas a optimizar estos rendimientos.[17]
Entre los beneficios económicos y sociales que la innovación tecnológica en el área de los seguros provoca pueden mencionarse:[18]
-Reducción de riesgos: primas y riesgos mejor medidos arrojan beneficios económicos y sociales indiscutibles. El monitoreo digital de los asegurados permite reducir riesgos y adaptar sus conductas.
-Reducción de costos: la automatización del sector tiene el potencial para mejorar considerablemente la eficiencia y reducir costos, eliminando o reduciendo asimetrías de información (riesgo moral y selección adversa). En un mercado competitivo esto se vería reflejado en primas más bajas y mejores coberturas.
-Nuevos y mejorados productos: la tecnología aplicada al seguro permite ofrecer productos a medida del interesado, como por ejemplo seguros on demand o pay-as-you-use. Asimismo, permite ofrecer coberturas para riesgos que antes no se consideraban tales o no existían, como el cyber-risk.
3.3. Preocupaciones sociales y éticas relacionadas al uso de datos personales
Pero así como la tecnología aplicada al mercado asegurador produce beneficios económicos y sociales, también el uso de datos personales supone un costo desproporcionado para los consumidores.[19]
En este sentido, hay quienes afirman que el excesivo perfilamiento y scoring de los asegurados o potenciales clientes termina generando efectos discriminatorios. Es decir, el tratamiento desigual de quienes deben ser tratados de manera igual, o el trato igual de quienes deben ser tratados de manera desigual.
Esta situación revela un dilema fundamental. Por un lado, existe el aparente deber de tratar a los individuos acorde a su riesgo específico, pero al mismo tiempo esto supone que algunos grupos con riesgos que superen cierta media o promedio quedarán en desventaja. Parece tan injusto no tratar a los individuos de acuerdo a su riesgo individual, como tratar a los individuos de manera igual cuando su riesgo no lo es.
También se dice que el uso de BDA y AI supondría interferencias al derecho de autodeterminación de los individuos. Ello, en tanto que el modelo de negocios ya descripto posee un enorme potencial para reducir riesgos, pero modificando las conductas de los individuos. Por esta razón se lo considera un modelo paternalista, que interfiere en la independencia de toma de decisiones de las personas. Por ello hay quienes proponen como solución a este problema asignar a los individuos derechos de propiedad sobre sus datos personales.
Asimismo, la creciente individualización del seguro aparece como una inquietud. En efecto, como se dijo más arriba, el cambio de rol de los datos en materia de seguros hace que las primas de los asegurados ya no se conformen en base a la pertenencia a un grupo o segmento poblacional, sino directamente en base a su perfil de riesgo personal. En muchos casos esta diferenciación de premio puede resultar en situaciones de “aseguramiento imposible”, en cuanto los más altos riesgos se asocien a los más bajos ingresos (exigiendo a los consumidores utilizar la parte más grande de sus ingresos en el pago de la prima). Como soluciones a este problema se han propuesto distintos tipos de subsidios o la conformación de “fondos de alto riesgo” que funcionen con un mecanismo financiero distinto. No obstante, estas soluciones son criticadas por generar distorsiones de precio y competencia, además de ineficiencia económica.
Por su parte, la creciente individualización del seguro también supone una amenaza el principio de solidaridad, que es un rol social y esencial de la naturaleza del seguro. Este principio supone un pilar fundamental de la idea clásica del seguro en donde los riesgos son compartidos por todos los miembros de la sociedad (asegurada) de manera equitativa.
Finalmente, la irrupción de la tecnología en el negocio del seguro genera potenciales problemas de competencia comercial. Ello, en tanto que las grandes empresas tecnológicas (ahora lanzadas al mercado asegurador) poseen un acceso a datos personales de sus clientes que nadie más posee (o al menos no en esa proporción). Una posición dominante del mercado de este tipo llevaría a extender este monopolio al mercado asegurador, afectando severamente a otros jugadores importantes del sector.
El ingreso de las grandes empresas tecnológicas al mercado del seguro también produce iniquidades a partir de la explotación o abuso del marco regulatorio del sector. Esto por cuanto los gigantes tecnológicos operan a nivel global y suelen encontrar legislaciones locales más benignas para blindar a su conveniencia el tratamiento de los datos personales. Las aseguradoras, por su parte, muchas veces se ven obligadas por los marcos regulatorios nacionales a establecer presencia física en los países en que operan, quedando así sujetas a la normativa local de protección de datos personales en clara desventaja con los gigantes dot com.[20]
IV. Implicancias legales [arriba]
Los avances tecnológicos y legales, por lo general no van de la mano, pero creer que la realidad fáctica es siempre anterior a la ley supone desconocer importantes marcos regulatorios desde la Declaración de los Derechos del Hombre y el Ciudadano hasta nuestros días.
En cualquier caso, en relación a las nuevas tecnologías aplicadas al seguro, el prejuicio respecto del retraso normativo se ve claramente confirmado. En efecto, de un primer análisis de la legislación nacional se advierte que la misma no está preparada para regular de manera eficiente la actividad, ni para soportar las muchas externalidades negativas que esta puede producir.
Surge entonces la pregunta acerca de cómo el Estado ejercerá su rol regulador ante estas innovaciones. ¿Legislará de manera restrictiva respecto de las innovaciones para proteger a los jugadores tradicionales del sector que no han podido adaptarse? De ese modo se afectaría la libre competencia y se privaría a la sociedad de los beneficios descriptos más arriba. ¿Legislará promoviendo e incentivando la innovación con vistas a un bien mayor y asumiendo el costo de que una parte importante del sector no podrá acompañar el avance tecnológico?[21]
A continuación, se efectúa un repaso a título ejemplificativo y sin ánimo de exhaustividad de circunstancias concretas en las que el marco normativo existente no logra subsumir de manera clara situaciones de hecho generadas por la innovación tecnológica. Más como una muestra del panorama general del sector que como un análisis profundo del mismo.
4.1. La protección de los datos personales
El uso de BDA, IoT y AI en el mercado asegurador pone en riesgo de manera indiscutible la privacidad e intimidad de las personas, afectando de manera directa e indirecta el derecho a la protección de datos personales.
Los dispositivos inteligentes que las personas poseen e incluso portan, transmiten de manera permanente una enorme cantidad de datos acerca de sus conductas, costumbres y preferencias. Lo peor es que esto ocurre sin que ello sea el objetivo principal de tal o cual dispositivo o aplicación. Por ejemplo, el uso del GPS que ayuda a llegar a determinado lugar, colecta y transmite datos acerca de los lugares por los que uno transita, las tiendas en las que se detiene, la velocidad de conducción, etc.
Entonces el problema radica en que todos estos datos (y en particular los metadatos) son recogidos sin que sus titulares lo sepan o autoricen de manera expresa. Pero además, estos datos pueden ser utilizados para la posterior generación de flujos de información para la intervención de terceros, que pueden permitir que los datos acaben siendo destinados a usos muy distintos de los previstos originalmente, como por ejemplo la formación de perfiles.[22] Estos perfiles pueden ocasionar múltiples perjuicios al encasillar a una persona en determinado grupo social o económico, como seguidamente se verá al analizar los sesgos discriminatorios.
La Ley N° 25.326.-
En la actualidad la protección de datos personales en la Argentina se encuentra regida por la Ley N° 25.326 (a punto de cumplir dos décadas desde su sanción, en el año 2000). Por razones obvias de cronicidad no contempla de manera expresa circunstancias fácticas relacionadas al BDA, sino que su aplicación a tales situaciones se logra en base a una interpretación amplia de la norma.
El art. 1 establece: “La presente ley tiene por objeto la protección integral de los datos personales asentados en archivos, registros, bancos de datos, u otros medios técnicos de tratamiento de datos, sean éstos públicos, o privados destinados a dar informes, para garantizar el derecho al honor y a la intimidad de las personas, así como también el acceso a la información que sobre las mismas se registre, de conformidad a lo establecido en el artículo 43, párrafo tercero de la Constitución Nacional.”
Dependiendo de la actividad de aquellos que realizan tratamiento de datos personales, la ley previó condiciones de licitud que se clasifican en requisitos y principios, según se requieran medidas determinadas a cargo del responsable del tratamiento o se establezcan pautas directrices de conducta, respectivamente.[23]
-En relación al BDA los requisitos prescriptos por la ley son:
(i) consentimiento previo: art. 5. “El tratamiento de datos personales será ilícito cuando el titular no hubiere prestado su consentimiento libre, expreso e informado”. Una de las excepciones sería el caso de que los datos sean necesarios para el desarrollo de una relación contractual en la que el titular del dato sea parte (esto excluiría de la obligación del consentimiento previo a las actividades de BDA efectuadas por la empresa para mejorar el servicio al titular del dato).
(ii) deber de informar: art. 6. “Cuando se recaben datos personales se deberá informar previamente a sus titulares en forma expresa y clara: a) La finalidad para la que serán tratados y quiénes pueden ser sus destinatarios o clase de destinatarios; b) La existencia del archivo, registro, banco de datos, electrónico o de cualquier otro tipo, de que se trate y la identidad y domicilio de su responsable; c) El carácter obligatorio o facultativo de las respuestas al cuestionario que se le proponga, en especial en cuanto a los datos referidos en el artículo siguiente; d) Las consecuencias de proporcionar los datos, de la negativa a hacerlo o de la inexactitud de los mismos; e) La posibilidad del interesado de ejercer los derechos de acceso, rectificación y supresión de los datos.”
-En cuanto a los principios posee particular relevancia (para la actividad de BDA) el de finalidad, el cual establece que “los datos objeto de tratamiento no pueden ser utilizados para finalidades distintas o incompatibles con aquellas que motivaron su obtención”. En este sentido, cuando se pretenda el uso de los datos para una finalidad distinta se deberá requerir el consentimiento previo del titular del dato. [24]
-Proyecto de reforma a la ley de protección de datos personales.
Con el fin de actualizar la legislación tuitiva sobre datos personales a los tiempos que corren y sus particularidades, durante el año 2018 se presentó un proyecto de ley en el Congreso de la Nación.
Este proyecto se basa en gran medida en la legislación vigente en la Unión Europea (Res. 2016/679), conocida como GDPR (General Data Protection Regulation), la cual sí contiene disposiciones específicas relativas a la actividad de BDA y el proceso automatizado de toma de decisiones en materia de datos personales.[25]
En su art. 1 establece: “Objeto. La presente Ley tiene por objeto la protección integral de los datos personales a fin de garantizar el ejercicio pleno de los derechos de sus titulares, de conformidad a lo establecido en el artículo 43, párrafo tercero, de la Constitución Nacional y los Tratados de Derechos Humanos en los que la República Argentina sea parte.” Ya desde este primer artículo puede advertirse una importante evolución respecto de la Ley N° 25.326, en tanto que la protección integral del dato ya no se ve limitada por la finalidad de la base de datos sobre la cual se asienta. Esto supone una mejora importante respecto de la normativa vigente.[26]
El proyecto de reforma, además de ratificar algunos principios clásicos, plantea la introducción de nuevos principios no receptados en la Ley N° 25.326.
Entre los más relevantes para el tema que aquí se trata pueden mencionarse:
-Principio de finalidad: el art. 6 establece que “los datos personales deben ser recogidos con fines determinados, explícitos y legítimos, y no deben ser tratados de manera incompatible con dichos fines.” Seguidamente indica una serie de situaciones que no se considerarán incompatibles con los “fines iniciales”. Entre otras: fines de archivo de interés público, investigación histórica, investigación científica, fines estadísticos, etc. Estas excepciones al principio de finalidad son a todas luces innecesarias y terminan afectando la seguridad jurídica que la norma pretendía dar. Es criticable el nivel de vaguedad expresado por la norma, el cual permitirá interpretaciones forzadas y arbitrarias del texto legal.
-Principio de minimización de datos: el art. 7 contiene este principio que indica que “los datos personales deben ser tratados de manera que sean adecuados, pertinentes y limitados a lo necesario en relación con los fines para los que fueron recolectados.” Este enunciado es de vital importancia para los casos de BDA aplicada a la actividad aseguradora. Posee la relevancia de tratarse de un axioma ético incorporado a un plexo normativo. Sin duda, un acierto del proyecto.
-Principio de responsabilidad proactiva: contenido en el art. 10 del proyecto, prescribe que “el responsable o encargado del tratamiento debe adoptar las medidas técnicas y organizativas apropiadas a fin de garantizar un tratamiento adecuado de los datos personales y el cumplimiento de las obligaciones dispuestas por la presente Ley, y que le permitan demostrar a la autoridad de control su efectiva implementación.” Este es otro avance importante del proyecto, muy dentro de la corriente de “prevención del daño” adoptada por nuestra legislación civil y comercial. Pesa sobre la cabeza del responsable del tratamiento de los datos la obligación de demostrar a la autoridad de contralor la adopción de las medidas pertinentes para evitar daños.
-Principio de consentimiento: el art. 12 establece que “el tratamiento de datos, en cualquiera de sus formas, requiere del consentimiento libre e informado de su titular para una o varias finalidades específicas.” Seguidamente el artículo distingue los casos en donde se requiere consentimiento expreso de aquellos en que se requiere consentimiento tácito. Esto último es muy criticado, en general porque el consentimiento tácito remite a situaciones en donde se puede presumir el consentimiento en razón de la finalidad de la recolección de datos. Es decir, una expresión vaga que remite a otra expresión vaga.[27]
Además de estos principios regentes de la normativa del proyecto existen otras cuestiones dignas de mención. Con respecto al tratamiento de datos a gran escala (BDA) el proyecto establece dos obligaciones importantes para los responsables del tratamiento de datos:[28]
(i) Por un lado la obligación de designar un Delegado de Protección de Datos[29], cuyas funciones entre otras serán (art. 44): a) asesorar a los responsables del tratamiento de datos acerca de sus obligaciones; b) promover políticas internas de protección de datos; c) velar por el cumplimiento de las normativas de protección de datos aplicables; d) concientizar al personal y organizar auditorías sobre la materia; e) cooperar y actuar como referente frente a la autoridad de aplicación; etc.
(ii) En segundo lugar, los responsables del tratamiento de datos personales deben de manera obligatoria practicar una “Evaluación de Impacto” (art. 42) cuando efectúen recolección y análisis de datos de alto riesgo (sensibles) a gran escala.
Por último, es importante mencionar que el proyecto posee algunas disposiciones relativas a las “decisiones automatizadas” y la elaboración de “perfiles”, a las que más arriba se refirió al hablar de la tecnología machine learningy AI. Así, acorde al art. 28 inc. h, las situaciones de decisiones automatizadas y creación de perfiles deben ser informadas de manera expresa al titular de los datos. Por su parte, el art. 32 prescribe que el titular de los datos tiene derecho a oponerse a ser objeto de una decisión exclusivamente automatizada o elaboración de perfiles que le repercutan de manera negativa. Sin embargo, seguidamente se contempla como excepción el hecho de la decisión automatizada sea “necesaria para la celebración o la ejecución de un contrato entre el titular de los datos y el responsable del tratamiento” (tal y como ocurriría claramente en un contrato de seguros).[30]
4.2. Sesgos discriminatorios
Tal y como se mencionó más arriba, la aplicación del BDA, AI y machine learning al negocio del seguro supone un riesgo cierto y concreto de producir resultados discriminatorios como una externalidad negativa.
Para individualizar un riesgo o consecuentemente justipreciar una prima, el análisis de datos personales necesariamente creará perfiles en base a la utilización de algoritmos. Estos, como producto de la actividad humana pueden conllevar desde su misma génesis sesgos cognitivos que se conviertan en resultados discriminatorios (por ejemplo, subir la prima de seguro de vida a una persona por el sólo hecho de vivir en un barrio considerado “peligroso”).
Esta situación podría aún agravarse en el caso del uso de decisiones automatizadas o machine learning, en tanto que el autoaprendizaje que el software realiza es en base a propias experiencias que muchas veces escapan a criterios de razonabilidad humanas.
En el apartado anterior se analizaron una serie de situaciones contempladas por la legislación de protección de datos personales vigente y el proyecto de reforma más reciente. Estos aspectos se complementan a nivel procesal con el recurso de hábeas data (art. 43 CN), mediante el cual los individuos pueden exigir a los responsables del tratamiento de datos la información existente acerca de sí mismos, su rectificación o eliminación.
Sin embargo, las consecuencias de una eventual discriminación por el tratamiento de datos suponen aristas no contempladas por la legislación tuitiva para la protección de datos personales.
Al efecto, es imprescindible adentrarse en una nueva categoría de responsabilidad que hoy no está contemplada por la legislación y que apenas es objeto de especulaciones vanguardistas.
Por ejemplo: ¿supone el uso de algoritmos una actividad riesgosa? Dado que pueden causar daño pareciera que la respuesta sería afirmativa. Una de las formas de provocar daño seria a partir de sesgos que determinen resultados discriminatorios. Y donde hay daño, hay responsabilidad.
Como indica Colombo: “Entendemos, que en casos de algoritmos sesgados y bugs estamos en presencia de un producto defectuoso, por lo que cabe aplicarle el régimen del art. 1757 y 1758 del C.CyC, y si se tratara de una relación de consumo del art. 40de la ley del consumidor.”[31] Y más adelante: “En virtud de los principios generales de la responsabilidad civil, toda persona que haya sufrido daños patrimoniales o no patrimoniales derivados del uso de algoritmos están legitimados para reclamar indemnización de perjuicios sufridos en los términos de los arts. 1716, 1737, 1738, 1939, 1740 y 1741 del C.CyC .”[32]
Pero ésta sana especulación no termina aquí, porque si los algoritmos pueden causar daño entonces cabría preguntarse acerca de una eventual responsabilidad penal por el delito de daños. Dando por descontado que no estaríamos ante delitos dolosos, ¿podría responsabilizarse a alguien por los daños provocados por un algoritmo suponiendo que aun conociendo sus sesgos o deficiencias ordenó su ejecución? Pareciera que los actuales arts. 183 y 184 del Código Penal no pueden brindar una respuesta unívoca.
Finalmente sería razonable preguntarse acerca del delito de discriminación propiamente dicho. La Ley N° 23.592 establece en su art. 1: “Quien arbitrariamente impida, obstruya, restrinja o de algún modo menoscabe el pleno ejercicio sobre bases igualitarias de los derechos y garantías fundamentales reconocidos en la Constitución Nacional, será obligado, a pedido del damnificado, a dejar sin efecto el acto discriminatorio o cesar en su realización y a reparar el daño moral y material ocasionados. A los efectos del presente artículo se considerarán particularmente los actos u omisiones discriminatorios determinados por motivos tales como raza, religión, nacionalidad, ideología, opinión política o gremial, sexo, posición económica, condición social o caracteres físicos.” Los arts. 2 y 3 legislan sobre las penas aplicables.
Una interpretación no demasiado amplia podría entender que el daño provocado por un algoritmo recae dentro de la conducta tipificada. ¿Sobre quién sobrevendría esta responsabilidad suponiendo que al menos hay dolo eventual? ¿Sobre el desarrollador del software? ¿El CPO? ¿Los miembros del Directorio de la compañía Aseguradora? La legislación penal tampoco está preparada para dar este tipo de respuestas que la incursión de la tecnología en muchas ramas del negocio exige.
4.3. Prevención del daño
Volviendo al terreno de la responsabilidad civil, cabe también preguntarse acerca de las consecuencias de la aplicación del BDA y la AI a la prevención del daño, tal y como lo legisla el Código Civil y Comercial (CCC).
Todo lo relativo a la función preventiva del derecho de daños se encuentra normada entre los arts. 1710 y 1715 CCC. El art. 1710 en sus dos primeros incisos establece:
“Toda persona tiene el deber, en cuanto de ella dependa, de:
a) evitar causar un daño no justificado;
b) adoptar, de buena fe y conforme a las circunstancias, las medidas razonables para evitar que se produzca un daño, o disminuir su magnitud; si tales medidas evitan o disminuyen la magnitud de un daño del cual un tercero sería responsable (…)”.
La pregunta que se impone a poco de analizar la norma citada es si quien ha desarrollado AI o ejecuta BDA tiene el “deber legal” de prevenir daños causados por terceros cuando tiene conocimiento de que su herramienta es apta para evitarlos, mitigarlos o hacerlos cesar. O dicho de otro modo, demostrada la eficacia de una herramienta tecnológica como las mencionadas “¿existe la obligación legal de ponerla al servicio de la comunidad?[33]
Por ejemplo, si una aseguradora conoce mediante dispositivos instalados en vehículos o por análisis de información satelital de GPS acerca de la futura producción de un accidente de tránsito (o la altísima probabilidad de ocurra) ¿tiene el deber legal de evitar los daños poniendo esta información a disposición del Estado?
Para Chamatropulos “los propietarios de una IA que tenga aptitud para prevenir daños (sin requerirse esfuerzos desmesurados o extraordinarios) podrán ser legitimados pasivos de los planteos o acciones entabladas por aquellas personas que acrediten un interés razonable en la prevención del daño.”[34]
Por supuesto esta obligación tendría las limitaciones establecidas por el art. 1713 CCC, es decir, la menor restricción posible de derechos del sujeto en cuestión y la exigencia de que la obligación que se le impone sea el medio más idóneo para prevenir el daño.
V. Conclusión [arriba]
La irrupción de la innovación tecnológica en el mercado asegurador, como en otros sectores, se produjo de manera rauda y sin advertencias, produciendo transformaciones notables y disruptivas en todos los ámbitos del negocio.
Si bien la tecnología supone siempre avance y evolución, es innegable que también implica externalidades negativas. Toda superación posee un costo.
En este sentido, para evitar que las voces críticas y conservadoras se alcen en demasía, es imprescindible que la regulación a cargo del Estado acompañe esta innovación.
Esto debe ocurrir de manera prudente y sustentable, pero continua, no sólo dictando normas con mayor frecuencia sino también creando órganos de contralor con poder real. La regulación debe ser para incentivar el avance y neutralizar efectos negativos, nunca para mantener el status quo.
Obtener algo –al menos- parecido a este equilibrio redundará en beneficio de todas las partes involucradas.
Notas [arriba]
[1] Sosa Escudero, Walter. Big Data. Ed. Siglo Veintiuno. 2019. Pág. 33.
[2]Gartner, Inc. (n.d.). “Big Data”.https://www.ga rtner.com/en/ information-t echnolog y/glossary/bi g-data
[3]Data Never Sleeps de Domo prevé que para el año 2020, cada persona del planeta creará 1,7MB de datos cada segundo. https://www.do mo.com/l earn/data- never-sle eps-6
[4] Sosa Escudero, Walter. Op. Cit. Pág. 32.
[5] Con el tiempo otras “V” fueron agregadas. Por ejemplo: “Veracidad” y “Valor”. Sin embargo, la versión inicial con las tres “V” es la más extendida y aceptada.
[6]Cukier, Kenneth & Mayer-Schönerberger, Viktor. Big Data: A Revolution That Will Transform How We Live, Work and Think. Houghton Mifflin Harcourt. New York. 2014. Pág. 6.
[7]De Mauro, Andrea. Greco, Marco. Grimaldi, Michele.“A Formal definition of Big Data based on its Essential Features”. Library Review. Emerald Group Publishing. 2016. Pág. 122.
[8]McCarthy, John (11 de noviembre de 2007).“What Is Artificial Intelligence”. Sección “Basic Questions”. Stanford Formal Reasoning Group.http://www-formal.stanford.edu/jmc/whatisai/node1.html
[9]Lopez Takeyas, Bruno. “Introducción a la inteligencia artificial”. http://www.itnu evolaredo .edu.mx/ta keyas/Articul os/Inteligenci a%20Artificia l/ARTICULO% 20Introduccio n%20a%20la %20Inteligenci a%20Artificia l.pdf
[10] Colombo, María Celeste. “¿La utilización de algoritmos es una actividad riesgosa?”. Ponencia presentada en las XXVII Jornadas Nacionales de Derecho Civil. Ciudad de Santa Fe. Septiembre de 2019, en la web: https://drive. google.com /drive/folders /1HGLvj58 49WE 9diBhDZwaQ RmYxN0n OAaW
[11] Peña Mari, Ricardo. De Euclides a Java, la historia de los algoritmos y de los lenguajes de programación.Ed. Nivola. 2006.
[12]Kopf, Edwin W. “The Early History of the Annuity”. Lawrence. New York. Pág. 248. https://www.ca sact.org/pub s/proce ed/procee d26/26 225.pdf
[13]Keller, Benno. (for Geneva Association). “Big Data and Insurance: Implications for Innovation, Competition and Privacy”.Pag.8 March, 2018.En la web: https://www.gen evaassoci ation.org/s ites/default /files/resear ch-topics- docume nt-type/pdf_pu blic/big_d ata_and_in surance_-_implicati ons_for_in novation_comp etition_ and_p rivacy.pdf
[14]Ibid. Pag. 9.
[15] Lewis, Samuel. “Insurtech: An Industry Ripe for Disruption”. I Geo. L. Tech. Rev. 491 (2017).En la web: https://georgeto wnlawtechr eview.org/ insurtech-an -industry-rip e-for-disrup tion/GLTR-04- 2017/
[16]Cusano, John. Insurtech Boom Will Reshape the Global Insurance Market. ACCENTURE. (Jun. 20,2016). En la web: http://insuranc eblog.accenture. Com/insurtech-boom -will-reshape- global-insuran ce-market
[17]Dickinson, Brendan. Insurance is the Next Frontier for Fintech. TECHCRUNCH. (Aug 5, 2015). En la web: http://techcrunch .com/2015 /08/05/in surance-is -the-next-fro ntier-for-finte ch/.
[18]Keller, Benno. Op. Cit. Pág. 10.
[19]Ibid. Pág.11.
[20] Por ejemplo, las empresas tecnológicas podrían hacer uso de datos colectados en el pasado y con otro objeto para irrumpir en el mercado asegurador con clara ventaja frente a los jugadores tradicionales del sector.
[21] Reflexiones interesantes en torno a la regulación sobre innovaciones tecnológicas pueden ser consultadas en: González Rodríguez, Enrique. “El rol de la regulación ante la innovación tecnológica”. Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018. Cita Online: AR/DOC/2380/2018.
[22]González Allonca, Juan Cruz – Ruiz Martínez, Esteban. “Riesgos y desafíos en el tratamiento masivo de datos personales”. LA LEY 08/04/2016. Cita Online: AR/DOC/373/2016.
[23]Ibid.
[24]Ibid.
[25]Zapiola Guerrico, Martín. “Insurtech. El impacto de las nuevas tecnologías en la actividad aseguradora”. LA LEY 15/10/2019, 15/10/2019, 1. Cita Online: AR/DOC/3175/2019.
[26]Faliero, Johanna Caterina. “El futuro de la regulación en protección de datos personales en la Argentina”. Sup. Esp. LegalTech 2018 (noviembre), 05/11/2018, 55. Cita Online: AR/DOC/2375/2018.
[27] Ver al respecto Molina Quiroga, Eduardo. “Aplicación del principio de calidad en el tratamiento de datos personales”. Sup. Const. Del 18/02/2014, pág. 57, LL 2014-A-341.
[28]Zapiola Guerrico, Martín. Op. Cit.
[29] El proyecto de ley pretende institucionalizar la figura del Chief Privacy Officer(CPO), nacida en los EEUU a finales de la década de los noventa. Al respecto, interesantes lecturas en: Brown, Justine. “Rise of the Chief Privacy Officer”. En la web: https://www.govtec h.com/dat a/Locking- Down-Dat a-The-R ise-of-the-Chi ef-Privacy-Offic er.ht ml; y White, Sarah K. “5 Reasons you need to hire a chief privacy officer (CPO)”. En la web: https://www.ci o.com/article /3027929/ 5-reasons-yo u-need-to-hir e-a-chief -privacy-officer- cpo.html
[30]Zapiola Guerrico, Martín. Op. Cit.
[31] Colombo, María Celeste. Op. Cit.
[32]Ibid.
[33]Chamatropulos, Demetrio Alejandro. “La inteligencia artificial, prevención de daños y acceso al consumo sustentable.” LA LEY 04/10/2017, 04/10/2017, 1 – LA LEY 2017-E, 1044. Cita Online: AR/DOC/2550/2017.
[34]Ibid.
|