En el presente artículo se analiza si la aplicación de la inteligencia artificial en el campo del proceso penal es posible. Y para ello, se hace un estudio de la progresiva aplicación de la tecnología al mundo jurídico y las problemáticas jurídicas y éticas que encierra, específicamente en el proceso penal, y sus consecuencias, para acabar reflexionando sobre si llegaremos a la revolución 4.0 en el sistema jurídico, es decir, si finalmente la justicia podrá ser impartida por robots.
In this article, we analyze whether the application of artificial intelligence in the field of criminal proceedings is possible. And for this, a study is made of the progressive application of technology in the legal world and the legal and ethical issues that it contains, specifically in the criminal process, and its consequences, to end up reflecting on whether we will achieve revolution 4.0 in the legal system, that is, if justice can finally be imparted byrobots.
Desde hace décadas, el ser humano ha venido desarrollando máquinas capaces de realizar muchas de las tareas que siempre han estado encomendadas a las personas, especialmente las que requieren más tiempo y esfuerzo. El campo del Derecho no ha permanecido al margen de este fenómeno, ya que son muchas las innovaciones tecnológicas aplicadas para mejorar el mundo jurídico.
En concreto, a continuación, estudiaremos si la aplicación de la inteligencia artificial en el campo del proceso penal es posible. Es de destacar que cuando nos referimos a la relación entre el Derecho Penal y la inteligencia artificial no estamos pensando en algo imaginario, sino que es algo tangible desde hace décadas. Así, estudiaremos la progresiva aplicación de la tecnología al mundo jurídico, centrándonos en el proceso penal, y sus consecuencias, para finalmente acabar planteándonos si llegaremos a la revolución 4.0 en el sistema jurídico, es decir, si finalmente la justicia podrá ser impartida por robots.
En primer lugar, consideramos necesario realizar una serie de precisiones terminológicas del tema que nos ocupa, esto es, la inteligencia artificial.
1. Conceptualización
El Comité Económico y Social Europeo, en el “Dictamen sobre la inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad”1 declara, en la segunda conclusión, que no existe una definición concreta y aceptada de la inteligencia artificial. Por tanto, dado que son numerosas las definiciones de inteligencia artificial que podemos encontrar, nos centraremos en las que nos han parecido más adecuadas.
En primer lugar, dice el Diccionario de la Real Academia Española que la inteligencia artificial es la “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”2.
Tanto John McCarthy como Marvin Minsky, cofundadores del Laboratorio de Inteligencia Artificial del MIT (Instituto Tecnológico de Massachusetts) son considerados los padres de esta disciplina. Para el primero, la inteligencia artificial, según dijo en 1959, “es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”3. Está relacionada con la tarea que consiste en el uso de ordenadores para entender la inteligencia humana, pero no se limita únicamente a criterios observables biológicamente, sino que va más allá. Marvin Minsky, por su parte, entiende la inteligencia artificial como “la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran las personas”4.
Sin ánimo de ser exhaustivos, conviene analizar también cuáles son los tipos de inteligencia artificial. Silvia Barona5, siguiendo a Stuart Russell y Peter Norvig, habla de cuatro tipos de inteligencia artificial: sistemas que imitan cómo piensan los humanos, que son capaces de tomar decisiones autónomas y resolver problemas, y también tienen capacidad de aprendizaje; sistemas que actúan como humanos e imitan su comportamiento; sistemas que utilizan el pensamiento lógico racional humano, capaces de inferir una solución a un caso a partir de una información sobre un contexto dado y sistemas que emulan la forma racional del comportamiento humano, como los sistemas inteligentes o expertos, de los que hablaremos posteriormente.
Arend Hintze6, por su parte, diferencia entre otros cuatro tipos en los que se pueden clasificar los sistemas dotados de inteligencia artificial:
a) Máquinas reactivas: no tienen memoria, y no pueden utilizar experiencias pasadas para la toma de decisiones. Por tanto, actúan en función de lo que ocurre en cada momento. Así, ante situaciones idénticas, actúan siempre de igual manera. Este tipo de máquinas son adecuadas para realizar tareas determinadas, como jugar a algunos juegos, pero no pueden ser utilizadas para otras distintas para las que fueron creadas. Por ejemplo, Deep Blue, una de las máquinas que compiten en ajedrez, forma parte de este tipo, dado que toma sus decisiones basándose en la disposición de las fichas en el tablero en cada momento, pero no recuerda nada de partidas anteriores.
b) Máquinas con memoria limitada, que tampoco son capaces de aprender. Sin embargo, sí que son capaces de almacenar datos pasados. Un ejemplo de este tipo de inteligencia artificial son los coches autónomos, capaces de conducir solos.
c) Máquinas con una teoría de la mente: son capaces de entender y expresar emociones e ideas, así como también pueden trabajar en equipo y adaptar su comportamiento a lo que ocurre a su alrededor. Este tipo de máquinas son las que en un futuro serán capaces de entender las diferencias entre las personas para tratarlas de un modo u otro.
d) Máquinas con conciencia propia que, a partir de sus estados internos, pueden predecir comportamientos y sentimientos ajenos. Así, si una máquina ha experimentado el amor hacia una persona, podrá entender que otra persona esté enamorada. Asimismo, pueden construir una representación de sí mismas.
Adentrándonos un poco más en este campo, el Comité Económico y Social Europeo también analiza cuál es el objetivo fundamental que persigue esta disciplina: “la automatización de comportamientos inteligentes como razonar, recabar información, planificar, aprender, comunicar, manipular, observar e incluso crear, soñar y percibir”7.
También de los objetivos habla Danièle Bourcier en “Inteligencia artificial y derecho”. En este caso, para la autora, los objetivos son dos: “servirse de la máquina para probar las funciones cognitivas del hombre e intentar reproducir los mecanismos humanos”8.
Centrándonos ya en el sector jurídico, la consultora Gartner, en su informe “Cool Vendors en AI for Legal Affairs, 2017”9, ofrece una definición de inteligencia artificial legal, entendiendo que es el conjunto de todos aquellos sistemas expertos tales como el procesamiento de lenguaje natural, las redes neuronales profundas o el aprendizaje automático aplicados en tareas legales como el análisis de un contrato, la preparación de una estrategia procesal o la investigación legal, con la finalidad de automatizar la tarea y mejorar la toma de decisiones.
Para comprender esta definición, también hemos considerado relevante definir qué es un sistema experto jurídico o legal, dado que este concepto también está estrechamente relacionado con nuestra investigación.
Dice la Real Academia Española que un sistema experto es un “programa con capacidad para dar respuestas semejantes a las que daría un experto en la materia”. Por tanto, un sistema experto jurídico vendría a ser un programa capaz de responder como lo haría un jurista10.
Francisco Lancho Pedrera, en “Los sistemas expertos en el Derecho”, define el concepto diciendo que son “programas jurídicos que ante una situación jurídica van a dar una respuesta y solución al problema de acuerdo con la ley”11.
Ahondando un poco más en la cuestión, encontramos las cuatro características que tiene un sistema experto jurídico según Danièle Bourcier: en primer lugar, es un “sistema de asistencia a la decisión […], se rige por reglas jurídicas, […] trata cuestiones de derecho […] y proporciona un resultado válido y justificable jurídicamente”12.
2. Proceso de incorporación de la tecnología a la justicia
Históricamente, el sector del Derecho nunca se ha caracterizado por ser un sector puntero en lo que a tecnología se refiere, sino que ha permanecido algo apartado de la tecnología y de la innovación. Sin embargo, sí que encontramos ejemplos de innovaciones tecnológicas que han tenido lugar en este sector. De hecho, la incorporación de las nuevas tecnologías a la justicia no es algo tan reciente.
Según afirman Rozas, Maciá y Reviriego en “Bases de datos jurídicas españolas”13, la informática empezó a aplicarse a la documentación jurídicas tras el final de la Segunda Guerra Mundial, aunque de manera experimental. Posteriormente, en las universidades de Estados Unidos y Gran Bretaña surgieron las primeras bases de datos, en los años cincuenta y sesenta. Más en concreto, la primera aplicación la encontramos, según Ciampi14, en un sistema de comparación legislativa diseñado por John F. Horty en 1959, para la elaboración de una ley sanitaria, en colaboración con el Centro de Cálculo de la Universidad de Pittsburgh. El proyecto fue presentado al mundo por la American Bar Association solo un año después, en 1960. Este fue el principio de un proceso de informatización de todo el contenido legal, hasta llegar a nuestros días, en los que la legislación en papel ha dejado paso a la publicación online del Boletín Oficial del Estado, de manera que cualquier persona puede consultarlo desde casi cualquier parte del mundo en apenas unos segundos.
Respecto a la ardua tarea de los abogados, una de las primeras manifestaciones al respecto la encontramos en “Some Speculation About Artificial Intelligence and Legal Reasoning”15, de Bruce G. Buchanan y Thomas E. Headrick, quienes ya hablaban en 1970 de que la informática podría ayudar a los abogados durante sus procesos de razonamiento.
Además, ya en “El libro blanco de la justicia” de 1998, el Consejo General del Poder Judicial habla de la necesidad de incorporar los sistemas de comunicación informática y electrónica para evitar las dilaciones características de los procedimientos tradicionales. Así, el propio Consejo reconoce que “mientras no se consiga una informatización real, integral e integrada e intercomunicada, muchos de los actuales males de la Justicia no se solucionarán debidamente”, ya que, consideran, la reforma de la Administración de Justicia no es posible sin la informatización de los órganos judiciales.
Desde este punto, muchas son las innovaciones que se han ido implementando progresivamente al sector jurídico, tales como la e-justicia; los nuevos medios de investigación al servicio de la policía gracias a la reforma de la LOPJ, en concreto a la nueva redacción del artículo 230; o los motores de búsqueda con inteligencia artificial. De todas estas innovaciones hablaremos en los siguientes apartados de nuestro trabajo.
Centrándonos ya en la inteligencia artificial, FUJITSU16 ha elaborado un informe junto a la consultora PAC en el que exponen que más del 70% de las grandes empresas españolas invertirá en inteligencia artificial. Por el contrario, solo el 17% de las empresas españolas, fundamentalmente las grandes empresas, la considera imprescindible a la hora de definir las estrategias para los próximos años. Por tanto, en España todavía estamos algo alejados de la conocida como cuarta revolución industrial, o industria 4.0, aquella que incorporará los robots a la sociedad, hasta el punto de que serán ellos los que se encarguen de la toma de decisiones para resolver conflictos. No obstante, pese a que en España no parece que esto vaya a suceder inmediatamente, consideramos que este fenómeno es imparable, por lo que se debe tener muy en cuenta cuál es el objetivo de estas innovaciones: la consecución de un futuro más cómodo para las personas, pero también más igualitario, más solidario y más justo17. Como consecuencia, estudiaremos también la problemática que conlleva esta revolución, como los cambios que se prevén en el mercado de trabajo, la aparición y el perfeccionamiento de la ciberdelincuencia, las diferencias entre los Estados y las empresas que pueden permitirse la inversión en esta tecnología y los que no, o las dificultades para los jueces a la hora de apartarse de los veredictos que dicte una máquina.
Pese a que la inteligencia artificial es un terreno al que numerosos gobiernos y empresas privadas están destinando muchos recursos humanos y económicos, todavía no existe una regulación específica al respecto.
Teniendo en cuenta que la globalización es un fenómeno importante hoy en día, consideramos que la regulación de la inteligencia artificial, así como la evaluación de su impacto y la definición de las estrategias a seguir no es competencia de los gobiernos nacionales únicamente, sino que, por el contrario, consideramos que la cooperación entre los distintos Estados junto con los entes supranacionales es imprescindible a la hora de abordar estas cuestiones. Así, encontramos algunos esfuerzos a nivel europeo, como la creación de la Estrategia global para la política exterior y de seguridad en el año 2016, que insta a la Unión Europea y a los Estados a crear normas mundiales en algunos campos como la inteligencia artificial y la robótica, para evitar riesgos para las personas y aprovechar los beneficios económicos que deriven de esta actividad. Además, la Comisión de Asuntos Jurídicos del Parlamento Europeo elaboró un Proyecto de informe con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, de cuyo contenido hablaremos en el siguiente apartado. Asimismo, existe un Dictamen del Comité Económico y Social Europeo sobre la inteligencia artificial18, aprobado el 31 de mayo de 2017. En el Dictamen se expone la necesidad de establecer un marco político supranacional, por lo que se invita a la Unión Europea a que legisle en este campo. Asimismo, se defiende en todo momento que debe existir un control humano, dado que hay capacidades que no puede suplir la inteligencia artificial porque son estrictamente humanas, si bien deben ser desarrolladas de una manera más eficaz. Además, hace hincapié en la necesidad de tratar cómo funciona la responsabilidad en caso de que se produzcan daños por la mala actuación de un robot, aspecto del también que hablaremos en el siguiente apartado. También se habla de la oscuridad que caracteriza el funcionamiento de algunas aplicaciones inteligentes, aspecto que abordaremos profundamente más avanzado el presente trabajo. Por último, el CESE reafirma su defensa del control humano por encima de las máquinas. Así, consideran que estas deberán seguir siendo máquinas bajo el control y supervisión de los humanos.
Tal como apunta María José Santos19, es innegable el hecho de que, en un futuro no muy lejano, los humanos tendremos que convivir con los robots. De esta convivencia se derivan una serie de consecuencias económicas, sociales y, sobre todo, legales. En primer lugar, la implantación de la inteligencia artificial en nuestra sociedad conllevará un gran cambio en el mercado laboral: muchas de las profesiones que hoy en día existen serán ocupadas por robots. Otro de los aspectos a destacar son los problemas que pueden surgir como consecuencia de nuestra relación con los robots, dado que el hecho de que sean tan similares a nosotros puede desembocar en la creación de vínculos muy afectivos con ellos, de manera que podríamos dejar de identificarlos como meras herramientas a nuestro servicio. Así, aunque sean capaces de interactuar de manera autónoma con el entorno y realizar tareas propiamente humanas, nunca se debe olvidar que no son iguales que nosotros, y por eso no deben ser tratados de igual forma.
Consideramos que los proyectos de regulación existentes hasta ahora son insuficientes, dada la importancia que está adquiriendo la inteligencia artificial en nuestro mundo, por lo que creemos que la Unión Europea, así como también el legislador español, deben regular este tema antes de que nos veamos sobrepasados por el crecimiento del sector. Además, puede ser peligroso porque estas aplicaciones pueden llegar a ser incluso más inteligentes que el ser humano cosa que, según los más alarmados, podría poner en peligro la especie humana. Es de destacar, sin embargo, que en otros países, como el Reino Unido, se están tomando algunas medidas como la creación de un grupo parlamentario centrado en el estudio de la inteligencia artificial, cuyo objetivo es analizar el impacto y las consecuencias de la inteligencia artificial incluyendo el machine learning.
Ahora bien, ¿existe algún tipo de regulación relacionada con la robótica? La respuesta es que sí, pero no tiene soporte legal. En 1942, Isaac Asimov, en su cuento “Círculo vicioso”, narra cómo Gregory Powell enuncia las “tres leyes de la robótica” a su compañero Mike Donovan:
1) “Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2) Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3) Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley”20.
Es innegable que, desde que estas tres reglas fueron enunciadas, la robótica ha sido un sector que se ha desarrollado considerablemente. Según un informe publicado por Interact Analysis, consultora del sector, el mercado de robots colaborativos crecerá un 60% en 201821.
Uno de los aspectos que más preocupa al ámbito del derecho es la responsabilidad civil, que es la obligación de indemnizar a un tercero que nace de unos daños provocados de forma involuntaria. El problema que en este caso se plantea es que, según la legislación actual, un robot no puede ser responsable por los actos u omisiones que puedan causar daños a terceros.
Parece razonable que el responsable sea el fabricante, pero tal como recoge el artículo 1 de la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, los productores solo serán responsables de los daños causados por sus productos solo en caso de que estos fueran defectuosos. Por tanto, ¿qué ocurre si el daño causado no es consecuencia de un defecto de fabricación?
Ante esta problemática, hemos realizado un análisis basándonos en el “Proyecto de informe con recomendaciones destinadas a la Comisión Europea sobre normas de Derecho Civil sobre robótica”, de la comisión de Asuntos Jurídicos del Parlamento Europeo, publicado el 31 de mayo de 2016.
Hoy en día, el hecho de que los robots estén equipados con inteligencia artificial hace que sean capaces de aprender por sí mismos y de tomar decisiones de manera autónoma, cosa que necesariamente implica la posibilidad de que estos adopten un comportamiento imprevisible para el ser humano, por lo que no parece razonable culpar a su fabricante de los daños que se pudieran ocasionar como consecuencia de este comportamiento imprevisible. Dado que es el fabricante el que programa o “educa” al robot, será responsable de los daños provocados por una mala programación (o educación) pero, sin embargo, su responsabilidad ya no será tal cuando los daños se hayan producido como consecuencia de la capacidad de aprendizaje de estos, ya que la autonomía del robot aumenta paralelamente al nivel de desarrollo de la inteligencia artificial. Asimismo, hay que tener en cuenta la posibilidad de que los robots puedan ser ciberatacados por criminales, cosa que los haría aún más imprevisibles para su fabricante.
De esta manera, considera la Comisión de Asuntos Jurídicos del Parlamento Europeo que, a mayor autonomía de los robots, menor responsabilidad de los fabricantes o propietarios, por lo que reiteramos la necesidad de una intervención de la Comisión Europea para adecuar la legislación a la realidad de hoy en día.
Siguiendo con la problemática legal que presenta la inteligencia artificial, distintas opciones se barajan a la hora de determinar qué tipo de personalidad se le debe aplicar a un robot. A día de hoy, como hemos dicho anteriormente, los robots no se pueden considerar responsables de los daños que puedan producir por sus acciones u omisiones.
Respecto a su naturaleza jurídica, analizaremos las distintas posibilidades que ofrece el marco jurídico actual, siguiendo a María José Santos González, coordinadora del Departamento Jurídico del Instituto Nacional de Ciberseguridad de España22:
a) Robot como persona física. No parece adecuada esta posibilidad dado que el artículo 30 del Código Civil determina que es necesario el nacimiento con vida para adquirir la personalidad. Por tanto, esto no puede darse en un robot.
b) Robot como persona jurídica. Tampoco parece adecuado dotar a los robots con este tipo de personalidad porque los robots pueden interactuar directamente con el entorno e incluso provocar daños, mientras que, en el caso de una persona jurídica, serán siempre los representantes de la empresa los que tomen las decisiones en última instancia y serán, por tanto, los responsables.
c) Robot como animal. El hecho de que un robot no tenga ninguna base biológica o genética o el hecho de que, hoy en día, un robot no pueda tener sentimientos, hace imposible equiparar un robot a un animal.
d) Robot como cosa. Para el Código Civil, concretamente en el artículo 333, una cosa es un ser inanimado, carente de vida, características que no tiene un robot, dado que puede moverse e interactuar con el entorno.
Dado que ninguna de las cuatro posibilidades anteriores parece adecuarse a la realidad jurídica que nos ocupa, creemos necesaria la creación de una nueva categoría jurídica que coincida con las características que presenta un robot: la persona electrónica. Según el proyecto de informe, un robot autónomo e inteligente será todo aquel que cumple las siguientes cinco características: “capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el intercambio y análisis de dichos datos; capacidad de autoaprendizaje a partir de la experiencia y la interacción (criterio facultativo); un soporte físico mínimo” y, por último, “capacidad de adaptar su comportamiento y acciones al entorno e inexistencia de vida en sentido biológico”.
Asimismo, la creación de esta nueva categoría permitirá atribuirle derechos y, sobre todo, obligaciones, a los robots, para poder considerarlos parcial o totalmente responsables de sus actos u omisiones, en los casos en los que los robots estén dotados de inteligencia y sean capaces de tomar decisiones de manera autónoma, así como también cuando tengan la capacidad de interactuar con terceros de forma independiente. Con esta medida se conseguirá garantizar la seguridad jurídica para los fabricantes y consumidores de robots de la Unión Europea.
Dentro del informe, se habla de la posibilidad de establecer un régimen de seguro obligatorio que deba ser suscrito por el fabricante, para así solucionar el problema de la responsabilidad por los daños causados por un robot. Este sistema, además, podría ser complementado por un fondo que garantice la reparación de los daños cuando no haya cobertura de seguro, algo similar al que existe en el caso de los vehículos a motor. Así, también debería crearse un régimen de responsabilidad limitada para el productor o usuario, dentro de unos márgenes determinados.
Otra de las opciones que se plantean en el informe es la creación de un registro de robots avanzados a nivel europeo, en el que cada robot tenga un número individual y que especifique cuál es el fondo del que depende, así como los límites de su responsabilidad en caso de daños materiales, y además, se pretende permitir que cualquier usuario pueda acceder a esa información.
No debemos olvidar la posible responsabilidad penal derivada de los delitos cometidos por robots, ya sea por voluntad propia como consecuencia de su aprendizaje autónomo, ya sea como consecuencia de un ciberataque. Dado que, a priori, los robots no tienen sentimientos y no envejecen, la imposición de una pena de prisión sería totalmente ineficaz porque no existiría sufrimiento. Una de las opciones que se plantean al respecto es la de la necesidad de que los robots cuenten con el llamado “botón de la muerte” o “teclas de interrupción de urgencia”, que podrán ejecutarse en caso de emergencia y supondrán el cese del funcionamiento del robot. Asimismo, en caso de delitos cometidos por robots, será necesario establecer un marco jurídico que permita determinar si el robot actuó con dolo o intencionalidad.
Por último, cabe plantearse la posibilidad de que un robot pueda ser sujeto pasivo de un delito, es decir, si comete homicidio aquel que atropella un robot y lo deja inutilizable, o aquel que estafa a un robot. En nuestro caso, teniendo en cuenta la redacción de la legislación vigente, no existe esta posibilidad. Sin embargo, teniendo en cuenta que llegaremos a un punto en el que, salvando siempre las diferencias, trataremos a los robots como seres semejantes a nosotros, sí que creemos que se deberían modificar algunos preceptos del Código Penal para que, en un futuro no muy lejano, los robots puedan ser sujetos pasivos de algunos delitos.
Pese a que no está relacionado directamente con la inteligencia artificial, sí que hemos considerado necesario hacer un estudio de las novedades legales en lo que a la protección de derechos fundamentales se refiere ya que, tal como expondremos más detalladamente infra, la inteligencia artificial se está empezando a aplicar a las nuevas técnicas de investigación de delitos, y esta novedad puede conllevar una restricción de los derechos fundamentales reconocidos en la Constitución Española, por lo que hemos considerado pertinente la inclusión de este apartado en nuestro trabajo.
En cuanto a la protección de derechos fundamentales frente a la intromisión de los poderes públicos, una de las reformas más sustanciales la encontramos con la Ley Orgánica 13/2015, de modificación de la Ley de Enjuiciamiento Criminal para el fortalecimiento de las garantías procesales y la regulación de las medidas de investigación tecnológica, de 5 de octubre de 2015. Ya en la exposición de motivos, el legislador hace referencia a la necesidad, constatada por el Tribunal Constitucional, de regular las intromisiones en la esfera privada de aquel que está siendo investigado penalmente. Así, se reconoce la existencia de nuevas herramientas de investigación al alcance de los poderes públicos, cosa que inevitablemente lleva aparejado un aumento de las formas de ciberdelincuencia, de las que hablaremos posteriormente. El problema fundamental aparece cuando el uso de estas medidas puede llevar aparejado una violación de los derechos fundamentales recogidos en el artículo 18 de la Constitución Española, tales como el derecho a la intimidad personal y familiar, el derecho a la propia imagen, el secreto de las comunicaciones e incluso el derecho al honor.
En el Capítulo IV del Título VIII del Libro II de dicha Ley se autoriza la interceptación de las comunicaciones telefónicas y telemáticas, la captación y grabación de comunicaciones orales mediante la utilización de dispositivos electrónicos, la utilización de dispositivos técnicos de seguimiento, localización y captación de la imagen, el registro de dispositivos de almacenamiento masivo de información y los registros remotos sobre equipos informáticos. No es difícil de imaginar las posibles aplicaciones de la inteligencia artificial para mejorar estas medidas, las cuales abordaremos más adelante.
En el artículo 588 bis a) se establecen los principios rectores que deben guiar cualquier intromisión mediante las medidas enumeradas anteriormente:
a) Especialidad: la medida debe estar relacionada con la investigación de un delito concreto.
b) Idoneidad: la medida debe estar definida objetiva y subjetivamente, así como también debe especificarse su duración.
c) Excepcionalidad: no deben existir medidas menos gravosas que la que se pretende aplicar para el esclarecimiento del delito.
d) Necesidad: implica que, para el descubrimiento o comprobación del delito, así como para la determinación de los culpables, la medida debe ser imprescindible.
e) Proporcionalidad: para aplicar cualquiera de las medidas anteriores, se deberá tener en cuenta todas las circunstancias del caso, de manera que el beneficio obtenido con la aplicación de estas medidas de investigación y prevención deberá ser siempre superior al perjuicio causado a los derechos de la persona investigada.
Asimismo, se determina, en el artículo 588 bis b), la necesidad de autorización judicial para aplicar alguna de las medidas enumeradas anteriormente, salvo casos específicos para cada medida, que no entraremos a valorar.
La e-justicia es la aplicación y la utilización de la información y el conocimiento en la Administración de Justicia. Surge como consecuencia del proceso de incorporación de las tecnologías a los poderes públicos que está teniendo lugar en las últimas décadas. Así, gracias a este proceso, son numerosas las ventajas para el Estado, así como también para los ciudadanos, entre las que destacamos el ahorro de tiempo y trabajo para los funcionarios, la mayor transparencia de la información o el aumento de la eficiencia de la Administración de Justicia, al mejorar las relaciones con el resto de los organismos públicos.
Para analizar en qué consiste la modernización de la Justicia en lo que a la aplicación de nuevas tecnologías se refiere, tomaremos como referencia la Ley 18/2011, de 5 de julio, reguladora del uso de las tecnologías de la información y la comunicación en la Administración de Justicia. En el preámbulo se expone la necesidad de garantizar la tutela judicial efectiva, consagrada en el artículo 24.1 de la Constitución Española, y, para ello, se habla de la necesidad de modernizar la justicia española a partir de la incorporación de las nuevas tecnologías, para así mejorar la gestión de las oficinas judiciales y hacerlas más eficientes, abaratar los costes de la justicia y también aumentar la seguridad y la confianza en el sistema judicial español. De hecho, el artículo 230.1 de la Ley Orgánica del Poder Judicial obliga a los Juzgados, Tribunales y Fiscalías a utilizar todos aquellos medios técnicos, informáticos y telemáticos que estén a su disposición para ayudarles en sus funciones.
Pese a que la Ley 11/2007, de 22 de junio, de acceso electrónico de los ciudadanos a los servicios públicos ya aborda la cuestión de la aplicación de la tecnología a las Administraciones Públicas para facilitar sus relaciones con los ciudadanos, era necesaria la promulgación de una ley específica, aunque basada en los principios y valores de la anterior, para la Administración de Justicia, dadas sus especialidades.
Así, la Ley 18/2011 garantiza en su artículo cuarto el derecho de los ciudadanos a relacionarse con la Administración de Justicia a través de medios electrónicos. El artículo 6, por su parte, garantiza este derecho a los profesionales de la justicia, con la peculiaridad de que en este caso también impone el deber de utilizar los medios o sistemas electrónicos que establezca la propia Administración y, por último, en el artículo octavo se establece la obligación a la Administración de utilizar todos aquellos sistemas informáticos puestos a su disposición.
Esta reforma, en nuestra opinión, ha servido para mejorar, en parte, la lentitud característica de la justicia española, pero todavía es necesario seguir invirtiendo en la automatización de determinados procesos con el fin de agilizar todavía más esta institución. Con la posibilidad de utilizar los documentos electrónicos y el expediente electrónico se ha conseguido reducir tanto el coste como la cantidad de papel utilizado en muchos procesos, así como también un ahorro considerable de espacio, al no tener que almacenar tanta documentación en papel.
A partir de este punto, consideramos que la Administración debe seguir modernizándose para conseguir agilizar todavía más la justicia española. Con mejoras como la aplicación de la inteligencia artificial al proceso, como veremos a continuación, consideramos que se automatizarían muchas tareas que son mecánicas y no necesitan de la intervención humana, tales como enviar notificaciones o comprobar que una demanda cumple los requisitos formales necesarios para ser admitida. Así, tanto los jueces como el resto de personal de la Administración de Justicia podrían centrarse en las tareas que precisen del valor añadido que solo las personas son capaces de aportar, dejando las tareas más sencillas a aplicaciones que son mucho más rápidas y eficaces.
1. Aplicaciones inteligentes
La creación de sistemas inteligentes aplicables al mundo jurídico es algo muy común en nuestros días. Así, son innumerables los instrumentos que día a día salen al mercado con el objetivo de mejorar la eficiencia de la justicia española, tanto a nivel administrativo como en los despachos de abogados.
Dada la imposibilidad de abarcar todas las aplicaciones existentes hasta el momento y, sin ánimo de ser exhaustivos, realizaremos un breve análisis de aquellas aplicaciones que nos han parecido más innovadoras e importantes a la hora de contribuir a un mejor sistema judicial:
a) Funcionamiento de los juzgados. Utilizada en España, Jurimetría es una herramienta capaz de analizar un gran volumen de datos en muy poco tiempo, generalmente sentencias, para así extraer información y tendencias de su contenido. Así, aporta resultados como el tiempo medio que tarda un juzgado determinado en resolver un asunto, algo importante en casos en los que se puede elegir a qué órgano jurisdiccional acudir, el porcentaje de recursos estimados en una materia en concreto o la probabilidad de que un juez falle a favor del demandante23.
b) Predicciones legales. Casecrunch24, basada en el llamado deep learning, es una aplicación que es capaz de hacer predicciones con una mayor fiabilidad y, por supuesto, mayor rapidez, que un grupo de más de 100 abogados expertos del resultado de confirmación o rechazo de 750 quejas planteadas ante el Defensor del Usuario en Reino Unido en casos de fraudes con seguros de créditos.
c) Robots en los despachos de abogados. En este campo específico es donde se están desarrollando más sistemas inteligentes, sin duda. Ross, de IBM, es uno de los primeros modelos. Está programado para procesar y utilizar el lenguaje natural y también es capaz de formular hipótesis para responder a las preguntas planteadas, utilizando la jurisprudencia. Algo similar hace Ravn25, famoso por haber contribuido a destapar un fraude en una conocida marca de automóviles, al haber sido capaz de analizar 600 000 documentos al día. Es prácticamente impensable lo que le habría costado analizar a una persona esa cantidad de documentos.
Otro ejemplo es DoNotpay26, un chatbot, esto es, un robot con el que puedes conversar online, que en sus inicios ganó numerosas demandas relacionadas con el estacionamiento de vehículos y ahora está siendo desarrollada para poder ser aplicada en más campos; algo similar realiza Lara, pero con reclamaciones por perjuicios ocasionados por las compañías aéreas. Además, son muchos los despachos que están incorporando robots como asistentes para informar a los clientes, ya sea presencialmente o mediante un chat.
Las ventajas que aportan estas innovaciones están estrechamente relacionadas con el aumento de la eficiencia y la productividad, al reducir muchísimo los tiempos que emplearía un profesional en realizar las mismas tareas. Sin embargo, se trata de aplicaciones cuya investigación, fabricación y desarrollo son muy costosos, por lo que muchos despachos de abogados no podrán asumir esos costes y acabarán desapareciendo al ser menos productivos que aquellos que sí que puedan invertir en inteligencia artificial. Además, esto no solo ocurrirá en el sector privado, sino que aquellos países que no sean capaces de estar al día en lo que a tecnología se refiere por falta de recursos, verán como su sistema judicial se debilita cada vez más, al perder la capacidad de cooperación con otros Estados, por lo que se abrirá aún más la brecha entre unos países y otros.
2. Consecuencias en el mercado de trabajo
En otro orden de cosas, no debemos olvidar las implicaciones que puede tener la aplicación de la inteligencia artificial al mercado de trabajo.
En primer lugar, debemos tener en cuenta que una gran parte de muchos trabajos relacionados con la ciencia jurídica consiste en la realización de tareas repetitivas, que necesitan una mínima intervención humana porque están basadas en modelos estandarizados como la redacción de determinados contratos o la búsqueda de jurisprudencia. Por ejemplo, según la consultora Gartnet27, la aplicación de la inteligencia artificial al mundo del derecho hará que un 15% del trabajo jurídico realizado por las personas pase a ser realizado por máquinas en 2020, dado que estas últimas contribuirán a automatizar algunas tareas como las enumeradas anteriormente.
Así, muchos despachos contratan abogados junior para la realización de estas tareas, para así dejar las tareas más complejas para los abogados experimentados. De hecho, en Estados Unidos existe una figura, la del paralegal o abogado de apoyo, que se encarga de las tareas que no tienen que estar realizadas por un abogado necesariamente, como la gestión de notificaciones y citaciones, la preparación de la documentación o el control del cumplimiento de los plazos procesales. Dana Remus y Frank Kevy28 realizan un estudio de las tareas que realiza un abogado y el porcentaje de tiempo que le dedica a cada una de ellas para posteriormente analizar cuáles de estas tareas son susceptibles de ser realizadas por un ordenador. Las conclusiones que obtienen son que las tareas que implican el procesamiento de información son rutinarias, por lo que podrían ser automatizadas mediante unas instrucciones dadas al ordenador.
De hecho, ahora mismo los sistemas inteligentes son mucho más eficientes que los abogados junior y los paralegals a la hora de procesar grandes volúmenes de datos jurisprudenciales y seleccionar lo más relevante, así como también las aplicaciones como Jurimetría son más precisas a la hora de determinar cuál debe ser la estrategia a seguir en el juicio o predecir el resultado de la sentencia. Los grandes bufetes están comenzando a invertir en sus propios proyectos de inteligencia artificial, cosa que implicará una nueva división del trabajo, dejando a las máquinas el trabajo más rutinario y repetitivo con el fin de liberar de tareas a los profesionales para aumentar su productividad, dado que así podrán centrarse en aquellas tareas en las que su intervención es imprescindible hasta el momento, como el asesoramiento al cliente o la representación en el juicio oral.
Consideramos que, con la aplicación de la inteligencia artificial en este campo, la figura del abogado junior o la del paralegal sería una de las primeras profesiones que desaparecería, dado que las herramientas con inteligencia artificial son mucho más eficientes a la hora de realizar tareas como el procesamiento o la búsqueda de grandes volúmenes de datos, la redacción y el análisis de contratos estandarizados o la predicción de resultados judiciales. Sin embargo, aparecerían otras profesiones relacionadas con la programación de estos sistemas, como el programador de robots legales.
Por el contrario, no parece que la figura del abogado vaya a ser sustituida íntegramente por una máquina, al menos por el momento, dado que muchas tareas requieren de las habilidades típicamente humanas, que todavía no han podido ser desarrolladas por ningún robot. De hecho, Carl Benedikt Frey y Michael A. Osborne29, analizan una serie de puestos de trabajo y la probabilidad que tienen estos de poder ser ocupados por robots. Los resultados determinan que los abogados podrán ser sustituidos con un 3,5% de probabilidad, mientras que los jueces lo podrán ser con un 40% de probabilidad.
3. Resolución de conflictos
Hoy en día, la globalización ha conllevado que muchas de las compras realizadas diariamente sean online y, además, muchas de ellas también son transfronterizas, lo que desemboca en una problemática difícil de abordar: las reclamaciones entre consumidores y empresarios que pueden estar a mucha distancia, incluso en Estados distintos.
La Unión Europea, ante la necesidad de soluciones que exige la revolución 4.0, promulgó el Reglamento (UE) 524/2013 del Parlamento Europeo y del Consejo, de 21 de mayo de 2013. Así, con este Reglamento se crean los organismos de resolución de litigios para tramitar las reclamaciones de los consumidores. Además, la Unión Europea ha creado una plataforma online en la que los consumidores pueden presentar sus reclamaciones para que estos órganos las resuelvan. Tal como se especifica en el segundo artículo del Reglamento, se prevén tres sistemas de resolución de conflictos alternativos a la vía judicial, que vendrían a ser los que conocemos como arbitraje, conciliación y mediación. Así, estos organismos propondrán una solución, la impondrán o intentarán que las partes lleguen a una solución amistosa, con la peculiaridad de que cada Estado deberá decidir si sus organismos de resolución pueden actuar como árbitros o no.
España se adaptó a este Reglamento mediante la Ley 7/2017, de 2 de noviembre, cuya finalidad es posibilitar que los consumidores de la Unión Europea accedan a los mecanismos de resolución alternativa de conflictos en materia de consumo, de manera online o no.
Así, consideramos que este es un primer paso a la hora de aplicar la tecnología a una materia que demandaba urgentemente una nueva manera de resolver los conflictos. Además, el hecho de facilitar el acceso mediante una plataforma online hace que muchos consumidores la prefieran antes que acudir a la vía judicial, por lo que también reduce el trabajo de los juzgados y tribunales. El siguiente paso será aplicar la inteligencia artificial en esta materia porque quizás en un futuro las máquinas serán capaces de resolver este tipo de disputas, cuya solución en muchas ocasiones es sencilla y fácilmente automatizable.
Centrándonos ya en el Derecho Penal, obtenemos que son numerosos los avances tecnológicos que se han ido implantando progresivamente al proceso. En primer lugar, analizaremos las nuevas aplicaciones tecnológicas que se han aplicado al proceso penal, con el fin de hacerlo más rápido y más eficiente. Seguidamente, pasaremos a tratar los mecanismos de inteligencia artificial que se aplican hoy en día, así como también los que están en proceso de investigación y desarrollo
1. Videoconferencia
La videoconferencia es un sistema de comunicación que permite el establecimiento de una comunicación simultánea bidireccional en tiempo real. Así, permite la comunicación entre personas que físicamente se encuentran en sitios diferentes y separadas entre sí. Es uno de los desarrollos tecnológicos aplicados al proceso penal más destacados y su función principal es evitar el encuentro entre agresor y víctima y la protección de testigos y menores en el momento de su declaración, así como también permitir la declaración de aquellos interesados que no puedan estar físicamente en el acto del juicio oral. Actualmente se utiliza fundamentalmente en el momento del juicio, para que alguna de las partes o testigos preste declaración, pero también como prueba preconstituida que se aportará al proceso posterior. En concreto, el objetivo fundamental de la prueba preconstituida es permitir la aportación al proceso de pruebas que de otra manera no podrían ser aportadas en el acto del juicio oral, por lo que es necesario recogerlas previamente, siempre por autoridad judicial o policial. Pensemos, por ejemplo, que uno de los testigos fundamentales para el esclarecimiento de un delito tiene una edad avanzada y no se sabe a ciencia cierta si habrá fallecido en el momento del juicio oral. En este caso, sería pertinente utilizar la videoconferencia para grabar su declaración y poder aportarla con posterioridad como prueba en el juicio.
En España, una de las primeras manifestaciones jurídicas al respecto la encontramos en la Carta de derechos de los ciudadanos ante la Justicia, una proposición no de Ley aprobada por el Pleno del Congreso de los Diputados el 16 de abril de 2002, concretamente en el artículo 21, que reconoce el derecho de los ciudadanos a utilizar la videoconferencia para comunicarse con la Administración de Justicia.
Hoy en día, esta cuestión se encuentra regulada en el artículo 229 de la Ley Orgánica del Poder Judicial, que autoriza su utilización siempre que se asegure la contradicción de las partes y la salvaguarda del derecho de defensa. También la Ley de Enjuiciamiento Criminal regula esta cuestión en los siguientes artículos: artículo 123.5, para casos en los que es necesario un intérprete; artículo 306, que también autoriza la intervención del fiscal utilizando la videoconferencia; artículo 325, relativo a la comparecencia de aquellos que hayan de intervenir en el proceso como investigados, encausados, testigos o peritos; artículo 520.2 c), que permite la comunicación de un detenido con su abogado por este método y artículo 731 bis, para los casos en los que tengan que intervenir menores. Asimismo, el artículo 25.2 a) y b) de la Ley 4/2015, de 27 de abril, del Estatuto de la víctima del delito, permite la utilización de la videoconferencia para evitar el contacto entre el autor del delito y la víctima, cuando esta tenga que declarar, de manera que no será necesario que esté presente en la sala de vistas. Su uso en el proceso tiene que estar justificado por razones de utilidad, seguridad o de orden público, por lo que el tribunal autorizará su utilización solo en casos de excepcionalidad. Además, el Tribunal Supremo ha declarado en numerosas ocasiones su legalidad, siempre que se respeten los derechos de defensa y de contradicción.
De hecho, en otros países ya se está profundizando en la implantación de la videoconferencia en todo el proceso. Así pues, en Inglaterra ya se ha celebrado un juicio íntegramente por videoconferencia. El juicio, que era relativo a impago de impuestos, se celebró a través de las cámaras web que las partes tenían en sus ordenadores portátiles. El juez se encontraba en un tribunal de Londres, mientras que los abogados practicaron las pruebas desde Belfast30. Quién sabe si este caso es un primer esbozo de los juicios virtuales del futuro.
En concreto, la videoconferencia se trata de una herramienta muy ventajosa, dado que permite la comparecencia virtual de personas que se encuentran lejos, y como consecuencia también se ahorran recursos y tiempo en los desplazamientos. Asimismo, permite la protección de testigos y de la propia víctima, los cuales podrían sufrir perjuicios si se encontraran con el presunto autor del delito en la sala.
Sin embargo, también hemos de hacer referencia a los problemas que puede producir la utilización de la videoconferencia en un juicio: pérdida del contacto personal entre los interlocutores, coste inicial de los servicios informáticos, falta de práctica de los jueces ante este tipo de tecnologías, retrasos producidos por un mal funcionamiento de los sistemas informáticos, interferencias e incluso problemas en la grabación que podrían dar lugar a la interposición de recursos extraordinarios de casación por infracción del artículo 24 de la Constitución Española, al vulnerar el derecho a las garantías de defensa y de presunción de inocencia31. Contra estos problemas, consideramos que la Administración debe seguir esforzándose e invirtiendo en mejoras tecnológicas para mejorar el sistema con el fin de garantizar su eficacia a la hora de mejorar el proceso penal.
2. Pruebas electrónicas
Pese a que se trata de un avance común a todos los procesos, hemos considerado más adecuado el análisis de la prueba tecnológica dentro del proceso penal, dada la particularidad de las pruebas que se practican.
Una prueba electrónica es toda información con valor probatorio incluida o transmitida por un medio electrónico. Concretamente, podemos diferenciar entre datos almacenados en sistemas informáticos y datos transmitidos a través de redes de comunicación informática. La reforma de la Ley de Enjuiciamiento Criminal, tras una época en la que el Derecho Penal se caracterizó por su retraso temporal en lo que a tecnología se refiere, permitió una adecuación temporal a la realidad en la que vivimos actualmente. Con la aparición de la ciberdelincuencia y el uso cada vez más habitual de la tecnología de las comunicaciones, era imprescindible adaptar la LeCrim para poder poner la tecnología también al servicio de la Justicia. Así, la reforma introdujo la utilización de medios tecnológicos para la investigación de delitos cuyo medio de comisión sea internet.
Consideramos que este era un aspecto que se tenía que introducir necesariamente dado que, en la mayoría de los casos, las pruebas que existen de la comisión de este tipo de delitos tienen un soporte informático, y en el caso de que no existiera la posibilidad de que estas pruebas se presentaran en un juicio, no sería posible el esclarecimiento del delito. Cabe destacar que no hace falta pensar en delitos complejos como el terrorismo o la pornografía infantil, sino que hoy en día las pruebas electrónicas tienen cabida en muchos procesos penales con delitos que, aparentemente, no guardan relación con el mundo de la tecnología. Pensemos, por ejemplo, en el abogado de la defensa en el conocido caso de “La manada”, que presentó una serie de publicaciones en las redes sociales de la víctima como prueba de que esta no estaba afectada por la supuesta agresión sexual.
Asimismo, hay que tener en cuenta que el hecho de que el mundo esté cada vez más globalizado hace que muchos delitos, especialmente los relacionados con el terrorismo, se conviertan en internacionales. De hecho, la Comisión Europea32, en su afán por fomentar la cooperación internacional, ha entrado a regular esta materia a través de una propuesta de Directiva, que incluye nuevas normas cuyo objetivo es la facilitación de la cooperación judicial y la asistencia jurídica mutua, con el fin de reducir el tiempo necesario para conseguir las pruebas que se encuentran en otros países; más aun teniendo en cuenta que la gran mayoría de las investigaciones por delitos incluyen una solicitud transfronteriza para obtener pruebas electrónicas en poder de prestadores de servicios de otro Estado. En línea con lo anterior, también existe por parte de la Comisión una propuesta de Reglamento33 para la entrega y conservación de pruebas electrónicas.
En lo que concierne a cómo deben ser evaluadas estas evidencias, en el Derecho español existen dos sistemas de valoración de la prueba. El primero de ellos es el de prueba legal, que recibe ese nombre porque el grado de eficacia del medio probatorio concreto está tasado en la ley. En segundo lugar, el sistema de libre valoración de la prueba, o prueba libre, otorga al juez la facultad de valorar la eficacia de un medio probatorio según considere, siempre que lo justifique en la sentencia. Por lo que respecta a la prueba electrónica, con carácter general se aplica el segundo de estos sistemas, en virtud del artículo 384.3 LEC, que permite que el Tribunal valore los medios de prueba conforme “a las reglas de sana crítica”. Sin embargo, los artículos 319.1 y 2 LEC establecen un régimen de valoración legal para el caso de documentos públicos y oficiales, respectivamente.
Siguiendo a Bujosa Vadell34, en cuanto a la problemática que presenta la prueba electrónica, debemos tener en cuenta que su peculiaridad radica en que en este caso el juez no solo debe confiar en el objeto de la prueba, sino que también es importante la credibilidad que le aporte el medio de prueba. Teniendo en cuenta que un experto en informática puede influir en el contenido de una prueba y alterarla, no es difícil imaginar la posibilidad de que esta prueba alterada acabe provocando un razonamiento erróneo por parte del juez, teniendo en cuenta las posibles limitaciones cognitivas del juez al respecto. Lo que se suele hacer en estos casos es confiar en peritos expertos en este tipo de pruebas para que sean ellos los que determinen su veracidad. Sin embargo, desde que se obtiene una prueba electrónica, con el fin de garantizar la autenticidad e integridad de su contenido, esto es, que su autor real es el que dice serlo y que no han sido alteradas, se realiza una copia forense, que impide la manipulación de la prueba. Además, existe normativa internacional al respecto, como la norma ISO/IEC 27037:2012, que contiene directrices para el uso de las pruebas tecnológicas, en lo relativo a la identificación, la recogida y el almacenamiento de las pruebas.
En lo relativo a su impugnación, en el caso de que una de las partes impugne alguna prueba electrónica, se produce una inversión de la carga de la prueba, por lo que será la parte que propone esa prueba la que deberá demostrar su idoneidad probatoria35.
Consideramos que, pese a que la fiabilidad de estos medios de prueba cada vez es mayor, es fundamental la preparación de los nuevos jueces en un campo que no para de experimentar cambios tecnológicos, para así poder lograr una mayor precisión a la hora de admitir o no un medio de prueba, más aún teniendo en cuenta que en muchos procesos las únicas pruebas disponibles son electrónicas, de manera que, si se quiere garantizar que la sentencia sea justa, el primer paso es garantizar que las pruebas son auténticas y no han sido manipuladas.
3. Apoyo a la investigación policial
La investigación penal, según Moreno Catena36, está constituida por las diligencias practicadas por las autoridades competentes encaminadas al esclarecimiento de unos hechos delictivos y de las circunstancias en las que se produjeron, así como también al aseguramiento de que el que está siendo investigado es verdaderamente el responsable de los hechos, tal como declara el artículo 299 LeCrim. Así, su objetivo final es obtener elementos de convicción suficientes para basar la acusación de un sujeto ante un juez.
La aplicación de la tecnología para favorecer la investigación policial ha conllevado un cambio notable en la forma de investigación de delitos. En primer lugar, ha supuesto un cambio cualitativo, dado que la tecnología ha permitido la aparición de nuevos medios de investigación, más eficientes en muchos casos, pero también más peligrosos en lo que a la tutela de los derechos fundamentales se refiere. También ha supuesto un cambio cuantitativo, puesto que a día de hoy son más las herramientas al servicio de los investigadores a la hora de esclarecer unos hechos o incluso prevenir un delito37. Hay que tener en cuenta que la delincuencia organizada existe desde hace décadas, pero con las aplicaciones tecnológicas que hoy en día existen ha cambiado la forma en la que estas organizaciones funcionan: ahora son capaces de extenderse internacionalmente de una manera mucho más rápida y eficiente y es por ello por lo que se hace muy necesaria la colaboración entre Estados para frenar esta amenaza.
Así pues, existe normativa supranacional encaminada a lograr estos objetivos. Un ejemplo es la Convención de las Naciones Unidas contra la Delincuencia Organizada Transnacional, firmada el 13 de diciembre del año 2000. En concreto, el artículo 20 autoriza la utilización de técnicas especiales de investigación, como la vigilancia electrónica, siempre que se respeten los principios fundamentales del ordenamiento interno de cada Estado.
En cuanto a la normativa española, como ya se ha expuesto brevemente en el segundo apartado, estas técnicas especiales de investigación están contempladas en el Título VIII del Libro II de la LeCrim, donde se autoriza la interceptación de las comunicaciones telefónicas y telemáticas, la captación y grabación de comunicaciones orales mediante la utilización de dispositivos electrónicos, la utilización de dispositivos técnicos de seguimiento, localización y captación de la imagen, el registro de dispositivos de almacenamiento masivo de información y los registros remotos sobre equipos informáticos.
Además, el artículo 230 de la Ley Orgánica del Poder Judicial declara la obligación de los jueces, tribunales y fiscales de utilizar todos estos medios técnicos, electrónicos, informáticos y telemáticos que tienen a su disposición. Antes de la reforma de la LOPJ de 2015 por la Ley Orgánica 7/2015, de 21 de julio, por la que se modifica la Ley Orgánica 6/1985, de 1 de julio, del Poder Judicial, dicho artículo contenía en su tenor literal el término “podrán”, por lo que en un primer momento la utilización de estas herramientas de investigación era facultativa, hasta que ese término se sustituyó por la expresión “están obligados”. Sin embargo, es de destacar que la videoconferencia, de la que hemos hablado anteriormente, no está incluida en este artículo, con lo cual su utilización sigue siendo facultativa.
Aparte de las innovaciones introducidas con la nueva LeCrim, y centrándonos en la inteligencia artificial, encontramos una serie de innovaciones que se están desarrollando hoy en día, capaces de contribuir a la investigación policial y hacer que esta resulte más rápida y eficaz. Seguidamente, analizaremos algunas de estas herramientas.
A) Mapas criminales
Los mapas criminales, o hot spots, constituyen una herramienta científica fundamental para el estudio espacio temporal de los delitos cometidos en una zona y en un periodo de tiempo determinados. Tienen su origen en las investigaciones de los sociólogos Clifford Shaw y Henry McKay38 que, tras investigar las características de edad, sexo y lugar de residencia de numerosos delincuentes de Chicago, decidieron marcar los domicilios de estos en un mapa de la ciudad, de manera que observaron que la delincuencia estaba concentrada en determinados barrios. Así fue como nacieron estos mapas.
En un primer momento, la utilización de estas herramientas no era eficiente debido a la necesidad de dibujar manualmente los mapas, pero con la aplicación de la tecnología, la confección de los mapas por ordenador se coordina con un análisis mediante procesos de Big Data, por lo que hoy en día es una aplicación muy eficiente y rápida39.
Mediante este tipo de herramientas es posible acotar los lugares en los que se producen los delitos y así establecer algunas medidas preventivas como enviar más unidades policiales a esa zona o adoptar políticas de seguridad ciudadana como recomendar no frecuentar algunas zonas a unas horas determinadas, entre otras.
Por ejemplo, en la ciudad de Tukwila, en Washington, desde septiembre de 2018 la policía ha puesto a disposición de los ciudadanos un mapa criminal, que ofrece información actualizada de los delitos cometidos y datos relacionados con ellos40. También se ha aplicado este servicio en la ciudad de Yuma, donde se permite que los ciudadanos envíen pistas relacionadas con un crimen concreto de manera anónima. En consecuencia, los ciudadanos pueden contribuir a esclarecer algunos delitos en colaboración con la policía, y el hecho de que sea anónimo hace que sea más fácil que los testigos compartan la información41.
Una herramienta de este tipo, pero con la peculiaridad de que incorpora inteligencia artificial es PredPol42, capaz de predecir cuáles son las zonas más problemáticas de una ciudad. Su funcionamiento es el siguiente: recibe tres tipos de datos relativos a innumerables crímenes: tipo de crimen, localización y momento en el que tuvo lugar, y seguidamente los analiza mediante un algoritmo matemático. Posteriormente, envía a cada patrulla de policía un mapa distribuido en zonas de unos 150 metros de largo, algunas de las cuales están coloreadas, cosa que significa que son aquellas zonas las que los agentes deben patrullar cuando no se encuentren atendiendo ninguna emergencia. La diferencia fundamental respecto a los mapas anteriores es que, además de que es mucho más claro, personaliza los mapas para cada turno y cada patrulla, así como también elabora mapas distintos según el tipo de delito gracias a la inteligencia artificial.
No obstante, la problemática fundamental que puede conllevar el uso de esta herramienta es la estigmatización de determinadas zonas por tener estas un alto porcentaje de delincuencia, lo cual podría desembocar en prejuicios hacia los habitantes de esas zonas y consideramos que no se puede permitir que sea la propia policía la que contribuya a la discriminación de determinados grupos sociales.
B) Drones
Un dron es un vehículo aéreo reutilizable que vuela sin tripulación y que es capaz de mantener un nivel de vuelo a partir de un motor de explosión, eléctrico o de reacción. Generalmente, se controlan mediante control remoto desde el suelo.
A nivel legal, el Real Decreto 1036/2017, de 15 de diciembre, regula la utilización de estas aeronaves siempre que estén pilotadas por alguien, es decir, siempre que se manejen a través del control remoto, en concreto aquellas con un peso menor a 150 kilos, salvo las que realizan actividades de aduanas, policía, búsqueda y salvamento, lucha contra incendios, guardacostas o similares, que pueden superar los 150 kilos. Asimismo, existe un Plan Estratégico para el desarrollo del sector civil de los drones en España (2018 -2021), aprobado por el Ministerio de Fomento, cuyo objetivo es analizar el cómo es y cómo funciona el sector actual, así como también las perspectivas de futuro.
La utilidad de estas herramientas para la investigación policial es innegable: tal como ocurre con las cámaras de videovigilancia, las imágenes obtenidas por un dron pueden ser aportadas como prueba dentro del proceso, en virtud del artículo 588 quinquies a) LeCrim, que autoriza la utilización de “cualquier medio técnico”. Por tanto, los drones pueden ser utilizados para investigar a una persona concreta, para localizar pruebas acerca del delito o también para obtener datos necesarios para el esclarecimiento de los hechos, como sucede con las cámaras de videovigilancia.
Hay que añadir que se están desarrollando modelos dotados de inteligencia artificial, los cuales que son capaces de funcionar sin control remoto, de forma autónoma y con unas medidas de seguridad que les permiten evitar obstáculos y colisiones. Desde la Comisión Europea están creando un espacio controlado en el que puedan circular los drones llamado “U-space”, por encima de los 150 metros de altura y para aeronaves que pesen menos de 150 kilogramos43. El hecho de que la Unión Europea esté preocupándose por los drones significa que se trata de una innovación que cada vez está adquiriendo más importancia en nuestra sociedad.
Respecto a su posible colisión con los derechos fundamentales, como el derecho a la intimidad, al secreto de las comunicaciones o la inviolabilidad del domicilio, cabe decir que los drones solo pueden grabar en espacios abiertos, y las imágenes resultantes serán analizadas por personal autorizado, ya que solo en casos muy remotos se estarían violando derechos fundamentales. Esto es algo muy a tener en cuenta a la hora de presentar imágenes obtenidas por un dron como prueba en un juicio, dado que el hecho de que para la obtención de esas pruebas se haya vulnerado algún derecho fundamental conllevaría automáticamente la inadmisión de la prueba. Además, hay que destacar que la cadena de custodia de dichas imágenes debe ser cuidada de manera que se pueda garantizar sin ningún tipo de duda que no han sido alteradas desde que fueron captadas por el dron hasta que fueron presentadas en el juicio, por lo que es necesario recurrir a técnicas como la encriptación de los archivos.
C) Detección de denuncias falsas
En los últimos meses se ha desarrollado una herramienta capaz de detectar qué denuncias son falsas. Se llama Veripol y está basada en un algoritmo y un modelo matemático que, gracias a la inteligencia artificial y al procesamiento del lenguaje natural, es capaz de localizar las palabras que las presuntas víctimas más utilizan cuando mienten a la hora de denunciar unos hechos. Según el estudio de sus creadores44, entre los que destaca Miguel Camacho, un inspector de policía, su porcentaje de acierto a la hora de determinar qué denuncias son falsas es del 91%, cifra muy superior al 75% que obtuvo un policía experto.
Si bien los veredictos de esta herramienta no son vinculantes, puesto que no tiene capacidad de decisión, sí que supone un gran avance que podrá convertirse en un medio disuasorio cuando alguien esté planteándose presentar una denuncia falsa. Por tanto, cuando esta aplicación determine que una denuncia puede ser falsa, los agentes encargados podrán centrarse en averiguar más acerca de los presuntos hechos para esclarecer qué ha ocurrido realmente. En el caso de que la denuncia parezca verdadera, los agentes no deberán perder tanto tiempo en verificar su autenticidad, por lo que podrán centrarse en otros aspectos como buscar a los sospechosos.
La primera comisaría en implantarlo ha sido la del Cuerpo Nacional de Policía de León, y las siguientes serán las de Ponferrada, San Andrés del Rabanedo y Astorga, aunque en un futuro no muy lejano se pretende que esta herramienta se utilice en todas las comisarías españolas.
D) Gafas de identificación de sospechosos
En China, la policía está equipada con unas gafas dotadas de inteligencia artificial que, conectadas a una base de datos, utilizan el reconocimiento facial para identificar a las personas que analiza, y esta información la transfiere a un dispositivo electrónico con una pantalla, similar a una tableta. Así, si una persona está siendo buscada y ha cambiado su aspecto lo suficiente para que un policía no pueda reconocerla a simple vista, esta tecnología es capaz de identificarla al instante. También, puede utilizarse a la hora de revisar pasaportes en aeropuertos, para así detectar documentos con una fotografía y unos datos que no coinciden con los almacenados por las autoridades en las bases de datos. De hecho, en los vuelos nacionales en China, un agente equipado con una cámara con una tecnología similar se pasea por los pasillos antes de despegar, con el fin de detectar si alguno de los viajeros pretende tomar el avión utilizando un documento de identidad falso45.
Esta herramienta presenta la gran ventaja de que puede analizar una gran cantidad de datos en muy poco tiempo, cosa que permite agilizar y hacer mucho más eficiente una tarea que, hasta el momento, está encomendada a los agentes. Para un agente es imposible memorizar todos los rostros y datos de las personas que son sospechosas o se encuentran en busca y captura, así como también es prácticamente imposible que pueda garantizar que la persona que está viendo es la misma que tiene en una foto o en un retrato robot sin ningún atisbo de duda. Sin embargo, esta herramienta innovadora puede contribuir a que la tarea de patrulla de los agentes sea mucho más eficaz, por su efectividad y rapidez a la hora de identificar a una persona.
E) Análisis de la escena del crimen
El análisis de la escena del crimen es una tarea encomendada a la policía judicial y consiste en la observación del lugar en el que se ha cometido el crimen y la búsqueda de pruebas para posteriormente formular numerosas hipótesis y, tras centrarse en unas y descartar otras, acabar resolviendo el caso. Es un proceso largo y laborioso, sobre todo cuando los autores son delincuentes que ya han sido detenidos anteriormente por la comisión de otros delitos no relacionados, ya que es necesario realizar un análisis de todos los datos disponibles de su historial anterior y, posteriormente, conectarlos con el caso actual, lo cual requiere un determinado tiempo de investigación que en ocasiones permite al delincuente seguir cometiendo crímenes.
Ante esta problemática, la policía de West Midlands (Gran Bretaña) y la de Amberes han trabajado en un proyecto común con la finalidad de desarrollar una herramienta capaz de simplificar este largo proceso de análisis de datos y el resultado ha sido la creación de VALCRI, siglas de Visual Analytics for Sense-making in CRiminal Intelligence analysis46. Se trata de una herramienta con inteligencia artificial que puede analizar toda la información obtenida en la escena del crimen y después relacionarla con otra disponible en la base de datos de la policía en cuestión de segundos, cosa que a un agente de policía podría costarle entre tres y cinco días. El procedimiento consiste en el procesamiento de todos los datos concernientes a un delito en concreto, tales como el modus operandi, las víctimas, el lugar o el momento en el que se ha cometido, a fin de compararlos con datos anteriores que forman parte de las bases de datos de la policía, tales como registros domiciliarios, interrogatorios o imágenes tomadas por la policía en otras escenas del crimen.
Además, esta herramienta es capaz no solo de analizar datos de criminales que han cometido delitos similares, sino que procesa todos los datos que la policía pone a su alcance, aunque se trate de delitos que, a priori, no tienen nada en común.
Después de este análisis, los agentes reciben la información obtenida en dos pantallas táctiles, en la que se muestran las líneas de investigación que la herramienta considera más pertinentes. Por tanto, pueden aparecer relaciones que los agentes hayan pasado por alto, pero también son ellos los que, mediante las pantallas, pueden escoger las líneas de investigación que consideran más acertadas, en detrimento de otras, con el fin de modificar los criterios que está utilizando la aplicación. De esta manera, los investigadores no pierden tanto tiempo procesando los datos y pueden centrarse más en el razonamiento y la resolución de cada caso concreto.
Asimismo, al estar dotada de inteligencia artificial, es capaz de aprender el lenguaje humano. Los prototipos creados hasta la fecha presentaban problemas a la hora de cruzar las descripciones de agentes distintos: por ejemplo, unos podrían utilizar la palabra “desastrado” y otros la palabra “desaseado”, sin que los programas fueran capaces de asociarlas. VALCRI, sin embargo, puede relacionar conceptos similares o identificar sinónimos, así como mejorar sus capacidades analíticas conforme se le van suministrando más datos y perfiles.
A diferencia de otras herramientas que comentamos a lo largo del trabajo, esta aplicación muestra todo el proceso de razonamiento que le ha llevado a seleccionar unas líneas de investigación u otras, de manera que todas las decisiones que ha tomado son transparentes para los investigadores, cosa que permite que puedan decidir si están de acuerdo con sus razonamientos y continúan por esa línea o, por el contrario, pueden decidir descartarlos.
Para que herramientas como esta se sigan desarrollando es necesaria la cooperación entre los distintos Estados, y además de las organizaciones internacionales, porque aún existen problemas a la hora de compartir datos policiales entre distintos países. Al existir regulaciones nacionales distintas, no todos los Estados tienen la misma facilidad a la hora de compartir la información, cosa que se hace cada vez más necesaria teniendo en cuenta que las organizaciones criminales, gracias a la globalización y la tecnología, poco a poco entienden menos de fronteras.
Como conclusión a este apartado, resaltamos que es incuestionable que la tecnología debe servir como herramienta para la investigación criminal, así como también para la prevención de delitos. Además, hay que tener en cuenta que el éxito de la prueba judicial se basará siempre en una investigación policial eficaz, la cual puede aumentar gracias al uso de la tecnología. No obstante, como ya se ha expuesto en el momento de analizar la reforma de la LeCrim, es necesario ponderar la seguridad que ofrece la utilización de estas tecnologías y la injerencia en la esfera personal de los investigados.
El artículo 106 del Código Penal define la libertad vigilada como aquella pena que consiste en el sometimiento del condenado a control judicial a través del cumplimiento de una serie de medidas tales como la obligación de estar siempre localizable mediante aparatos electrónicos que permitan su seguimiento permanente o la prohibición de aproximarse o comunicarse con la víctima o sus familiares, entre otras. Son precisamente en estas dos medidas en las que nos centraremos en este apartado, dado que para garantizar su cumplimiento es preciso el uso de la tecnología.
Desde hace unos años, se vienen utilizando distintas herramientas para poder tener localizado a un delincuente en todo momento, una de ellas es la utilización de las llamadas de control. Consiste en que los agentes llaman al domicilio del condenado de manera aleatoria, dentro de una franja horaria previamente acordada, con el fin de comprobar si está efectivamente en su casa. Una vez están en contacto con el condenado le piden que diga una serie de frases determinadas para así poder garantizar que la voz coincide con la que tienen en la base de datos y se trata efectivamente de la misma persona. De hecho, en algunos países se están desarrollando herramientas que se encargan de estas llamadas de manera automatizada para que llamen cada cierto tiempo y capaces de evaluar si se trata del condenado a través de su voz. Posiblemente, el siguiente paso en el desarrollo de estas herramientas sea la implementación de la inteligencia artificial para hacerlas mucho más eficaces e independientes de la programación humana, de manera que se ahorraría en recursos humanos y económicos.
Otra de las medidas es la utilización de pulseras GPS que el condenado está obligado a llevar siempre en su cuerpo. Son muy difíciles de quitar y permiten el seguimiento de todos sus movimientos. Así, si está condenado a no visitar una zona determinada, en el momento que se acerca a esa zona, salta un aviso para que los agentes acudan inmediatamente. De esta manera, se produce una doble ventaja: por una parte para el condenado, que podrá continuar con su vida, siempre dentro de unos márgenes y soportando las molestias que puede conllevar la pulsera, pero evitando la prisión y, por otra, para el Estado, dado que el coste estimado de este sistema es de alrededor de 4 euros por pulsera y día, mientras que el mantenimiento de un interno en una prisión es de más de 50 euros diarios47. Anteriormente, se utilizaban pulseras con radiofrecuencia que, conectadas a un aparato que se situaba en la casa del condenado, enviaba una alerta a las autoridades. No obstante, en España ya no existe la pena de arresto domiciliario, que fue sustituida por la de localización permanente, por lo que el condenado puede asistir al trabajo o deambular por determinadas zonas, sin que ello suponga el quebrantamiento de la medida de privación de libertad. Así, las pulseras con radiofrecuencia han quedado desfasadas y han dado paso a las pulseras GPS.
Centrándonos en los casos de violencia de género, el artículo 64.3 de la Ley de Medidas de Protección Integral contra la Violencia de Género, de 28 de diciembre, autoriza al juez a prohibir al agresor acercarse a la víctima. Respecto a las medidas de alejamiento, comúnmente conocidas como órdenes de alejamiento, el cumplimiento podrá ser controlado por medios electrónicos siempre que así lo acuerde el juez o el tribunal sentenciador, en virtud del artículo 48 CP.
En este caso, el sistema que se utiliza es similar al descrito anteriormente, pero con algunas peculiaridades, como el hecho de que la víctima también lleva un aparato. En concreto, consta de tres aparatos: un brazalete tobillero para el condenado, que emite las señales; una especie de teléfono móvil que recoge la señal emitida por el brazalete y que el agresor está obligado a llevar siempre consigo y además cargado y, finalmente, un tercer aparato, similar a este último, que recoge las señales de los dos primeros, y es el que la víctima debe llevar consigo. Ambos son responsables de llevar los aparatos cargados y, en caso de que la batería esté próxima a agotarse, también se enviará una alerta a las autoridades.
Además, es relevante apuntar que, en caso de que el condenado intentara quitarse o manipular alguno de estos dispositivos, será castigado con pena de multa de seis a doce meses, en virtud del artículo 468.4 CP.
Consideramos que, si se consiguiera automatizar todos estos dispositivos, gracias a la inteligencia artificial, se aumentaría la seguridad de las víctimas, así como también dejarían de ser necesarios todos los agentes que se dedican al control de este sistema, que podrían dedicarse a otras tareas donde las personas sean imprescindibles.
VIII. Evaluación del Riesgo de Reincidencia [arriba]
En los últimos años se ha desarrollado en Estados Unidos un algoritmo capaz de predecir el riesgo de reincidencia de un delincuente. Su nombre es COMPAS y responde a las siglas de Correctional Offender Management Profiling for Alternative Sanctions. Conviene señalar que ya son muchos los Estados que lo han implantado en el sistema judicial como apoyo a los jueces: indica qué condena imponer a cada preso y valora la posibilidad de reincidencia de cada uno. Además, el número de condenados utilizando esta herramienta supera el millón. COMPAS se basa en más de cien parámetros que incluyen la educación, la historia personal, el barrio o la edad del delincuente y, también, utiliza toda la información jurídica disponible relativa a sentencias anteriores similares.
Uno de los casos más polémicos y controvertidos en los que se ha utilizado esta herramienta es el caso Loomis, un estadounidense que fue condenado por saltarse un control policial mientras conducía un coche robado. Tras someterse al cuestionario de COMPAS, fue sentenciado a siete años de prisión porque existía un alto riesgo de reincidencia48.
Loomis recurrió esa condena basándose en que la empresa fabricante del algoritmo no permitía investigar acerca de su funcionamiento, lo que sería la “caja negra” del sistema, cosa que hacía imposible preparar una defensa adecuada. Asimismo, sus abogados argumentaban que COMPAS había tenido en cuenta criterios que podían resultar discriminatorios, como la raza. Sin embargo, la Corte Suprema del Estado de Wisconsin ratificó la sentencia, desestimando las pretensiones de la defensa, argumentando que COMPAS era solo uno de los muchos factores que se habían considerado y ponderado en la sentencia49.
El problema de estas aplicaciones, además de su baja fiabilidad, es que la mayoría de ellas mantienen su funcionamiento bajo secreto. Así pues, cuanto más avanzadas son, mayor es la preocupación de las empresas para que su funcionamiento se mantenga en secreto. La desarrolladora de COMPAS, Northpointe Inc., afirma que el funcionamiento es lo de menos, sino que lo que importa realmente es la ayuda que están brindando a la Justicia de Estados Unidos50.
Otro problema surge directamente de los programadores. Los sistemas de inteligencia artificial, en un primer momento, se nutren de lo que su programador les enseña, es decir, si un programador tiene un pensamiento determinado sobre un grupo determinado, por ejemplo, es racista, el sistema que él programe posiblemente también tendrá tendencias racistas. Tampoco debemos olvidar que COMPAS aprende a partir de sentencias que ya han sido ejecutadas, por lo que, si estas sentencias tienen un determinado sesgo relacionado con un colectivo, aplicará este sesgo a sus decisiones. En definitiva, la posibilidad de que existan sesgos en este tipo de herramientas es muy elevada.
Además, según Joanna Bryson, del departamento informático de la Universidad de Bath, la mayoría de los programadores de este tipo de aplicaciones de inteligencia artificial son hombres blancos, solteros y de California51, cosa que puede dar lugar a máquinas cuyos veredictos demuestren una cierta benevolencia con los blancos y ciertos perjuicios con los negros.
De hecho, así lo demuestran dos estudios. El primero de ellos, dirigido por William Dieterich, Christian Mendoza y Tim Brennan en 2016 ofrece pruebas de que, pese a no ser la raza un parámetro de COMPAS, esta sí que influye en los resultados que ofrece. El porcentaje de acierto a la hora de determinar el riesgo de reincidencia, aunque similar, era superior en el caso de personas blancas (un 67%), frente al 63,8% para las personas negras. Sin embargo, lo relevante de este estudio es que los negros que COMPAS puntuó con un alto riesgo fueron incorrectamente catalogados en un 45% de los casos, dado que no reincidieron, mientras que los blancos lo fueron en un 23,5% de los casos. Por el contrario, los blancos que obtuvieron un porcentaje de bajo riesgo de reincidencia posteriormente reincidieron en un 47,7% de los casos, frente a un 28% de los negros. Esta estadística demuestra que COMPAS sí que parte de un sesgo racial.52
El segundo estudio consta de dos experimentos53. Dirigido por una estudiante de informática en el Darmouth College, Julia Dressel, se hizo a partir del reclutamiento de 400 voluntarios de investigación legos en derecho, con distintas edades y niveles educativos, y sin ningún tipo de preparación previa. Cada uno de ellos tenía que valorar la posible reincidencia en un periodo de dos años de 50 criminales, a partir de siete parámetros de cada uno de ellos, como la edad, el sexo o el número de veces que habían sido detenidos. Los resultados fueron cercanos a un 62% de aciertos. Posteriormente, compararon este porcentaje con “Propublica”, la base de datos de COMPAS, y obtuvieron que el porcentaje de acierto era de un 65%. Esto quiere decir que el software tiene una eficacia similar que personas sin ningún tipo de conocimiento en la materia, cosa que genera dudas sobre su fiabilidad. Posteriormente, este grupo de investigadores realizó un segundo experimento más sencillo: comparó el algoritmo de COMPAS, que valora 137 parámetros, con uno más simple que creó Julia Dressel, simplemente basado en la edad y el número de condenas anteriores. Con un algoritmo mucho más simple, obtuvo acierto en el 67% de los casos, porcentaje similar al de COMPAS.
Por tanto, ha quedado demostrado que en Estados Unidos se están resolviendo delitos con sentencias que, si bien están dictadas por un juez, están también influidas por un software que se ha demostrado que tiene un sesgo racista. Asimismo, las valoraciones ofrecidas por este algoritmo son similares a las que ofrecerían personas sin ningún tipo de formación jurídica o, lo que es lo mismo, los jueces de los estados que aplican COMPAS están sentenciando basándose en una valoración que ofrece resultados similares a las de personas con mucha menos información de la que disponen ellos, ya no solo en cuanto a formación, sino también porque son los jueces los que conocen las pruebas y las declaraciones de los testigos. Según se ha visto, los tribunales de Wisconsin declararon la validez de la sentencia de Loomis porque se habían valorado más pruebas, pero la pregunta que nos surge es si los jueces serán capaces de apartarse de las conclusiones del algoritmo.
Otro de los aspectos que consideramos preocupantes es la opacidad que caracteriza este tipo de sistemas. De los estados que utilizan algoritmos para predecir el riesgo, no consta que todos hayan realizado un estudio en el que se evalúe la fiabilidad del sistema. Algunos de estos estados son Arkansas (que utiliza un sistema llamado Parole Risk Assessment Tool), Lousiana (que utiliza LARNA) o Montana (que utiliza Montana Offender Reentry y Risk Assesment Tool )54. Esto tiene una serie de implicaciones relevantes: se está confiando en empresas privadas para que diseñen un algoritmo secreto sin que conste que los poderes públicos lo hayan evaluado o auditado, cosa que implica indudablemente que se están favoreciendo los intereses privados incluso cuando hay estudios que demuestran que este tipo de sistemas discriminan y son poco fiables. Por otro lado, y dado que hasta la fecha no se ha demostrado que los algoritmos sean infalibles, consideramos básico que exista un control en última instancia a cargo de los humanos: solo así se podrá garantizar el principio de transparencia y la justicia de la sentencia.
Distinto es el caso de otro algoritmo diseñado por la fundación Arnold y que se está utilizando en Nueva Jersey, PSA (Public Safety Assessment)55. Según la fundación, esta herramienta nace de la preocupación por la lentitud de la justicia de Nueva Jersey, que muchas veces hace que un investigado se encuentre en prisión provisional a la espera de juicio, y finalmente no se puede demostrar su culpabilidad. Así, esa persona ha perdido su tiempo mientras estaba detenido, así como también puede haber perdido su trabajo, su casa o la custodia de sus hijos. Una de las soluciones para mitigar este problema es la de establecer fianzas, pero no siempre son efectivas, dado que las personas con menos recursos no pueden pagarlas, por lo que esta “solución” solo beneficia a aquellos que tienen más recursos. Frente a esta problemática, han diseñado esta herramienta y, a diferencia de COMPAS, han publicado los factores que tiene en cuenta a la hora de ponderar el riesgo de cada persona, y ninguno de ellos está relacionado con la raza, el sexo, el puesto de trabajo o el nivel de educación. Además, desde la propia fundación declaran que no existe ningún sistema de evaluación de riesgos tan perfecto que minimice el riesgo de que ocurran tragedias, pero al menos su utilización parece reportar mejores beneficios que el hecho de que un detenido sea liberado en función de si tiene recursos económicos suficientes para pagar una fianza.
En conclusión, consideramos que, si estas aplicaciones se perfeccionaran hasta el punto de ofrecer porcentajes de riesgo prácticamente infalibles, se daría un gran paso en beneficio de los condenados, pero también de los investigados a la espera de juicio. En primer lugar, en beneficio de los condenados que, por su bajo porcentaje de riesgo, sean merecedores de una reducción de condena o incluso de la libertad. En segundo lugar, también beneficiaría a aquellos investigados que no sean merecedores de la prisión provisional al no existir riesgo de reincidencia para que puedan continuar con su vida hasta que el juez dicte sentencia. Por último, no podemos olvidar el gran beneficio para la sociedad en su conjunto, que vería como aquellos delincuentes más peligrosos siguen condenados y aquellos que merecen la reinserción pueden optar a la libertad, aspectos ambos que refuerzan el Estado de Derecho.
Otra de las ventajas que aportarían estas aplicaciones, una vez perfeccionadas, sería que el gasto destinado al mantenimiento de los presos en las prisiones disminuiría considerablemente, ya que se evitarían todos los gastos relativos al mantenimiento en las prisiones de personas con bajo riesgo de reincidencia, ya sean investigados a la espera de sentencia o condenados, así como también ayudaría con uno de los graves problemas de las prisiones españolas, la sobrepoblación. Según datos de 2017, España aloja a 119,6 presos por cada 100 celdas disponibles, cifra muy superior a la media europea, que es de 91,456. Con estas herramientas, esta cifra bajaría considerablemente, lo cual contribuiría a mejorar las condiciones en las que viven los reclusos españoles.
El 21 de octubre de 2014, muchos periódicos presentaban la noticia de que una “niña virtual” había conseguido descubrir a un pederasta australiano tras haber mantenido conversaciones con él a través de un chat.
La niña virtual, a la que apodaron Sweetie, es un personaje creado informáticamente por la organización holandesa Terre des Hommes. Conversa online en plataformas de chat, en las que puede recibir mensajes de hombres adultos que, una vez progresa la conversación, piden a la niña que realice conductas sexuales, solicitan que utilice la cámara web e incluso muestran vídeos suyos masturbándose. Durante dos meses, los investigadores localizaron a unos veinte mil pedófilos que, además, intentaron pagar por tener relaciones sexuales con la menor.
Desde Terre des Hommes, se ha hecho una fuerte campaña para instar a los gobiernos a que inviertan en este tipo de herramientas para ayudar a combatir la pedofilia y la pederastia, así como también consideran necesaria la regulación de esta materia para poder condenar a los pedófilos que sean descubiertos a través de este tipo de aplicaciones.
Tras investigar sobre la existencia de este tipo de herramientas, consideramos necesario exponer, en primer lugar, qué es un agente encubierto o infiltrado. Antes de la reforma de la LeCrim en 2015, el Tribunal Supremo, en la STS 1140/2010, de 29 de diciembre57, definió un agente encubierto como “el policía judicial, especialmente seleccionado, que bajo identidad supuesta, actúa pasivamente con sujeción a la Ley y bajo el control del Juez, para investigar delitos propios de la delincuencia organizada y de difícil averiguación, cuando han fracasado otros métodos de la investigación o estos sean manifiestamente insuficientes, para su descubrimiento y permite recabar información sobre su estructura y modus operandi, así como obtener pruebas sobre la ejecución de hechos delictivos”. Por tanto, el artículo 282 bis permitía a un agente infiltrarse para perseguir delitos comprendidos en su cuarto apartado, tales como trata de seres humanos, delitos relativos a la prostitución, delitos contra la salud pública. No obstante, solo podía infiltrarse si los delitos eran cometidos en el seno de una organización criminal, por lo que en supuestos de delitos de pornografía infantil o abusos sexuales la infiltración no era posible si estos no eran cometidos dentro de una red organizada.
Posteriormente, con la reforma de la LeCrim por la ya mencionada Ley Orgánica 13/2015, de 13 de octubre, de reforma de la Ley de Enjuiciamiento Criminal, fue añadido un sexto apartado a este artículo, que finalmente sí autoriza la existencia de un “agente encubierto informático”, sin necesidad de que el delito se haya cometido en el seno de una organización criminal o terrorista. Asimismo, extiende el número de delitos en los que puede intervenir a los contemplados en el artículo 588 ter a) LeCrim, además de los que ya estaban contemplados, los del artículo 282 bis, apartado cuarto.
Por el contrario, a diferencia de un agente infiltrado o encubierto, un agente provocador es, según la Sala de lo Penal de la Audiencia Nacional en la Sentencia 16/2002, de 3 de abril de 2002, “un miembro de las fuerzas de seguridad que induce a otras personas, que desconocen su cualidad, a realizar un delito, que de otro modo no hubiesen llevado a cabo, y con la finalidad de frustrarlo deteniendo a los partícipes”. La diferencia entre ambos radica en la existencia, o no, de inducción a cometer el delito, es decir, si es el agente el que instiga al delincuente a cometer el delito estaríamos ante un agente provocador y no un agente encubierto. El hecho de que sea el agente el que inste al delincuente a cometer el delito conlleva inevitablemente a la existencia de un delito provocado, lo cual implica automáticamente la absolución del delincuente, dado que la acción del agente ha interferido en el proceso de libre formación de la voluntad y ha afectado a su dignidad, ya que sin la intervención de este la ejecución de la conducta delictiva no habría sido planeada ni decidida por aquel58.
Tras los buenos resultados obtenidos por Terre des Hommes con la utilización de Sweetie, y teniendo en cuenta que, según un informe de Europol de 201859, la explotación sexual infantil online sigue siendo la parte más preocupante del crimen online, consideramos que la creación de robots inteligentes sería una muy buena herramienta para combatir delitos contra menores, dado que, en primer lugar, los agentes infiltrados que operan en chats con el objetivo de localizar pedófilos tienen que soportar una fuerte carga psicológica por la exposición continuada a contenidos de pornografía infantil, por lo que han de ser sustituidos cada cierto tiempo y pueden tener secuelas psicológicas, problema que se eliminaría si fuera un robot el que tuviera que tratar con esos contenidos. Asimismo, el gasto que conlleva formar a nuevos agentes, tanto en habilidades comunicativas, como psicológicas, así como también informáticas, sería menor en caso de que se utilizaran robots que, pese a que su elevado coste de fabricación, a largo plazo serían amortizables.
Sin embargo, sería necesario adaptar la legislación en la materia, dado que nuestra Ley de Enjuiciamiento Criminal solo hace referencia al “policía”. De igual forma, para no caer en un delito provocado, habría que programar el robot de manera que simplemente creara un clima de confianza en el que el pedófilo desvelara sus verdaderas intenciones delictuales, sin que fuera el propio robot el que lo instara a cometer el delito, conforme hemos estudiado.
X. Robots para la Rehabilitación de Delincuentes [arriba]
Dentro del Derecho Penal, es muy importante apuntar cuáles son los objetivos fundamentales, aunque no únicos, de la pena: la reeducación y reinserción social del delincuente, tal como se apunta en el artículo 25.2 de la Constitución Española.
Es por esto por lo que la inteligencia artificial también está desarrollando herramientas para permitir la rehabilitación de determinados delincuentes. Por ejemplo, algunas empresas, como las japonesas Harumi Designs o Trottla60, están lanzando al mercado muñecas robóticas con aspecto de niños y bebés especiales para pederastas con el fin de precisamente, según afirman sus fabricantes, evitar los abusos contra menores de carne y hueso. En Japón, China y Hong Kong están creando muñecas que además están equipadas con inteligencia artificial, lo que permite que griten, lloren e incluso expresen miedo, para que las relaciones sean tal como serían si se tratara de un encuentro con un menor.
Este tipo de muñecas, sin embargo, no están exentas de polémica. El psicólogo Patrice Renaud, de la Universidad de Montreal, ha afirmado al respecto que algunos hombres podrán tener autocontrol y saciar sus deseos utilizando robots, pero en el caso de otros, sus experiencias con robots podrían hacer que intentaran ir más allá buscando niños reales61.
En la misma línea se pronuncia Jack Balking en la California Law Review Circuit62, afirmando que la ley podrá tratar a los robots como si fueran personas en determinados contextos, por razones prácticas o de política social, y a continuación lo ejemplifica diciendo que la ley podrá proteger a los robots de ciertas formas de abuso porque se teme que aquellos que pueden abusar de los robots, podrán hacerlo también con personas, niños o animales.
De hecho, en Estados Unidos, el legislativo está en trámites de aprobar el conocido como CREEPER act, (Curbing Realistic Exploitative Electronic Pedophilic Robots Act of 2017), cuya finalidad es prohibir las muñecas que tengan aspecto de niños63.
Dan Donovan, congresista de la ciudad de Nueva York que es quien introdujo el proyecto del CREEPER act, emitió un comunicado de prensa con unos datos muy alarmantes: según la policía del Reino Unido, el 85% de los dueños de las 128 muñecas incautadas también eran poseedores de pornografía infantil64.
Año 2054. John Anderton, jefe de la policía de Washington DC, ha sido capaz de evitar un asesinato gracias al aviso de un Precog, un ser capaz de prever crímenes antes de que ocurran. Efectivamente, esta escena pertenece al mundo de la ficción, pero hoy en día no estamos tan alejados del mundo que proyecta la película Minority Report, al menos en lo que a predecir se refiere.
De hecho, en China utilizan un sistema de inteligencia artificial para ayudar a las autoridades a prevenir crímenes antes de que estos se cometan, tal como sucede en la película. Sin embargo, en este caso no se utilizan seres con visiones, sino que se basan en predicciones a partir del comportamiento de las personas. Cloud Walk, así es como se llama, fue creado en 2015, y se basa en el reconocimiento facial y en el análisis de la marcha. Una vez identifica a una persona, sigue sus movimientos. Así pues, dependiendo de dónde y cuándo vaya a determinados sitios, una persona podrá tener un riesgo mayor o menor de cometer un crimen. Esta herramienta, unida al hecho de que en China existen más de 150 millones de cámaras de vigilancia, está haciendo que el Gobierno utilice todos los archivos monitorizados que tiene almacenados de sus ciudadanos para predecir cuáles de ellos son más propensos a cometer un delito. Además, tiene memoria, por lo que puede reidentificar a una persona que ya ha identificado previamente, aunque haya cambiado de ropa o de peinado. Por ejemplo, si una persona es grabada mientras compra bolsas de basura no tiene por qué ocurrir nada, pero si también esta persona es localizada comprando veneno y una sierra, a los pocos días, el software avisará inmediatamente a las autoridades. En definitiva, la policía está creando una base de datos que forma grupos de personas de alto riesgo basándose en los lugares que visitan y lo que hacen. Por ejemplo, alguno de los lugares que son monitoreados son las tiendas de armas o de cuchillos. Además, también cuentan con una herramienta de análisis de multitudes, que permite detectar e identificar a las personas que tienen un comportamiento extraño cuando están rodeados de mucha gente, como por ejemplo los carteristas. El problema que aquí se plantea es que China tiene un sistema judicial caracterizado por la dificultad del recurso, aunque no exista la certeza absoluta de que el investigado haya sido quien ha cometido el delito, por lo que esta aplicación podría desembocar en numerosas condenas a inocentes por el mero hecho de que hayan tenido un comportamiento fuera de lo habitual.
En Estados Unidos, por ejemplo, también se está desarrollando un sistema, conocido por las siglas FAST (Future Attribute Screening Techonology), cuya finalidad principal es combatir el terrorismo. FAST es capaz de analizar datos como la frecuencia cardiaca o la firmeza de la mirada de los pasajeros que van a embarcar en un avión, calculando a través de algoritmos la probabilidad de cada viajero de cometer un crimen.
También hay lugares como Chicago donde la policía utiliza una herramienta de inteligencia artificial para determinar la probabilidad de que una persona dispare a otra o, por el contrario, si será disparada. Este sistema se basa en las veces que ha sido arrestada una persona, si se ha visto involucrada en algún tiroteo o si pertenece a alguna banda callejera, entre otras variables, para posicionarla en una lista ordenada en función de su riesgo. De esta manera, las personas que se encuentren en las posiciones más altas de la lista de futuros criminales recibirán una visita de la policía para avisarles de que están bajo sospecha, mientras que en el caso de aquellos que el sistema determine que pueden estar en peligro, se les avisará para que extremen las precauciones. Esta aplicación tiene la ventaja de que indudablemente puede ayudar a prevenir crímenes, ya sea evitando que los agresores lo cometan al saber que están bajo vigilancia, ya sea por el especial cuidado de las posibles víctimas que están sobre aviso. No obstante, conlleva también una serie de desventajas. En primer lugar, y esto nos parece lo más grave, vulnera claramente el principio de presunción de inocencia: el hecho de que una persona sea catalogada de posible criminal dentro de su ambiente, ya sea entre sus familiares o en su barrio, puede conllevar una serie de problemas personales que impliquen la discriminación de esta persona en concreto o compliquen e incluso impidan su acceso a un puesto de trabajo, entre otros. Además, según declara Edwin C. Yohnka, director de comunicaciones y política estatal de la Unión Estadounidense por las Libertades Civiles de Illinois, es imposible para una persona evitar estar en esa lista. También cree que es peligroso “señalar a alguien en base a información policial secreta”65. En el lado contrario, el de la posible víctima, el aviso de la policía de que está en peligro podría conllevar un cambio en sus hábitos de vida e incluso, en los casos más extremos, conducir a problemas de ansiedad y miedo a salir a la calle66.
Otro de los softwares que utiliza Estados Unidos en este campo es Palantir Gotham, que permite descubrir criminales a partir de sus patrones de comportamiento, que obtiene mediante el análisis datos que circulan por la red y que están en manos de los poderes públicos y las empresas privadas como datos personales tales como las huellas o el historial médico, las compras con tarjeta o registro de comunicaciones, por ejemplo. Asimismo, almacena todos estos datos y posteriormente los utiliza con otros clientes. En Estados Unidos, desde que Donald Trump llegó a la presidencia, se está utilizando esta herramienta para la deportación de inmigrantes por estar catalogados como sospechosos, aunque estos no tengan antecedentes penales.
En esta línea, pero a partir de unos datos diferentes, encontramos Faception, una aplicación de una empresa israelí que, según afirman, puede definir el carácter de una persona solo a partir de su rostro. Así pues, señalan que nuestro rostro y nuestro comportamiento revelan mucho acerca de quiénes somos en realidad. Observa rostros en vivo, pero también a través de imágenes o vídeos, con el fin de analizar la autoestima, el carisma, la tendencia a la agresividad, la creatividad o las habilidades sociales y, posteriormente, clasifica a cada persona en uno de los quince grupos que tiene definidos, como por ejemplo investigador, promotor de marcas, ladrón, pedófilo. Además, aseguran trabajar para la seguridad nacional de un país concreto, pero no revelan su nombre67.
Pese a que todas estas herramientas han sido desarrolladas hace relativamente poco tiempo, la idea que subyace en todas ellas no es tan nueva, lo que se ha hecho ha sido simplemente aplicar la tecnología. De hecho, esta forma de castigar sin que exista un crimen ya existió en España en forma de ley: la Ley de Vagos y Maleantes, de 1933. Esta ley se caracterizó por la imposición de medidas de alejamiento, así como control y represión de aquellas personas calificadas de peligrosas como prostitutas, alcohólicos, vagabundos e incluso homosexuales. Así pues, sin que hubieran cometido ningún tipo de delito, eran enviados a realizar trabajos forzosos e incluso recluidos en campos de concentración. Ya en el franquismo, concretamente en 1970, fue sustituida por la Ley sobre peligrosidad y rehabilitación social, con un contenido similar, pero con penas mayores, que llegaban los cinco años de internamiento en cárceles o centros para rehabilitar a los condenados. Parafraseando a Figueroa68, ponente que defendió la derogación de esta ley, la dificultad a la hora de enjuiciar conductas y no hechos radica en la imprevisibilidad de los resultados de aquella. Asimismo, consideraba, la palabra peligrosidad tiene un alto contenido ideológico, por lo que su carácter es fundamentalmente subjetivo.
En nuestra opinión, este tipo de herramientas constituyen una gran ayuda a la prevención de crímenes y ayudan a la policía a tener una actitud más proactiva que reactiva, cosa que es muy favorable para los intereses sociales. Sin embargo, es innegable el atentado contra el principio de presunción de inocencia que conlleva la utilización de este tipo de innovaciones. Así pues, tal como declara Javier Valls en Problemas jurídico penales asociados a las nuevas técnicas de prevención y persecución del crimen a través de la inteligencia artificial69, si se sancionara a alguien porque existen posibilidades de que delinca en un futuro, no se estaría respetando el principio básico de sancionar por las acciones ya cometidas. Por tanto, consideramos que la utilización de estos sistemas es adecuada a la hora de prevenir delitos y riesgos, pero no es legal, ni moral, utilizarlo para condenar a nadie.
Por tanto, debemos tener en cuenta que dentro de la esfera personal de cada uno puede existir el arrepentimiento, por lo que consideramos que, además de un atentado contra los derechos fundamentales protegidos por la Constitución, es profundamente inmoral castigar a alguien que no ha cometido ningún delito, únicamente por sus rasgos personales.
Por último, no podemos olvidar que son personas las que están programando este tipo de sistemas, con lo cual se está dejando al libre albedrío la posibilidad de que un sujeto vea restringida su libertad sin que haya existido ninguna conducta penalmente reprochable por su parte, cosa que consideramos realmente peligrosa e injusta.
El último paso de nuestro trabajo consiste en evaluar la posibilidad de que toda la justicia sea impartida por máquinas. La principal ventaja de la eliminación del componente humano, aunque no la única, la encontramos en el aumento de la eficiencia: un robot es mucho más rápido a la hora de buscar y encontrar información, así como a la hora de redactar. De hecho, puede trabajar las 24 horas del día, no necesita vacaciones y no está influenciado por problemas personales o familiares. Al respecto encontramos una investigación que demuestra que los jueces israelíes son más benevolentes al principio de la mañana y después de la pausa del almuerzo, mientras que conforme pasa el tiempo, se vuelven más reacios a aplicar la libertad condicional70. Esto constituye solo un ejemplo de cómo la humanidad del juzgador puede influir en las sentencias que dicta.
A lo largo del trabajo, hemos analizado las contribuciones de la inteligencia artificial al proceso penal, desde la ayuda a la policía hasta finalizar con la posibilidad de que algunas aplicaciones sean capaces de determinar la personalidad de un sujeto concreto, pero aún nos falta por plantearnos lo más importante: si en este momento, o en un futuro, es posible que la inteligencia artificial sustituya a la figura del juez.
Una de las primeras respuestas la encontramos en un estudio del University College de Londres, la Universidad de Pennsylvania y la Universidad de Sheffield, en el que los investigadores han desarrollado una inteligencia artificial capaz de predecir los resultados del 79% de las sentencias del Tribunal Europeo de Derechos Humanos71. Así, la aplicación ha ido “aprendiendo” a través de textos legales y posteriormente se le ha dado la información de numerosos juicios ya resueltos por el Tribunal, y en el 79% de los casos, su veredicto ha coincidido con el del juez que resolvió el asunto. Aunque solo puede trabajar con datos en inglés y con casos relacionados con privacidad, juicio justo y prohibición de tortura y degradación del trato humano, ya ha analizado más de 500 casos. A juicio de Nikolaos Aletras, uno de los investigadores, esta herramienta no puede reemplazar a los jueces, pero sí que podrá utilizarse para analizar patrones que llevan a ciertos resultados, así como también podrá ayudar a determinar qué casos son más susceptibles de haber violado los derechos humanos.
En un escenario futurista, como podría ser aquel que presenta la serie Westworld, nos sitúan Ian Kerr y Carissima Mathen72, en un artículo que narra cómo el pueblo estadounidense descubre que el juez principal de la Corte Suprema de los Estados Unidos es en realidad un robot. Graduado en Derecho y perfectamente formado, había pasado desapercibido como un ciudadano más hasta que unos secuestradores intentaron matarlo y lo llevaron herido a un hospital. A través de esta historia, los autores reflexionan acerca de la posibilidad de que un juez humano sea sustituido por un juez robot. Así, en un primer momento hablan de la posibilidad de que la inteligencia artificial sustituya a los humanos en aquellas tareas en las que son realmente mejores que los humanos, como hemos ido analizando a lo largo de este epígrafe, tales como la búsqueda de datos o el reconocimiento facial. Sin embargo, el trabajo de un juez va mucho más allá de leer una ley y aplicarla, por lo que analizan las características que necesariamente debe presentar un juez robot capaz de sustituir a los humanos:
a) Capacidad funcional para reconocer las partes en un juicio, así como terceros interesados, observar pruebas, interpretar la ley y los principios básicos del Derecho, así como ponderarlos adecuadamente a la hora de aplicarlos a los hechos, entre otras. En suma, tiene que poder acoplarse al razonamiento legal.
b) Capacidad de seguir reglas. A juicio de los autores, que siguen a Hart, en los humanos esta capacidad es normativa, es decir, es necesario ser premiado por seguir las reglas, o no castigado, y estas reglas deben ser aceptadas por la sociedad como algo bueno. Así, los humanos adecuamos nuestro comportamiento en base a estas reglas de manera autónoma. Sin embargo, en este experimento, aunque el robot había interactuado con la sociedad, no estaba tan integrado en el contexto para ser capaz de querer aceptar unas reglas porque son socialmente adecuadas, sino que el robot acepta las reglas por el mero hecho de que son reglas y está programado para aceptarlas.
c) Punto de vista interno acerca de las reglas. El hecho de que un robot siga unas reglas de manera automática es un ejemplo de lo que Hart73 llama punto de vista externo, es decir, el robot observa que el resto de las personas actúa de una determinada manera ante un signo, por ejemplo, parando ante un semáforo en rojo, y es por eso por lo que decide detenerse él también. Sin embargo, un juez tiene que adoptar un punto de vista interno, que es aquella actitud de los funcionarios públicos a la hora de realizar unas determinadas actividades, motivados porque tienen un compromiso con un estándar o patrón de conducta general, es decir, porque tienen la obligación de cumplir con las reglas. El cumplimiento de estas reglas de manera regular dará lugar a una práctica social. Esta disposición a actuar siguiendo unas reglas determinadas no es una característica que, hasta el momento, puedan desarrollar los robots, por lo que el robot del experimento tampoco reúne esta característica.
La existencia de estos avances nos lleva inevitablemente a una reflexión acerca de la posibilidad de que la Justicia sea impartida exclusivamente por un robot. Es cierto que los avances tecnológicos hasta la fecha están contribuyendo a una justicia más eficaz y más rápida, pero, ¿llegarán hasta el punto de sustituir a los humanos? Tal como hemos analizado supra, ya existen robots que están resolviendo asuntos poco complejos, por lo que no es descabellado pensar en la posibilidad de que acaben resolviendo también casos penales. En relación con lo anterior, es cierto que los porcentajes de acierto que se han obtenido son realmente altos, pero cabría también preguntarse qué pasa con esos casos en los que la inteligencia artificial yerra. Así, consideramos que todavía no se ha desarrollado un modelo similar al Hércules de Dworkin, una especie de dios jurista que no solo conoce la ley, sino que también actúa en función de los principios jurídicos imperantes en cada sociedad, su historia, su cultura y su filosofía.
No debemos pasar por alto que en el proceso penal se tratan derechos fundamentales como la libertad, por lo que no podemos dejar que se utilice una herramienta que no resuelve eficazmente todos los casos pues, aunque fueran pocos los perjudicados, se estaría condenando inocentes o dejando en libertad a culpables, lo cual choca de pleno con los derechos fundamentales constitucionalmente protegidos.
Para finalizar con nuestra investigación, es pertinente extraer una serie de conclusiones al respecto.
En primer lugar, cabe destacar el gran esfuerzo por parte de los Organismos Públicos para implementar innovaciones que contribuyan a un mejor funcionamiento de la Administración, más teniendo en cuenta que no todos los funcionarios asumen de buen grado las innovaciones y nuevas formas de proceder a la hora de realizar sus tareas, especialmente los que tienen una edad más avanzada, dada la complejidad de ciertas aplicaciones en un primer momento, que precisan necesariamente de una formación. Así, se ha pasado de la posibilidad a la obligación de utilizar la tecnología por parte de los funcionarios públicos. Hoy en día, por ejemplo, el Boletín Oficial del Estado se publica de manera electrónica, por lo que ya no hay que consultar grandes tomos de legislación, ya que se puede acceder a la jurisprudencia desde cualquier equipo informático, incluso a sentencias de otros Estados o que acaban de ser dictadas, por ejemplo. No obstante, consideramos que se debe seguir invirtiendo en la investigación y el desarrollo de la tecnología, especialmente de la inteligencia artificial, ya que como hemos estudiado a lo largo de este trabajo, es capaz de contribuir en gran medida a la modernización del sistema judicial, incrementando su rapidez y su eficiencia, porque si se consiguen automatizar completamente algunos procesos legales, se ahorrará considerablemente en recursos personales, energía y también materiales.
Por el contrario, observamos que menores son los esfuerzos en lo que a regulación se refiere. Si bien existen iniciativas a nivel europeo y estatal, por el momento no encontramos un soporte legal que incluya todo lo relativo a la inteligencia artificial, motivo por el que reiteramos la necesidad de que se legisle esta materia, dada la dimensión que están tomando los innumerables desarrollos en el sector.
Además, consideramos que el hecho de que existan distintos sistemas legales entre los distintos Estados hace necesario que la investigación y desarrollo se realice prácticamente de manera individualizada para cada uno de los sistemas legales, dado que no es lo mismo que un robot trabaje con un sistema de Common Law que en un sistema de Derecho continental. Teniendo en cuenta que no todos los países tienen las mismas posibilidades a la hora de apostar por la investigación y el desarrollo de la inteligencia artificial, debido a las barreras económicas, legales, sociales, tecnológicas o incluso políticas, y partiendo de la base de que prácticamente se deberían crear sistemas específicos para cada país, las diferencias que hoy en día existen entre los distintos sistemas judiciales nacionales aún se harán más patentes. Esto, por desgracia, incrementará las dificultades en lo que a cooperación entre Estados se refiere, por el distinto grado de innovación de la justicia y el sistema legal en general.
Asimismo, consideramos especialmente relevante el hecho de que se pueda aportar pruebas tecnológicas a un juicio oral. Como ya se ha comentado, sin esta posibilidad, muchos de los delitos que han aparecido gracias a la tecnología no podrían ser probados, tales como el acoso, las amenazas o las coacciones vía online, la intrusión informática o delitos contra el derecho a la intimidad como por ejemplo el acceso a datos personales sensibles sin autorización, entre otros. Así, con esta posibilidad, se abre el elenco de medios de investigación al servicio de los agentes de la autoridad.
Otro de los aspectos que hemos considerado relevantes es la permisividad con la que algunos Estados están actuando a la hora de utilizar determinadas herramientas como las de predicción de reincidencia, dado que en muchas ocasiones apenas se han preocupado por el funcionamiento de dicha herramienta y los posibles sesgos que pueda tener, lo cual parece implicar que determinados Estados buscan favorecer más los intereses privados de algunas empresas en detrimento de la transparencia del sistema judicial. No debemos olvidar que un sistema de este tipo originalmente siempre está programado por una persona. Por tanto, aunque luego tenga capacidad de aprendizaje y el robot sea capaz de actuar con objetividad en todos los casos, el responsable de su programación habrá sido una persona, al menos por el momento, por lo que hasta ahora consideramos que es prácticamente imposible garantizar la absoluta objetividad de estas herramientas porque, en última instancia, su funcionamiento habrá dependido de alguien que no es completamente objetivo.
Además, el hecho de que algunos Estados permitan que las empresas diseñadoras de estas aplicaciones mantengan su funcionamiento en secreto tiene una serie de implicaciones negativas para la justicia, dado que la utilización de un sistema opaco y oscuro dentro de un sector como el judicial en el que todo debe ser transparente choca de pleno con los derechos fundamentales más básicos, como el derecho a la tutela judicial efectiva, a la presunción de inocencia y a un juicio justo, e incluso podría entrar en conflicto con el derecho a la igualdad. La solución que proponemos al respecto es extremar las cautelas a la hora de utilizar estos sistemas, garantizar que el proceso de razonamiento sea lo más transparente posible y establecer mecanismos que garanticen la independencia del juez, para que este sea capaz de apartarse del veredicto de la máquina si considera que ha podido cometer algún tipo de discriminación, especialmente cuando el que está siendo juzgado forme parte de alguno de los colectivos más susceptibles de sufrir algún tipo de discriminación, sea racial, sexual o de cualquier otro tipo.
En línea con lo anterior, y respecto al efecto sustitución entre robots y profesionales de la Justicia, cabe decir que, tal como se ha expuesto anteriormente, la revolución 4.0 conllevará irremediablemente algunos cambios en el mercado de trabajo, como es la desaparición de todos aquellos profesionales, y también despachos, con bajo valor añadido, es decir, aquellos encargados de las tareas más sencillas y automatizables. En definitiva, la consolidación de las máquinas en este sector comportaría irremediablemente la “deshumanización” de determinadas tareas en favor de los robots, especialmente aquellas en las que ya se está demostrando que son más eficientes que los profesionales tanto en tiempo como en precisión de los resultados obtenidos, como la búsqueda de jurisprudencia o la revisión de bases de datos que contienen la legislación. Como consecuencia de este proceso, todos aquellos profesionales reacios a la utilización de la tecnología se quedarán rezagados, por lo que sí que podrían verse más afectados por la irrupción de las innovaciones tecnológicas.
Por el contrario, supondrá una gran ayuda para muchos profesionales porque, si las tareas más rutinarias se dejan para las máquinas, ellos podrán centrarse en realizar tareas con mayor valor añadido, en las que las capacidades humanas son imprescindibles. De hecho, consideramos que en última instancia siempre debe ser una persona la que tome la decisión final, al menos por ahora, por lo que los abogados y los jueces, entre otros, seguirán siendo imprescindibles hasta el punto de que se pueda desarrollar un sistema capaz de valorar con criterios subjetivos de decisión en algunos casos, como juzgar la credibilidad de la declaración de un testigo o la verosimilitud de una prueba, así como también ser capaz de adoptar un comportamiento adecuado en función de los valores imperantes en una sociedad concreta en un momento determinado.
Abellán, L: “Las cárceles españolas figuran entre las más masificadas de Europa”, El país, 2017.
Aletras, N., et al: “Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”, PeerJ Computer Science, 2016.
“ALGORITHMS in the Criminal Justice System”, EPIC.
Asimov, I.: Runaround, Street and Smith Publications, 1970.
Balkin, J., “The Path of Robotics Law”, CLRC, núm. 6, 2015.
Barona Vilar, S: “Reflexiones en torno al 4.0 y la inteligencia artificial en el proceso penal”, Ius Punendi, vol. 7, 2018.
BBC Mundo : “¿Es posible predecir un delito?: el controversial algoritmo usado por la policía de Chicago, la ciudad con más criminalidad de Estados Unidos”, BBC, 2017.
Bedoya, C: “Crime mapping system now available to the public”, KYMA, 2018.
Bourcier, D: Inteligencia artificial y derecho, 1ª ed., UOC, Barcelona, 2003.
Bowcott, O: “First virtual court case held using claimant’s laptop camera”, The guardian, 2018.
Buchanan, B. y Headrick, T: “Some speculation about artificial intelligence and legal reasoning”, Stanford Law Review, vol. 23, 1970.
Bujosa Vedell, L: “La valoración de la prueba electrónica”, en: AA. VV.: Fodertics 3.0 (Estudios sobre nuevas tecnologías y justicia) (coord. por F. Bueno de Mata), Comares, Granada, 2015.
Buranyi, S: “Rise of the racist robots – how AI is learning all our worst impulses”, The guardian, 2017.
Chirino Sánchez, A: “Las tecnologías de la información y el proceso penal”, NEXOS Costa Rica.
Ciampi, C: Artificial Intelligence and Legal Information Systems, 1982.
Comisión Europea: “Keeping drones safe, secure and green: Commission launches the European Network of U-space Demonstrators”, 2018.
Comisión Europea: “Propuesta de Directiva del Parlamento Europeo y del Consejo por la que se establecen normas armonizadas para la designación de representantes legales a efectos de recabar pruebas para procesos penales”, 2018.
Comisión Europea: “Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre las órdenes europeas de entrega y conservación de pruebas electrónicas a efectos de enjuiciamiento penal”, 2018.
Comisión Europea: “Visual analytics for brighter criminal intelligence”, Research and investigation, 2018.
Comité Económico y Social Europeo: Dictamen del Comité Económico y Social
Europeo “Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad”, Diario Oficial de la Unión Europea C 288/1, 31 de agosto de 2017.
Corzo Tellez, J: “¿Por qué son importantes los mapas de Hot Spots criminales?”, El Universal, 2017.
Cox, D: “Would child sex robots stop pedophilia — or promote it?”, NBCNews, 2018.
Danziger, S. et al: “Extraneous factors in judicial decisions”, PNAS, 2011.
Davey, M: “Chicago police try to predict who may shoot or be shot”, The New York Times, 2016.
Delgado, M: La inteligencia artificial. Realidad de un mito moderno, Granada, Servicio de Publicaciones de la Universidad de Granada, 1996.
Diccionario de la Real Academia Española.
Dieterich, W. et al: “COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity”, Northpointe, 2016.
Donovan, D: “Donovan Introduces “CREEPER Act” to Ban Child Sex Dolls”, 2017.
Dressel, J. y Farid, H: “The accuracy, fairness, and limits of predicting recidivism”, Science Advances, 4, 2018.
“EL robot abogado DoNotPay se renueva para poder asesorar en mil cuestiones legales”, Europa Press, 2017.
“FACEPTION, la empresa israelí que define el carácter a partir del rostro”, El espectador, 2016.
Fontdeglòria, X: “La policía china usa gafas con reconocimiento facial para identificar sospechosos”, El País, 2018.
Frey, C., y Osborne, M: “The future of employment: how susceptible are Jobs to computerisation?”, Oxford Martin School, 2013.
Fujitsu: Qué es lo que aporta la inteligencia Artificial al negocio, 2018.Gartner: Cool Vendors in AI for Legal Affairs, 2017, 2017.
Hintze, A: “Understanding the four types of AI, from reactive robots to self-aware beings”, The Conversation, 2016.
Huallpa Tapia, L: “Aplicación de la Inteligencia Artificial en Solución de Problemas Empresariales”, Arequipa.
Kerr, I. y Mathen, C: “Chief Justice John Roberts is a robot”.
Lancho Pedrera, F: “Los sistemas expertos en el Derecho”, Anuario de la Facultad de Derecho, vol. 21, 2003.
Maciá, M. y Reviriego, J: “Bases de datos jurídicas españolas”, Revista de Administración Pública, vol. 25, 1991.
Mccrum, K: “Lifelike child sex dolls created to ‘stop paedophiles committing crimes’”, Mirror, 2016.
Moneva Pardo, A: “Mapas del crimen”, Crimipedia, 2017.
Moreno Catena, V: “Garantías de los derechos fundamentales en la investigación penal”, Revista del Poder Judicial, núm. 2, 1988.
“NEW crime mapping system available to the public”, Tukwilareporter, 2018.
“OPINIONES contradictorias sobre la ley de Peligrosidad Social”, El país¸1977.
Ossorio Vega, M: “‘Ravn’, un abogado con Inteligencia Artificial”, Media Tics, 2017.
O tero G onzález, P: Control telemático de penados: análisis jurídico, económico y social, Tirant lo Blanc, Valencia, 2008.
Pardo, P: “Por qué la Inteligencia Artificial necesita clases de ética: “Hemos creado un Frankenstein”, El Mundo, 2018.
Perry, Y: “Inteligencia Artificial vence a escuadrón de abogados analizando contratos”, FayerWayer, 2018.
Remus, D. y Levy, F: “Can robots be lawyers”, SSRN, 2015.
Santos González, M: “Regulación legal de la robótica y la inteligencia artificial: retos de futuro”, Revista Jurídica de la Universidad de León, vol. 4, 2017.
Scheel, M. y Baldwin, M: “Is it illegal to own a child sex doll? ‘Creeper Act’ would ban them, says legal analyst”, Cincinnati.com, 2018.
Shapiro, S., “What is the internal point of view?”, Faculty.
Sharma, A: “Collaborative Robot Market to Grow by 60% in 2018”, Interact Analysis.
Valls Prieto, J: Problemas jurídico penales asociados a las nuevas técnicas de prevención y persecución del crimen mediante inteligencia artificial, 1ª ed., Dykinson, Madrid, 2017.
Wakefield, J: “Así funciona la mente de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red”, BBC, 2018.
Zamora, M: “La Comisaría de León estrena un sistema que detecta el 90% de las denuncias falsas”, Diario de León, 2018.
* Graduada en Derecho y Administración y Dirección de Empresas, Universitat de València.
1 Comité Económico y Social Europeo: Dictamen del Comité Económico y Social Europeo “Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad”, Diario Oficial de la Unión Europea C 288/1, 31 de agosto de 2017, p. 3.
2 Diccionario de la Real Academia Española.
3 Huallpa Tapia, L: “Aplicación de la Inteligencia Artificial en Solución de Problemas Empresariales”, Arequipa, p. 1.
4 Delgado, M: La inteligencia artificial. Realidad de un mito moderno, Granada, Servicio de Publicaciones de la Universidad de Granada, 1996, p. 18.
5 Barona Vilar, S: “Reflexiones en torno al 4.0 y la inteligencia artificial en el proceso penal”, Ius Punendi, vol. 7, 2018, pp. 313-336.
6 Hintze, A: “Understanding the four types of AI, from reactive robots to self-aware beings”, The Conversation, 2016.
7 Comité Económico y Social Europeo: Dictamen del Comité, cit., p. 3
8 Bourcier, D: Inteligencia artificial y derecho, 1ª ed., UOC, Barcelona, 2003, p. 70.
9 Gartner: Cool Vendors in AI for Legal Affairs, 2017, 2017.
10 Diccionario de la Real Academia Española.
11 Lancho Pedrera, F: “Los sistemas expertos en el Derecho”, Anuario de la Facultad de Derecho, vol. 21, 2003.
12 Bourcier, D: Inteligencia artificial, cit., pp. 70 y 71.
13 Maciá, M. y Reviriego, J: “Bases de datos jurídicas españolas”, Revista de Administración Pública, vol. 25, 1991
14 Ciampi, C: Artificial Intelligence and Legal Information Systems, 1982.
15 Buchanan, B. y Headrick, T: “Some speculation about artificial intelligence and legal reasoning”, Stanford Law Review, vol. 23, 1970.
16 Fujitsu: Qué es lo que aporta la inteligencia Artificial al negocio, 2018.
17 Barona Vilar, S: “Reflexiones en torno”, cit.
18 Comité Económico y Social Europeo: Dictamen del Comité, cit., p. 3
19 Santos González, M: “Regulación legal de la robótica y la inteligencia artificial: retos de futuro”, Revista Jurídica de la Universidad de León, vol. 4, 2017, pp. 25-50.
20 Asimov, I.: Runaround, Street and Smith Publications, 1970.
21 Sharma, A.: “Collaborative Robot Market to Grow by 60% in 2018”, Interact Analysis.
22 Santos González, M: “Regulación legal”, cit., pp. 25-50.
23 Información extraída de: «https://jurimetria.wolterskluwer.es/content/Inicio.aspx»
24 Perry, Y: “Inteligencia Artificial vence a escuadrón de abogados analizando contratos”, Fayer Wayer, 2018.
25 Ossorio Vega, M: “‘Ravn’, un abogado con Inteligencia Artificial”, Media Tics, 2017.
26 “EL robot abogado DoNotPay se renueva para poder asesorar en mil cuestiones legales”, Europa Press, 2017.
27 Gartner: Cool Vendors, cit.
28 Remus, D. y Levy, F: “Can robots be lawyers”, SSRN, 2015.
29 Frey, C., y Osborne, M: “The future of employment: how susceptible are Jobs to computerisation?”, Oxford Martin School, 2013.
30 Bowcott, O: “First virtual court case held using claimant’s laptop camera”, The guardian, 2018.
31 Como ejemplo, podemos citar la STS 13 julio 2017 (ROJ 2834/2017)
32 Comisión Europea: “Propuesta de Directiva del Parlamento Europeo y del Consejo por la que se establecen normas armonizadas para la designación de representantes legales a efectos de recabar pruebas para procesos penales”, 2018.
33 Comisión Europea: “Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre las órdenes europeas de entrega y conservación de pruebas electrónicas a efectos de enjuiciamiento penal”, 2018.
34 Bujosa Vedell, L: “La valoración de la prueba electrónica”, en: AA. VV., Fodertics 3.0 (Estudios sobre nuevas tecnologías y justicia) (coord. por F. Bueno de Mata), Comares, Granada, 2015, pp. 82-85.
35 STS 19 mayo 2015 (ROJ 2047/2015)
36 Moreno Catena, V: “Garantías de los derechos fundamentales en la investigación penal”, Revista del Poder Judicial, núm. 2, 1988, pp. 131-172.
37 Chirino Sánchez, A: “Las tecnologías de la información y el proceso penal”, NEXOS Costa Rica.
38 Corzo Tellez, J: “¿Por qué son importantes los mapas de Hot Spots criminales?”, El Universal, 2017.
39 Moneva Pardo, A: “Mapas del crimen”, Crimipedia, 2017.
40 “NEW crime mapping system available to the public”, Tukwilareporter, 2018.
41 Bedoya, C: “Crime mapping system now available to the public”, KYMA, 2018.
42 -.
43 Comisión Europea: “Keeping drones safe, secure and green: Commission launches the European Network of U-space Demonstrators”, 2018.
44 Zamora, M: “La Comisaría de León estrena un sistema que detecta el 90% de las denuncias falsas”, Diario de León, 2018.
45 Fontdeglòria, X: “La policía china usa gafas con reconocimiento facial para identificar sospechosos”, El País,
2018.
46 Comisión Europea: “Visual analytics for brighter criminal intelligence”, Research and investigation, 2018.
47 Otero González, P: Control telemático de penados: análisis jurídico, económico y social, Tirant lo Blanc, Valencia, 2008.
48 Pardo, P: “Por qué la Inteligencia Artificial necesita clases de ética: “Hemos creado un Frankenstein”, El Mundo, 2018.
49 Corte Suprema De Wisconsin: “Caso Estado de Wisconsin contra Loomis”, sentencia de 5 de abril de 2016.
50 Buranyi, S: “Rise of the racist robots – how AI is learning all our worst impulses”, The guardian, 2017.
51 Wakefield, J: “Así funciona la mente de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red”, BBC, 2018.
52 Dieterich, W. et al: “COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity”,
Northpointe, 2016.
53 Dressel, J. y Farid, H: “The accuracy, fairness, and limits of predicting recidivism”, Science Advances, 4, 2018.
54 “ALGORITHMS in the Criminal Justice System”, EPIC.
55 -.
56 Abellán, L: “Las cárceles españolas figuran entre las más masificadas de Europa”, El país, 2017.
57 STS 29 diciembre 2010 (ROJ 7184/2010)
58 STS 7 mayo 2012 (ROJ 3742/2012)
59 Europol: “Internet organised crime threat assessment”, 2018.
60 Mccrum, K: “Lifelike child sex dolls created to ‘stop paedophiles committing crimes’”, Mirror, 2016.
61 Cox, D: “Would child sex robots stop pedophilia — or promote it?”, NBCNews, 2018.
62 Balkin, J., “The Path of Robotics Law”, CLRC, núm. 6, 2015, p. 58.
63 Scheel, M. y Baldwin, M: “Is it illegal to own a child sex doll? ‘Creeper Act’ would ban them, says legal analyst”, Cincinnati.com, 2018.
64 Donovan, D: “Donovan Introduces “CREEPER Act” to Ban Child Sex Dolls”, 2017.
65 BBC Mundo: “¿Es posible predecir un delito?: el controversial algoritmo usado por la policía de Chicago, la ciudad con más criminalidad de Estados Unidos”, BBC, 2017.
66 Davey, M: “Chicago police try to predict who may shoot or be shot”, The New York Times, 2016.
67 “FACEPTION, la empresa israelí que define el carácter a partir del rostro”, El espectador, 2016.
68 “OPINIONES contradictorias sobre la ley de Peligrosidad Social”, El país¸1977.
69 Valls Prieto, J: Problemas jurídico penales asociados a las nuevas técnicas de prevención y persecución del crimen mediante inteligencia artificial, 1ª ed., Dykinson, Madrid, 2017, pp. 35-36.
70 Danziger, S. et al: “Extraneous factors in judicial decisions”, PNAS, 2011.
71 Aletras, N. et al: “Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”, PeerJ Computer Science, 2016.
72 Kerr, I. y Mathen, C: “Chief Justice John Roberts is a robot”.
73 Shapiro, S., “What is the internal point of view?”, Faculty Scholarship Series, 2006.