Alberto Pascual García
La Justicia se plantea el reto de incluir herramientas basadas en inteligencia artificial para la resolución de casos. ¿Podría una IA llevarte a la cárcel?
“Los criterios de eficiencia y ahorro de costes derivados del uso de la IA no pueden anteponerse al respeto y la protección debidos a los derechos de las personas”. Son palabras del Consejo de la Abogacía Europea (CCBE, por su abreviatura en inglés) quien a comienzos de 2020 se mostraba preocupado por los posibles aspectos legales que tiene la implantación de herramientas que se sirven de inteligencia artificial en la Justicia.
Bajo el documento ‘Considerations on the legal aspects of the AI’, señalaba los riesgos que puede acarrear su uso en diferentes puntos de un proceso judicial referentes a la calidad del sistema, la protección de los derechos fundamentales de los intervinientes y el estado de derecho; y la conclusión era clara: la eficiencia no puede anteponerse a la legalidad.
Para valorar este documento y los pasos que está marcando el sector en este sentido, hemos hablado con Pere Simón, profesor del Máster Universitario en Propiedad Intelectual y Derecho de las Nuevas Tecnologías, y Natalia Tamames, abogada y antigua alumna de este mismo postgrado.
¿Una normativa de la IA para asegurar el derecho?
Según el CCBE, para poder gestionar de manera eficaz el dueto formado por la IA y la Justicia es necesario establecer unos principios y una normativa que regle su implantación en ámbitos concretos del proceso judicial y no reducirlo todo a ahorrar tiempo y recursos: “Los derechos fundamentales de las personas no pueden subordinarse a criterios como la mera mejora de la eficiencia o el ahorro de costes, ya sea para usuarios de los tribunales o para las propias autoridades judiciales”.
Por ello, ante todo hay que saber cuáles son los principales derechos que pueden verse vulnerados y prácticamente lo son todos. Aquí desgranamos algunos:
– Derecho a un juicio justo: por la falta de transparencia sobre cómo opera la IA.
– Derecho a la libertad de expresión: aumento de vigilancia y control de las personas.
– Derecho a la libertad de reunión y asociación: cuando se usa la IA para identificar a manifestantes en una protesta o miembros de una asamblea.
– Derecho a la privacidad y a la protección de datos: por el propio funcionamiento de la IA basado en la recogida y tratamiento de datos.
Llegados a este punto, podemos entender por qué puede llegar a ser muy controvertido que la inteligencia artificial pueda vincularse de manera más estrecha con un sistema como el judicial y que plantee dudas sobre su uso. Tal y como cuestiona el profesor de la UNIR, Pere Simón, estamos ante una edad muy temprana de esta tecnología lo que puede provocar cierta desconfianza: “Soy muy escéptico. Tengo experiencia como fundador de una ‘startup’ tecnológica y soy realista respecto a las dificultades intrínsecas de su desarrollo. Hacer predicciones basándonos en sistemas de tratamiento masivo de datos, personales o no, con técnicas de Big Data o de aprendizaje automático suelen dar error en un porcentaje elevado”.
¿Está capacitado un algoritmo para impartir Justicia?
Quizá es esta la gran pregunta: la tesitura de que un ordenador decida si vas a prisión por haber cometido un delito o si eres apto para recibir una ayuda económica. Aquí Simón lo tiene claro y ve imposible sustituir al juez por una máquina:
“Por mucha inteligencia que se le presuponga, nuestras leyes no lo permiten. Solo jueces y magistrados son titulares y pueden ejercer la función jurisdiccional de acuerdo con el artículo 117 de la Constitución Española. Así que no sería legal, es totalmente inviable, pero no solo ir a la cárcel, sino también que decida qué progenitor se queda con la custodia de los hijos, qué indemnización le corresponde al trabajador que ha sido despedido de forma improcedente y determinar si le corresponde o no una indemnización y en qué cuantía a aquel que haya sufrido un accidente de tráfico”.
En este sentido, la abogada especializada en propiedad intelectual Natalia Tamames plantea responder a ciertas preguntas que nos hagan valorar la adecuación del uso de una herramienta que se sirva de la IA. Se basan en los 5 principios básicos que emanan de la primera ‘Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno’ (2018):
1. ¿Respeta este sistema de IA los derechos fundamentales y se garantiza el derecho a un juicio justo?
2. ¿Se discrimina a los individuos que están siendo juzgados?
3. ¿Se respetan los principios de equidad, transparencia e imparcialidad a lo largo de todo el proceso?
4. ¿Se actúa bajo los principios de seguridad y calidad en relación con el procesamiento de datos judiciales y decisiones?
5. ¿Se respeta el principio ‘bajo control del usuario’, garantizando que los profesionales del sistema de justicia son capaces de revisar, en cualquier momento, las decisiones judiciales y los datos empleados para dar un resultado?
En caso de que las respuestas fueran negativas, al menos solo una de ellas, la inteligencia artificial usada no se ajustaría a derecho.
¿Y si se trata de un juicio penal?
En UNIR, ya valoramos la eficacia del uso de las nuevas tecnologías dentro del sistema judicial y cómo aún cuesta darles un uso reglado dentro de la Justicia. De hecho, planteamos la posibilidad de llevar a cabo un juicio penal a través de videoconferencia y, en este caso, llegamos a la conclusión de que no era posible, ya que se deberían asegurar las garantías procesales para el acusado, cosa que la tecnología no ayudaba del todo a solventar en casos graves como estos.
Con la inteligencia artificial, parece ocurrir más de lo mismo, porque supondría confiar en una máquina una decisión que podría llevar a conflicto. Tamames considera que para dilucidar si es viable juzgar a alguien penalmente usando IA, lo primordial sería comprender sobre qué criterios actúa el algoritmo en el que se basa el sistema para llegar a una conclusión o a otra:
“Es decir, cuáles han sido las fuentes de las que ha aprendido y valorar si son solventes y fiables. En este sentido, Lorena Jaume-Palasí, una de las mayores expertas en Inteligencia Artificial en España y miembro del grupo de sabios sobre IA y Big Data creado por la Secretaría de Estado de Agenda Digital sostiene que, en el fondo, el Derecho es un algoritmo que se aplica desde mucho antes de que existiera la informática. Un juez cuando juzga y condena en un juicio penal, también lo hace sesgado por sus propias convicciones, opiniones y aproximaciones a las diferentes teorías jurídicas”.
No obstante, son numerosas las voces que se han posicionado en contra: “En concreto, la organización sin ánimo de lucro ‘Partnership on AI’, que reúne a los gigantes tecnológicos como Amazon, Apple, IBM, Facebook, Microsoft, Nvidia y Google, está en contra del uso judicial de la IA debido a que se trata de un método potencialmente opaco, sesgado y lastrado”.
En este sentido, Simón se posiciona también a ese lado de la balanza, porque considera que el ser humano que haya detrás de la creación del algoritmo puede tener sesgos ideológicos que influyan de manera interesada en la herramienta de IA: “Por ejemplo, que se dé una puntuación singular en función de razas, sexo, orientación ideológica…”.
Herramientas en uso basadas en IA
Pere Simón nos habla de dos tecnologías donde la inteligencia artificial ayuda a mejorar los procesos judiciales:
1. JURIMETRÍA
Se trata de un sistema muy útil para operadores jurídicos como abogados, fiscales… Tiene una gran capacidad de análisis de muchas bases de datos que te hacen saber qué probabilidad tienes de ganar un litigio: “Toma en cuenta valores como el juzgado, el juez, la opinión de este en asuntos similares anteriores, así como condicionantes externas muy diversas desde la temperatura, pasando por el estado de la opinión pública sobre un tema”.
2. SOLUCIONES DE PII DISCOVERY
Te permite localizar aquello que está perdido en un mar de información irrelevante: “Importante para ayudar a valorar las pruebas documentales y también las pruebas físicas. Todo ello, para la recogida y análisis de datos muy diversos en el marco de procesos judiciales”.
Recomendaciones a los tribunales
Con este fin, el Consejo de la Abogacía Europea aconseja examinar las siguientes cuestiones para una mejor introducción de la IA en el mundo de la Justicia:
– Que las partes involucradas en el proceso identifiquen el uso de la IA.
– Que no se delegue a una IA la decisión final del juez.
– Que se puedan verificar los datos de entrada y los criterios de razonamiento de la herramienta de IA.
– Que se pueda cuestionar o impugnar los resultados de la IA.
– Que se cumplan los principios del Reglamento General de Protección de Datos (RGPD).
– Que exista neutralidad y objetividad en los instrumentos de IA que se usen en el proceso, garantizando así la transparencia del proceso.