HEMEROTECA       EDICIÓN:   ESP   |   AME   |   CAT
Apóyanos ⮕

Por qué emplear la inteligencia artificial en la administración de justicia es un asunto delicado


(Tiempo de lectura: 4 - 7 minutos)
Geralt / Pixabay Geralt / Pixabay

La inteligencia artificial (IA) está de moda. Cada vez son más las voces que nos advierten que estamos ante una brillante oportunidad para mejorar nuestra calidad de vida, automatizando procesos repetitivos o tediosos y facilitando la gestión y comprensión en sectores muy diversos –energía, transporte, salud, domótica, publicidad, etc.–.

La Unión Europea pretende liderar el debate acerca de la regulación de los usos de la IA, como ya hizo anteriormente con la llamada protección de datos personales. Ya hay una propuesta de reglamento encima de la mesa. Basada en un enfoque de riesgo, pretende establecer líneas rojas prohibiendo ciertas tecnologías:

  • las que permiten identificar biométricamente (huella dactilar, reconocimiento facial, etc.) de forma remota en espacios públicos con fines policiales;

  • las que perfilan y puntúan socialmente a las personas;

  • las basadas en técnicas subliminales que pueden conducir a la manipulación de personas;

  • las que tienen como objetivo a colectivos vulnerables.

La propuesta permite otras tecnologías con distintos tipos de cautelas y salvaguardas en función del riesgo inherente que se les atribuye.

Así, la iniciativa es partidaria del uso de la IA en sectores específicos –desarrollo de máquinas, juguetes conectados, dispositivos médicos, aviación civil, vehículos automotores, infraestructuras criticas, educación, empleo y recursos humanos, acceso a servicios esenciales públicos o privados, seguridad pública, control de fronteras y migraciones, administración de la justicia–, a pesar de identificarlos como ámbitos de riesgo alto, y por ende, establecer una serie de garantías reforzadas.

Una transformación digital forzosa

La administración de justicia será digital o no será. Hablar hoy de IA en sede judicial puede parecer ciencia ficción. En los peores momentos vividos por la pandemia de la covid-19, fueron muchos los juzgados colapsados, entre otros motivos, por la incapacidad de celebrar juicios en línea por la falta de equipos técnicos. Sin embargo, lo cierto es que más temprano que tarde debe aceptarse un cambio tecnológico que va mucho más allá de la supresión del papel y la digitalización de los tradicionales procesos judiciales.

Reparen en el hecho de que hoy resulta casi imposible adquirir un teléfono móvil para, paradójicamente, emplearlo única y exclusivamente como tal –hacer y recibir llamadas–.

El mercado, así, forzará por sí solo el cambio, aunque el papel de la sociedad también es relevante. Sería comprensible que los nativos digitales no entendiesen por qué un profesional médico no se apoya en sistemas de IA, si estos son capaces de tener en cuenta muchas más variables y leer ingentes bases de datos, cuando de lo que se trata es de proyectar un diagnóstico médico.

Podrían no entender tampoco cómo es que un juez o un fiscal no dispone de recursos tecnológicos para medir, con criterios objetivos y métodos científicos cuantitativos y cualitativos, el nivel de riesgo residual de fuga, destrucción de pruebas o impago –para la adopción de medidas cautelares– o, en el ámbito penitenciario, el riesgo residual de reincidencia o violencia futura –para conceder un permiso o la libertad condicional–.

Definir qué tecnología y para qué

Descartada la exclusión de la IA y aceptada su forzosa recepción futura, ahora es el momento de definir qué tecnología necesitamos y para qué, delimitando los usos en base a criterios éticos. Una correcta definición nos permitirá, a su vez, revisitar los principios jurídicos para reinterpretarlos a la luz de la realidad algorítmica.

Los usos posibles de la IA en la administración de justicia son múltiples. De un lado, encontramos todos los relacionados con la descarga del alto volumen de litigiosidad y litispendencia de los asuntos.

La acumulación de asuntos se reduciría con la simplificación y automatización de los trámites repetitivos y sencillos, y también aquellos que por su propia naturaleza son automatizables. Todos ellos podrían ser gestionados a través de sistemas expertos de IA. Es el caso de los procesos monitorios, los juicios verbales de cantidad o los desahucios por falta de pago. O de los procesos de ejecución en los que la única prueba que se debe practicar es la documental.

La tecnología también puede contribuir a dar un nuevo sentido a la transparencia de la información judicial. Permitiría hacer accesibles los textos de las resoluciones judiciales y, a través de chatbots, por ejemplo, explicar las reglas lógicas y los razonamientos que han llevado al juzgador a tomar una decisión sobre los asuntos o temáticas que despiertan el interés de los administrados.

En lo que se refiere a la litigiosidad, evitar la resolución judicial es más fácil si previamente la IA nos advierte de nuestras posibilidades limitadas de éxito. El empleo de la IA en la mediación, en el ámbito contractual –laboral, mercantil, sector asegurador, etc.– con los llamados contratos inteligentes y para la resolución extrajudicial de conflictos contribuiría decisivamente a ello.

Garantías legales de los sistemas de riesgo alto

La propuesta europea de reglamento de IA incorpora una serie de requisitos básicos para los sistemas de riesgo alto, entre los que destacan los siguientes:

  • Necesaria identificación y gestión de riesgos a lo largo de toda la vida útil del sistema.

  • Alta calidad de las bases de datos utilizadas para nutrir a los algoritmos, evitando así sesgos y discriminaciones.

  • Mantenimiento de registros automático de eventos durante la operación del sistema, garantizando la trazabilidad.

  • Transparencia, entendida en el sentido de permitir que el usuario interprete los resultados del sistema y los utilice apropiadamente.

  • Supervisión humana efectiva durante todo el periodo de utilización del sistema.

  • Nivel adecuado de precisión y seguridad cibernética.

Los sesgos humanos discriminatorios

Un subsector específico, digno de mención especial, es el relativo a los sistemas que permiten conjurar un nivel de riesgo que el juzgador pretende enervar, ya sea mediante una decisión cautelar o, en el ámbito penitenciario, decidiendo sobre la libertad del interno.

Como decíamos anteriormente, son diversos los momentos procesales en los que se exige a los juristas realizar un ejercicio de cálculo y motivación del nivel de riesgo de un suceso que se pretende evitar: fuga, impago, quiebra, reiteración delictiva, destrucción de pruebas, etc.

En muchas ocasiones, estas decisiones que anticipan la resolución judicial propiamente dicha pueden llegar a establecer un marco conceptual que proyecte sus efectos sobre el fondo del asunto. Es el caso, por ejemplo, de la prisión preventiva y el juicio en el que el acusado comparece con los grilletes en la sala. A pesar de su importancia, se dictan desde el vacío fáctico, cayendo en los atávicos heurísticos propios del proceso cognitivo humano.

Precisamente, como se trata de sistemas expertos basados en los tradicionales árboles de decisión, este tipo de técnicas acostumbran a proyectar las debilidades humanas –sesgos y prejuicios– en el código algorítmico, que multiplica los efectos perniciosos.

Es el caso del programa COMPAS, de nuevo en el centro de la crítica, con un sistema de IA propiedad de una empresa privada, totalmente opaco. Se le acusa de nuevo de establecer proyecciones de riesgo de reiteración delictiva y de violencia futura mucho más elevadas en el caso de personas de raza negra. Las dificultades de llevar a cabo estudios exhaustivos del código y de la base de datos que lo nutre, fruto de la falta de transparencia, impide alcanzar conclusiones veraces al respecto que nos permitan aceptar tales resultados.

No es descartable que se trate de un algoritmo políticamente incorrecto, aunque, hasta la fecha, haya resultado del todo imposible contrastar o refutar su grado de exactitud y medir su eficacia.

Sea como fuere, al multiplicar los efectos de los sesgos de sus diseñadores, estos algoritmos también permiten detectar realidades incómodas, algunas de ellas desconocidas previamente. Es el efecto benéfico de los sistemas expertos de IA, que bien podrían ser empleados como método de detección de patrones y sesgos que escapan a la razón y que, por el contrario, condicionan nuestra vida cotidiana.The Conversation

Pere Simón, Profesor Contratado Doctor, UNIR - Universidad Internacional de La Rioja

Este artículo fue publicado originalmente en The Conversation

Tu opinión importa. Deja un comentario...


Los comentarios que sumen serán aceptados, las críticas respetuosas serán aceptadas, las collejas con cariño serán aceptadas, pero los insultos o despropósitos manifiestamente falsos no serán aceptados. Muchas gracias.

Periodismo riguroso
y con valores sociales
El periodismo independiente necesita el apoyo de sus lectores y lectoras para continuar y garantizar que los contenidos incómodos que no quieren que leas, sigan estando a tu alcance. ¡Hoy con tu apoyo, seguiremos trabajando por un periodismo libre de censuras!
Slider