Preparados para los ‘robojueces’

Preparados para los ‘robojueces’

Innovadores

Preparados para los ‘robojueces’

La justicia se prepara para adoptar sistemas automáticos de toma de decisiones. Tribunales algorítmicos conducidos por jueces robóticos que prometen agilizar la actividad de los juzgados que plantean serios riesgos

3 mayo, 2019 07:00

Ocho años. Es lo que tardó en ejecutarse un proceso judicial por un caso de falsificación de documentos en 2001, que llevó a Tribunal Europeo de Derechos Humanos (TEDH) Estrasburgo a condenar a España en 2016. No es la primera vez y probablemente no sea la última. Son de sobra conocidos los retrasos en la justicia. ¿Puede la tecnología ayudar a reducir el colapso? Es lo que pretende Estonia con el diseño de un ‘robojuez’: un sistema basado en tecnologías de aprendizaje automático que planean usar para resolver disputas asociadas a reclamaciones menores, de hasta 7.000 euros.

Por primera vez, un algoritmo tomaría la decisión en primera instancia, aunque sus decisiones podrían ser recurridas ante un tribunal humano. Con ello, el Gobierno de Estonia busca agilizar la justicia para que los jueces de carne y hueso puedan dedicarse a procesos de mayor relevancia. Una idea que, en teoría, suena muy bien. “Queremos ser lo más eficaces posible”, afirma en The Wired Ott Velsberg, un joven estudiante de doctorado contratado por el gobierno de Estonia para hacerse cargo de un nuevo proyecto para introducir en varios ministerios sistemas basados en inteligencia artificial (IA).

Pero no siempre lo posible es lo deseable. ¿Estamos seguros de que queremos dar autoridad a un algoritmo para tomar decisiones en el plano judicial? ¿Qué riesgos conlleva? ¿Qué amenazas se están obviando?  “El verdadero peligro no es que estos sistemas funcionen, lo cual sería genial. El problema es que no lo hagan, pero creamos que sí y los utilicemos bajo esa errónea asunción” afirma Christopher Markou, profesor e investigador especializado en Leyes e Inteligencia Artificial en la Universidad de Cambridge (Reino Unido).

Markou enmarca la iniciativa del robojuez de Estonia en una tendencia más amplia de utilizar IA y ciencia de datos para replicar -y, en algunos casos, reemplazar- distintos aspectos del proceso legal. Otro ejemplo es China, que en su última ronda de reforma judicial, el Tribunal Popular Supremo de China (SPC) ha promovido un sistema de ‘sentencias similares para casos similares’, que vehicula a través de la IA.

Markou sostiene que, si bien hay razones para creer que la inteligencia artificial puede ayudar en casos relativamente poco sofisticados, la pregunta crítica es en qué otros contextos legales se debe permitir que los jueces algorítmicos tomen decisiones. ¿Qué hay de los asuntos penales o de los tribunales de salud mental? “Se debe trazar una línea en algún lugar, con una comprensión basada no solo en la ciencia de la IA, sino en los principios en que se enmarca su uso. La Ley no es perfecta, pero la meta debe ser mejorarla a través de una mejor educación y financiación adecuada, no asumiendo acríticamente que la tecnología la perfeccionará por nosotros”, afirma.

Capacidades limitadas

Por otra parte, el experto sostiene que las capacidades técnicas actuales de la IA no se pueden replicar las complejas consideraciones morales, las inferencias deductivas y el equilibrio de las razones en las que se involucra un juez humano. “Por más impresionantes que sean los avances tecnológicos recientes, están lejos de replicar la inteligencia humana, la capacidad moral, la lógica inductiva y deductiva y el razonamiento por analogía involucrado en el razonamiento jurídico. Por no hablar de la compasión y la simpatía necesarias para la justicia restaurativa”, explica Markou.

Coincide con ello la filósofa Lorena Jaume-Palasí, fundadora de Ethical Tech Society, cuyo trabajo se centra en evaluar los aspectos éticos de la automatización y la digitalización. “La IA no puede contextualizar. Por ello la interpretación de la ley, que es el trabajo de un juez y una tarea de contextualización, no lo puede desempeñar de forma automatizada un programa de software”, asegura. Tampoco cree que sea posible en un futuro cercano, y menos aún deseable. “Creo que esa es uno de las tareas dentro del trabajo judicial que jamás debería automatizarse”, afirma.

Jaume-Palasí ve otros aspectos problemáticos, como la semántica utilizada. “Un software no tiene la capacidad de sustituir a un juez, simplemente puede asistirles o ejecutar tareas que no provocan perjuicio, son sistemáticas y no precisan contexto” afirma. Apunta también que estos sistemas pueden ayudar a detectar inconsistencias en las decisiones de un juez, ya que “factores externos como el tiempo, haber comido o no o la hora del día influyen en la toma de decisiones”.

La experta insiste, no obstante, en que la parte esencial de lo que constituye ser juez (ponderar la ley, buscar factores agravantes o desagravantes, comprobar si el veredicto contradice las intuiciones éticas de la sociedad, etc.) no puede ser automatizado. El empeño en hacerlo es lo que le parece más preocupante: ¿se trata de hacer la justicia más eficiente y justa o de crear máquinas capaces de sustituir al ser humano por el mero hecho de que es posible hacerlo? Markou opina lo mismo: “Que tengamos tecnologías capaces de automatizar la justicia no significa que debamos hacerlo, como muestra la decisión de usar bombas atómicas en la Segunda Guerra Mundial. Debemos primero cuestionar los las consecuencias de su uso, atendiendo a los principios de prudencia y previsión”, afirma.

En este sentido, los valores de eficiencia y velocidad asociados a la tecnología no son los prioritarios para el sistema legal. Sí lo es la justicia -dice Markou- si bien es ideal que esta sea rápida. Como escriben el filósofo Evan Selinger y el periodista Clive Thompson en El engaño de la eficiencia, esta no siempre es un valor neutral. Ponerla por encima de otros valores puede ser un error, un lapso en el juicio ético, político, personal o profesional. Algunas interacciones humanas o cívicas prosperan cuando son deliberadas y se erosionan cuando se aceleran.

Por otra parte, si la mujer del emperador no solo debe serlo sino parecerlo, la justicia no solo debe hacerse, sino también debe considerarse que se hace. “¿Cómo vemos que se haga justicia si los algoritmos responsables de llevarla a cabo siguen siendo opacos e inmunes a un escrutinio significativo? Así es como la justicia muere en la oscuridad de la ‘caja negra’ algorítmica”, asegura Markou.

De hecho, la idea de una suficiente transparencia, imparcialidad y equidad que permita hacer que los métodos de procesamiento de datos sean accesibles y comprensibles, y que admita auditorías externas, es uno de los cinco principios que contiene la ‘Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno’, adoptada por la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) a finales de 2018. La seguridad es otro de esos principios, dadas las posibilidades de que las máquinas sean pirateadas.

Función antropológica

Otro aspecto a tener en cuenta a la hora de usar algoritmos para la toma de decisiones judiciales es lo que el erudito francés Alain Supiot llama ‘la función antropológica de la ley’: proteger a los individuos y a la sociedad de los efectos potencialmente deshumanizadores de la ciencia y la tecnología. Markou apunta que, al reemplazar a los jueces humanos con IA, “la tecnología se convierte en protector y en aquello de lo cual debe protegernos”. La justicia, como dice Jaume-Palasí, pierde así su humanidad, su capacidad de empatía y de contextualización, “que es lo que la hace justa”.

En contraposición con estos factores, se prioriza la computación como una forma superior y racional de toma de decisiones sobre la base de que los números no mienten, dice Markou. Supiot lo llama “gobernar por números": una manera de limitar el pensamiento acumulando métricas sobre métricas. Lo explica el biólogo de sistemas Yarden Katz, afiliado a la Escuela Médica y al Centro para Internet y la sociedad Berkman Klein de la Universidad de Harvard. En su ensayo Fabricando la revolución de la inteligencia artificial habla sobre la falsa impresión de que los sistemas actuales han superado las capacidades humanas hasta el punto de pensar que las máquinas pueden manejar mejor muchas áreas de la vida.

Estas afirmaciones -dice el investigador- se basan en una visión limitada y radicalmente empírica de la inteligencia humana. Como explica Markou, la ley implica algo más que reglas y resultados deterministas: es una institución social que está sujeta a factores políticos, económicos y socioculturales que influyen en las concepciones prevalecientes de lo que es justo o injusto. Muchos conceptos legales se construyen socialmente y no tienen significados singulares. Los casos rara vez tienen respuestas correctas o incorrectas que se puedan resolver con un código binario de ceros y unos.

Markou reconoce que la toma de decisiones humanas tiene muchos sesgos y deficiencias, pero la solución -dice- no debe ser eliminarnos del proceso de toma de decisiones, sino tratar de mejorar su naturaleza y calidad. Tampoco niega que la Ley sufrirá transformaciones sustanciales: “No hay ninguna razón para excluir categóricamente a la tecnología como elemento en su mejora. Sin embargo, los gobiernos y el público deben ser críticos y escépticos acerca de la naturaleza, el grado y el ritmo de esta transformación. Tener mecanismos robustos, efectivos y deliberativos para ayudar a guiar el desarrollo de la tecnología y democratizarla en beneficio de todos”, concluye el investigador.

COMPAS, caso polémico.

Una herramienta de análisis de riesgo criminal basada en IA que aprende de todas las sentencias realizadas anteriormente. Es COMPAS, sistema cuya implantación fue polémica en EEUU y que -en opinión de Markou- es la evidencia más clara de un sistema de apoyo judicial que no funciona ni resuelve nada que no haya problematizado en primer lugar, dado que el sesgo racial es matemáticamente inevitable. “Es lo que sucede cuando el solucionismo tecnológico asume el control y los psicólogos construyen un sistema de evaluación de riesgos sin tener la experiencia necesaria en estadísticas ni la humildad para admitir lo que puede y no puede predecirse adecuadamente”, afirma.