La Agenda 2030 para el Desarrollo Sostenible plantea un marco global para avanzar hacia sociedades pacíficas, justas e inclusivas. En ese marco, el ODS 16 se centra en garantizar el acceso a una justicia eficaz, imparcial y transparente para todos, y en fortalecer las instituciones sólidas y responsables a todos los niveles.
Instituciones que, como no puede ser de otra manera, incluyen a la justicia. Porque si no es accesible, efectiva e inclusiva, los esfuerzos por erradicar la pobreza, garantizar la educación o proteger el medio ambiente se ven gravemente comprometidos.
En este contexto, los rápidos avances de la Inteligencia Artificial (IA) representan oportunidades, pero también desafíos críticos. La IA generativa ha comenzado a formar parte de la práctica jurídica como herramienta de apoyo en labores como la búsqueda de jurisprudencia o la redacción de escritos.
Sin embargo, tanto abogados como jueces han detectado casos en los que estas herramientas producen citas de sentencias inexistentes o doctrinas inventadas que luego se incorporan a documentos judiciales o decisiones. Son las conocidas "alucinaciones" de la IA, es decir, la generación de contenidos falsos con apariencia verosímil.
Esto debe hacernos cuestionar aspectos directos vinculados al cumplimiento del ODS 16 ¿puede una justicia que utiliza IA sin los controles adecuados garantizar decisiones fiables y proteger los derechos de las personas?
Porque estos errores ponen en riesgo la veracidad de los procesos, la igualdad de acceso a la justicia y la confianza pública en las instituciones judiciales, pilares de este objetivo. Si una decisión se basa en fundamentos falsos generados por algoritmos, se compromete la calidad del proceso y se amplían las brechas de seguridad jurídica para litigantes incapaces de detectar estos errores por sí mismos.
En este contexto, la responsabilidad humana debe ser una salvaguarda de las instituciones sólidas. Un elemento crucial es que la responsabilidad última recae en las personas: abogados, jueces y operadores jurídicos. Son quienes firman escritos, dictan resoluciones y asumen la responsabilidad profesional. El error no está en la IA, que sólo es una herramienta, sino en la falta de verificación humana de lo que ésta genera. La supervisión humana es clave.
La justicia eficaz e inclusiva del ODS 16 exige que la tecnología se implemente con supervisión humana rigurosa, marcos de responsabilidad claros y formación continua, asegurando que los avances tecnológicos refuercen en lugar de debilitar los derechos y la confianza ciudadana en las instituciones.
Sólo así podemos ser coherentes con una lectura que ve la innovación tecnológica como un medio para fortalecerla, no mermarla. La IA debería amplificar la capacidad de las instituciones para servir a la ciudadanía, no comprometer sus fundamentos básicos de legalidad, transparencia y equidad.
La justicia no es solo un procedimiento. Es una garantía que se rompe cuando la verdad se sustituye por una probabilidad estadística bien redactada. Por eso, el debate no va de prohibir la IA. Va de algo más incómodo: asumir que usarla exige más conocimiento, no menos. Competencia profesional. Más diligencia, no atajos. Más ética profesional, no delegación ciega.
El ODS 16 no exige tribunales más rápidos a cualquier precio. Exige tribunales más justos. Instituciones sólidas. Decisiones fiables. Y eso solo es posible si la tecnología se integra con reglas claras, supervisión humana y formación específica.
Porque cuando una persona ve vulnerados sus derechos por una decisión errónea, poco importa si el fallo lo cometió un humano o una máquina. El daño es real y la desconfianza también.
No nos equivoquemos. La IA puede (y debe) ser una gran aliada para la justicia. Puede mejorar el acceso, reducir cargas, ayudar a analizar información compleja. Pero nunca puede sustituir al criterio profesional ni convertirse en una fuente de autoridad autónoma.
La Agenda 2030 es clara. El ODS 16 habla de paz, justicia e instituciones sólidas. Habla de acceso y de confianza ciudadana. De decisiones imparciales y responsables. Nada de eso es compatible con resoluciones construidas sobre datos falsos, aunque los haya generado un algoritmo.
Personas en el centro, el lema que guía la Agenda 2030 debe guiar también la introducción de la IA en la justicia. Solo así se garantizará una justicia sólida, íntegra y transparente.
***Concepción Campos Acuña es experta en IA y gestión pública y presidenta de Mujeres en el Sector Público.