La reciente resolución de la Sala de lo Penal del Tribunal Superior de Justicia (TSJ) de Canarias de 10 de febrero de 2026 que sanciona a un letrado por presentar un recurso de apelación plagado de jurisprudencia inventada por una Inteligencia Artificial (IA) nos sitúa frente a un espejo incómodo: el problema nunca fue la máquina, sino la abdicación del criterio humano y su sentido de la responsabilidad.

De las 52 citas jurisprudenciales aportadas en el recurso, 48 eran falsas. No eran errores materiales o erratas en la fecha. Eran "alucinaciones" puras. La IA generó textos coherentes, con un tono jurídico impecable, atribuyendo al Tribunal Supremo doctrinas sobre agresiones sexuales y psicología del trauma que, en realidad, pertenecían a sentencias sobre tráfico de drogas, terrorismo o, simplemente producto de la ficción.

El abogado, en un ejercicio de honestidad brutal durante el expediente sancionador, admitió haber confiado ciegamente en una herramienta de IA generativa de pago. Su error no fue usar la tecnología —que el propio Tribunal reconoce como un complemento valioso—, sino omitir la diligencia debida.

El letrado operó bajo la premisa de que la abundancia de citas infundiría una autoridad que su propio razonamiento no alcanzaba a sostener. Olvidó que, en Derecho, una cita sin verificación no es un argumento, es un fraude procesal.

El fondo de la cuestión no es tecnológico. Si el abogado hubiera copiado esas citas de un pasquín encontrado en la calle, la sanción habría sido la misma. El TSJ de Canarias es meridiano al respecto: la IA es una herramienta asistencial, nunca decisoria.

El Tribunal señala tres negligencias clave que definen el nuevo marco de responsabilidad:

El error de elección: El uso de herramientas generalistas frente a soluciones diseñadas específicamente para el ámbito jurídico, que ofrecen trazabilidad y fuentes reales.

La ausencia de supervisión humana: El principio de "human-in-the-loop". Incorporar resultados de una IA sin contrastarlos con bases de datos oficiales (como el CENDOJ) es una quiebra del deber ético.

La vulneración de la buena fe: Presentar realidades inexistentes ante un tribunal no es solo un descuido, es una falta de respeto a la función jurisdiccional que obliga a los magistrados a perder un tiempo precioso persiguiendo fantasmas bibliográficos.

Llama la atención el cálculo de la multa: 420 euros. El Tribunal llega a esta cifra de forma casi poética: es la mitad de lo que cuesta una suscripción anual a una herramienta de IA jurídica profesional. Es un mensaje directo al bolsillo y a la conciencia: "Si hubiera invertido en herramientas adecuadas y en su propia formación, no estaría hoy aquí".

Sin embargo, la verdadera sanción no es económica. La resolución acuerda dar traslado al Colegio de Abogados para depurar responsabilidades disciplinarias y, sobre todo, confirma que los nombres de los abogados en las sentencias son públicos. El daño reputacional —el "escarnio en los chats de WhatsApp" que el propio letrado lamentaba— es el castigo real en una profesión que vive de la confianza.

Estamos en 2026 y la IA ya no es una novedad, es el entorno. La lección de este auto es clara: la tecnología puede redactar, puede resumir y puede buscar, pero si permitimos que el algoritmo sustituya al juicio crítico, no solo ponemos en riesgo el éxito de un pleito, sino que dinamitamos los cimientos del Estado de Derecho.

La IA puede ayudarnos a ser más eficientes, pero nunca debe hacernos menos responsables. Al final del día, frente al juez, solo hay un responsable: el humano que decidió pulsar "enviar" sin leer lo que había escrito.