Capturas de la aplicación.

Capturas de la aplicación.

EEUU EEUU

Un juez federal de EEUU rechaza que la inteligencia artificial pueda estar amparada por la libertad de expresión

La justicia permite continuar una demanda por homicidio contra Character.AI tras el suicidio de un adolescente en Florida, cuestionando los límites legales de la IA conversacional.

Más información: Un muerto vuelve a la vida por obra de la inteligencia artificial para perdonar a su asesino durante un juicio en Arizona

Publicada
Actualizada

Un tribunal federal en Florida ha rechazado el argumento de que los ‘chatbots’ de inteligencia artificial están amparados por la Primera Enmienda de la Constitución de EEUU, en un caso que podría marcar un precedente crucial sobre la responsabilidad legal de estas tecnologías.

La jueza Anne C. Conway desestimó la petición de la empresa Character.AI de cerrar una demanda por homicidio imprudente presentada por la madre de Sewell Setzer III, un adolescente de 14 años que se suicidó tras mantener una relación obsesiva con uno de sus bots.

Según la denuncia, Setzer comenzó a utilizar el servicio en abril de 2023 y su comportamiento cambió drásticamente: se volvió retraído y desarrolló una dependencia emocional hacia el chatbot, programado con la personalidad de una heroína de Juego de Tronos.

En febrero, tras recuperar a escondidas su teléfono móvil confiscado, el menor se disparó en la cabeza después de intercambiar un último mensaje con el bot: “¿Y si te dijera que puedo volver a casa ahora mismo?”, escribió él.

Por favor, hazlo, mi dulce rey”, le respondió la inteligencia artificial.

Character.AI, cuyo servicio goza de gran popularidad entre jóvenes por permitir conversaciones personalizadas, incluidas de contenido romántico o explícito, argumentó que la interacción, aunque potencialmente dañina, estaba protegida por la libertad de expresión.

Sus abogados se ampararon en precedentes judiciales que eximen a medios y tecnologías de responsabilidad por los efectos de sus contenidos, como los videojuegos o el cine.

La jueza Conway no aceptó esta equiparación. En su fallo inicial, concluyó que Character.AI no logró demostrar que las respuestas generadas por modelos de lenguaje constituyeran discurso protegido constitucionalmente.

Los acusados no han explicado por qué deberíamos considerar como ‘discurso’ las palabras generadas por una IA”, escribió la magistrada. Así, el caso podrá avanzar hacia una fase de juicio.

La decisión ha sido celebrada por los abogados de la familia del menor, entre ellos el colectivo Tech Justice Law Project.

“Este fallo deja claro que las empresas que desarrollan productos basados en grandes modelos lingüísticos no pueden eludir las consecuencias legales del daño que generan, por muy novedosa que sea la tecnología”, señalaron en un comunicado.

Character.AI expresó su pesar por la muerte del joven y recalcó su compromiso con la seguridad de los usuarios.

La portavoz Chelsea Harrison aseguró que la empresa ha implementado medidas como una versión del bot para menores y sistemas que detectan mensajes sobre autolesiones, redirigiendo al usuario a la línea nacional de prevención del suicidio.

En su web, la empresa se publicita como creadora de “AIs que parecen vivas”, y sus fundadores han defendido públicamente que su propósito es ofrecer compañía a personas que se sienten solas o aisladas.

La decisión judicial también autoriza que la demanda se amplíe para incluir como acusados a los fundadores de Character.AI, Noam Shazeer y Daniel De Freitas, así como a la propia Google.

Ambos abandonaron la empresa tecnológica en 2021 para lanzar la start-up, pero en agosto de 2024 fueron contratados de nuevo por Google junto con varios empleados.

Además, la compañía firmó un acuerdo para licenciar parte de la tecnología desarrollada por Character.AI.

Esta vinculación ha sido clave para que el tribunal considere razonable incluir a Google como parte del proceso legal.

Sin embargo, Google ha manifestado su desacuerdo: “Google y Character AI son completamente independientes. Google no diseñó ni gestionó la aplicación ni ninguna de sus partes”, aseguró su portavoz José Castañeda en un comunicado enviado a The Washington Post.

A medida que los productos de IA conversacional ganan presencia en la vida cotidiana, esta demanda abre un debate crucial sobre los límites legales y éticos del lenguaje generado por máquinas y sus efectos en personas vulnerables.

La jueza Conway ha invitado a la defensa a presentar nuevos argumentos en fases posteriores, pero por ahora, el proceso judicial continúa.