Logo de Reddit.

Logo de Reddit. Reuters

Software

La herramienta de IA de Reddit provoca el caos: recomienda a los usuarios del foro consumir heroína para el dolor

El software que usa inteligencia artificial para generar respuestas del foro está causando dolores de cabeza a los moderadores.

Más información: Un psiquiatra advierte sobre el preocupante riesgo de sufrir psicosis por culpa de la IA: "Todos somos vulnerables"

Publicada

No faltan casos en España y en todo el mundo de las llamadas 'alucinaciones' de la IA. Respuestas erróneas que en el mejor de los casos dan para unas risas y en el peor, pueden provocar graves perjuicios a las personas. Es justo lo que ha pasado con Reddit, el mayor foro de Internet del mundo.

Según exponen medios como Engadget y editores del foro, la función de IA Reddit Answers ha realizado recomendaciones médicas muy peligrosas a los usuarios de subforos relacionados con medicinas. Una función que no se puede ni ocultar ni desactivar.

Justo esta semana Reddit Answers anunciaba soporte para nuevos idiomas, soportando por primera vez el idioma español. Esta herramienta, potenciada con Google Gemini, sirve para que los usuarios encuentren ciertos contenidos usando un lenguaje más natural.

Ofrecen cocaína a los usuarios

Uno de los moderadores de Reddit denunció cómo esta herramienta estaba teniendo graves alucinaciones, resultando en terribles consejos médicos para los usuarios. En un post de la plataforma, detalla algunos de los casos más graves.

"Publiqué en r/familymedicin y apareció un enlace con información sobre el tratamiento con dolor crónico", asegura el moderador. "La primera publicación citada instaba a las personas a dejar de tomar sus medicamentos recetados y a tomar kratom".

Respuesta sobre el kratom.

Respuesta sobre el kratom. Reddit Reddit

Este suplemento, vendido como estimulante energético y catalogado como sustancia estupefaciente por la Administración para el Control de Drogas de los EE.UU (DEA), es directamente ilegal en ciertos estados del país. "No la recomiendo en absoluto", explica el mod.

No solo eso. Movido por la curiosidad y la estupefacción, el usuario preguntó a Reddit Answers sobre cuestiones médicas. Al preguntarle sobre remedios caseros para la fiebre neonatal (una emergencia médica) el chatbot le devolvió recomendaciones correctas... e incorrectas.

Si bien le recomendó que acudiera a urgencias, Reddit Answers respondió que debía probar "cúrcuma, patatas o una ducha caliente con vapor". Lo peor llegó cuando preguntó sobre precauciones e indicaciones a la hora de tomar según qué sustancias.

Respecto a la heroína, Reddit Answers lanzó un potaje de enlaces y consejos, con advertencias sobre la adicción o la recuperación. Sin embargo, también enlazó artículos de Reddit que prometían que la heroína era un compuesto salvador, capaz de controlar el dolor crónico.

Respuesta sobre la heroína.

Respuesta sobre la heroína. Reddit Reddit

"La publicación animaba a la gente a dejar los medicamentos recetados y consumir heroína en su lugar", lamenta el moderador. "Es responsable de la pérdida de muchísimas vidas. [...] El fácil acceso a la información médica basada en evidencia es un privilegio que muchos no tienen".

El gran problema de esta situación es que dada la naturaleza de Reddit, estas respuestas generadas por IA pueden pasar perfectamente como veraces, recogiendo información falsa o directamente dañina y haciéndola pasar por verdadera.

"Esta función debe desactivarse en los subreddits de medicina y salud mental, o permitir que los moderadores de estos subreddits la excluyan", subraya el moderador. "Si esto continúa, habrá consecuencias adversas. Las personas resultarán perjudicadas. Esto debe cambiar", apostilla el moderador.

La respuesta de Reddit

El comunicado se llenó de otros tantos moderadores que expresaron su preocupación sobre el hecho de que Reddit Answers no se puede ni desactivar ni ocultar. Un representante de la empresa ya respondió al medio 404 Media.

El logo de Reddit.

El logo de Reddit. N.C. Omicrono

Ahora, Reddit Answers no se muestran en publicaciones relacionadas con temas sensibles. En palabras del portavoz, el cambio pretendía "mantener una visibilidad adecuada del contenido dentro de la plataforma".

Este software omite de forma directa comunidades en cuarentena (es decir, aisladas del ojo público fuera de Reddit), comunidades privadas y comunidades relacionadas con temas No Safe For Work (NSFW), que usualmente tienen que ver con pornografía y cuestiones similares.