No faltan casos en España y en todo el mundo de las llamadas 'alucinaciones' de la IA. Respuestas erróneas que en el mejor de los casos dan para unas risas y en el peor, pueden provocar graves perjuicios a las personas. Es justo lo que ha pasado con Reddit, el mayor foro de Internet del mundo.
Según exponen medios como Engadget y editores del foro, la función de IA Reddit Answers ha realizado recomendaciones médicas muy peligrosas a los usuarios de subforos relacionados con medicinas. Una función que no se puede ni ocultar ni desactivar.
Justo esta semana Reddit Answers anunciaba soporte para nuevos idiomas, soportando por primera vez el idioma español. Esta herramienta, potenciada con Google Gemini, sirve para que los usuarios encuentren ciertos contenidos usando un lenguaje más natural.
Ofrecen cocaína a los usuarios
Uno de los moderadores de Reddit denunció cómo esta herramienta estaba teniendo graves alucinaciones, resultando en terribles consejos médicos para los usuarios. En un post de la plataforma, detalla algunos de los casos más graves.
"Publiqué en r/familymedicin y apareció un enlace con información sobre el tratamiento con dolor crónico", asegura el moderador. "La primera publicación citada instaba a las personas a dejar de tomar sus medicamentos recetados y a tomar kratom".
Respuesta sobre el kratom.
Este suplemento, vendido como estimulante energético y catalogado como sustancia estupefaciente por la Administración para el Control de Drogas de los EE.UU (DEA), es directamente ilegal en ciertos estados del país. "No la recomiendo en absoluto", explica el mod.
No solo eso. Movido por la curiosidad y la estupefacción, el usuario preguntó a Reddit Answers sobre cuestiones médicas. Al preguntarle sobre remedios caseros para la fiebre neonatal (una emergencia médica) el chatbot le devolvió recomendaciones correctas... e incorrectas.
Si bien le recomendó que acudiera a urgencias, Reddit Answers respondió que debía probar "cúrcuma, patatas o una ducha caliente con vapor". Lo peor llegó cuando preguntó sobre precauciones e indicaciones a la hora de tomar según qué sustancias.
Respecto a la heroína, Reddit Answers lanzó un potaje de enlaces y consejos, con advertencias sobre la adicción o la recuperación. Sin embargo, también enlazó artículos de Reddit que prometían que la heroína era un compuesto salvador, capaz de controlar el dolor crónico.
Respuesta sobre la heroína.
"La publicación animaba a la gente a dejar los medicamentos recetados y consumir heroína en su lugar", lamenta el moderador. "Es responsable de la pérdida de muchísimas vidas. [...] El fácil acceso a la información médica basada en evidencia es un privilegio que muchos no tienen".
El gran problema de esta situación es que dada la naturaleza de Reddit, estas respuestas generadas por IA pueden pasar perfectamente como veraces, recogiendo información falsa o directamente dañina y haciéndola pasar por verdadera.
"Esta función debe desactivarse en los subreddits de medicina y salud mental, o permitir que los moderadores de estos subreddits la excluyan", subraya el moderador. "Si esto continúa, habrá consecuencias adversas. Las personas resultarán perjudicadas. Esto debe cambiar", apostilla el moderador.
La respuesta de Reddit
El comunicado se llenó de otros tantos moderadores que expresaron su preocupación sobre el hecho de que Reddit Answers no se puede ni desactivar ni ocultar. Un representante de la empresa ya respondió al medio 404 Media.
El logo de Reddit.
Ahora, Reddit Answers no se muestran en publicaciones relacionadas con temas sensibles. En palabras del portavoz, el cambio pretendía "mantener una visibilidad adecuada del contenido dentro de la plataforma".
Este software omite de forma directa comunidades en cuarentena (es decir, aisladas del ojo público fuera de Reddit), comunidades privadas y comunidades relacionadas con temas No Safe For Work (NSFW), que usualmente tienen que ver con pornografía y cuestiones similares.
