Salud

Del MK-Ultra al chip de Elon Musk: el peligro de que la tecnología comience a leerte la mente

El auge de las interfaces cerebro-ordenador hace plantear que futuros usos puedan vulnerar la privacidad, la intimidad y la dignidad de las personas.

5 febrero, 2024 02:12

El pasado martes, el multimillonario sudafricano Elon Musk anunciaba lo que podría ser el principio de una nueva era: el primer chip de su empresa Neuralink implantado en un ser humano.

Ciertamente, no es el primer chip que se implanta en una persona para leer su pensamiento y permitirle actuar con dispositivos externos. Pero el músculo financiero detrás de Musk está muy por encima del de universidades y spin-offs que ya están realizando ensayos clínicos en esta dirección.

Además, el objetivo declarado de Neuralink no es solo poner la tecnología cerebro-ordenador al servicio de personas con patologías incapacitantes sino fomentar una mejora de las capacidades humanas, en un paso al frente hacia el transhumanismo.

[Los neurólogos desmontan el chip cerebral de Elon Musk: "Crea expectación con su amarillismo"]

El auge de las interfaces cerebro-máquina, conocidas como BCI por sus siglas en inglés, ha puesto de moda el concepto de neuroderechos, una extensión de los derechos humanos aplicada a los avances —y sus consiguientes riesgos— científico-tecnológicos del siglo XXI.

El neologismo es más antiguo de lo que parece. Implícita o explícitamente se lleva hablando de los neuroderechos décadas, pero es en los últimos años, al tiempo que se creaban grandes conglomerados científicos para cartografiar el cerebro humano —los proyectos BRAIN y Human Brain Project—, cuando el debate sobre los neuroderechos ha adquirido más urgencia.

En 2017, el neurobiólogo español Rafael Yuste, ideólogo del proyecto BRAIN estadunidense (puesto en marcha durante el mandato de Barack Obama) explicaba en Nature la necesidad de atender al debate ético que generaban las neurotecnologías de cara a su extensión desde el ámbito científico y clínico al de la electrónica de consumo.

[Rafael Yuste, el Nuevo 'Ramón y Cajal': "En 20 Años Se Podrá Manipular el Cerebro y Cambiar Tu 'Yo'"]

A medida que se aceleran los avances en este campo han surgido numerosas declaraciones, posicionamientos y consensos al respecto, que resumen estos neuroderechos en cinco: la preservación de la identidad personal, la no interferencia en la libertad de decisión, la privacidad de los datos neuronales, la equidad en el acceso al mejoramiento de la capacidad cerebral y la protección frente a los sesgos de los algoritmos.

"Lo que nos preocupa a día de hoy no son los chips de Elon Musk, sino que se puede reconstruir el lenguaje, la visión, etc. de una forma más definida, de mayor calidad y puede haber un salto de la tecnología clínica a la aplicación comercial", explica David Ezpeleta, neurólogo del Hospital Quirónsalud Madrid y vicepresidente de la Sociedad Española de Neurología (SEN).

"Cada vez hay más dispositivos comerciales que se utilizan para mantener la atención, mejorar el aprendizaje, controlar videojuegos o incluso tu relación en la realidad virtual, que se pueden adquirir en macrotiendas tipo Amazon y que tienen unos términos de usuario larguísimos a la que la gente da sí y sin mirar. Ahí otorgas tus neurodatos a la empresa y, si los quieres, tendrás que pagar por ellos".

Chile, pionera en neuroderechos

No se trata de algo hipotético. El exsenador chileno Guido Girardi compró en 2022 un casco inalámbrico de la compañía Emotiv que lo conectaba con una BCI, con el que podía medir su rendimiento para optimizar la productividad.

La versión gratuita del software no le permitía importar ni exportar su actividad neurológica: Girardi debía obtener una licencia premium. El exsenador solicitó entonces su eliminación, pero esos datos ya no eran suyos. La justicia acabó dándole la razón: el usuario debe conocer para qué deben ser usados sus datos y dar un consentimiento explícito.

No es casualidad que Girardi, junto a Rafael Yuste, habían sido poco antes los impulsores de introducir en la Constitución chilena una reforma para proteger los neuroderechos. El país andino sería el primero en mover ficha pero ya son un puñado los que siguen sus pasos.

["Alerta: armas psicotrónicas secretas atacan nuestras mentes y las controlan"]

"Su protección es ya una realidad en algunos países, fundamentalmente latinoamericanos", explica Ekain Payán Ellacuria, profesor adjunto de Derecho Administrativo de la Universidad del País Vasco, "donde han sido aprobados textos legales ad hoc o están en vías de hacerlo próximamente". México, Brasil y el estado de Colorado, en EEUU, están en ello.

En Europa, España ha secundado la iniciativa chilena, "pero no lo hizo a través de una reforma de su texto constitucional sino por medio de una Carta de Derechos Digitales, y, por tanto, declarativa u orientativa y no vinculante".

El uso de tecnologías para leer o controlar la mente se remonta más atrás, recuerda David Ezpeleta. A finales de los años 60, el médico español afincado en EEUU José Manuel Rodríguez publicaba El control físico de la mente: hacia una sociedad psicocivilizada, un libro donde daba cuenta de sus experimentos con animales para influir, de manera remota, en su comportamiento.

El más famoso de ellos es el del aparato Estimociver, un aparato que conectó al cerebro de un toro, concretamente a la amígdala y el hipocampo y, mediante un control remoto, provocó que intentara embestirle con ira e, inmediatamente, lo frenara en seco.

Se cuenta que Rodríguez estuvo vinculado a la CIA, que ya estaba desarrollando planes de control mental a distancia por su cuenta. El más famoso de ellos se llama MK Ultra y es una de las historias favoritas de los amantes de las teorías de la conspiración.

[La tecnología china que preocupa a EEUU: así han logrado hacer realidad la telepatía y la telequinesis]

Entre los años 50 y principios de los 70, de forma encubierta, los operarios de la CIA experimentaron con drogas, hipnosis o terapia electroconvulsiva con el objetivo de implantar condicionamientos, inducir amnesias y doblegar la voluntad de los participantes, que no habían prestado su consentimiento. No lo hubieran hecho de otra forma: la mayor parte de la actividad de este programa se encuadra en la tortura.

"De alguna manera, toda la vida se ha estado atentando contra los neuroderechos", apunta Ezpeleta. "Los totalitarismos, estalinismos, nazismos y muchos estados parlamentarios han usado y usan técnicas de información y desinformación que afectan a la capacidad de decidir de las personas".

Es ahora cuando los investigadores, principalmente neurólogos y neurobiólogos pero también psicólogos, filósofos, juristas, etc. están observando avances cruciales en la lectura e interpretación de los datos cerebrales.

La llegada de Neuralink y su chip supone un paso adelante en las intenciones, y también en los riesgos, de las neurotecnologías. "Su finalidad última apunta a ser la plena conectividad de un cerebro humano", apunta Ekain Payán, "con el ordenador, actividad neuronal que puede ser objeto de acceso, lectura, monitorización y manipulación sin mayor dificultad por parte de la empresa que suministra este servicio".

"No es en absoluto ilusorio que se comercie con estos datos", advierte el jurista, "al igual que ha sucedido con los almacenados en otro tipo de soportes físicos o digitales, con fines estrictamente económicos hacia lo que se ha calificado como 'neurocapitalismo'".

Tecnopostureo

Esta necesidad se ha vuelto más urgente con la irrupción de las inteligencias artificiales generales o generativas, como ChatGPT, que aprenden a un ritmo vertiginoso a descodificar la señal cerebral y la traducen a una velocidad mayor aún y con una naturalidad pasmosa.

"Estos avances todavía no tienen una aplicación clínica directa, pero el problema es que sabemos que se puede hacer, dada la velocidad que está tomando todo, y es algo que va a generalizarse más pronto que tarde", apunta el neurólogo.

Sin embargo, desconfía del "tecnopostureo" mostrado por emprendedores y expertos, como los firmantes de la carta abierta (entre ellos, el propio Elon Musk) donde se pedía una moratoria de seis meses en el desarrollo de la inteligencia artificial y la asemejaban al peligro para la destrucción de la humanidad que supuso el desarrollo de la bomba atómica.

"Esa carta no la cumplió nadie, era un tecnopostureo ruin. Los modelos de lenguaje han seguido avanzando de manera aceleradísima". Ezpeleta y otros plantean para las empresas un símil al juramento hipocrático de los médicos: "Un juramento tecnocrático de las empresas que se avengan a respetar al máximo los neuroderechos, respetar las guías clínicas y manejar los datos cerebrales con suficiente seguridad para que solo fueran accesibles para el único propósito que pretende. ¡Es algo mucho más complejos que simplemente decir ojo, que viene la tecnología!"

[Elon Musk va a por PayPal: X (Twitter) incorporará un nuevo servicio de pago entre usuarios este año]

Santiago Mediano, presidente de Santiago Mediano Abogados y de la sección de robótica, IA y realidad virtual y aumentada del Colegio de Abogados de Madrid, sostiene que la finalidad de esa moratoria "no fue explicada con claridad, y no estoy seguro de que una moratria en los BCI redujera los riesgos a que nos enfrentamos".

El abogado señala que estas tecnologías, al igual que la inteligencia artificial, la robótica o la edición genética, "están llevando a la humanidad a cruzar un umbral que le va a permitir tomar en sus propias manos la evolución de la especie".

Los retos que plantea su uso "son de tal envergadura y afectan de forma tan profunda a toda la humanidad, tanto presente como futura, que resulta imprescindible un debate global y transversal, en el que intervengan no solo los políticos, sino que sea un debate antropológico, filosófico, ético, médico, biológico, económico, social, cultural y jurídico".

"Solo así podremos", continúa, "evitar que decisiones que nos afectan a todos, incluidas las generaciones futuras, no queden en manos de unos pocos cuyos intereses y objetivos permanezcan ocultos".