cerebro ondas

cerebro ondas

Tecnología

La IA puede hacer que personas mudas vuelvan a hablar

La inteligencia artificial ha conseguido un nuevo hito: ha conseguido convertir la actividad cerebral de una persona en habla.

4 enero, 2019 17:43

Noticias relacionadas

Nos toca decir por enésima vez que la inteligencia artificial está haciendo cada vez más milagros en la tecnología. Lo que antes se consideraba ciencia ficción hoy es el futuro, y la IA está consiguiendo cosas cada vez más impresionantes. Y la medicina se está nutriendo ampliamente de este campo, consiguiendo por ejemplo que las personas discapacitadas del habla puedan volver a hablar.

Y ya no hablamos de personas mudas; hablamos de que una IA ha conseguido convertir la actividad cerebral en una conversación. Un nuevo hito que abre la posibilidad de que dicha IA se use para hacer la vida de ciertas personas mucho más fácil.

El cerebro habla aunque tú no lo sepas

Cerebro electrodos

Cerebro electrodos

Aunque nosotros no hablemos, nuestro cerebro emite señales constantemente. La actividad cerebral continúa por mucho que algunos de nuestros sentidos no funcionen y nuestra mente es capaz de generar pulsos para no sólo controlar el cuerpo, sino para hacer funcionar al mismo cerebro. Hasta ahora estas señales no han sido capaces de ser descifradas, pero tres equipos de investigadores han hecho importantes avances.

El proceso consiste en colocar una serie de electrodos en el cerebro funcionando de tal forma que un ordenador con IA convierta esas señales en una conversación. Usando modelos computacionales conocidos como redes neuronales, reconstruyeron palabras y oraciones que, en algunos casos, eran inteligibles para los oyentes humanos.

Hasta ahora, según los artículos artículos que se han ido publicando en últimos meses en el servidor de preimpresión bioRxiv ninguno de los intentos de los últimos meses había dado la conversación que las personas a las cuáles se les había sometido a pruebas habían imaginado. En cambio, los investigadores monitorearon partes del cerebro a medida que las personas leían en voz alta, hablaban en silencio o escuchaban grabaciones.

cerebro_depresion

cerebro_depresion

Un método parecido que se ha estado usando hasta ahora era el uso de los ojos para mover un cursor sobre una pantalla y que un dispositivo hablara por ti, como el que usaba Stephen Hawking. Aquí la interfaz no es entre un dispositivo y la vista, sino una entre un ordenador y un cerebro, por lo que se puede tener control sobre el tono y la inflexión, por ejemplo, o la habilidad para intervenir en una conversación en movimiento rápido.

Según Nima Mesgarani, científica informática de la Universidad de Columbia: “Estamos tratando de resolver el patrón de […] neuronas que se activan y desactivan en diferentes momentos, e infieren el sonido del habla. El mapeo de uno a otro no es muy sencillo”. La forma en que estas señales se traducen en sonidos del habla varía según la persona, por lo que los modelos del ordenador deben estar “entrenados” en cada sujeto. Y a los modelos les va mejor con datos extremadamente precisos, lo que requiere abrir el cráneo.

Por motivos más que obvios, esta grabación tan invasiva no se puede hacer a cualquier persona. Se requiere que el cerebro esté activo y que se abra el cráneo, dejando una herida y sobre todo anestesiando a la persona (además de raparle el pelo). Los investigadores han llevado a cabo dichas grabaciones en operaciones de extracción de tumores cerebrales, cuando las lecturas eléctricas del cerebro expuesto ayudan a los cirujanos a ubicar y evitar las áreas clave del habla y motrices.

Otra situación en la que los investigadores han podido trabajar ha sido cuando a una persona con epilepsia se le implantaban electrodos durante varios días para identificar el origen de las convulsiones antes del tratamiento quirúrgico. En todo este proceso tienen, como máximo, 30 minutos. Las limitaciones son claras.

La IA se encargó del resto

mujer robot inteligencia artificial

mujer robot inteligencia artificial

Estos datos recogidos se introdujeron en redes neuronales de aprendizaje automático. Estas redes procesan patrones complejos al pasar información a través de capas de “nodos” computacionales. Las redes aprenden ajustando las conexiones entre nodos. En los experimentos, las redes fueron expuestas a grabaciones del habla que una persona realizó o escuchó y a datos sobre la actividad cerebral de forma simultánea.

La red del equipo que entrenaron se centró en 5 pacientes con epilepsia. La red analizó las grabaciones de la corteza auditiva (que está activa durante el habla y la escucha) a medida que los pacientes escuchaban grabaciones de historias y personas que nombraban dígitos de cero a nueve. El ordenador luego reconstruyó los números hablados a partir de datos neuronales. Cuando la computadora reprodujo los números, un grupo de oyentes los nombró con un 75 por ciento de precisión.

Otro equipo, esta vez situado en la Universidad de Maastricht en los Países Bajos, se basó en los datos de 6 personas que se sometieron a una cirugía para extraer un tumor cerebral. Un micrófono capturó sus voces mientras leían en voz alta las palabras de una sílaba. Mientras tanto, los electrodos registraban información desde las áreas de planificación del habla del cerebro y las áreas motoras, que enviaban comandos al tracto vocal para articular palabras. La red asignó lecturas de electrodos a las grabaciones de audio y luego reconstruyó palabras a partir de datos cerebrales que no se habían visto previamente. De acuerdo con un sistema de puntuación computarizado, alrededor del 40 por ciento de las palabras generadas por computadora eran comprensibles.

inteligencia artificial

inteligencia artificial

Por último, el equipo de la Universidad de California en San Francisco reconstruyó oraciones completas de la actividad cerebral captada en las áreas motora y del habla, mientras tres pacientes con epilepsia leían en voz alta. En una prueba en línea, 166 personas escucharon una de las oraciones y tuvieron que seleccionarla de entre 10 opciones escritas. Algunas frases fueron identificadas correctamente más del 80 por ciento del tiempo. Los investigadores también impulsaron el modelo y lo utilizaron para recrear oraciones a partir de datos registrados mientras la gente pronunciaba palabras en silencio.

Según los mismos investigadores, decodificar la totalidad del discurso que las mentes imaginan es el mayor paso ya que a día de hoy no existe una tecnología específica para realizar ese proceso. Ese es el paso más difícil pero que se hayan dado pasos hacia adelante en estas cuestiones es muy importante en el paso conjunto entre la IA y la medicina.