El investigador de la Universidad de Málaga Lorenzo J. Tardón, autor del artículo. Foto: Fundación Descubre

El investigador de la Universidad de Málaga Lorenzo J. Tardón, autor del artículo. Foto: Fundación Descubre

Ciencia

La inteligencia artificial podrá recomendarte música analizando tus ondas cerebrales

Investigadores de la Universidad de Málaga han conseguido clasificar las reacciones del cerebro ante distintos géneros musicales y según los gustos del oyente.

26 febrero, 2024 13:02

El método que usan actualmente las plataformas musicales para recomendar canciones a sus usuarios se basa en lo que estos han escuchado anteriormente, pero esto podría cambiar radicalmente en los próximos años. Un equipo de investigadores de la Universidad de Málaga (UMA) ha analizado cómo responde el cerebro al oír distintos géneros musicales y ha clasificado mediante inteligencia artificial las señales eléctricas que se producen en él, diferenciando si lo que se oye es melodía o voz y si gusta o no lo que se escucha.

“Los datos obtenidos permiten el desarrollo de aplicaciones que generen listas en función de los gustos o necesidades individuales de cada persona”, señala en un comunicado la Fundación Descubre, institución privada sin ánimo de lucro impulsada por la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía para la divulgación de la innovación y el conocimiento.

El estudio de estos expertos, publicado en la revista Neural Computing and Applications, supone un avance en la clasificación de las respuestas cerebrales ante diversos géneros musicales y a sonidos de naturaleza diferente: el habla y la música.

“Sabiendo cómo reacciona el cerebro según el estilo que se está escuchando y los gustos del oyente, se puede llegar a afinar más la selección que se propone al usuario”, indica a la Fundación Descubre el investigador de la Universidad de Málaga Lorenzo J. Tardón, autor del artículo.

Para ello han definido un esquema de caracterización de la actividad cerebral basado en las relaciones entre las señales eléctricas, adquiridas en diferentes localizaciones por medio de electroencefalografía, y su clasificación mediante el uso de dos tipos de pruebas: binaria y multiclase. “La primera de ellas utiliza tareas con algoritmos sencillos, donde se diferencian voz hablada y música. La segunda, más compleja, analiza las respuestas cerebrales al escuchar canciones de diferentes géneros musicales: balada, clásica, metal y reguetón. Además, incluye el gusto musical de los sujetos”, añade el investigador.

Las redes neuronales son herramientas de inteligencia artificial para procesar datos de una manera similar al funcionamiento del cerebro humano. Los resultados de este trabajo se obtuvieron mediante la red neuronal conocida como LSTM bidireccional, que aprende relaciones entre los datos, que se pueden interpretar como memoria a largo y corto plazo, informa la Fundación Descubre.

En los ensayos, los voluntarios estaban provistos de unos gorros con electrodos que captan la señal eléctrica del cerebro. Al mismo tiempo, se conectan unos altavoces donde se oirá la música. Se establecen marcas de sincronización para comprobar lo que ocurre en cada momento durante la media hora que duró el experimento.

En la primera prueba, los participantes escucharon de forma aleatoria 20 fragmentos, de 30 segundos de duración, de canciones de diferentes géneros musicales extraídos del estribillo o de la parte más pegadiza. Después de escucharlos, se les preguntó si les gustó, con tres posibles respuestas: ‘me gusta’, ‘me gusta un poco’ o ‘no me gusta la canción’. También si la conocían previamente, pudiendo contestar ‘conozco la canción’, ‘la canción me suena familiar’ o ‘no conozco la canción’.

En la segunda, oyeron 30 frases de manera aleatoria en diferentes idiomas: español, inglés, alemán, italiano y coreano. El objeto de esta segunda prueba es identificar la activación del cerebro en el caso de escuchar voz, independientemente del conocimiento de la lengua utilizada.

Precisamente, los investigadores continúan sus estudios para evaluar otro tipo de sonidos y tareas y la reducción del número de canales del electroencefalograma, lo que permitiría una mayor usabilidad del modelo para otras aplicaciones y entornos.