Las ondas cerebrales revelan la música que se escucha: el sistema de IA utiliza modelos de EEG y escáneres cerebrales para identificar la pieza musical que se escucha.

Las ondas cerebrales revelan la música que se escucha: el sistema de IA utiliza modelos de EEG y escáneres cerebrales para identificar la pieza musical que se escucha.
Las ondas cerebrales revelan la música que se escucha: el sistema de IA utiliza modelos de EEG y escáneres cerebrales para identificar la pieza musical que se escucha.
---

Lectura mental musical: simplemente con la ayuda de escáneres cerebrales y datos de EEG, es posible decodificar la música que escucha una persona de prueba, como se muestra en un experimento. Una inteligencia artificial debidamente entrenada identificó la pieza musical correcta en función de las señales neuronales registradas de forma no invasiva con una tasa de éxito del 71,8 %. Los resultados podrían ser un primer paso en el camino hacia la lectura del habla no invasiva a partir de ondas cerebrales.

La música está profundamente arraigada en nuestra naturaleza. Cuando escuchamos sonidos familiares, nuestro cerebro los identifica en fracciones de segundo. Las mediciones de ondas cerebrales muestran que la música puede desencadenar un verdadero fuego artificial de señales, acompañado de emociones fuertes y piel de gallina. Varios equipos de investigación ya han investigado qué pueden revelar las ondas cerebrales al escuchar música, por ejemplo, sobre las emociones de los sujetos de prueba o sobre la música en sí.

Combinación de EEG y fMRI

Ian Daly de la Escuela de Ciencias de la Computación e Ingeniería Electrónica de la Universidad de Essex en Gran Bretaña acaba de demostrar que las ondas cerebrales pueden usarse para decir qué música está escuchando una persona. Por ejemplo, mientras que los estudios anteriores para leer el habla de la actividad cerebral a menudo usaban métodos invasivos como la electrocorticografía (EKoG), para la cual se colocan electrodos en el cráneo, Daly usó datos de mediciones de electroencefalografía (EEG) no invasivas.

Para aumentar la precisión de las predicciones, Daly combinó datos de EEG con mediciones de resonancia magnética funcional (fMRI), que muestran el flujo sanguíneo en el cerebro y, por lo tanto, brindan información sobre qué regiones del cerebro están particularmente activas durante la escucha de música en una persona determinada. El investigador usó esta información para seleccionar con precisión los datos de EEG para un análisis posterior que correspondiera a estas áreas.

Música reconstruida a partir de ondas cerebrales

Los datos provienen de un estudio anterior que originalmente se centró en las emociones de los oyentes de música. Los 18 sujetos incluidos en el análisis habían escuchado 36 piezas breves de música de piano mientras se registraba su actividad cerebral mediante fMRI y EEG. Luego, Daly entrenó un modelo de aprendizaje profundo para decodificar los patrones de EEG para poder reconstruir la pieza musical respectiva que el sujeto de prueba había escuchado durante la medición.

Sonograma de la pieza musical escuchada por el sujeto (arriba) y la versión reconstruida a partir de las ondas cerebrales. ©Daly et al. / Informes científicos, CC-by 4.0

De hecho, el modelo pudo reproducir parcialmente el tempo, el ritmo y la amplitud de la música. La similitud con las pistas de música originales fue lo suficientemente alta como para que el algoritmo pudiera predecir cuál de las 36 pistas de música había escuchado la persona con una tasa de éxito del 71,8 %.

Diferencias individuales

Para validar los resultados, Daly utilizó una muestra independiente de otros 19 sujetos que también habían escuchado las pistas musicales correspondientes. Dado que solo se disponía de datos de EEG y no de fMRI para estas personas, Daly usó la información de la primera muestra para determinar los datos de EEG relevantes.

“Incluso en ausencia de datos de fMRI específicos de la persona, pudimos identificar la música que estábamos escuchando solo a partir de los datos de EEG”, informa Daly. Sin embargo, señala que la ubicación de las respuestas cerebrales relevantes a la música difiere de una persona a otra. Como resultado, si el modelo no podía ajustarse con datos de IRMf específicos de la persona, era menos preciso y solo lograba una tasa de éxito del 59,2 %.

---

Objetivo a largo plazo: reconocer el habla

Daly ve su modelo como un primer paso hacia metas más grandes. “Este método tiene muchas aplicaciones potenciales”, dice. “Hemos demostrado que podemos decodificar música, lo que indica que algún día podremos decodificar el habla del cerebro”. Los experimentos han demostrado que esto ya es posible hasta cierto punto. Sin embargo, hasta ahora, esto solo ha funcionado con tecnologías invasivas como electrodos en el cerebro.

Para las personas con síndrome de enclaustramiento que no pueden comunicarse con otras personas debido a la parálisis, podría abrirles una puerta al mundo exterior. “Obviamente, todavía queda un largo camino por recorrer, pero con suerte algún día, si podemos descifrar el idioma, podemos usarlo para crear ayudas de comunicación”, dice Daly. (Informes científicos, 2023, doi: 10.1038/s41598-022-27361-x)

Fuente: Universidad de Essex

25 de enero de 2023

-Elena Bernardo

Etiquetas: ondas cerebrales revelar música escuchada sistema dIA usa de modelos EEG de escaneos cerebro para identificar canción música escuchado

Las ondas cerebrales revelan música escucha sistema utiliza modelos EEG escáneres cerebrales para identificar pieza musical escucha

 
For Latest Updates Follow us on Google News
 

---

NEXT Lo detuvieron por robar un teléfono a mano armada en El Callao