Redacción/CDMX
La música es una parte fundamental para los seres humanos, pero, los científicos no han podido identificar qué es lo que sucede en nuestro cerebro cuando la escuchamos y cómo es que esta podría servir para avances tecnológicos.
Ludvic Bellier, el autor principal de un nuevo estudio busca comprobar si la reconstrucción de la música en el cerebro puede ayudar a personas que debido a accidentes u otras cuestiones perdieron la capacidad del habla.
Y aunque ya se han elaborado neuroprótesis que apoyan a personas paraliticas a escribir textos o deletrear oraciones solo con sus pensamientos, este estudio busca ir más allá.
El ritmo e intención, también llamado prosodia es uno de los elementos importantes que nos diferencian de los robots.
Es por lo que el equipo se centró en la música para crear un modelo decodificador que pueda reconstruir sonidos más prosódicos.
En 2012, 29 personas con epilepsia resistentes a los medicamentos participaron en un estudio donde se les tomó registro de su actividad cerebral, usando electrodos dentro de sus cerebros mientras escuchaban una canción de Pink Floyd titulada Another Brick in the Wall parte 1.
En ese momento, Robert Knight, profesor de la Universidad de California en Berkeley, formaba parte del primer equipo en reconstruir las palabras de una persona con solo analizar su actividad cerebral.
Ahora, es quien dirige el estudio junto a Bellier sobre la percepción musical.
Este estudio volvió a analizar las grabaciones y con ayuda de inteligencia artificial crearon un modelo que logró decodificar la actividad cerebral registrada en la corteza auditiva, para después reconstruirlo en forma de onda de sonido con la que se pretendía reproducir la música que la persona había escuchado.
Los resultados dejaron impresionados a Bellier quien explica que en el audio se pueden reconocer el ritmo y la melodía, además, que incluso algunas palabras pueden distinguirse.
Con esto se permitió ubicar nuevas áreas del cerebro involucradas en la detección del ritmo.
El más importante parece ser la circunvolución temporal superior derecha, ubicada justo arriba de la oreja.
Otro descubrimiento fue el sesgo que tiene la música al lado derecho a comparación del lenguaje que se ubica en el izquierdo.
Ambos autores, tienen la esperanza de que este proyecto pueda brindar una mejora tecnológica para el interfaz cerebro-computadora.
Knight explica que uno de los beneficios de esto es que se daría la capacidad de decodificar no solo el contenido lingüístico sino el prosódico del habla.
Pero, como lo declaran aún no se ha llegado ahí, Bellier comenta que las técnicas no invasivas no son suficientemente precisas actualmente, pero espera que en un futuro exista la posibilidad de con electrodos fuera del cráneo se pueda leer la actividad de regiones más profundas del cerebro.
«Hemos reconstruido la canción clásica de Pink Floyd, Another Brick in the Wall a partir de grabaciones corticales humanas directas, lo que nos permite comprender mejor las bases neuronales de la percepción musical y las futuras aplicaciones de descodificación cerebral», afirma Bellier.
Hasta ahora, existen tecnologías para decodifcar palabras en personas que no pueden hablar, pero suenan de forma robótica, pero con este avance podría allanar el camino hacia dispositivos que mejoren la percepción del ritmo y la melodía en el habla.
(Con información de IFLSCIENCE y Deutsche Welle)