Así 'suena' Pink Floyd en tus neuronas: recrean una canción a partir de la actividad cerebral

Antonio Martínez Ron

0

Imaginá entrar en tu cerebro y ver lo que pasa mientras escuchás una canción. Y lo que es más difícil: imaginá poder reconstruir la canción que estás escuchando solo a partir de la actividad de las neuronas. Esto es, de forma simplificada, lo que consiguió un equipo liderado por Robert T. Knight, de la Universidad de California, Berkeley, que publica sus resultados este martes en la revista PLOS Biology

Los autores del estudio analizaron la actividad neuronal de 29 pacientes mientras escuchaban un clásico del rock mediante una técnica conocida como electrocorticografía, con electrodos que se implantan directamente sobre la corteza cerebral, aprovechando una operación quirúrgica programada, generalmente para localizar y eliminar un foco de epilepsia. Para ello crearon un modelo de decodificación de la actividad cerebral registrada con 2.668 electrodos en total, de los que 347 recogían señal relacionada específicamente con la música.

“Pudimos reconstruir con éxito una canción a partir de la actividad neuronal registrada en la corteza auditiva”, explica el primer autor del artículo, Ludovic Bellier, a elDiario.es. “El hecho de que podamos hacerlo incluso en un solo paciente y con muy pocos datos (solo tres minutos) es muy prometedor para las aplicaciones de interfaz cerebro-ordenador y nos permitió confirmar que la percepción de la música se basa predominantemente en el hemisferio derecho y evidenciamos una nueva subregión sintonizada con el ritmo musical”.

Decodificar la música

Buena parte de los esfuerzos científicos se habían centrado hasta ahora en decodificar lo que pasa en el cerebro durante el habla, con el objeto de ayudar a comunicarse a personas que han perdido la movilidad. Pero diseñar un modelo predictivo para la música entrañaba una dificultad extra, ya que había que tener en cuenta otros elementos como el tono, la melodía, la armonía y el ritmo, además de monitorizar regiones diferentes de la red de procesamiento de sonido de la corteza auditiva.

Para realizar las pruebas, los autores eligieron el clásico de la banda Pink Floyd, la canción Another Brick in the Wall. Aunque Bellier y Wright son fans de este grupo musical, no fueron ellos los que escogieron el tema, sino el equipo del Albany Medical Center que recogió los datos. “Al fin y al cabo”, bromea Bellier, “a todo el mundo le gusta Pink Floyd”. En el estudio justifican el uso de este tema porque constituye un “estímulo auditivo complejo”, útil para disparar la respuesta neuronal distribuida, incluyendo la activación de regiones que codifican elementos de orden superior, como coros, armonía y ritmo.

Los electrodos utilizados en el estudio se situaban en tres regiones específicas del cerebro: la corteza sensoriomotora (CSM), el giro frontal inferior (GFI) y el giro temporal superior (GTS). De ellas, solo la última (GTS) era especialmente importante en la activación relacionada con el ritmo de la música, en concreto con el de la guitarra en la música rock. 

Con los datos de la actividad neuronal experimentada por los sujetos mientras escuchaban la canción, los autores aplicaron lo que se denomina ‘ablación’ virtual, que consiste en eliminar canales de registro, como si apagaran algunos electrodos para ver qué sucede, y poner a prueba la capacidad predictiva del modelo para ver con cuántos datos se reconstruye una señal más fiel al original. 

Para ello, también tradujeron la información de la actividad neuronal a espectrogramas y convirtieron estos en sonido. Este es el audio de referencia para la comparación, el que se obtiene al tomar la canción original, pasarla a audiograma y traducirla a sonido:

Your browser doesn’t support HTML5 audio

A partir de los datos originales, los investigadores hicieron varias reconstrucciones. Una de las que más se parecía al original fue una reconstrucción no lineal de la que obtuvieron un primer audio, con los datos de la señal leída por 347 electrodos en el cerebro de los 29 voluntarios. Sonaba así:

Your browser doesn’t support HTML5 audio

“La reconstrucción no lineal proporcionó una canción reconocible, con detalles más ricos en comparación con la reconstrucción lineal”, aseguran. “La calidad perceptiva de los elementos espectrales como el tono y el timbre mejoró especialmente, y la identidad de los fonemas fue perceptible”, añaden. “También hubo un sentido más fuerte de armonía y un surgimiento del patrón de guitarra rítmica”. El resultado, resumen, es que han podido reconstruir por primera vez una canción a partir de grabaciones neuronales humanas directas utilizando modelos no lineales. “En conjunto, estos resultados mejoran nuestra comprensión de la dinámica neuronal que subyace a la percepción de la música”, concluyen.

Apagar y encender canales

Según los investigadores, estos hallazgos podrían tener implicaciones para las interfaces cerebro-máquina, como los dispositivos protésicos que ayudan a mejorar la percepción de la prosodia, el ritmo y la melodía del habla. “Los resultados podrían contribuir al desarrollo de un decodificador auditivo general que incluya los elementos prosódicos del habla basándose en relativamente pocos electrodos bien ubicados”, escriben.

Para Liset M. de la Prida, investigadora del Instituto Cajal, del CSIC, cuyo grupo trabaja en el análisis de señal, es un estudio bien hecho por parte de un buen grupo de investigación. “Decodificar la información directamente de la actividad cerebral es un tema de relevancia para el desarrollo de interfaces cerebro-máquina”, asegura. A su juicio, el resultado no es del todo nuevo, ya que han habido otros intentos similares de extraer información directamente de la actividad cerebral, como imágenes o lenguaje, pero “son pasos importantes para avanzar en el desarrollo de interfaces inteligentes que ayuden a paliar los defectos neurológicos”. “Este tipo de resultados nos ayuda a entender mejor cómo el cerebro representa la información”, asegura la experta. Y es un reto reconstruir fragmentos musicales ya que no reflejan sonidos puros, sino combinaciones y matices más sutiles, recuerda.

Para Juan de los Reyes Aguilar, investigador del Grupo de Neurofisiología Experimental del Hospital Nacional de Parapléjicos de Toledo, tienen especial interés el uso de la “ablación virtual” en el diseño del modelo, que podría tener aplicaciones en otros campos como el de la lesión medular, que él estudia. “El apagado selectivo de diferentes electrodos simulando diferentes niveles de daño neuronal es como producir pequeños ictus o lesiones localizadas”, asegura. En el caso concreto de la audición, podría permitir en un futuro abordar la creación de una prótesis para un paciente que, mediante el proceso de decodificación y codificación, recupere las funciones dañadas. “En un escenario ideal, se podría usar la estimulación para activar neuronas en regiones corticales específicas con patrones de frecuencias concretos que permitan 'rellenar' o reproducir la función dañada”. 

Adivinar solo si ya sabes

Un aspecto importante a destacar, subraya De la Prida, es que este tipo de predicciones es posible hacerlas porque ya sabes la información a decodificar desde la actividad eléctrica cerebral. En este caso la canción de Pink Floyd. “Es lo que se conoce como la verdad fundamental, o ground truth del inglés”, asegura. “Sabiendo lo que debés predecir, podés entrenar los algoritmos a reconocer los códigos en la actividad cerebral y luego aplicarlos a registros nuevos en otros sujetos, haciendo modelos predictivos más generales”.

“Para saber si con esta técnica de registro y análisis se podría leer qué música está escuchando alguien tendrían que hacer otro experimento más”, añade el neurocientífico Xurxo Mariño. “Tendrían que ponerle al paciente un fragmento de una canción desconocida para los científicos (sin que la escuchen antes) y que estos reconstruyeran algo de esa canción, pero en la actualidad no lo creo posible”. En su opinión, el trabajo es una muestra muy impactante de que las hipótesis que tenemos sobre las primeras etapas del procesamiento sensorial están bien encaminadas, pero cree que también muestra que estamos aún muy lejos del sueño de “leer” el pensamiento.

¿Hacia un “spotify mental”?

La pregunta que invita a hacerse este resultado es obvia: ¿facilitará el conocimiento de cómo se activa la música en el cerebro la posibilidad de desarrollar un sistema de estimulación que nos permita escuchar música mediante estimulación neuronal? “Es una pregunta fascinante que toca muchos temas, desde las tecnologías de estimulación cerebral hasta la conciencia”, responde Bellier. “Diría que sí, pero antes de llegar a este punto tendríamos que hacer muchos progresos tanto en la comprensión del código neuronal de la música como en la obtención de habilidades de estimulación muy granulares, pero posiblemente generalizadas . En otras palabras, saber qué patrón entregar y poder para entregarlo con precisión”.

“Hay que tener en cuenta que no es lo mismo ‘leer’ la actividad cerebral (decodificar) que ‘escribir’ (codificar)”, observa Liset M. de la Prida. “El problema de insertar información en el cerebro sin degradar la existente no está resuelto”. Por no hablar, como señala Xurxo Mariño, de que los detalles de una canción se representan siempre de forma distinta de un cerebro a otro. “Si conoces con detalle el mapa sensorial auditivo de una persona, sí que podría ser posible generar una canción en su mente, pero esa activación neuronal no valdría al 100% para otra persona”, comenta.

Por otro lado, indica De la Prida, teniendo oídos no tiene mucho sentido producir un sonido por estimulación, salvo que se haga para paliar una sordera.  “Se trataría de estimular el cerebro para que personas con daño neuronal cortical parcial en el sistema auditivo pudieran volver a escuchar al restaurar la pérdida parcial”, afirma Juan de los Reyes. Y ya no estaríamos hablando de crear una aplicación para escuchar música mediante estimulación, sino de algo más importante: restaurar la audición en personas que la han perdido por un daño cerebral.