Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Dos pacientes sin habla consiguen comunicarse gracias a implantes cerebrales y a la inteligencia artificial

Pat Bennett, durante una sesión de pruebas de la investigación

Antonio Martínez Ron

0

Pat Bennett es una mujer de 68 años que fue diagnosticada de esclerosis lateral amiotrófica (ELA) hace más de una década. En su caso, la enfermedad neurodegenerativa no afectó a la movilidad de su cuerpo, pero paralizó progresivamente su lengua, su laringe y los músculos que le permiten hablar. Por eso cuando intenta comunicarse solo es capaz de emitir una especie de gruñidos, que conservan la cadencia y ritmo del lenguaje hablado pero que el interlocutor no puede descifrar. 

Ahora, un año después de que un equipo de investigadores instalara una interfaz cerebro-ordenador en su corteza cerebral, Pat se pone delante de una pantalla de ordenador y lee lo que pone en voz alta. El observador externo solo escucha una serie de sonidos ininteligibles, pero la máquina traduce la señal de sus neuronas, la combina con los sonidos y devuelve su frase con nitidez: “Tengo sed”, dice.

El caso de Bennett se presenta este miércoles en la revista Nature como prueba de concepto de la tecnología desarrollada por el equipo de Francis R. Willett, de la Universidad de Stanford. El nuevo dispositivo recopila la actividad neuronal de células individuales con una serie de electrodos insertados en el cerebro y utiliza una red neuronal artificial entrenada para decodificar las vocalizaciones. 

62 palabras por minuto

Gracias a este sistema, la mujer pudo comunicarse a una velocidad promedio de 62 palabras por minuto, que es 3,4 veces más rápido que el récord anterior de un dispositivo similar y, recalcan los autores, se acerca a la velocidad de una conversación natural (alrededor de 160 palabras por minuto). “Estos resultados muestran un camino factible para restaurar la comunicación rápida de las personas con parálisis que ya no pueden hablar”, escriben.

Imaginad cómo de diferente será realizar actividades cotidianas cuando las personas que no pueden hablar puedan comunicar sus pensamientos en tiempo real

Pat Bennet Paciente de ELA

“Estos resultados iniciales son una prueba de concepto y con el tiempo la tecnología se actualizará para que sea fácilmente accesible para las personas que no pueden hablar”, explica la propia Bennett en una entrevista realizada por correo electrónico por la Universidad de Stanford. “Para aquellos que no hablan, esto significa que pueden mantenerse conectados con el mundo más grande, tal vez continuar trabajando, mantener amigos y relaciones familiares”.

“Hemos demostrado que podemos decodificar el habla intencionada registrando la actividad de un área muy pequeña en la superficie del cerebro”, explica Jaimie Henderson, el neurocirujano que llevó a cabo el implante. Henderson tiene, además, una curiosa historia personal. “Estoy interesado en esto desde que tenía apenas cinco años, cuando mi padre tuvo un terrible accidente que le dejó sin capacidad de moverse o hablar”, explicó el martes en un encuentro previo con periodistas especializados. “Crecí deseando poder conocerle y comunicarme con él, y creo que esa experiencia temprana hizo que me interesara por entender cómo el cerebro genera el movimiento y el habla”.

Hace solo dos años, en 2021, Henderson participó en una primera aproximación al conseguir traducir a palabras las señales neuronales de una persona sin movilidad mientras imaginaba que escribía diferentes letras. Fue entonces cuando Pat Bennett conoció el trabajo de su grupo y se presentó como voluntaria para un ensayo clínico.

Veinticinco sesiones de cuatro horas

El hecho diferencial de la interfaz que presentan Willet y su equipo en este nuevo trabajo es que está asistida por un algoritmo de inteligencia artificial que aprende a distinguir la actividad cerebral distinta asociada con sus intentos de formular cada uno de los fonemas de las frases que pronuncia. Para ello hizo falta que Pat Bennett asistiera a 25 sesiones de entrenamiento, de cuatro horas de duración, en las que intentaba repetir las frases que aparecían en la pantalla (entre 260 y 480 en cada jornada). Mientras ella vocalizaba la frase como podía, el sistema registraba la señal cerebral y aprendía a distinguir los patrones de actividad asociados a cada fonema, con el objeto de mejorar el sistema de traducción automática. 

En la primera fase, cuando el sistema se restringía a un vocabulario de solo 50 palabras, la tasa de error del sistema era del 9,1%. Cuando el vocabulario se extendió a 125.000 palabras, aumentó hasta el 23,8%, un porcentaje mucho más alto, pero más que aceptable para alguien que no puede comunicarse. “Imaginad cómo de diferente será realizar actividades cotidianas como ir de compras, asistir a citas, pedir comida, ir a un banco, hablar por teléfono, expresar amor o aprecio, incluso discutir, cuando las personas que no pueden hablar puedan comunicar sus pensamientos en tiempo real”, escribe Bennett.

Traducir las emociones

En un segundo trabajo publicado este mismo miércoles en la revista Nature, Edward Chang y su equipo de la UC San Francisco han utilizado los electrodos implantados en la superficie del cerebro para registrar señal neuronal, la llamada electrocorticografía. En este caso, ya no monitorizan la actividad de neuronas individuales, sino que registran, con una manta de 253 electrodos, un área mucho más amplia de la corteza cerebral que incluye tanto regiones motoras como regiones somatosensoriales. Y las pruebas se hicieron con una paciente con parálisis severa, causada por un derrame cerebral, mientras intentaba decir oraciones completas en silencio.

Los resultados son igual de impresionantes en términos de velocidad, pero incorporan una novedad interesante: además de proporcionar texto y voz audible, las palabras que el sistema generaba a partir de la señal neuronal eran reproducidas por un avatar parlante que también reproduce los gestos y, potencialmente, las emociones.

“Todo es posible. Creo que sois maravillosos”, asegura el avatar de Ann, la voluntaria que ha recibido el neuroimplante, en una de las grabaciones. “La motivación detrás del avatar era ayudar al participante a sentirse encarnada, a ver una semejanza y luego controlar esa semejanza”, explica Kaylo Littlejohn, investigador de la Universidad de Berkeley. “Cuando el sujeto utilizó por primera vez este sistema para hablar y mover la cara del avatar al mismo tiempo, supe que esto iba a ser algo que tendría un impacto real”. “También pudimos personalizar la voz de la participante utilizando una grabación de vídeo de ella pronunciando un discurso en su boda hace unos 20 años”, añade Gopala Anumanchipalli, coautora del estudio.  

El hecho de incorporar las expresiones no verbales a través del avatar brinda más posibilidades para que las personas con parálisis se comuniquen de una manera más natural y expresiva, según los autores. “Quedarse sin habla es terrible, también por el aislamiento que produce”, asegura Chang. “Así que no nos hemos detenido en descodificar el habla, nuestra voz y expresiones son partes de lo que somos, queríamos corporeizar, desarrollar una voz personalizada para parecerse a la voz del propietario y también un avatar que puede usar expresiones faciales para manifestar su estado de ánimo”.

Pudimos personalizar la voz de la participante utilizando una grabación de vídeo de ella pronunciando un discurso en su boda hace unos 20 años

Gopala Anumanchipalli Coautora del estudio

Chang y su equipo están convencidos de que esta aproximación puede dar lugar a aplicaciones que sean muy útiles para las personas sin movilidad. “El mundo está cambiando y cada vez nos relacionamos más en escenarios virtuales”, insiste Chang. “Con esta tecnología, las personas con parálisis tendrán los medios para participar de manera más completa”.

Hablar con toda la cara

Para el neurocientífico y divulgador Xurxo Mariño, se trata de dos trabajos fascinantes desde el punto de vista técnico con los que se están revelando algunos aspectos neurofisiológicos interesantes. “Una conclusión, comparando los dos trabajos, es que se puede conseguir una decodificación de las palabras que tiene alguien en la cabeza a partir de grupos de neuronas bastante diversos”, señala. 

Una sorpresa del trabajo de Willett, a su juicio, es que observan que el área de Broca no parece contener información directamente relacionada con el control de las vocalizaciones, a pesar de lo que se cree desde hace más de cien años. En su lugar, los autores estimulan un área puramente motora, “la última estación” antes de enviar la información de movimiento a la cara, boca, lengua, etc. Es decir, señala, que las neuronas que controlan la producción del habla son multitarea y participan de forma simultánea en el movimiento de la frente, los párpados, la mandíbula, los labios, la lengua y la laringe. “Esto es muy interesante y enlaza perfectamente con el avatar del otro trabajo”, incide Mariño. “La comunicación mediante el habla no consiste en emitir fonemas, sino que estos se emiten en conjunción con un complejo conjunto de movimientos de la cara. Estos movimientos de la cara son esenciales tanto para el que lanza el mensaje como para quien trata de decodificarlo”. 

La comunicación mediante el habla no consiste en emitir fonemas, sino que estos se emiten en conjunción con un complejo conjunto de movimientos de la cara

Xurxo Mariño Neurofisiólogo

Luis Martínez Otero, neurocientífico e investigador del Instituto de Neurociencias de Alicante (CSIC-UMH), destaca que es la “primera vez que se utiliza, con relativo éxito, la decodificación del control motor del aparato bucofonador en la corteza premotora para predecir la producción de fonemas, palabras y frases”. Y coincide en señalar la sorpresa sobre el área de Broca y el hecho de que las neuronas que controlan las distintas partes del aparato bucofonador no se organicen en grupos segregados formando bandas, sino que estén entremezcladas localmente. “Esto último podría apuntar a la necesidad de coordinar de manera simultánea todos los elementos anatómicos implicados en la producción del lenguaje a nivel local en el cerebro”, asegura.

Una dosis de realidad

En un tercer artículo publicado también en la revista Nature, los especialistas en neurociencia Nick Ramsey y Nathan Crone elogian el “gran avance en la investigación neurocientífica y de neuroingeniería” que suponen estos dos nuevos trabajos, pero ponen un poco de realismo sobre sus aplicaciones prácticas. Aún quedan muchos aspectos que resolver antes de que se generalice su uso, advierten, como miniaturizar esa tecnología que ahora requiere de un extenso cableado y equipo altamente especializado, así como la degradación de los materiales o la necesidad de actualizar con frecuencia los algoritmos, debido a la propia plasticidad del cerebro.

Estará por ver también, advierten, si funciona en pacientes con cero movilidad, lo que se conoce como “síndrome del enclaustramiento” o si se producirán errores al registrar la señal cerebral. “En cualquier caso”, reconoce Chang, “necesitamos muchos más pacientes para entender cuáles son los límites y cómo de lejos podemos llegar”. En el caso de Henderson, obtener estos resultados ha sido en parte un hito personal. “Yo he cerrado el círculo”, asegura. “He pasado de desear comunicarme con mi padre de niño a ver cómo esto realmente funciona”.

Etiquetas
stats