Volver a hablar. Cada vez está más cerca la ‘pastilla’ que sería capaz de devolver la capacidad de comunicación natural a los pacientes que sufren las secuelas de trastornos neurológicos. Personas que sufren el deterioro de la esclerosis lateral amiotrófica o ictus, entre otros accidentes cerebrovasculares; en definitiva, una parálisis cerebral que impide el envío de las órdenes de este órgano a los responsables de la ejecución del habla, como los músculos de labios, lengua, laringe y mandíbula.
Dos artículos paralelos en Nature de dos mujeres con patologías diferentes, ELA y las secuelas de un derrame cerebral, ponen en relieve avances clave en la recuperación de la comunicación a través de dos sistemas diferentes con un mismo objetivo: restaurar la función del habla gracias a un sistema que traduzca las señales cerebrales que los músculos no pueden ejecutar.
«La tecnología y el matrimonio que habrá entre fisiología humana y la tecnología va a aumentar»
«La tecnología y el matrimonio que habrá entre fisiología humana y la tecnología va a aumentar»
A través de ambos trabajos se valida con éxito una prueba de concepto, para la que aún queda mucho trabajo por delante hasta una disponibilidad más masiva. «Existe una necesidad urgente de ayudar a las personas con afecciones neurológicas que las privan de la necesidad humana universal de comunicarse«, explican Nick Ramsey y Nathan Crone, en un artículo adjunto al principal en Nature. «Los dos trabajos constituyen una prueba crucial del concepto de que la comunicación se puede restaurar utilizando BCI implantables, pero varias cuestiones requieren más investigación para permitir una mayor difusión.
¿Cómo funcionan los dos sistemas?
Pat Bennett tiene implantados cuatro sensores del tamaño de aspirinas para bebés. Los dispositivos transmiten señales desde un par de regiones relacionadas con el habla en el cerebro de Bennett a un software de última generación que decodifica su actividad cerebral y la convierte en texto que se muestra en la pantalla de una computadora. «Estos resultados iniciales han validado el concepto y, eventualmente, la tecnología se pondrá al día para hacerlo fácilmente accesible para las personas que no pueden hablar», explica Bennett, en una nota de prensa de la universidad. «Esto significa que podemos permanecer conectados con el mundo en general, tal vez continuar trabajando, mantener relaciones con familiares y amigos».
Esto ha sido posible gracias a las investigaciones del equipo de Francis Willett, de la Universidad de Stanford, quien ha desarrollado un BCI (o interfaces cerebro-computadora) que recopila la actividad neuronal de células individuales con una serie de finos electrodos insertados en el cerebro y entrenaron una red neuronal artificial para decodificar las vocalizaciones previstas. «Este sistema está entrenado para saber qué palabras deben ir antes que otras y qué fonemas forman qué palabras», explica Willett en el comunicado institucional. «Si algunos fonemas se interpretaron incorrectamente, aún se puede realizar una suposición óptima».
Con la ayuda del dispositivo, Bennett ha conseguido comunicarse a una velocidad media de 62 palabras por minuto, lo que es 3,4 veces más rápido que el récord anterior de un dispositivo similar y se acerca a la velocidad de una conversación natural, que son alrededor de 160 palabras por minuto. El sistema logró una tasa de error de palabras del 9,1% en un vocabulario de 50 palabras, lo que supone 2,7 veces menos errores que el anterior BCI de voz de última generación de 2021. Se logró una tasa de error de palabras del 23,8% en un vocabulario de 125.000 palabras.
Por otro lado, a poco más de 60 kilómetros, en la Universidad de San Francisco, el equipo de Edward F. Chang también ha puesto en marcha con éxito otra prueba de concepto de un BCI. En este caso, han empleado 253 electrodos no penetrantes que se colocan en la superficie del cerebro y detectan la actividad de muchas células en sitios de toda la corteza del habla. Este BCI decodifica señales cerebrales para generar tres salidas simultáneamente: texto, voz audible y un avatar parlante. «Nuestro objetivo es restaurar una forma de comunicación plena, que es realmente la forma más natural para nosotros de hablar con los demás», explica Chang a través de un comunicado. «Estos avances nos acercan mucho más a hacer de esta una solución real para los pacientes».
Los investigadores entrenaron un modelo de aprendizaje profundo para descifrar los datos neuronales recopilados de una paciente con parálisis severa, mientras intentaba pronunciar oraciones completas en silencio. La traducción de cerebro a texto generó una velocidad media de 78 palabras por minuto, que es 4,3 veces más rápida que el récord establecido con anterioridad y se aproxima aún más a la velocidad de la conversación natural. El sistema alcanzó una tasa de error de palabras del 4,9% al decodificar oraciones de un conjunto de 50 frases, lo que supone cinco veces menos errores que el anterior BCI de voz de última generación.
Otras cifras que consolidan de forma positiva el avance son: una tasa de error de palabras del 25% al decodificar oraciones en tiempo real con un vocabulario de más de 1000 palabras; las simulaciones fuera de línea mostraron una tasa de error de palabras del 28 % usando un vocabulario con más de 39.000 palabras.
Las señales cerebrales también se tradujeron directamente en sonidos del habla sintetizados inteligibles que los oyentes no capacitados podían entender, con una tasa de error de palabras del 28% para un conjunto de 529 frases, y se personalizaron según la voz del participante antes de la lesión.
Una de las ventajas del equipo de San Francisco frente al de Stanford es la expresividad alcanzada a través de un avatar. El sistema decodificó la actividad neuronal en los movimientos faciales durante el habla, así como en expresiones no verbales. Durante meses se demostró una decodificación estable y de alto rendimiento. En general, este BCI multimodal ofrece más posibilidades para que las personas con parálisis se comuniquen de una manera más naturalista y expresiva.
Un nuevo paso hacia la ‘restauración’ del habla
Estos trabajos son el fruto de otros avances anteriores de BCI capaces de decodificar la actividad cerebral en habla de manera más rápida, más precisa y que cubren un vocabulario más amplio que las tecnologías existentes.
En el caso del equipo de Chang, ya demostró previamente que era posible decodificar señales cerebrales en texto en un hombre que también había sufrido un derrame cerebral muchos años antes. Este paso clave vio la luz en The New England Journal of Medicine hace dos años. El estudio actual demuestra algo más ambicioso: decodificar las señales cerebrales en la riqueza del habla, junto con los movimientos que animan el rostro de una persona durante una conversación.
En 2021, también el equipo de investigadores de la Universidad de Standford publicaba un trabajo en Nature que demostraba que la posibilidad de decodificar el habla a partir de las actividades cerebrales de una persona con parálisis, pero sólo en forma de texto y con velocidad, precisión y vocabulario limitados.
Ramsey y Crone concluyen que las dos interfaces «representan un gran avance en la investigación neurocientífica y de neuroingeniería, y son muy prometedoras para aliviar el sufrimiento de las personas que han perdido la voz como resultado de lesiones neurológicas paralizantes y enfermedades». Además, señalan que se requiere más trabajo para que su uso sea masivo a muchos tipos de pacientes.