Un equipo de investigadores de la Universidad de California en Berkeley y San Francisco ha logrado un hito en la comunicación asistida mediante neuroprótesis. Gracias a un innovador dispositivo que traduce la actividad cerebral en palabras habladas casi en tiempo real, una mujer de 47 años con tetraplejia ha vuelto a «hablar» después de 18 años sin poder hacerlo.
Este avance, publicado en la revista Nature Neuroscience, soluciona un problema clave en las neuroprótesis del habla: la latencia entre el intento de comunicación y la producción del sonido. Con la ayuda de inteligencia artificial (IA), los científicos han desarrollado un método de transmisión que permite sintetizar las señales cerebrales en voz audible de manera casi instantánea.
«Nuestro planteamiento de streaming lleva la misma capacidad de decodificación rápida del habla de dispositivos como Alexa y Siri a las neuroprótesis», explica Gopala Anumanchipalli, co-investigador principal del estudio. «Por primera vez, hemos logrado una transmisión de voz casi sincrónica, resultando en una síntesis del habla más natural y fluida».
Inteligencia artificial aplicada a la comunicación
El equipo de investigadores implantó una interfaz cerebro-computadora en la paciente como parte de un ensayo clínico. Para entrenar el algoritmo, la mujer miraba una indicación en la pantalla y trataba de pronunciar en silencio la frase mostrada. Durante este proceso, los electrodos implantados en su corteza sensomotora del habla registraban la actividad cerebral, permitiendo a una red neuronal de aprendizaje profundo descodificar su intención vocal.
«Interceptamos las señales en las que el pensamiento se traduce en articulación», explica Cheol Jun Cho, otro de los firmantes del estudio. «Lo que estamos descodificando ocurre después de que la persona haya decidido qué decir y cómo mover los músculos del tracto vocal».
Uno de los avances clave fue la reducción de la latencia de decodificación, que en estudios previos tardaba hasta 8 segundos en producir una frase completa. Con este nuevo método, la salida audible se genera en tiempo real, permitiendo una comunicación mucho más fluida.
Para verificar la efectividad del sistema, los investigadores probaron su capacidad para sintetizar palabras fuera del vocabulario de entrenamiento. «Nuestro modelo lo hace bien, lo que demuestra que realmente está aprendiendo los componentes básicos del sonido o la voz», concluye Anumanchipalli.
Un impacto prometedor en la calidad de vida
Este innovador dispositivo abre nuevas posibilidades para personas con parálisis severas que afectan el habla. «Es emocionante ver cómo los últimos avances en IA están acelerando enormemente las interfaces cerebro-ordenador para su uso práctico en el mundo real», señala Edward Chang, otro de los investigadores principales.
Este hito representa un paso significativo hacia una comunicación más natural para personas con discapacidades motoras severas, brindando esperanza para mejorar su independencia y calidad de vida en el futuro.