Desde el cerebro: Las señales que se convierten en palabras
ESPECIALISTAS ANALIZAN ESTE MÉTODO QUE ABRE ENORMES POSIBILIDADES

Desde el cerebro: Las señales que se convierten en palabras

Qué es la ‘neuroprótesis del habla’, que posibilita comunicarse mediante oraciones a quienes están paralizados

Miles de personas pierden la capacidad de hablar a causa de derrames cerebrales, accidentes o dolencias. Una tecnología en desarrollo les permitiría volver a comunicarse mediante palabras, aprovechando los mecanismos cerebrales del habla natural, según una investigación de la Universidad de California San Francisco (UCSF), en Estados Unidos.

Esta nueva tecnología consiguió devolver la capacidad de comunicarse mediante palabras a un paciente afectado por una parálisis severa. La ‘neuroprótesis del habla’ se probó en un paciente con parálisis dentro de un ensayo de investigación clínica y se basa en más de una década de esfuerzos del neurocirujano Edward Chang, catedrático de Neurocirugía en la UCSF y autor principal del estudio en esta universidad.

“Esta es la primera demostración exitosa de decodificación directa de palabras completas a partir de la actividad cerebral de alguien paralizado y sin habla”, según Chang.

Otros centros de investigación están trabajando en el desarrollo de neuroprótesis destinadas a devolver la capacidad de comunicarse a las personas que no pueden hablar, pero estos trabajos se han centrado en la ortografía y en el deletreo de las palabras y utilizan las señales cerebrales de los movimientos del brazo o la mano implicados en la escritura, según la UCSF.

Esos enfoques basados en el deletreo de palabras y en los que se utilizan la mecanografía, la escritura y el control de un cursor, son considerablemente más lentos y laboriosos, añaden.

La investigación de Chang adoptó un enfoque diferente, al centrarse en traducir las señales cerebrales destinadas a controlar los músculos del sistema o tracto vocal (partes del cuerpo involucradas en articular las palabras) que permiten a una persona articular y usar palabras para darse a entender.

TRADUCIR LAS SEÑALES EN LENGUAJE
“Nuestro enfoque aprovecha los aspectos naturales y fluidos del habla y promete dar lugar a una comunicación más rápida y orgánica”, asegura Chang.

“Con el habla, normalmente comunicamos información a un ritmo de hasta 150 o 200 palabras por minuto. Ir directo a las palabras, como lo estamos haciendo en nuestra investigación, está más cerca del modo en que hablamos normalmente”, señala.

Durante los últimos diez años Chang trabajó con pacientes sometidos a neurocirugía y científicos de distintas especialidades, para registrar la actividad cerebral relacionada con el habla y los patrones de dicha actividad asociados con los movimientos del tracto vocal que producen cada consonante y cada vocal, según la UCSF.

Este investigador desarrolló modelos informáticos para decodificar esos patrones y traducirlos al instante en palabras completas que pudieran visualizarse, pero todas investigaciones las efectuó con personas que tenían un habla normal, por lo que se necesitaba averiguar si esta tecnología funciona en una persona cuyo tracto vocal estuviera paralizado.

“La mejor manera de averiguarlo era intentarlo”, explica David Moses, ingeniero postdoctoral en el laboratorio de Chang y coautor de la investigación.

Chang y el profesor de neurología Karunesh Ganguly probaron esta tecnología dentro del estudio ‘BRAVO’ (siglas en inglés de Interfaz Cerebro-Ordenador para restaurar el brazo y la voz) en un hombre de unos 30 años que sufrió un derrame cerebral que dañó la conexión entre su cerebro y su tracto vocal y también las extremidades.

El participante BRAVO1 y el equipo de Chang trabajaron juntos para crear un vocabulario de 50 palabras que el sistema puede reconocer a partir de la actividad cerebral del paciente utilizando algoritmos informáticos, y con las que se pueden crear cientos de oraciones con conceptos aplicables a la vida de BRAVO1.



LAS PRIMERAS CINCUENTA PALABRAS
Se implantó quirúrgicamente sobre la corteza cerebral motora del habla de BRAVO1 una matriz de electrodos conectada a un sistema que opera con algoritmos informáticos, programas de inteligencia artificial (IA) y una función de ‘autocorrección’.

Después, se registró durante meses la actividad neuronal del paciente, mientras intentaba decir cada una de las 50 palabras del vocabulario, y los electrodos registraban las señales cerebrales correspondientes en su corteza del habla.

Cuando el participante intentaba decir las 50 palabras, un sistema de IA denominado redes neuronales, distinguía en la actividad neuronal registrada los sutiles patrones de señales cerebrales que indicaban sus intentos de hablar e identificaba qué palabras estaba tratando de pronunciar, según la UCSF.

Para probar su enfoque, el equipo primero presentó a BRAVO1 oraciones cortas construidas a partir del vocabulario y le pidió que intentara decirlas varias veces. Mientras hacía esos intentos, el sistema decodificó las palabras a partir de su actividad cerebral, una por una, mostrándola en una pantalla.

Luego, el equipo le hizo preguntas del tipo: “¿Cómo estás hoy?” o “¿querés un poco de agua?”, ante las cuales los intentos de responder de BRAVO1 hicieron que en la pantalla aparecieran las frases “Estoy muy bien” y “No, no tengo sed”.

Este sistema puede decodificar palabras a partir de la actividad cerebral a una velocidad de hasta 18 palabras por minuto, con una precisión de hasta el 93 por ciento, con un media del 75 por ciento de precisión, según los investigadores.

“Hemos demostrado que es posible facilitar la comunicación de esta manera y que esta tecnología tiene potencial para usarse en entornos de conversación”, enfatizan Chang y Moses.

Sus siguientes pasos serán ampliar el ensayo para incluir a más participantes afectados por parálisis severa y déficits de comunicación, y perfeccionar el sistema aumentando la cantidad de palabras del vocabulario, así como mejorar la velocidad a la que los intentos de habla son traducidos a texto en la pantalla.

COMENTARIOS