La IA que lee la mente: un avance revolucionario para ayudar a personas con afasia

Científicos de la Universidad de Texas han desarrollado una inteligencia artificial capaz de traducir pensamientos en texto sin necesidad de comprensión verbal. Este avance podría transformar la comunicación de personas con afasia.

Por Enrique Coperías

Concepto futurista de una interfaz cerebro-computadora que transforma pensamientos en lenguaje hablado para las personas con afasia.

Las personas con afasia, un trastorno neurológico que afecta a cerca de un millón de personas solo en Estados Unidos, se enfrentan dificultades para transformar sus pensamientos en palabras y comprender el lenguaje hablado.

La afasia está causada principalmente por daños en las áreas del cerebro responsables del lenguaje; los accidentes cerebrovasculares o ictus son la causa más común de este trastorno del lenguaje que hace que se dificulte leer, escribir y expresar lo que se quiere decir. Otras razones incluyen traumatismos craneoencefálicos, tumores cerebrales, infecciones neurológicas y enfermedades neurodegenerativas, como el alzhéimer. En algunos casos, la afasia también puede desarrollarse por trastornos progresivos que afectan la función cognitiva y el procesamiento del lenguaje.

Ahora, un par de investigadores de la Universidad de Texas en Austin, en Estados Unidos, han desarrollado una innovadora herramienta basada en inteligencia artificial (IA) capaz de traducir los pensamientos en texto continuo, sin necesidad de que la persona entienda palabras habladas.

Una revolución para las personas con afasia

Además, el proceso de entrenamiento de esta herramienta, ajustado a los patrones de actividad cerebral individuales, dura apenas una hora. Este avance se basa en un trabajo previo del equipo que había creado un descodificador cerebral, aunque en aquel entonces requería muchas horas de entrenamiento en la actividad cerebral de una persona mientras escuchaba relatos en audio.

Este nuevo desarrollo sugiere que, con mejoras adicionales, las interfaces cerebro-ordenador podrían revolucionar la comunicación de las personas con afasia, como es el caso del actor Bruce Willis y Sharon Stone.

«Ser capaz de acceder a representaciones semánticas a través del lenguaje y la visión abre nuevas puertas en la neurotecnología, especialmente para quienes tienen dificultades para producir y comprender el lenguaje —explica Jerry Tang, investigador postdoctoral en la Universidad de Texas, en el laboratorio de Alex Huth, profesor de Informática y Neurociencia y autor principal del artículo. Y añade—: Esto nos permite diseñar interfaces cerebro-ordenador basadas en el lenguaje sin requerir comprensión lingüística previa».

Actividad cerebral de dos personas viendo la misma película muda. El equipo de la UT Austin desarrolló un algoritmo conversor que transforma la actividad cerebral de una persona (izquierda) en la actividad cerebral prevista de la otra (derecha).

Actividad cerebral de dos personas viendo la misma película muda. El equipo de la UT Austin desarrolló un algoritmo conversor que transforma la actividad cerebral de una persona (izquierda) en la actividad cerebral prevista de la otra (derecha), lo que supone un paso crucial para adaptar su descodificador cerebral a un nuevo sujeto. Cortesía: Jerry Tang/University of Texas at Austin.

Acortar el tiempo e entrenamiento

En un estudio anterior, el equipo entrenó un sistema con un modelo transformador similar a los utilizados en ChatGPT, para traducir la actividad cerebral en texto continuo. El descodificador semántico generado podía producir texto tanto si la persona escuchaba una historia, como si pensaba en contar una o veía un víideo mudo con narrativa visual.

Sin embargo, existían limitaciones: para entrenar este descodificador, los participantes debían permanecer inmóviles en un escáner de resonancia magnética funcional (IRMf) durante aproximadamente dieciséis horas mientras escuchaban pódcasts, un procedimiento poco práctico para la mayoría de las personas y casi imposible para aquellos con dificultades en la comprensión del lenguaje hablado. Además, el descodificador original solo funcionaba con las personas para las que se había entrenado específicamente.

En este último trabajo, publicado en la revista Current Biology, los investigadores han ideado un método para adaptar el descodificador preexistente a nuevas personas con apenas una hora de entrenamiento en el escáner IRMf mientras observan vídeos mudos y cortos, como los de Pixar. Para lograrlo, desarrollaron un algoritmo convertidor que aprende a correlacionar la actividad cerebral de un nuevo participante con la de alguien cuyo cerebro ya había sido utilizado para entrenar el descodificador original. Esto permite una decodificación efectiva en una fracción del tiempo requerido anteriormente.

Los pensamientos trascienden al lenguaje

Huth dice que este trabajo revela algo profundo sobre cómo funciona nuestro cerebro: nuestros pensamientos trascienden el lenguaje.

Sin duda alguna, este avance arroja luz sobre el funcionamiento del cerebro humano y la naturaleza del pensamiento. «Esto revela un sorprendente solapamiento entre la actividad cerebral cuando alguien escucha una historia y cuando ve un video que narra una historia —explica Huth en un comunicado de la Universidad de Texas. Y añade—: Nuestro cerebro trata ambos tipos de narración de manera similar. Esto también indica que lo que estamos descodificando no es estrictamente lenguaje, sino representaciones conceptuales que trascienden la modalidad lingüística».

Los investigadores observaron que, al igual que con su descodificador cerebral original, su sistema mejorado soólo funciona con participantes cooperativos que participan voluntariamente en el entrenamiento. Si los participantes en los que se ha entrenado el descodificador oponen posteriormente resistencia —por ejemplo, pensando otras cosas—, los resultados son inutilizables. Esto reduce las posibilidades de uso indebido.

Un voluntario yace en un escáner de resonancia magnética funcional en la Universidad de Texas en Austin escuchando podcasts para ayudar a entrenar un decodificador cerebral que puede traducir los pensamientos de una persona en texto continuo. Cortesía: Nolan Zunk/University of Texas at Austin

Aunque hasta ahora han probado el sistema en sujetos neurológicamente sanos, también realizaron simulaciones de patrones de lesiones cerebrales para imitar la afasia en los participantes. Los resultados mostraron que el descodificador seguía siendo capaz de traducir en texto continuo las historias que estos percibían, lo que sugiere que la herramienta podría ser efectiva en personas con afasia.

Actualmente, el equipo colabora con Maya Henry, profesora asociada de la Facultad de Medicina Dell y de la Facultad de Comunicación Moody de la Universidad de Texas, quien estudia la afasia, para evaluar la eficacia del descodificador en personas con este trastorno.

«Ha sido emocionante y gratificante pensar en cómo diseñar la interfaz más útil y hacer que el procedimiento de entrenamiento del modelo sea lo más accesible posible para los participantes— señala Tang. Y añade—: Me entusiasma seguir explorando cómo nuestro descodificador puede ayudar a mejorar la comunicación de las personas con afasia». ▪️

Anterior
Anterior

La estimulación cerebral no mejora las habilidades motoras tras un ictus

Siguiente
Siguiente

La cantidad de mercurio en el atún se puede reducir hasta un 35% con una nueva solución de envasado