La identificación de un sector en el cerebro que muestra representaciones articulatorias corticales compartidas en múltiples idiomas, fue clave en el logro. Por primera vez, un implante cerebral con IA ayuda a un paciente sin habla a comunicarse en 2 idiomas.
Un equipo de neurocirujanos y especialistas en inteligencia artificial (IA) de la Universidad de California en San Francisco, EE.UU., logró restaurar el habla en un paciente que perdió esa capacidad después de sufrir un derrame cerebral a los 20 años. Los especialistas crearon un implante cerebral que permitió que, una década después de su parálisis, un hombre bilingüe pudiera expresarse por primera vez en los dos idiomas que domina, español e inglés, de acuerdo a su preferencia.
Los científicos publicaron los hallazgos la pasada semana en Nature Biomedical Engineering. Ahí subrayan que con anterioridad ya se habían implantado sondas cerebrales para leer ondas electromagnéticas que, por medio de técnicas de aprendizaje automático, luego son convertidas en palabras. Sin embargo, la novedad de su estudio radica en que por vez primera se ha conseguido el mismo objetivo en dos idiomas diferentes al unísono: el inglés y el español.
Entrenamiento del sistema en un idioma
En 2019, Pancho, nombre con el que fue llamado el paciente para mantener su privacidad, recibió un implante neuronal, denominado interfaz cerebro-ordenador, que permitió hacer un seguimiento de su actividad cerebral. Utilizando un método de IA conocido como red neuronal, los investigadores pudieron entrenar el implante de Pancho para decodificar palabras, basándose en la actividad cerebral producida cuando intentaba articularlas.
En 2021, esa tecnología había ayudado significativamente a restaurar la capacidad de Pancho para comunicarse en inglés, idioma que aprendió siendo adulto, pero no en español, que era su lengua materna.
Un paso adelante: bilingüe
Después de descubrir que Pancho tenía actividad cerebral en ambos idiomas, los científicos aprovecharon eso para entrenar un implante cerebral bilingüe, sin necesidad de entrenar sistemas de decodificación específicos de cada idioma por separado. Para ello fue crucial la identificación de un sector en el cerebro que muestra representaciones articulatorias corticales compartidas, que persisten después de la parálisis y permiten la decodificación de múltiples idiomas.
Los investigadores descubrieron que tanto el idioma inglés como el español generaban señales similares en ese sector cerebral. Este descubrimiento permitió entrenar al sistema para que al recuperar frases en inglés pudiera acelerar al mismo tiempo su reconocimiento en español, o viceversa.