banner

Blog

Jul 18, 2023

Implantes cerebrales, discurso de guía de software.

Nuestro cerebro recuerda cómo formular palabras incluso si los músculos responsables de decirlas en voz alta están incapacitados. Una conexión cerebro-computadora está haciendo realidad el sueño de restaurar el habla.

23 de agosto de 2023 - Por Bruce Goldman

Frank Willett opera un software que traduce los intentos de expresión de Pat Bennett (grabados por sensores en su cerebro) en palabras en una pantalla. Steve Fisch

La receta de Pat Bennett es un poco más complicada que "Tómate un par de aspirinas y llámame por la mañana". Pero un cuarteto de sensores del tamaño de aspirinas para bebés implantados en su cerebro tienen como objetivo abordar una condición que la frustra a ella y a otros: la pérdida de la capacidad de hablar de manera inteligible. Los dispositivos transmiten señales desde un par de regiones relacionadas con el habla en el cerebro de Bennett a un software de última generación que decodifica su actividad cerebral y la convierte en texto que se muestra en la pantalla de una computadora.

Bennett, que ahora tiene 68 años, es un ex director de recursos humanos y ex jinete que trotaba a diario. En 2012, le diagnosticaron esclerosis lateral amiotrófica, una enfermedad neurodegenerativa progresiva que ataca a las neuronas que controlan el movimiento, provocando debilidad física y eventual parálisis.

"Cuando piensas en ELA, piensas en el impacto en brazos y piernas", escribió Bennett en una entrevista realizada por correo electrónico. “Pero en un grupo de pacientes con ELA, comienza con dificultades en el habla. No puedo hablar”.

Por lo general, la ELA se manifiesta primero en la periferia del cuerpo: brazos, piernas, manos y dedos. Para Bennett, el deterioro no comenzó en su médula espinal, como es típico, sino en su tronco encefálico. Todavía puede moverse, vestirse y usar los dedos para escribir, aunque con cada vez más dificultad. Pero ya no puede utilizar los músculos de los labios, la lengua, la laringe y las mandíbulas para enunciar claramente los fonemas (o unidades de sonido, como sh) que son los componentes básicos del habla.

Aunque el cerebro de Bennett todavía puede formular instrucciones para generar esos fonemas, sus músculos no pueden ejecutar las órdenes.

El 29 de marzo de 2022, un neurocirujano de Stanford Medicine colocó dos pequeños sensores cada uno en dos regiones separadas, ambas implicadas en la producción del habla, a lo largo de la superficie del cerebro de Bennett. Los sensores son componentes de una interfaz intracortical cerebro-computadora, o iBCI. Combinados con un software de decodificación de última generación, están diseñados para traducir la actividad cerebral que acompaña a los intentos de hablar en palabras en una pantalla.

Aproximadamente un mes después de la cirugía, un equipo de científicos de Stanford comenzó sesiones de investigación dos veces por semana para entrenar el software que interpretaba su discurso. Después de cuatro meses, los intentos de expresión de Bennett se convertían en palabras en una pantalla de computadora a 62 palabras por minuto, más de tres veces más rápido que el récord anterior de comunicación asistida por BCI.

Pat Bennett ha perdido la capacidad de hablar debido a la ELA.Steve Fisch

"Estos resultados iniciales han demostrado el concepto y, eventualmente, la tecnología se pondrá al día para hacerlo fácilmente accesible para las personas que no pueden hablar", escribió Bennett. "Para aquellos que no son verbales, esto significa que pueden permanecer conectados con el mundo en general, tal vez continuar trabajando, mantener relaciones familiares y de amigos".

El ritmo de Bennett comienza a acercarse al ritmo natural de conversación de aproximadamente 160 palabras por minuto entre angloparlantes, dijo Jaimie Henderson, MD, cirujana que realizó la cirugía.

"Hemos demostrado que se puede decodificar el habla intencionada registrando la actividad de un área muy pequeña en la superficie del cerebro", dijo Henderson.

Henderson, profesor John y Jean Blume-Robert y Ruth Halperin en el departamento de neurocirugía, es el coautor principal de un artículo que describe los resultados, publicado el 23 de agosto en Nature. Su coautor principal, Krishna Shenoy, PhD, profesor de ingeniería eléctrica y bioingeniería, murió antes de que se publicara el estudio.

Frank Willett, PhD, científico del Instituto Médico Howard Hughes afiliado al Neural Prosthetics Translational Lab, que Henderson y Shenoy cofundaron en 2009, comparte la autoría principal del estudio con los estudiantes graduados Erin Kunz y Chaofei Fan.

En 2021, Henderson, Shenoy y Willett fueron coautores de un estudio publicado en Nature que describe su éxito al convertir la escritura imaginada de una persona paralizada en texto en una pantalla utilizando un iBCI, alcanzando una velocidad de 90 caracteres o 18 palabras por minuto. — un récord mundial hasta ahora para una metodología relacionada con iBCI.

Cuando Bennett se enteró del trabajo de Henderson y Shenoy, se puso en contacto con Henderson y se ofreció como voluntaria para participar en el ensayo clínico.

 

Los sensores que Henderson implantó en la corteza cerebral de Bennett, la capa más externa del cerebro, son conjuntos cuadrados de pequeños electrodos de silicio. Cada conjunto contiene 64 electrodos, dispuestos en rejillas de 8 por 8 y espaciados entre sí por una distancia de aproximadamente la mitad del grosor de una tarjeta de crédito. Los electrodos penetran en la corteza cerebral a una profundidad aproximadamente igual a la de dos monedas de veinticinco centavos apiladas.

Las matrices implantadas están unidas a finos cables de oro que salen a través de pedestales atornillados al cráneo, que luego se conectan mediante un cable a una computadora.

Un algoritmo de inteligencia artificial recibe y decodifica información electrónica que emana del cerebro de Bennett y finalmente aprende a distinguir la distinta actividad cerebral asociada con sus intentos de formular cada uno de los 39 fonemas que componen el inglés hablado. Introduce sus mejores conjeturas sobre la secuencia de los fonemas intentados por Bennett en el llamado modelo de lenguaje, esencialmente un sofisticado sistema de autocorrección, que convierte los flujos de fonemas en la secuencia de palabras que representan.

Jaime Henderson

"Este sistema está entrenado para saber qué palabras deben ir antes que otras y qué fonemas forman qué palabras", explicó Willett. "Si algunos fonemas se interpretaron incorrectamente, aún se puede hacer una buena suposición".

Para enseñar al algoritmo a reconocer qué patrones de actividad cerebral estaban asociados con qué fonemas, Bennett participó en unas 25 sesiones de entrenamiento, cada una de las cuales duró aproximadamente cuatro horas, durante las cuales intentó repetir oraciones elegidas al azar de un gran conjunto de datos que consistía en muestras de conversaciones. entre personas hablando por teléfono.

Un ejemplo: “Solo ha sido así en los últimos cinco años”. Otro: “Me fui justo en el medio”.

Mientras intentaba recitar cada frase, la actividad cerebral de Bennett, traducida por el decodificador en un flujo de fonemas y luego ensamblada en palabras mediante el sistema de autocorrección, se mostraba en la pantalla debajo del original. Entonces aparecería una nueva frase en la pantalla.

Bennett repitió entre 260 y 480 frases por sesión de entrenamiento. Todo el sistema siguió mejorando a medida que se familiarizó con la actividad cerebral de Bennett durante sus intentos de hablar.

La capacidad de traducción del habla prevista del iCBI se probó en oraciones diferentes a las utilizadas en las sesiones de capacitación. Cuando las oraciones y el modelo de lenguaje de ensamblaje de palabras se restringieron a un vocabulario de 50 palabras (en cuyo caso las oraciones utilizadas se extrajeron de una lista especial), la tasa de error del sistema de traducción fue del 9,1%.

Cuando el vocabulario se amplió a 125.000 palabras (lo suficientemente grande como para componer casi cualquier cosa que quisieras decir), la tasa de error aumentó al 23,8%, lejos de ser perfecto, pero un paso gigante con respecto al estado de la técnica anterior.

"Esta es una prueba científica de concepto, no un dispositivo real que la gente pueda usar en la vida cotidiana", dijo Willett. "Pero es un gran avance hacia el restablecimiento de una comunicación rápida con las personas con parálisis que no pueden hablar".

“Imagínese”, escribió Bennett, “cuán diferente será realizar actividades cotidianas como ir de compras, asistir a citas, pedir comida, ir al banco, hablar por teléfono, expresar amor o aprecio (incluso discutir) cuando las personas no verbales puedan comunicar sus pensamientos en tiempo real."

El dispositivo descrito en este estudio tiene licencia únicamente para uso de investigación y no está disponible comercialmente. El estudio, un ensayo clínico registrado, se llevó a cabo bajo los auspicios de BrainGate, un consorcio de múltiples instituciones dedicado a promover el uso de BCI en aplicaciones protésicas, dirigido por la coautora del estudio Leigh Hochberg, MD, PhD, neuróloga e investigadora afiliada. con el Hospital General de Massachusetts, la Universidad de Brown y el Sistema de Salud VA de Providence (Rhode Island).

El estudio fue financiado por los Institutos Nacionales de Salud (subvenciones U01-DC017844 y U01-DC019430), el Departamento de Asuntos de Veteranos de EE. UU., el Instituto de Neurociencias Stanford Wu Tsai, el HHMI, la Fundación Simons y Larry y Pamela Garlick.

Encuentre más fotografías aquí (crédito: Steve Fisch/Stanford Medicine).

Acerca de la medicina de Stanford

Stanford Medicine es un sistema de salud académico integrado que comprende la Facultad de Medicina de Stanford y los sistemas de prestación de atención médica pediátrica y de adultos. Juntos, aprovechan todo el potencial de la biomedicina a través de la investigación colaborativa, la educación y la atención clínica de los pacientes. Para obtener más información, visite med.stanford.edu.

La inteligencia artificial, que interpreta datos de un dispositivo colocado en la superficie del cerebro, permite a las personas paralizadas o con graves problemas de movimiento de las extremidades comunicarse mediante mensajes de texto.

Cómo interactúan el medio ambiente y la salud

COMPARTIR