- El síndrome de enclaustramiento es un trastorno neurológico en el que una persona no puede hablar ni mostrar expresiones faciales.
- La mayoría de las personas con esta afección deben depender únicamente del parpadeo y el movimiento para comunicarse con los demás.
- Investigadores de la Universidad de California en San Francisco han desarrollado una nueva forma para que las personas con síndrome cerrado se comuniquen y muestren expresiones faciales mediante el uso de un implante cerebral y un avatar digital.
El síndrome de enclaustramiento es un
Aunque una persona con síndrome cerrado puede comprender completamente lo que alguien le dice o lee, no puede hablar ni mostrar emociones con su rostro, como felicidad, enojo o tristeza.
A menudo, una persona con síndrome cerrado depende de pequeños movimientos, como parpadear, para comunicarse con los demás.
Ahora, investigadores de la Universidad de California en San Francisco han desarrollado una nueva forma para que las personas con síndrome de encierro se comuniquen y muestren expresiones faciales mediante el uso de implantes cerebrales y…
Este estudio fue publicado recientemente en la revista
El síndrome de enclaustramiento es relativamente raro: menos de 1000 personas En Estados Unidos tienen esta condición.
Esta condición generalmente es causada por daño a una parte del cuerpo.
El daño del tronco encefálico generalmente ocurre durante un derrame cerebral, pero también puede ser causado por inflamación de los nervios, tumores, infecciones u otras afecciones como la esclerosis lateral amiotrófica (ELA).
Cuando una persona tiene el síndrome de enclaustramiento, pierde la capacidad de mover sus músculos voluntarios a voluntad. Sin embargo, no pierden ninguna capacidad cognitiva, por lo que son capaces de pensar con normalidad y comprender cuando alguien les habla o lee. Su audición no se ve afectada.
Sin embargo, el síndrome de enclaustramiento puede afectar la capacidad de una persona para respirar y comer al afectar la masticación y la deglución.
Actualmente no existe ningún tratamiento específico o tratamientos disponibles para el síndrome de enclaustramiento. El médico tratará la causa subyacente de la afección y puede prescribir fisioterapia y terapia del habla.
La forma más común de comunicación de las personas con síndrome cerrado es mediante movimientos oculares y parpadeo.
Hoy en día, existen programas informáticos y otras tecnologías de asistencia que pueden ayudarles a comunicarse con los demás, como
Gracias a las innovaciones en la arquitectura informática y las nuevas tecnologías como inteligencia artificial (AI), los investigadores ofrecen nuevas opciones de comunicación para personas con síndrome de apego.
Por ejemplo, un estudio publicado en
En el estudio actual, los investigadores desarrollaron una nueva tecnología cerebral e informática utilizando un implante cerebral y un avatar digital. Un avatar digital permite a una persona con parálisis facial transmitir expresiones faciales y emociones normales.
La nueva técnica fue probada en una mujer de 47 años llamada Anne, que padecía el síndrome de enclaustramiento tras sufrir un derrame cerebral.
Noticias médicas hoy Hablar con Dr. David Moisésprofesor asistente de neurocirugía, parte de laboratorio de chang en la Universidad de California, San Francisco, y uno de los autores principales del estudio.
Según él, cuando hablamos, aparecen patrones complejos de actividad neuronal en nuestro cuerpo.
«Para Anne y otras personas que han sufrido un derrame cerebral, esta vía está dañada y las señales de la corteza motora del habla no pueden llegar a los músculos articulatorios», explicó.
Con este implante cerebral, los especialistas pueden registrar la actividad neuronal de la corteza mientras Anne intenta hablar y traducirla directamente a las palabras deseadas, evitando por completo su parálisis, dijo el Dr. Moses.
Explicó además cómo funciona esto:
«Hacemos esto creando modelos de IA que se entrenan con datos neuronales mientras intentan pronunciar varias oraciones en silencio; en realidad, no hablan mientras intentan pronunciar estas oraciones; hacen todo lo posible para ‘pronunciar’ las palabras en las oraciones. Y al habilitar modelos de IA Al aprender a asociar la actividad cerebral con el habla prevista, podemos usar estos modelos en tiempo real para decodificar la actividad cerebral y convertirla en habla. Los modelos utilizan representaciones intermedias flexibles del habla internamente, lo que permite al decodificador generar oraciones que no intentó decir durante el entrenamiento.
Anne recibió un implante cerebral que contenía 253 electrodos colocados en áreas superficiales específicas del cerebro necesarias para el habla. El cable implantado en el cerebro se conecta a las computadoras.
Durante semanas, Anne trabajó con investigadores para entrenar algoritmos de inteligencia artificial para reconocer y responder a sus señales cerebrales únicas para el habla.
Los investigadores también crearon un avatar digital de Ann mediante un software que imita y anima los movimientos de los músculos faciales.
Usar Aprendizaje automáticoPudieron vincular el software a las señales provenientes del cerebro de Anne y convertirlas en movimientos en la cara de su avatar, para mostrar el habla y las expresiones faciales.
Además, los científicos pudieron utilizar imágenes del vídeo previo a la lesión para recrear la voz real de Anne. De esta manera, cuando habla a través del avatar digital, es su voz y no una voz virtual computarizada.
Cuando se le preguntó sobre los próximos pasos en esta nueva tecnología, el Dr. Moses dijo que hay muchas maneras de mejorar.
«En cuanto al hardware, se necesita una versión inalámbrica para mejorar la viabilidad como solución clínica», señaló.
«En términos de software, queremos integrar nuestros métodos con su hardware existente, para que puedan usar el sistema para escribir correos electrónicos y navegar por la web. También queremos aprovechar algunos avances en el modelado generativo de IA para mejorar nuestros resultados de decodificación. ”, añadió el Dr. Moisés.
TMN También habló sobre este estudio con Dr. Amit Kochhartiene doble certificación en otorrinolaringología, cirugía de cabeza y cuello, y cirugía plástica y reconstructiva facial, y directora del Programa de Trastornos del Nervio Facial en el Instituto de Neurociencia del Pacífico en Santa Mónica, California, que no participó en la investigación.
Como médico que trata a pacientes con parálisis facial, dijo que una de las cosas más difíciles para los pacientes es la incapacidad de expresar sus sentimientos a los demás.
«Las investigaciones han demostrado que si un observador no especializado mira a alguien con la mitad de su cara paralizada, cuando mira a esa persona, no puede distinguir si la persona está transmitiendo sentimientos de felicidad o de ira», explicó el Dr. Kochhar. «Así que hay mucha confusión por parte del observador y luego frustración obvia por parte del paciente».
“Entonces, si tienen acceso a algo como esto, […] Añadió: Es posible que aún puedan comunicarse con otros, como sus familiares y amigos, utilizando este tipo de tecnología de avatar para poder transmitir correctamente sentimientos de felicidad, sorpresa o enojo sin esta confusión.
El Dr. Kochhar dijo que le gustaría ver que más personas utilicen esta tecnología para garantizar que pueda replicarse y que sea económicamente viable.
Y añadió: «Si el coste de este dispositivo sólo está disponible para un pequeño porcentaje de la población que puede permitírselo, es un gran paso adelante, pero no es algo que no ayude a muchas otras personas».
El Dr. Kochhar también dijo que le gustaría ver la tecnología portátil: «La paciente tuvo que venir al centro para que funcionara y, en ese momento, no podía llevársela para que pudiera funcionar». en casa. Estos son los próximos pasos en el desarrollo de este tipo de programas.
«Solucionador de problemas. Gurú de los zombis. Entusiasta de Internet. Defensor de los viajes sin disculpas. Organizador. Lector. Aficionado al alcohol».