Crean sistema que permitirá leer mente de pacientes que no pueden comunicarse
Científicos demostraron que cada palabra dibuja una onda de sonido en el cerebro, la que puede ser reproducida por un software.
por F.R. / C.Y.
El científico británico Stephen Hawking se comunica con el mundo exterior gracias a un computador que maneja con los ojos. Así, "marca" la palabra que quiere que el ordenador pronuncie por él. Como él, son miles las personas que sufren de esclerosis lateral amiotrófica, una enfermedad degenerativa que ataca en forma progresiva las neuronas encargadas del movimiento.
Para este tipo de pacientes que -pese a estar conscientes- no pueden comunicarse con las demás personas y todos aquellos que sufren parálisis tras un infarto cerebral o síndrome de enclaustramiento, un grupo de científicos de la U. de California, en Berkeley, ideó un sistema neurocomputacional que es capaz de leer lo que están pensando.
Todas las palabras que escuchamos llegan a nuestros oídos como ondas sonoras que son interpretadas por el cerebro que les otorga un sentido. Lo mismo ocurre cuando una persona piensa en algún concepto o idea: se activa la misma zona del cerebro (corteza auditiva primaria), porque cada vez que se recuerde o se piense en una determinada palabra o concepto es una "conversación" que uno tiene con uno mismo.
Después de dos años de estudio y aprovechando que algunos pacientes epilépticos debían someterse a pruebas que les dejaban el cerebro expuesto por algún tiempo, neurocientíficos del laboratorio de Robert Knight decidieron pasar de la teoría a la práctica e instalaron hasta 256 electrodos en sus cerebros para hacerlos escuchar varias veces palabras como "Waldo", "estructura", "ruda" y "propiedad".
Cada vez que una de estas palabras era escuchada, los electrodos captaban la imagen (espectrograma) de la onda sonora que se dibujaba en el cerebro. Luego, con un software transformaron esa imagen en sonido y pudieron escuchar lo mismo que había oído originalmente el paciente.
Robert Knight, uno de los autores de la investigación publicada en PLoS Biology , explicó aLa Tercera que su trabajo buscaba "entender cómo el cerebro procesa y reconstruye exactamente el lenguaje y utilizar esta información para desarrollar aparatos que puedan ser implantados en pacientes con desórdenes que no les permitan hablar", dijo.
Como cuando pensamos nos hablamos a nosotros mismos, se activa este mismo proceso, y el próximo paso es obtener las imágenes de los pensamientos. "No hemos llegado al nivel de extraer la palabra que te estabas imaginando, pero sí podemos decir qué palabra escuchaste", explicó. Todas las pruebas que se han realizado hasta ahora se han hecho en pacientes que están despiertos y conscientes. Por lo que no se sabe aún cómo podría funcionar en aquellos que se mantienen en estado vegetativo, por ejemplo. "Nos gustaría en el futuro ayudar a la gente con aparatos que sean implantados e interpreten lo que están pensando". En lo más inmediato, esta técnica podría ayudar a pacientes con esclerosis lateral amiotrófica, pacientes que tras un infarto cerebral quedan con parálisis y otros pacientes que no pueden expresarse y están "atrapados" en su propio cuerpo.
No hay comentarios:
Publicar un comentario