Este descubrimiento permitiría a los pacientes paralizados mantener el ritmo de una conversación natural. En su forma actual, el software de lectura cerebral funciona solo para ciertas oraciones con las que fue programado, pero los científicos creen que este logro representa un trampolín hacia un sistema más poderoso que pueda decodificar en tiempo real las palabras que una persona quiere pronunciar.
El trabajo, publicado en la revista Nature y financiado por Facebook, fue posible gracias a tres pacientes con epilepsia que estaban a punto de someterse a una neurocirugía. Antes de que sus operaciones se realizaran, a los tres se les colocó un pequeño parche con electrodos minúsculos directamente en el cerebro; lo tuvieron puesto al menos una semana con el objetivo de mapear el origen de sus ataques.
Durante la estadía en el hospital, los pacientes, todos los cuales podían hablar normalmente, aceptaron participar en la investigación de Edward Chang, neurocirujano principal del estudio. Con el dispositivo colocado, ellos debieron responder a nueve preguntas y leer una lista de 24 respuestas potenciales, al tiempo que se les monitoreaba la actividad cerebral.
Con las grabaciones que obtuvieron, Chang y su equipo construyeron modelos de computadora que aprendieron a relacionar patrones particulares de actividad cerebral con las preguntas que escucharon los pacientes y las respuestas que dijeron. Una vez entrenado, el software podría identificar casi instantáneamente, y solo a partir de señales cerebrales, qué pregunta escuchó un paciente y qué respuesta dio, con una precisión del 76% y 61% respectivamente.
Aunque rudimentario, el sistema permitió a los pacientes responder preguntas sobre la música que les gustaba; qué bien se sentían; si su habitación era demasiado caliente o fría, o demasiado brillante u oscura; y cuándo les gustaría que los revisaran nuevamente.
«Hasta la fecha no existe un sistema de reemplazo del habla que permita a los usuarios tener interacciones al ritmo natural de una conversación humana», dijo Chang. «Esta es la primera vez que se utiliza este enfoque para identificarpalabras y frases habladas», dijo David Moses, investigador del equipo. «Es importante tener en cuenta que logramos esto utilizando un vocabulario muy limitado, pero en futuros estudios esperamos aumentar la flexibilidad y la precisión de lo que podemos traducir», finalizó.