Una investigación del Northwestern Medicine y Weinberg College
of Arts and Sciences en USA registro señales
cerebrales de la superficie cortical utilizando electrodos colocados en
pacientes sometidos a cirugía cerebral. Los
pacientes tenían que estar despiertos durante la cirugía, por lo que los
investigadores les pidieron que leyeran palabras de una pantalla. Después
de la cirugía, los científicos marcaron los tiempos en que los pacientes
producían los fonemas y gestos. Luego usaron las señales cerebrales registradas de
cada área cortical para decodificar qué fonemas y gestos se habían producido, y
midieron la precisión de la decodificación. Las señales cerebrales en la
corteza precentral fueron más precisas para decodificar mas los gestos que los
fonemas, mientras que las de la corteza frontal inferior decodifico tanto los
fonemas como los gestos. Esta información ayudó a apoyar los modelos
lingüísticos de la producción del habla. También ayudará a los ingenieros a
diseñar interfaces de máquinas cerebrales para decodificar el habla de estas
áreas cerebrales. El próximo paso para la investigación es desarrollar un
algoritmo para las interfaces de la máquina cerebral que no solo decodifique
los gestos sino que también combine esos gestos decodificados para formar
palabras en pacientes que por diversas afectaciones no pueden modular palabras. El estudio fue publicado hoy en elJournal of Neuroscience.