You are on page 1of 3

Actividad cerebral subyacente al habla fluida

Cuando hablamos, involucramos a casi 100 músculos, moviendo continuamente


nuestros labios, mandíbula, lengua y garganta para formar nuestra respiración en
secuencias fluidas de sonidos que forman nuestras palabras y oraciones. Un nuevo
estudio realizado por científicos de la UC San Francisco revela cómo estos complejos
movimientos articulatorios se coordinan en el cerebro.

La nueva investigación revela que los centros del habla del cerebro se organizan más de
acuerdo con las necesidades físicas del tracto vocal, ya que produce el habla que por
cómo suena el habla (su "fonética"). Los lingüistas dividen el habla en unidades
abstractas de sonido llamadas "fonemas" y consideran que el sonido / k / "mantiene" lo
mismo que el / k / en "coop". Pero en realidad, su boca forma el sonido de manera
diferente en estas dos palabras para prepárese para las diferentes vocales que siguen, y
esta distinción física ahora parece ser más importante para las regiones del cerebro
responsables de producir el habla que la similitud teórica del fonema.

Los hallazgos, que amplían estudios previos sobre cómo el cerebro interpreta los
sonidos del lenguaje hablado, podrían ayudar a guiar la creación de una nueva
generación de dispositivos protésicos para aquellos que no pueden hablar: los implantes
cerebrales podrían monitorear la actividad neuronal relacionada con la producción del
habla y rápidamente. traducir directamente esas señales en lenguaje hablado sintético.

El nuevo estudio, publicado el 17 de mayo de 2018, en Neuron, fue realizado por Josh
Chartier y Gopala K. Anumanchipalli, PhD, ambos investigadores en el laboratorio del
autor principal Edward Chang, MD, profesor de cirugía neurológica, Investigador
Biomédico Bowes, y miembro del UCSF Weill Institute for Neurosciences. A ellos se
unieron Keith Johnson, PhD, profesor de lingüística en la UC Berkeley.

Chang, un neurocirujano en el Centro de Epilepsia de la UCSF, se especializa en


cirugías para extirpar el tejido cerebral que causa convulsiones en pacientes con
epilepsia. En algunos casos, para prepararse para estas operaciones, coloca arreglos de
alta densidad de pequeños electrodos en la superficie del cerebro de los pacientes, tanto
para ayudar a identificar la ubicación que desencadena las convulsiones de los pacientes
como para trazar otras áreas importantes, como las involucrado en el lenguaje, para
asegurarse de que la cirugía evite dañarlos.

Además de su importancia clínica, este método, conocido como electrocorticografía o


ECoG, es una herramienta poderosa para la investigación. "Es un medio único para ver
miles de neuronas activadas al unísono", dijo Chartier.

En el nuevo estudio, Chartier y Anumanchipalli pidieron a cinco voluntarios que


esperaban cirugía, con electrodos de ECoG colocados sobre una región de la corteza
sensoriomotora ventral que es un centro clave para la producción del habla, para leer en
voz alta una colección de 460 oraciones naturales. Las oraciones se construyeron
expresamente para abarcar casi todos los contextos articulatorios posibles en el inglés
estadounidense. Esta amplitud fue crucial para capturar el rango completo de
"coarticulación", la combinación de fonemas que es esencial para el habla natural.
"Sin la coarticulación, nuestro discurso sería bloqueado y segmentado hasta el punto en
que no podríamos entenderlo realmente", dijo Chartier.

El equipo de investigación no pudo registrar simultáneamente la actividad neuronal de


los voluntarios y sus movimientos de lengua, boca y laringe. En su lugar, grabaron solo
el audio de los voluntarios que estaban hablando y desarrollaron un nuevo algoritmo de
aprendizaje profundo para estimar qué movimientos se realizaron durante las tareas
específicas del habla.

Este enfoque permitió a los investigadores identificar distintas poblaciones de neuronas


responsables de los patrones específicos de movimiento del tracto vocal necesarios para
producir sonidos del habla con fluidez, un nivel de complejidad que no se había visto en
experimentos anteriores que usaban tareas del habla más simples de sílaba por sílaba.

Los experimentos revelaron que las neuronas que rodeaban los electrodos individuales
codificaban una notable diversidad de movimientos diferentes. Los investigadores
descubrieron que había cuatro grupos emergentes de neuronas que parecían ser
responsables de coordinar los movimientos de los músculos de los labios, la lengua y la
garganta en las cuatro configuraciones principales del tracto vocal utilizadas en el inglés
estadounidense. Los investigadores también identificaron poblaciones neurales
asociadas con clases específicas de fenómenos fonéticos, incluidos grupos separados
para consonantes y vocales de diferentes tipos, pero su análisis sugería que estas
agrupaciones fonéticas eran más un subproducto de agrupaciones más naturales basadas
en diferentes tipos de movimiento muscular.

Con respecto a la coarticulación, los investigadores descubrieron que los centros del
habla de nuestros cerebros coordinan diferentes patrones de movimiento muscular según
el contexto de lo que se dice y el orden en que se producen los diferentes sonidos. Por
ejemplo, la mandíbula se abre más para decir la palabra "toque" que para decir la
palabra "tiene"; a pesar de tener el mismo sonido de vocal (/ ae /), la boca debe estar
lista para cerrarse para hacer el sonido / z / en "tiene". Los investigadores encontraron
que las neuronas en la corteza sensoriomotora ventral estaban altamente sintonizadas D
a esta y otras características co-articulatorias del inglés, lo que sugiere que las células
cerebrales están sintonizadas para producir un habla fluida, dependiente del contexto, en
lugar de leer segmentos de voz discretos en orden serial.

"Durante la producción del habla, claramente hay otra capa de procesamiento neuronal
que ocurre, lo que permite al hablante fusionar los fonemas en algo que el oyente pueda
entender", dijo Anumanchipalli.

"Este estudio destaca por qué debemos tener en cuenta los movimientos del tracto vocal
y no solo las características lingüísticas, como los fonemas, al estudiar la producción del
habla", dijo Chartier. Él piensa que este trabajo allana el camino no solo para estudios
adicionales que abordan el aspecto sensoriomotor de la producción del habla, sino que
también podría dar dividendos prácticos.

"Sabemos ahora que la corteza sensoriomotora codifica los movimientos del tracto
vocal, por lo que podemos usar ese conocimiento para decodificar la actividad cortical y
traducirla a través de una prótesis de habla", dijo Chartier. "Esto daría voz a las personas
que no pueden hablar pero tienen funciones neuronales intactas".
En última instancia, el estudio podría representar una nueva vía de investigación para el
equipo de Chartier y Anumanchipalli en UCSF. "Realmente me hizo pensar dos veces si
los fonemas encajaban; en cierto sentido, estas unidades de lenguaje en las que fijamos
gran parte de nuestra investigación son solo subproductos de una señal sensoriomotora",
dijo Anumanchipalli.

You might also like