Los neurocientíficos saben desde hace tiempo que el habla se procesa en el córtex auditivo, junto con una curiosa actividad en el córtex motor. Sin embargo, cómo está involucrada esta última corteza ha sido un misterio, hasta ahora. Un nuevo estudio realizado por dos científicos de la Universidad de Nueva York desvela uno de los últimos vestigios de un proceso de descubrimiento que comenzó hace más de un siglo y medio. En 1861, el neurólogo francés Pierre Paul Broca identificó lo que se conocería como «área de Broca». Se trata de una región situada en la circunvolución frontal inferior posterior.
Esta área es la responsable de procesar y comprender el habla, además de producirla. Curiosamente, un colega científico, al que Broca tuvo que operar, tuvo un postoperatorio en el que le faltaba el área de Broca por completo. Sin embargo, seguía siendo capaz de hablar. Sin embargo, al principio no podía hacer frases complejas, pero con el tiempo recuperó toda la capacidad de hablar. Esto significaba que otra región había intervenido y que había un cierto grado de neuroplasticidad.
En 1871, el neurólogo alemán Carl Wernicke descubrió otra área responsable del procesamiento del habla a través de la audición, esta vez en el lóbulo temporal posterior superior. Ahora se llama área de Wernicke. El modelo fue actualizado en 1965 por el eminente neurólogo conductista Norman Geschwind. El mapa actualizado del cerebro se conoce como modelo de Wernicke-Geschwind.
Wernicke y Broca adquirieron sus conocimientos estudiando a pacientes con daños en ciertas partes del cerebro. En el siglo XX, la estimulación eléctrica del cerebro comenzó a darnos una comprensión aún mayor del funcionamiento interno del cerebro. Los pacientes sometidos a cirugía cerebral a mediados de siglo recibían una débil estimulación eléctrica cerebral. La corriente permitía a los cirujanos evitar dañar zonas de importancia crítica. Pero también les permitió conocer mejor qué áreas controlaban qué funciones.
Con la llegada de la IRMf y otras tecnologías de escaneo, pudimos observar la actividad en regiones del cerebro y cómo el lenguaje viaja a través de ellas. Ahora sabemos que los impulsos asociados al lenguaje van entre las áreas de Boca y Wernicke. La comunicación entre ambas nos ayuda a entender la gramática, cómo suenan las palabras y su significado. Otra región, el giro fusiforme, nos ayuda a clasificar las palabras.
Las personas con daños en esta parte tienen problemas para leer. También nos permite captar las metáforas y la métrica, como en la poesía. Resulta que el procesamiento del lenguaje implica a muchas más regiones del cerebro de lo que se pensaba. Todos los lóbulos principales están implicados. Según el profesor de Psicología y Ciencias Neurales de la Universidad de Nueva York, David Poeppel, la investigación neurocientífica, después de habernos dado tanto, se ha vuelto demasiado miope. Poeppel dice que aún se desconoce cómo la percepción y lleva a la acción.
La neurociencia, en su opinión, necesita un tema global, y adoptar de otras disciplinas. Ahora, en un estudio publicado recientemente en la revista Science Advances, Poeppel y la postdoc. M. Florencia Assaneo, investigan uno de los últimos resquicios de cómo el cerebro procesa el lenguaje. La pregunta es: ¿por qué está implicada la corteza motora? Clásicamente, esta área controla la planificación y la ejecución del movimiento. Entonces, ¿qué tiene que ver con el lenguaje?
Cuando se escucha hablar a alguien, los oídos captan las ondas sonoras y las convierten en impulsos eléctricos que viajan a través de los nervios hasta diversas partes del cerebro. Según Peoppel, «las ondas cerebrales navegan sobre las ondas sonoras». El primer lugar al que van es la corteza auditiva, donde se traduce la «envolvente» o frecuencia. A continuación, se corta en trozos, lo que se conoce como una señal arrastrada. Lo que los investigadores se han encontrado es que parte de esta señal termina en la corteza motora.
Por supuesto, usted mueve la boca cuando habla, y muchas otras partes de su cara. Así que la corteza motora es esencialmente responsable de la física del habla. Pero, ¿por qué tiene que participar en el proceso de interpretación? Según Assaneo, es casi como si el cerebro necesitara pronunciar las palabras en silencio para sí mismo, con el fin de descifrar lo que se ha dicho. Sin embargo, estas interpretaciones son controvertidas. La señal arrastrada no siempre acaba en el córtex motor. Entonces, ¿estas señales comienzan en el córtex auditivo o en algún otro lugar?
Lo que hicieron Assaneo y Poeppel fue, tomar un hecho bien conocido de que las señales arrastradas en el córtex auditivo suelen estar a unos 4,5 hercios. Luego, a partir de la lingüística, descubrieron que ésta es también la velocidad media a la que se pronuncian las sílabas en casi todos los idiomas de la Tierra. ¿Podría haber una relación neurofisiológica? Assaneo reclutó a voluntarios y les hizo escuchar sílabas que formaban palabras sin sentido, a una velocidad de entre 2 y 7 hercios. Si las señales arrastradas iban de la corteza auditiva a la motora, la señal arrastrada debería registrarse durante toda la prueba.
Poeppel y Assaneo descubrieron que la señal arrastrada sí iba de la corteza auditiva a la motora, y mantenía una conexión hasta los 5 hercios. A partir de ahí, la señal desaparecía. Un modelo informático descubrió que la corteza motora oscila internamente a 4-5 hercios, la misma velocidad a la que se pronuncian las sílabas en casi cualquier idioma. Poeppel cita un enfoque multidisciplinar de la neurociencia para este descubrimiento. Los estudios futuros seguirán analizando los ritmos del cerebro y cómo la sincronización entre regiones nos permite decodificar y formular el habla.
Artículo original aquí