Gli neuroscienziati sanno da tempo che il discorso viene elaborato nella corteccia uditiva, insieme ad alcune curiose attività nella corteccia motoria. Come quest’ultima corteccia sia coinvolta, però, è stata una specie di mistero, fino ad ora. Un nuovo studio di due scienziati della NYU rivela una delle ultime resistenze di un processo di scoperta iniziato oltre un secolo e mezzo fa. Nel 1861, il neurologo francese Pierre Paul Broca identificò quella che sarebbe diventata nota come “area di Broca”. Si tratta di una regione nel giro frontale inferiore posteriore.
Questa area è responsabile dell’elaborazione e della comprensione del discorso, così come della sua produzione. È interessante notare che un collega scienziato, che Broca ha dovuto operare, nel post operatorio mancava completamente dell’area di Broca. Eppure, era ancora in grado di parlare. Inizialmente non riusciva a fare frasi complesse, ma col tempo riacquistò tutte le capacità di parlare. Questo significa che un’altra regione era intervenuta e che era coinvolta una certa quantità di neuroplasticità.
Nel 1871, il neurologo tedesco Carl Wernicke scoprì un’altra area responsabile dell’elaborazione del discorso attraverso l’udito, questa volta nel lobo temporale posteriore superiore. Ora è chiamata area di Wernicke. Il modello è stato aggiornato nel 1965 dall’eminente neurologo comportamentale Norman Geschwind. La mappa aggiornata del cervello è conosciuta come il modello Wernicke-Geschwind.
Wernicke e Broca hanno acquisito le loro conoscenze studiando pazienti con danni ad alcune parti del cervello. Nel 20° secolo, la stimolazione elettrica del cervello ha cominciato a darci una comprensione ancora maggiore del funzionamento interno del cervello. I pazienti sottoposti a chirurgia cerebrale a metà del secolo scorso ricevevano una debole stimolazione elettrica del cervello. La corrente permetteva ai chirurghi di evitare di danneggiare aree criticamente importanti. Con l’avvento della fMRI e di altre tecnologie di scansione, siamo stati in grado di osservare l’attività nelle regioni del cervello e come il linguaggio viaggia attraverso di esse. Ora sappiamo che gli impulsi associati al linguaggio passano tra le aree di Boca e di Wernicke. La comunicazione tra le due ci aiuta a capire la grammatica, il suono delle parole e il loro significato. Un’altra regione, il giro fusiforme, ci aiuta a classificare le parole. Ci permette anche di cogliere le metafore e il metro, come nella poesia. Si scopre che l’elaborazione del linguaggio coinvolge molte più regioni del cervello di quanto si pensasse in precedenza. Ogni lobo principale è coinvolto. Secondo il professore di psicologia e scienze neurali David Poeppel della New York University, la ricerca neuroscientifica, dopo averci dato così tanto, è diventata troppo miope. Poeppel dice che come la percezione e porta all’azione è ancora sconosciuto.
Le neuroscienze, a suo avviso, hanno bisogno di un tema generale, e di adottare da altre discipline. Ora, in uno studio recentemente pubblicato sulla rivista Science Advances, Poeppel e post-doc. M. Florencia Assaneo, indagano su una delle ultime resistenze su come il cervello elabora il linguaggio. La domanda è: perché la corteccia motoria è coinvolta? Classicamente, quest’area controlla la pianificazione e l’esecuzione del movimento. Quindi, cosa ha a che fare con il linguaggio?
Quando si ascolta qualcuno parlare, le orecchie ricevono le onde sonore e le trasformano in impulsi elettrici che viaggiano attraverso i nervi verso varie parti del cervello. Secondo Peoppel, “Le onde cerebrali navigano sulle onde sonore”. Il primo posto dove vanno è la corteccia uditiva, dove viene tradotto l'”inviluppo” o frequenza. Questo viene poi tagliato in pezzi, conosciuto come un segnale trascinato. Ciò su cui i ricercatori si sono soffermati è che una parte di questo segnale finisce nella corteccia motoria.
Naturalmente, si muove la bocca quando si parla, e molte altre parti del viso. Quindi la corteccia motoria è essenzialmente responsabile della fisica del discorso. Ma perché deve essere coinvolta nel processo di interpretazione? Secondo Assaneo, è quasi come se il cervello avesse bisogno di parlare le parole in silenzio a se stesso, per decifrare ciò che è stato detto. Tali interpretazioni, tuttavia, sono controverse. Il segnale trascinato non sempre finisce nella corteccia motoria. Quindi questi segnali iniziano nella corteccia uditiva o da qualche altra parte?
Quello che Assaneo e Poeppel hanno fatto è stato prendere un fatto ben noto che i segnali trascinati nella corteccia uditiva sono di solito a circa 4,5 hertz. Poi, dalla linguistica, hanno scoperto che questa è anche la velocità media con cui vengono pronunciate le sillabe in quasi tutte le lingue della Terra. Potrebbe esserci un legame neurofisiologico? Assaneo ha reclutato dei volontari e li ha fatti ascoltare delle sillabe che facevano parole senza senso, con una frequenza tra 2-7 hertz. Se i segnali trascinati andavano dall’udito alla corteccia motoria, il segnale trascinato dovrebbe essere registrato durante tutto il test.
Poeppel e Assaneo hanno trovato che il segnale trascinato andava dall’udito alla corteccia motoria, e sosteneva una connessione fino a 5 hertz. Più in alto e il segnale cadeva. Un modello al computer ha trovato che la corteccia motoria oscilla internamente a 4-5 hertz, la stessa velocità con cui si parlano le sillabe in quasi tutte le lingue. Poeppel cita un approccio multidisciplinare alle neuroscienze per questa scoperta. Gli studi futuri continueranno a guardare i ritmi del cervello, e come la sincronia tra le regioni ci permette di decodificare e formulare il discorso.
Articolo originale qui