Comment le cerveau traite-t-il la parole ? Nous connaissons maintenant la réponse, et c’est fascinant

Les neuroscientifiques savent que la parole est traitée dans le cortex auditif depuis un certain temps, ainsi qu’une activité curieuse au sein du cortex moteur. Cependant, la façon dont ce dernier cortex est impliqué a été une sorte de mystère, jusqu’à présent. Une nouvelle étude menée par deux scientifiques de l’Université de New York révèle l’un des derniers vestiges d’un processus de découverte qui a débuté il y a plus d’un siècle et demi. En 1861, le neurologue français Pierre Paul Broca a identifié ce qui allait être connu sous le nom d' »aire de Broca ». Il s’agit d’une région située dans le gyrus frontal inférieur postérieur.

Cette zone est responsable du traitement et de la compréhension de la parole, ainsi que de sa production. Il est intéressant de noter qu’un collègue scientifique, que Broca a dû opérer, était post-opératoire entièrement dépourvu de l’aire de Broca. Pourtant, il était toujours capable de parler. Au début, il ne pouvait pas faire de phrases complexes, mais avec le temps, il a retrouvé toutes ses capacités d’expression. Cela signifiait qu’une autre région avait pitché, et qu’une certaine quantité de neuroplasticité était impliquée.

En 1871, le neurologue allemand Carl Wernicke a découvert une autre zone responsable du traitement de la parole par l’audition, cette fois dans le lobe temporal postérieur supérieur. On l’appelle aujourd’hui l’aire de Wernicke. Le modèle a été mis à jour en 1965 par l’éminent neurologue comportementaliste Norman Geschwind. La carte actualisée du cerveau est connue sous le nom de modèle de Wernicke-Geschwind.

Presque toutes les aires corticales sont impliquées dans l’interprétation de la parole. Crédit image : Anatomie & Physiologie, Connexions. Wikipedia Commons.

Wernicke et Broca ont acquis leurs connaissances en étudiant des patients présentant des lésions de certaines parties du cerveau. Au XXe siècle, la stimulation électrique du cerveau a commencé à nous permettre de mieux comprendre le fonctionnement interne du cerveau. Au milieu du siècle, les patients subissant une opération du cerveau recevaient une faible stimulation électrique du cerveau. Le courant permettait aux chirurgiens d’éviter d’endommager des zones d’importance critique. Mais il leur permettait également de mieux comprendre quelles zones contrôlaient quelles fonctions.

Avec l’avènement de l’IRMf et d’autres technologies de balayage, nous avons pu examiner l’activité des régions du cerveau et la façon dont le langage les traverse. Nous savons maintenant que les impulsions associées au langage passent entre les aires de Boca et de Wernicke. La communication entre ces deux régions nous aide à comprendre la grammaire, le son des mots et leur signification. Une autre région, le gyrus fusiforme, nous aide à classer les mots.

Les personnes dont cette partie est endommagée ont des difficultés à lire. Elle nous permet aussi de repérer les métaphores et le mètre – comme dans la poésie. Il s’avère que le traitement du langage implique beaucoup plus de régions cérébrales qu’on ne le pensait. Tous les principaux lobes sont concernés. Selon David Poeppel, professeur de psychologie et de sciences neuronales à l’université de New York, la recherche en neurosciences, après nous avoir tant apporté, est devenue trop myope. Poeppel affirme que la façon dont la perception et conduit à l’action est encore inconnue.

Les neurosciences, selon lui, ont besoin d’un thème global, et d’adopter d’autres disciplines. Maintenant, dans une étude récemment publiée dans la revue Science Advances, Poeppel et post-doc. M. Florencia Assaneo, se penchent sur l’un des derniers points faibles du traitement du langage par le cerveau. La question est de savoir pourquoi le cortex moteur est impliqué. Classiquement, cette zone contrôle la planification et l’exécution des mouvements. Alors, quel est le rapport avec le langage ?

Crédit image : Wikipedia Commons.

Lorsque vous écoutez quelqu’un parler, vos oreilles captent les ondes sonores et les transforment en impulsions électriques qui voyagent à travers vos nerfs vers différentes parties du cerveau. Selon Peoppel, « les ondes cérébrales surfent sur les ondes sonores ». Le premier endroit où elles vont est le cortex auditif, où l' »enveloppe » ou la fréquence est traduite. Celle-ci est ensuite découpée en morceaux, ce que l’on appelle un signal entraîné. Ce qui a fait achopper les chercheurs, c’est qu’une partie de ce signal aboutit dans le cortex moteur.

Bien sûr, vous bougez votre bouche lorsque vous parlez, et beaucoup d’autres parties de votre visage. Donc le cortex moteur est essentiellement responsable de la physique de la parole. Mais pourquoi doit-il être impliqué dans le processus d’interprétation ? Selon M. Assaneo, c’est presque comme si le cerveau avait besoin de se dire les mots en silence, afin de déchiffrer ce qui a été dit. De telles interprétations sont toutefois controversées. Le signal entraîné n’aboutit pas toujours dans le cortex moteur. Alors, ces signaux partent-ils du cortex auditif ou d’ailleurs ?

Ce qu’ont fait Assaneo et Poeppel, c’est qu’ils ont pris un fait bien connu, à savoir que les signaux entraînés dans le cortex auditif sont généralement à environ 4,5 hertz. Puis, en se basant sur la linguistique, ils ont découvert que c’est également le rythme moyen auquel les syllabes sont prononcées dans presque toutes les langues de la planète. Pourrait-il y avoir un lien neurophysiologique ? Assaneo a recruté des volontaires et leur a fait écouter des syllabes qui constituaient des mots sans sens, à des fréquences comprises entre 2 et 7 hertz. Si les signaux entraînés allaient de l’auditif au cortex moteur, le signal entraîné devait être enregistré tout au long du test.

Poeppel et Assaneo ont constaté que le signal entraîné allait bien de l’auditif au cortex moteur, et maintenait une connexion jusqu’à 5 hertz. Au-delà, le signal disparaissait. Un modèle informatique a révélé que le cortex moteur oscille de façon interne à 4-5 hertz, soit le même rythme que les syllabes dans presque toutes les langues. Poeppel cite une approche multidisciplinaire des neurosciences pour cette découverte. Les études futures continueront à se pencher sur les rythmes du cerveau et sur la façon dont le synchronisme entre les régions nous permet de décoder et de formuler la parole.

Article original ici

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *