Langage : notre cerveau n'a pas besoin "d'empiler" les sons pour comprendre les phrases

·2 min de lecture

C'est une théorie scientifique que personne n'arrivait à démontrer ou à réfuter jusqu'à présent : une nouvelle étude américaine prouve que notre cerveau ne traite pas le langage après les sons, mais fait tout en simultané.

Notre cerveau n'a pas besoin "d'empiler" des sons pour comprendre des phrases, conclut une nouvelle étude dans la revue . D'après ces nouveaux travaux américains, les deux zones du cerveau respectivement spécialisées dans le traitement des sons et du langage travaillent non pas l'une après l'autre, mais en parallèle.

En théorie, les sons devaient être traités avant les phrases

Les phrases énoncées à l'oral étant composées de sons, on s'attendrait à ce que notre cerveau les traite dans l'ordre : d'abord les sons, puis le sens des mots qu'ils forment. C'est aussi ce que pensaient les scientifiques, jusqu'à ces nouveaux travaux américains. En écoutant votre podcast favori, les sons composant les mots atteignent vos oreilles. Là, la cochlée se charge de les convertir en signaux électriques à destination du cerveau, et plus particulièrement du cortex auditif. La théorie en vigueur jusqu'à présent voulait que le cortex auditif primaire traite ces sons, qui ne seraient traduits en mots et phrases que par une région adjacente : le gyrus temporal supérieur.

Problème : pour vérifier ce processus, il faut pouvoir enregistrer l'activité électrique de ces deux zones du cerveau de façon très précise, sur un très court laps de temps. Or, le cortex auditif primaire est justement enfoui profondément dans notre cerveau, dans la fente qui sépare les lobes frontal et temporal. Pour en enregistrer l'activité, il n'y avait qu'une solution : y insérer de multiples électrodes. Ethiquement, il n'était donc pas question de réaliser ce genre d'opération sur des gens bien portant.

Des électrodes implantées sur 636 emplacements différents

"Nous avons donc entrepris cette étude en espérant trouver des preuves de cette transformation de la représentation de bas niveau des sons en représentation de haut niveau des mots", explique dans un communiqué le neuroscientifique et neurochirurgien Edward Chang, qui a dirigé ces travaux. Cela leur aura pris sept ans, mais les chercheurs de l'université de [...]

Lire la suite sur sciencesetavenir.fr

A lire aussi

Notre objectif est de créer un endroit sûr et engageant pour que les utilisateurs communiquent entre eux en fonction de leurs centres d’intérêt et de leurs passions. Afin d'améliorer l’expérience dans notre communauté, nous suspendons temporairement les commentaires d'articles