Aux sources du langage

Dernière mise à jour 19/03/20 | Article
aux_sources_du_langage
Etudier l’origine et l’évolution du langage, mais aussi trouver des nouvelles manières d’aborder ses troubles: tels sont les objectifs du nouveau Programme national de recherche (PNR) «Evolving Language», auquel des neuroscientifiques genevois participent.

Nul ne sait exactement quand est née la communication verbale, mais une chose est sûre: ce n’est qu’à la suite d’un long processus que le langage a pu émerger. «Les mots viennent quand on peut à la fois être capable de parler et de comprendre. A un moment de l’évolution, tout s’est mis à concorder», précise Anne-Lise Giraud, professeure au Département de neurosciences fondamentales de l’Université de Genève (UNIGE), responsable du groupe «Audition et langage» et co-directrice du PNR «Evolving Language». De nombreux facteurs y ont contribué, notamment «la sociabilité, qui crée la nécessité de communiquer avec ses congénères». Encore faut-il avoir les moyens de le faire. Pour parler, il faut en effet disposer «d’articulateurs» (larynx, langue, cordes vocales, respiration, etc.), mais aussi de cortex moteur et pré-moteur, assurant la rythmicité de la parole et sa planification. «De la même manière que la main bénéficie d’une motricité grossière et d’une autre plus fine, le langage humain nécessite une dextérité particulière», souligne la chercheuse.

Segmenter la parole

Quant à la perception de la parole, elle passe par notre système auditif. Lorsque notre interlocuteur s’exprime, les sons qu’il émet font vibrer la membrane de notre tympan. Les vibrations sont alors transmises à la cochlée, structure de l’oreille interne en forme d’escargot autour de laquelle est enroulé le nerf auditif. Ce dernier transmet ensuite, par un certain nombre de relais, les informations au cortex auditif. Alors que la production de la parole fait appel à l’hémisphère gauche du cerveau, sa perception engage les deux hémisphères. «Le cortex auditif droit traite prioritairement les informations de la voix qui permettent notamment d’identifier le locuteur, explique Anne-Lise Giraud. Le gauche sert à décoder les informations très fines et rapides, par exemple à faire la différence entre les consonnes.»

En fait, pour percevoir et comprendre ce que nous dit notre interlocuteur, il nous faut segmenter sa parole. Les sons qu’il émet arrivent sous la forme d’un signal continu que nous devons découper, «afin de mettre des frontières entre les mots pour construire leur sens». Dans ce cadre, le cortex auditif joue le rôle d’un transformateur de l’information afin, «au final, d’activer les concepts qui nous donnent une représentation de ce que nous écoutons». En effet, précise la professeure de l’UNIGE, «la compréhension de la parole est éminemment symbolique car, contrairement aux objets visuels qui existent en tant que tels à l’instant présent, il n’existe pas d’objet auditif sans une intégration de l’information acoustique dans le temps».

L’origine de la dyslexie

De façon assez contre-intuitive, la dyslexie pourrait avoir une origine auditive. Les paroles que nous écoutons stimulent certains neurones de notre cortex auditif qui forment alors des circuits et se mettent à fonctionner ensemble, afin de nous permettre de décoder les informations, les mots par exemple. «Dans ce cas, ils se mettent à se synchroniser et à osciller ensemble à des fréquences électriques particulières que l’on peut mesurer par électro- ou magnétoencéphalographie.»

En utilisant ces méthodes, Anne-Lise Giraud et ses collègues ont montré que chez les personnes atteintes de la forme la plus fréquente de la dyslexie (nommée phonologique), «les oscillations neuronales sont anormales dans le cortex auditif gauche, dans une bande de fréquences autour de 30Hz. C’est précisément celle qui nous permet d’encoder les phonèmes dans le flux acoustique, afin de pouvoir par exemple distinguer un “BA” d’un “DA”». Certes, dans les conversations courantes, notre cerveau ne va pas aussi loin et il se contente d’extraire les syllabes, les mots ou groupes de mots. En revanche, ce découpage fin est essentiel quand on apprend à lire, «car nous devons alors mettre en relation les représentations des phonèmes avec celles des lettres». Lorsque ce processus dysfonctionne, les enfants développent une dyslexie.

Après avoir élucidé l’origine de ce trouble, l’équipe genevoise a cherché à corriger les défaillances des personnes dyslexiques à l’aide de la stimulation électrique transcrânienne (qui stimule l’activité de certaines zones cérébrales à l’aide d’électrodes placées sur le crâne). «Nous avons ainsi réussi à améliorer la reconnaissance des phonèmes et même à augmenter la précision de la lecture. Mais cet effet ne persiste pas longtemps.» Anne-Lise Giraud et ses collègues poursuivent donc leurs recherches, avec l’idée d’utiliser la plasticité du cerveau pour modifier durablement les circuits neuronaux.

Redonner la parole aux aphasiques

A l’image des chercheurs de l’EPLF qui ont fait remarcher des tétraplégiques en enregistrant des signaux issus de leur cortex moteur pour animer une jambe robotisée, les neuroscientifiques de l’UNIGE impliqués dans le projet de recherche européen «BrainCom» ont pour objectif d’enregistrer, avec des électrodes implantées dans le cerveau, des signaux du cortex auditif des personnes aphasiques. Puis, à l’aide d’une interface cerveau-ordinateur, de les «faire parler» à l’aide d’un synthétiseur vocal.

«Nous en sommes encore très loin», souligne Anne-Lise Giraud, professeure au Département de neurosciences fondamentales de l’UNIGE. La tâche est complexe. De nombreuses zones cérébrales étant impliquées dans la production de la parole, il faut savoir où placer précisément les électrodes et quelles informations recueillir. Une autre difficulté est de repérer «à quel moment le sujet commence à vocaliser intérieurement». Pour l’instant, l’équipe genevoise est arrivée «à décoder jusqu’à six mots différents». Elle va poursuivre l’effort, notamment dans le cadre du tout nouveau Programme national de recherche «Evolving Language», piloté par les universités de Zurich et de Genève et dont Anne-Lise Giraud est la co-directrice.

Articles sur le meme sujet
P25-03_Troubles neurologiques fonctionnels

Des symptômes mystérieux et invalidants

Largement méconnus, les troubles neurologiques fonctionnels ont un impact majeur sur la qualité de vie des personnes qui en souffrent. Dépendants de facteurs biologiques, psychologiques et sociaux, ils ne sont pas encore complètement élucidés et nécessitent une prise en charge globale.
PS56_Nina_Kazanina

«Le langage peut être utilisé pour tester la mémoire et ses failles»

La Pre Nina Kazanina, spécialiste des neurosciences du langage, a rejoint l’Université de Genève (UNIGE) et, plus précisément, le Département des neurosciences fondamentales, en 2023. Récemment nommée codirectrice du Pôle de recherche national (PRN) Evolving Language*, elle travaille sur les liens complexes entre cerveau et langage. Des travaux de recherche qui pourraient à l’avenir avoir des impacts concrets, notamment dans le cadre de la prise en charge des troubles du langage ou de la mémoire.
MV_Prendre_soin_cerveau

Il n’y a pas d’âge pour «muscler» son cerveau

Entraîner ses neurones, jour après jour, dès l’enfance, est le meilleur moyen de préserver ses facultés cognitives au fil du temps.
Videos sur le meme sujet

L'influence de la ménopause sur le cerveau

La ménopause, ainsi que la période qui la précède, influence le cerveau, causant parfois un "brouillard mental" et des troubles de l'humeur.

Quand le cannabis empêche les jeunes de dormir

Fumer du cannabis pour faciliter lʹendormissement serait une mauvaise idée.

Cerveau et musique: qui influence qui?

Ce nouvel épisode de Micro sciences examine la fascinante relation entre la musique et le cerveau humain.