Vous êtes ici : Accueil > Actualités > Comment le cerveau intègre-t-il efficacement les informations visuelles et auditives de la parole ?

Résultat scientifique | Cerveau | Cognition

Comment le cerveau intègre-t-il efficacement les informations visuelles et auditives de la parole ?


​​Une étude dirigée par l'équipe "Cognition et dynamique cérébrale" d’UNICOG (NeuroSpin) montre que le cerveau humain optimise l’intégration des informations auditives et visuelles de la parole à différentes échelles anatomiques et fonctionnelles, grâce à un ensemble de réseaux neuronaux hiérarchiquement imbriqués et synchronisés. 

Publié le 25 juillet 2023

Synergie entre ​l'OUÏE et la vue

Entendre une personne parler ou bien l'entendre et la voir ne produisent pas le même effet sur le cerveau. En l'occurrence, le cerveau est parfois capable d'extraire à partir des mouvements du visage du locuteur des informations sur le son qui va être articulé, avant même qu'il ne soit effectivement produit, ce qui facilite ​​la compréhension du discours. Mais comment cette synergie s'opère-t-elle au moment de l'intégration des différentes informations visuelles et auditives ?

C'est ce qu'a cherché à comprendre une équipe de chercheurs dirigée par Virginie van Wassenhove (UNICOG/NeuroSpin) dans une étude publiée dans iScience.

Grâce à la magnétoencéphalographie (MEG), ils ont regardé le décours spatio-temporel de l'activité cérébrale en réponse à la présentation de syllabes audiovisuelles.

Pour cela, ils ont présenté aux participants volontaires des vidéos d'un visage articulant des syllabes (visèmes) et des sons syllabiques avec un décalage temporel entre les deux stimuli, le décalage étant soit naturel soit modifié (visème apparaissant trop tôt ou trop tard par rapport au décalage naturellement observé). Pour chaque essai, les chercheurs ont enregistré l'activité de populations de neurones dans le cerveau.

Avec ce paradigme expérimental, les chercheurs montrent que la dynamique cérébrale s'organise en un réseau d'aires cérébrales qui se synchronisent, hiérarchiquement, à différentes échelles de temps. Ce réseau est orchestré par des oscillations cérébrales lentes (1-3Hz, appelées « delta » δ) qui sont sensibles aux délais temporels entre visèmes et sons syllabiques ainsi qu'aux prédictions temporelles.

L'ensemble des résultats montre que le couplage hiérarchique des réseaux corticaux suit l'alignement temporel de la parole audiovisuelle tout en préservant l'intégrité de l'information linguistique portée par les signaux visuels et auditifs. Ces résultats prédisent l'existence d'une représentation interne des statistiques temporelles de la parole. ​

Contact chercheur Institut ​​des sciences du vivant Frédéric-Joliot : 

Virginie van Wassenhove (virginie.vanwassenhove@cea.fr)

Haut de page