Des cerveaux qui se connectent ? Les neurosciences, qui depuis quelques annees s’arment de l’intelligence artificielle (IA), tentent de modeliser de plus en plus precisement les mecanismes sous-jacents a nos pensees. En effet, les chercheurs peuvent soumettre les IA a des stimuli, a l’image de ceux appliques sur des humains. Et c’est la comparaison des deux qui permet de mieux caracteriser ces mecanismes.
Mais dans cette nouvelle etude, publiee le 2 aout 2024 dans la revue Neuron, ce sont deux cerveaux au lieu d’un seul qui sont analyses et compares a l’aide d’un outil d’intelligence artificielle. Les resultats indiquent que lorsque deux personnes discutent, leurs cerveaux se synchronisent plus facilement selon le contexte et les mots utilises.
Le contexte permet de saisir la nuance des mots
« Il est froid » peut avoir plusieurs significations : temperature ou caractere. Mais en ayant connaissance du contexte dans lequel il est applique, le mot « froid » prend tout son sens. « Nous savions deja que les cerveaux se synchronisent durant les interactions sociales, notamment les conversations. Toutefois, les mecanismes sous-jacents a ces synchronisations ne sont pas encore clairement definis », expose Guillaume Dumas, professeur agrege de psychiatrie computationnelle a la Faculte de medecine de l’Universite de Montreal (Canada), n’ayant pas pris part a l’etude, au sein de laquelle les auteurs principaux confient avoir voulu « quantifier » ce que deux cerveaux en conversation partagent.
Lire aussiMain dans la main, nos cerveaux se synchronisent
Des transcriptions de conversations pour nourrir l’IA
Pour cette etude, les neuroscientifiques ont utilise l’agent conversationnel GPT-2, un des predecesseurs de ChatGPT. Entrainee a extraire le contexte des mots utilises au cours de conversations enregistrees, cette intelligence artificielle peut fabriquer un modele de langage. « La nouveaute de cette etude reside dans la combinaison de deux ingredients : l’utilisation du modele de langage informatique GPT-2, ainsi que le suivi de deux cerveaux au lieu d’un seul », explique Francois-Xavier Alario, directeur de recherche au CNRS, specialiste en psychologie cognitive a Marseille, n’ayant pas participe a l’etude.
L’intelligence artificielle, qui projette l’activite cerebrale au cours du temps, permet de « suivre le flux d’informations linguistiques, mot par mot, d’un cerveau a l’autre dans des conversations naturelles, appuient les auteurs de l’etude. Les LLM (grands modeles de langage, ndlr), comme les humains, peuvent interpreter le sens contextuel des mots dans les conversations du monde reel. »
Lire aussiDes IA plus persuasives que les humains
Des signaux jumeaux dans les deux cerveaux, a quelques millisecondes d’ecart
Conclusion de l’etude : le signal cerebral emis par l’orateur est egalement emis, quelques millisecondes plus tard, par l’auditeur, pour un meme mot donne, dans les memes zones du cerveau. « Ce travail ajoute une pierre a l’edifice commun entre neurosciences et intelligence artificielle, ajoute Jean-Remi King, chercheur au CNRS en detachement a Meta et specialiste du fonctionnement du cerveau humain a Paris, qui ne fait pas partie de l’etude. La nature precise de ces lois, ainsi que leurs limites, restent cependant a decouvrir. »
Plus de details sur ces experiences sont a retrouver dans un article dedie sur le site de La Recherche.