Les chercheurs ont découvert que le traitement de ChatGPT ressemble à l'aphasie, où une production fluide mais dénuée de sens résulte de schémas internes rigides. L'étude pourrait améliorer la fiabilité de l'IA et les diagnostics neurologiques.

ChatGPT fournit des réponses parfaitement formulées, mais elles ne sont pas toujours exactes. Des chercheurs japonais ont trouvé des parallèles avec l'aphasie, un trouble du langage où la parole semble fluide mais souvent dépourvue de sens.
En utilisant une analyse du paysage énergétique, l'équipe a comparé les modèles d'activité cérébrale chez les personnes aphasiques aux données internes des grands modèles linguistiques (LLM). Ils ont découvert des similitudes frappantes dans le traitement de l'information, suggérant que les modèles d'IA, comme les humains atteints d'aphasie, peuvent rester bloqués dans des schémas rigides, limitant leur accès à une connaissance plus large.
Les résultats pourraient aider à améliorer l'architecture de l'IA et même servir de biomarqueurs pour les affections neurologiques.