ChatGPT geeft perfect geformuleerde antwoorden, maar deze zijn niet altijd correct. Japanse onderzoekers zagen parallellen met afasie, een taalstoornis waarbij spraak vloeiend klinkt maar vaak betekenisloos is.
Met een energielandschapsanalyse vergeleek het team hersenactiviteit bij afasiepatiënten met interne gegevens van grote taalmodellen (LLM's). Ze ontdekten opvallende overeenkomsten in informatieverwerking, wat suggereert dat AI-modellen, net als mensen met afasie, vast kunnen zitten in rigide patronen die bredere kennis beperken.
De bevindingen kunnen helpen bij het verbeteren van AI-architectuur en zelfs als biomarker voor neurologische aandoeningen dienen.