Onderzoekers ontdekten dat ChatGPT's verwerking lijkt op afasie, waarbij vloeiende maar betekenisloze output ontstaat door rigide interne patronen. De studie kan helpen bij het verbeteren van AI-betrouwbaarheid en neurologische diagnostiek.

ChatGPT geeft perfect geformuleerde antwoorden, maar deze zijn niet altijd correct. Japanse onderzoekers zagen parallellen met afasie, een taalstoornis waarbij spraak vloeiend klinkt maar vaak betekenisloos is.
Met een energielandschapsanalyse vergeleek het team hersenactiviteit bij afasiepatiënten met interne gegevens van grote taalmodellen (LLM's). Ze ontdekten opvallende overeenkomsten in informatieverwerking, wat suggereert dat AI-modellen, net als mensen met afasie, vast kunnen zitten in rigide patronen die bredere kennis beperken.
De bevindingen kunnen helpen bij het verbeteren van AI-architectuur en zelfs als biomarker voor neurologische aandoeningen dienen.