De 'denkwijze' van ChatGPT lijkt verrassend veel op die van mensen met afasie. En daarom gaat het soms mis

Onderzoekers ontdekten dat ChatGPT's verwerking lijkt op afasie, waarbij vloeiende maar betekenisloze output ontstaat door rigide interne patronen. De studie kan helpen bij het verbeteren van AI-betrouwbaarheid en neurologische diagnostiek.

ChatGPT geeft perfect geformuleerde antwoorden, maar deze zijn niet altijd correct. Japanse onderzoekers zagen parallellen met afasie, een taalstoornis waarbij spraak vloeiend klinkt maar vaak betekenisloos is.

Met een energielandschapsanalyse vergeleek het team hersenactiviteit bij afasiepatiënten met interne gegevens van grote taalmodellen (LLM's). Ze ontdekten opvallende overeenkomsten in informatieverwerking, wat suggereert dat AI-modellen, net als mensen met afasie, vast kunnen zitten in rigide patronen die bredere kennis beperken.

De bevindingen kunnen helpen bij het verbeteren van AI-architectuur en zelfs als biomarker voor neurologische aandoeningen dienen.

Lucas Schneider

Lucas Schneider is een gerenommeerd Duits financieel journalist gespecialiseerd in de analyse van wereldwijde markten. Zijn inzichtelijke verslaggeving maakt complexe economische trends begrijpelijk voor een breed publiek.

Read full bio →

You Might Also Like