ChatGPTs 'Denkweise' ähnelt überraschend der von Menschen mit Aphasie. Deshalb scheitert es manchmal

Forscher fanden heraus, dass ChatGPTs Verarbeitung der Aphasie ähnelt, bei der flüssige, aber sinnlose Ausgaben aufgrund starrer interner Muster entstehen. Die Studie könnte die KI-Zuverlässigkeit und neurologische Diagnostik verbessern.

ChatGPT liefert perfekt formulierte Antworten, die jedoch nicht immer korrekt sind. Japanische Forscher fanden Parallelen zur Aphasie, einer Sprachstörung, bei der die Sprache flüssig klingt, aber oft bedeutungslos ist.

Mithilfe einer Energielandschaftsanalyse verglich das Team Hirnaktivitätsmuster bei Aphasiepatienten mit internen Daten großer Sprachmodelle (LLMs). Sie entdeckten auffällige Ähnlichkeiten in der Informationsverarbeitung, was darauf hindeutet, dass KI-Modelle, ähnlich wie Menschen mit Aphasie, in starren Mustern feststecken können, die den Zugang zu breiterem Wissen einschränken.

Die Ergebnisse könnten helfen, die KI-Architektur zu verbessern und sogar als Biomarker für neurologische Erkrankungen dienen.

Lucas Schneider

Lucas Schneider ist ein renommierter deutscher Finanzjournalist, der sich auf die Analyse globaler Märkte spezialisiert hat. Seine aufschlussreichen Berichte machen komplexe Wirtschaftstrends für ein breites Publikum verständlich.

Read full bio →

You Might Also Like