KI-Halluzinationen führen zur Aufhebung eines Gerichtsurteils
Ein Berufungsgericht in Georgia hat ein Scheidungsurteil aufgehoben, nachdem es auf nicht existierende Präzedenzfälle gestützt wurde, die von künstlicher Intelligenz generiert wurden. Das ursprüngliche Urteil bezog sich auf 15 fabrizierte Fälle, von denen 11 vom Gericht als "völliger Unsinn" eingestuft wurden.
Hintergrund und Entdeckung
Das Scheidungsverfahren begann 2021 zwischen anonymen Parteien. Der Fehler wurde entdeckt, als die Ehefrau fingierte juristische Referenzen identifizierte. Sie legte Berufung ein und argumentierte, die Präzedenzfälle seien KI-generierte Halluzinationen.
Während des Berufungsverfahrens verschlimmerte der Anwalt des Mannes die Situation, indem er zusätzliche gefälschte ChatGPT-generierte Fälle einreichte. Dies führte zur vollständigen Aufhebung des ursprünglichen Urteils.
Richterliche Bedenken und Verantwortung
Das Gericht äußerte "große Besorgnis", betonte aber, dass die Untersuchung des Ursprungs der gefälschten Präzedenzfälle nicht in seine Zuständigkeit falle. Es verwies auf ein Urteil von 2023, das KI-Nutzung erlaubt, aber betonte, dass Anwälte als "Torwächter" fungieren müssen.
Der verantwortliche Anwalt erhielt eine Geldstrafe von 2500$, während der Richter keine Sanktionen erhielt. Dieser Fall zeigt systemische Schwächen auf, bei denen untere Gerichte oft ungeprüftes Material übernehmen.
Weitreichende rechtliche Implikationen
Dieser Vorfall folgt ähnlichen KI-Kontroversen, etwa in den Niederlanden, wo ein Richter KI zur Urteilsfindung nutzte. Juristen warnen, dass strenge Validierungsprotokolle essenziell sind, da Tools wie ChatGPT in Rechtsrecherchen zunehmend eingesetzt werden.
Der Stanford KI-Index 2025 meldet einen Anstieg legislativer KI-Erwähnungen um 21,3% in 75 Ländern. Der Fall in Georgia unterstreicht den dringenden Bedarf an ethischen Rahmenwerken für KI in Justizsystemen.