Facebook-Netzwerk verdient mit KI-Holocaust-Bildern

Pakistanisches Netzwerk verdient Tausende mit KI-Holocaust-Bildern auf Facebook, Bedenken zu Geschichtsfälschung.

facebook-ki-holocaust-bilder
Facebook X LinkedIn Bluesky WhatsApp

Internationales Netzwerk monetarisiert gefälschte Holocaust-Bilder

Ein ausgeklügeltes internationales Netzwerk, das hauptsächlich aus Pakistan operiert, generiert erhebliche Einnahmen durch KI-generierte Bilder fiktiver Holocaust-Opfer auf Facebook. Laut BBC-Untersuchungen nutzen diese Konten Metas Content-Monetarisierungsprogramm, um Geld basierend auf Aufrufzahlen und Engagement-Metriken zu verdienen.

Beunruhigende Inhalte und massive Reichweite

Das Netzwerk erstellt hochrealistische aber vollständig gefälschte Bilder von Szenarien, die während des Holocausts nie stattgefunden haben. Dazu gehören Darstellungen jüdischer Kinder, die Enten an Amsterdamer Grachten füttern, Musiker, die in gestreiften Konzentrationslageruniformen in Auschwitz auftreten, und Liebende, die sich an Stacheldrahtzäunen treffen. Ein Konto unter dem Namen Abdul Mughees, angeblich based in Pakistan, hat innerhalb von vier Monaten über 1,2 Milliarden Aufrufe gesammelt und etwa 17.000 Euro mit diesen Inhalten verdient.

Geschichtsfälschung und Expertenbedenken

Das Staatliche Museum Auschwitz-Birkenau warnte bereits im Juni vor diesen Konten und stellte fest, dass sie historische Details verzerren oder Geschichten und Opfer vollständig erfinden. Museumsvertreter beschrieben die Bilder als "gruselig perfekt, stilisiert und nicht aus historischen Archiven stammend." Seniorforscher Kees Ribbens vom NIOD-Institut für Kriegs-, Holocaust- und Genozidstudien betonte die Gefahr solcher Inhalte: "Authentische und historische Bilder vermischen sich mit Fälschungen, was die Unterscheidung zwischen zuverlässigen und gefälschten Quellen unmöglich macht."

Metas Reaktion und Inhaltsrichtlinien

Meta, das Mutterunternehmen von Facebook, hat Untersuchungen mehrerer an diesem System beteiligter Seiten und Gruppen eingeleitet. Das Unternehmen hat mehrere Seiten wegen Verstoßes gegen Authentizitätsregeln entfernt. Der Vorfall wirft jedoch ernsthafte Fragen zu Content-Moderation-Systemen und den ethischen Implikationen der Monetarisierung sensibler historischer Inhalte durch KI-generierte Bilder auf.

Verwandt

ki-wasserzeichen-technologie-start
Ai

Start von KI-Wasserzeichen-Technologie markiert neue Ära für digitale Inhalte

Große KI-Wasserzeichen-Tools wie Googles SynthID wurden eingeführt und versehen KI-Inhalte mit unsichtbaren...

ki-wasserzeichen-tool-verleger
Ai

KI-Wasserzeichen-Tool für Verleger veröffentlicht

Ein Konsortium veröffentlicht ein KI-Modell-Wasserzeichen-Tool mit verlegerorientierten Integrations-Workflows,...

koalition-ki-wasserzeichen-toolkit
Ai

Große Koalition startet KI-Wasserzeichen-Erkennungstoolkit für Verlage

Eine große Koalition startet ein KI-Wasserzeichen-Erkennungstoolkit für Verlage, mit Integrations- und...

ki-wasserzeichen-standard-desinformation
Ai

Neuer KI-Wasserzeichen-Standard zur Bekämpfung von Desinformation

Forscher haben einen umfassenden KI-Wasserzeichen-Standard veröffentlicht, der sichtbare/unsichtbare Markierungen...

ki-wasserzeichen-herkunftstools-synthetische-inhalte
Ai

KI-Wasserzeichen und Herkunftstools bekämpfen synthetische Inhaltsrisiken

KI-Wasserzeichen und Herkunftsnachweise werden zu wesentlichen Standards, um die Herkunft synthetischer Inhalte zu...

facebook-ki-holocaust-bilder
Ai

Facebook-Netzwerk verdient mit KI-Holocaust-Bildern

Pakistanisches Netzwerk verdient Tausende mit KI-Holocaust-Bildern auf Facebook, Bedenken zu Geschichtsfälschung.