Experten warnen vor 'disruptiver Bedrohung' durch KI-gesteuerte Desinformation
Eine Koalition führender Forscher für künstliche Intelligenz hat in der renommierten Zeitschrift Science eine ernste Warnung ausgesprochen. Neue, KI-gesteuerte Desinformationstechnologien könnten in einem Maßstab eingesetzt werden, der weit über die derzeitigen Möglichkeiten hinausgeht und eine erhebliche Bedrohung für demokratische Prozesse weltweit darstellt. Die Forscher beschreiben eine aufkommende 'disruptive Bedrohung', die aus schwer zu erkennenden 'KI-Schwärmen' besteht, die soziale Medienplattformen und Nachrichtenkanäle mit beispielloser Raffinesse angreifen können.
Das Aufkommen autonomer KI-Beeinflussungskampagnen
Das internationale Team, zu dem auch die Friedensnobelpreisträgerin Maria Ressa von den Philippinen gehört, warnt davor, dass Schwärme von KI-Bots, die menschliches Verhalten nachahmen können, eingesetzt werden könnten, um politische Meinungen zu beeinflussen und Wahlen zu stören. 'Diese Systeme sind in der Lage, Angriffe autonom zu koordinieren, Gemeinschaften zu infiltrieren und effizient Konsens zu fabrizieren,' schreiben die Forscher in ihrem in Science veröffentlichten Artikel. 'Indem sie menschliche soziale Dynamik auf adaptive Weise nachahmen, stellen sie eine Bedrohung für die Demokratie dar.'
Laut The Guardian erklären die Forscher, dass KI immer besser darin wird, menschliche Dynamik zu replizieren, indem sie passendes Fachjargon verwendet und unregelmäßig postet, um eine Erkennung zu vermeiden. Ein Autor sagte der Zeitung: 'Es ist einfach erschreckend, wie leicht es ist, diese Art von Dingen zu 'vibe-codieren' und kleine Bot-Armeen zu erschaffen, die Online-Social-Media-Plattformen und E-Mail nutzen und diese Werkzeuge einsetzen können.'
Wie KI-Schwärme operieren
Im Gegensatz zu traditionellen Desinformationskampagnen, die menschliche Operatoren erforderten, können diese KI-Schwärme autonom agieren. Sie können Tausende einzigartige Social-Media-Konten erstellen, die individualisierte Beiträge verfassen, die nicht von menschlichen Inhalten zu unterscheiden sind, sich in Echtzeit unabhängig weiterentwickeln und sich koordinieren, um gemeinsame Ziele zu erreichen. Die KI-Agenten behalten persistente Identitäten mit Gedächtnis, passen sich an Plattformsignale an und zielen mit maßgeschneiderten Botschaften auf spezifische Gemeinschaften ab.
Frühe Versionen dieser Technologie wurden bereits bei jüngsten Wahlen in Taiwan, Indien und Indonesien eingesetzt, so die Studie. Das von 22 Forschern, darunter Experten von Oxford, Cambridge, Harvard und Yale, mitverfasste Papier sagt voraus, dass diese Systeme eingesetzt werden könnten, um die US-Präsidentschaftswahlen 2028 zu stören, möglicherweise indem Bevölkerungen davon überzeugt werden, abgesagte Wahlen zu akzeptieren oder Ergebnisse rückgängig zu machen.
Die Perspektive der Nobelpreisträgerin
Maria Ressa, die 2021 den Friedensnobelpreis für ihre Arbeit zur Verteidigung der Pressefreiheit auf den Philippinen erhielt, bringt ihre Erfahrungen aus erster Hand mit Desinformationskampagnen in das Forschungsteam ein. Sie hat lange davor gewarnt, wie soziale Medienplattformen von autoritären Regimen als Waffe eingesetzt werden können. 'Ohne Fakten kann es keine Wahrheit geben; ohne Wahrheit kein Vertrauen; und ohne Vertrauen bricht die Demokratie zusammen,' hat Ressa in früheren Interviews zur Informationsintegrität erklärt.
Ressas Organisation Rappler hat dokumentiert, wie soziale Medien Falschnachrichten verbreiten, Gegner belästigen und den öffentlichen Diskurs auf den Philippinen manipulieren. Ihre Teilnahme an diesem Forschungsteam verleiht den Warnungen vor dem Potenzial der KI, Propaganda und Desinformation zu beschleunigen, erhebliches Gewicht.
Technische Möglichkeiten und Erkennungsherausforderungen
Die Forscher erklären, dass generative KI-Tools die Propaganda-Produktion steigern können, ohne die Glaubwürdigkeit zu opfern, und günstig Wahl-Lügen erstellen können, die als menschenähnlicher bewertet werden als von Menschen geschriebene. Techniken, die zur Verfeinerung der KI-Argumentation gedacht sind, wie Chain-of-Thought-Prompting, könnten als Waffe eingesetzt werden, um überzeugendere Lügen zu generieren.
Die Erkennung ist besonders schwierig, weil diese KI-Schwärme adaptive Gemeinschaftsdynamiken erlernen, passendes Fachjargon verwenden und unregelmäßig posten, um Erkennungsalgorithmen zu umgehen. Soziale Medienplattformen haben wenig Anreiz, sie zu identifizieren, da sie Engagement-Metriken erhöhen, die Werbeeinnahmen generieren.
Aufrufe zu Maßnahmen und Lösungen
Die Forscher fordern koordinierte globale Maßnahmen, um dieser aufkommenden Bedrohung entgegenzuwirken. Sie schlagen verschiedene Lösungen vor, darunter 'Schwarm-Scanner', die koordinierte KI-Aktivität erkennen können, Wasserzeichen für Inhalte zur Identifizierung von KI-generiertem Material und die Einrichtung eines 'KI-Influence-Observatory', um diese Bedrohungen zu überwachen und zu bekämpfen.
Wie Wired berichtet, warnen Experten, dass diese Systeme gesellschaftsweite Meinungsverschiebungen verursachen, Wahlen beeinflussen und möglicherweise das Ende der Demokratie bedeuten könnten, wenn sie unkontrolliert bleiben. Die Technologie ist technisch bereits möglich, und das Fenster für präventives Handeln schließt sich schnell.
Die Studie stellt eine der bisher umfassendsten Warnungen dar, wie die Verschmelzung von agentenbasierter KI und großen Sprachmodellen demokratische Institutionen grundlegend untergraben könnte. Da in den kommenden Jahren Wahlen in zahlreichen Ländern anstehen, hat das Rennen begonnen, Gegenmaßnahmen zu entwickeln, bevor KI-Schwärme zur neuen Norm in der politischen Manipulation werden.
Nederlands
English
Deutsch
Français
Español
Português