Experts waarschuwen voor 'ontwrichtende dreiging' van AI-gestuurde desinformatie
Een coalitie van vooraanstaande kunstmatige intelligentie-onderzoekers heeft in het prestigieuze tijdschrift Science een ernstige waarschuwing afgegeven. Nieuwe AI-gestuurde desinformatietechnologie kan op een schaal worden ingezet die ver buiten de huidige mogelijkheden ligt, wat een aanzienlijke bedreiging vormt voor democratische processen wereldwijd. De onderzoekers beschrijven een opkomende 'ontwrichtende dreiging' bestaande uit moeilijk te detecteren 'AI-zwermen' die sociale mediaplatforms en berichtenkanalen kunnen aanvallen met ongekende verfijning.
De opkomst van autonome AI-beïnvloedingscampagnes
Het internationale team, waaronder Nobelprijs voor de Vrede-winnares Maria Ressa uit de Filipijnen, waarschuwt dat zwermen AI-bots die menselijk gedrag kunnen nabootsen kunnen worden ingezet om politieke meningen te beïnvloeden en verkiezingen te ontregelen. 'Deze systemen zijn in staat om autonoom aanvallen te coördineren, gemeenschappen te infiltreren en efficiënt consensus te fabriceren,' schrijven de onderzoekers in hun paper gepubliceerd in Science. 'Door op adaptieve wijze menselijke sociale dynamiek na te bootsen, vormen ze een bedreiging voor de democratie.'
Volgens The Guardian leggen de onderzoekers uit dat AI steeds beter wordt in het repliceren van menselijke dynamiek door passend jargon te gebruiken en onregelmatig te posten om detectie te voorkomen. Een auteur vertelde de krant: 'Het is gewoon angstaanjagend hoe makkelijk het is om dit soort dingen te 'vibe-coderen' en kleine botlegers te creëren die online sociale mediaplatforms en e-mail kunnen gebruiken en deze tools kunnen inzetten.'
Hoe AI-zwermen opereren
In tegenstelling tot traditionele desinformatiecampagnes die menselijke operators vereisten, kunnen deze AI-zwermen autonoom opereren. Ze kunnen duizenden unieke sociale media-accounts creëren die geïndividualiseerde posts maken die niet te onderscheiden zijn van menselijke content, onafhankelijk evolueren in realtime en coördineren om gedeelde doelstellingen te bereiken. De AI-agenten behouden persistente identiteiten met geheugen, passen zich aan aan platformsignalen en richten zich op specifieke gemeenschappen met op maat gemaakte berichten.
Vroege versies van deze technologie zijn al ingezet bij recente verkiezingen in Taiwan, India en Indonesië, volgens het onderzoek. Het paper, mede geschreven door 22 onderzoekers waaronder experts van Oxford, Cambridge, Harvard en Yale, voorspelt dat deze systemen kunnen worden gebruikt om de Amerikaanse presidentsverkiezingen van 2028 te ontregelen, mogelijk door bevolkingen te overtuigen geannuleerde verkiezingen te accepteren of resultaten ongedaan te maken.
Het perspectief van de Nobelprijswinnares
Maria Ressa, die in 2021 de Nobelprijs voor de Vrede won voor haar werk ter verdediging van persvrijheid in de Filipijnen, brengt eerstehands ervaring met desinformatiecampagnes naar het onderzoeksteam. Ze heeft lang gewaarschuwd voor hoe sociale mediaplatforms kunnen worden ingezet als wapen door autoritaire regimes. 'Zonder feiten kan er geen waarheid zijn; zonder waarheid geen vertrouwen; en zonder vertrouwen stort de democratie in,' heeft Ressa verklaard in eerdere interviews over informatie-integriteit.
Ressa's organisatie Rappler heeft gedocumenteerd hoe sociale media nepnieuws verspreiden, tegenstanders lastigvallen en het publieke discours manipuleren in de Filipijnen. Haar deelname aan dit onderzoeksteam voegt aanzienlijk gewicht toe aan de waarschuwingen over het potentieel van AI om propaganda en desinformatie te versnellen.
Technische mogelijkheden en detectie-uitdagingen
De onderzoekers leggen uit dat generatieve AI-tools propaganda-output kunnen uitbreiden zonder geloofwaardigheid op te offeren, en goedkoop verkiezingsleugens kunnen creëren die als menselijker worden beoordeeld dan die geschreven door mensen. Technieken bedoeld om AI-redenering te verfijnen, zoals chain-of-thought prompting, kunnen worden ingezet als wapen om overtuigendere leugens te genereren.
Detectie is bijzonder moeilijk omdat deze AI-zwermen adaptief gemeenschapsdynamieken leren, passend jargon gebruiken en onregelmatig posten om detectie-algoritmen te vermijden. Sociale mediaplatforms hebben weinig prikkel om ze te identificeren omdat ze engagement-metrics verhogen die advertentie-inkomsten genereren.
Oproepen tot actie en oplossingen
De onderzoekers roepen op tot gecoördineerde wereldwijde actie om deze opkomende dreiging tegen te gaan. Ze stellen verschillende oplossingen voor waaronder 'zwermscanners' die gecoördineerde AI-activiteit kunnen detecteren, watermerkcontent om AI-gegenereerd materiaal te identificeren, en de oprichting van een 'AI Influence Observatory' om deze dreigingen te monitoren en te bestrijden.
Zoals Wired meldt, waarschuwen experts dat deze systemen maatschappijbrede verschuivingen in standpunt kunnen veroorzaken, verkiezingen kunnen beïnvloeden en mogelijk het einde van de democratie kunnen betekenen als ze onbeheerd blijven. De technologie is technisch nu al mogelijk, en het venster voor preventieve actie sluit snel.
Het onderzoek vertegenwoordigt een van de meest uitgebreide waarschuwingen tot nu toe over hoe de fusie van agentische AI en grote taalmodellen democratische instellingen fundamenteel zou kunnen ondermijnen. Terwijl verkiezingen in talrijke landen de komende jaren naderen, is de race begonnen om tegenmaatregelen te ontwikkelen voordat AI-zwermen de nieuwe norm worden in politieke manipulatie.
Nederlands
English
Deutsch
Français
Español
Português