Gartner Waarschuwt: Deepfake-aanvallen met 62% gestegen in 2025

Gartner meldt dat 62% van organisaties deepfake-aanvallen ervoer in 2025, met AI die desinformatie versnelt. Bedrijven moeten investeren in narrative intelligence.

gartner-deepfake-aanvallen-gestegen-2025
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Het groeiende gevaar van AI-gestuurde deepfake-aanvallen

Nieuw onderzoek van Gartner toont een dramatische toename van deepfake-aanvallen op organisaties wereldwijd. Uit een uitgebreide enquête onder 302 cybersecurity-leiders blijkt dat 62% van de organisaties minstens één deepfake-aanval heeft meegemaakt in het afgelopen jaar, waarbij 43% audio-incidenten meldde en 37% deepfakes in videocommunicatie tegenkwam.

AI versnelt desinformatiecampagnes

Artificiële intelligentie transformeert fundamenteel het dreigingslandschap, waardoor tegenstanders geavanceerde deepfake-content kunnen creëren die traditionele beveiligingsmaatregelen omzeilt. Gartner voorspelt dat tegen 2027 AI-agents de tijd die nodig is om accountovernames uit te buiten zal halveren, waardoor organisaties aanzienlijk minder tijd hebben om te reageren op opkomende bedreigingen.

Bedrijfs- en leiderschapsrisico's

De gevolgen van het negeren van deepfake-bedreigingen gaan verder dan technische inbreuken. Organisaties lopen ernstige reputatieschade op, erosie van vertrouwen bij belanghebbenden en toenemende regelgevende controle. Openbaar toegankelijke activa zoals sociale media-accounts, executive foto's en bedrijfslogo's zijn primaire doelen geworden voor impersonatie-aanvallen.

Opkomende verdedigingsstrategieën

Gartner voorspelt dat tegen 2027 50% van de bedrijven zal investeren in desinformatiebeveiligingsproducten en TrustOps-strategieën, tegen minder dan 5% vandaag. Het opkomende gebied van narrative intelligence vertegenwoordigt een proactieve aanpak om AI-gegenereerde desinformatie te bestrijden door bedreigingen te identificeren en tegen te gaan voordat ze operationele of reputatieschade veroorzaken.

Gerelateerd

ai-deepfakes-verkiezingen-democratie-2026
Ai

AI Deepfakes en Verkiezingen: Complete Gids voor Democratieverdediging | 2026 Analyse

AI deepfakes bedreigen verkiezingen 2025-2026 met 700% stijging in incidenten. EU AI Act vereist labeling, maar...

ai-cybercriminaliteit-bedreigingen-2025
Ai

AI-aangedreven cybercriminaliteit: De nieuwe golf van bedreigingen

AI-aangedreven cybercriminaliteit steeg 72% in 2025, met 87% van organisaties die AI-aanvallen ervaren. Criminelen...

desinformatie-ai-verkiezingen-democratie
Ai

Desinformatiecrisis Bedreigt Wereldwijde Democratie: De Rol van AI en Mediageletterdheid bij Verkiezingen

Het misbruik van AI en de verspreiding van desinformatie vormen een bedreiging voor de wereldwijde democratie,...

ai-beveiliging-prompt-injection
Ai

Hoe Veilig Is Jouw AI-Model? Binnen de Prompt Injection Wapenwedloop

Prompt injection-aanvallen manipuleren AI-modellen door hun onvermogen om instructies van gebruikersinvoer te...

halfgeleider-export-china-ai-2024
Ai

Halfgeleider Exportcontroles 2024: Techgrenzen Herzien

December 2024 halfgeleider exportcontroles zijn de meest uitgebreide VS-beperkingen op China's AI-capaciteiten,...