Gartner Waarschuwt: Deepfake-aanvallen met 62% gestegen in 2025

Gartner meldt dat 62% van organisaties deepfake-aanvallen ervoer in 2025, met AI die desinformatie versnelt. Bedrijven moeten investeren in narrative intelligence.

gartner-deepfake-aanvallen-gestegen-2025
Image for Gartner Waarschuwt: Deepfake-aanvallen met 62% gestegen in 2025

Het groeiende gevaar van AI-gestuurde deepfake-aanvallen

Nieuw onderzoek van Gartner toont een dramatische toename van deepfake-aanvallen op organisaties wereldwijd. Uit een uitgebreide enquête onder 302 cybersecurity-leiders blijkt dat 62% van de organisaties minstens één deepfake-aanval heeft meegemaakt in het afgelopen jaar, waarbij 43% audio-incidenten meldde en 37% deepfakes in videocommunicatie tegenkwam.

AI versnelt desinformatiecampagnes

Artificiële intelligentie transformeert fundamenteel het dreigingslandschap, waardoor tegenstanders geavanceerde deepfake-content kunnen creëren die traditionele beveiligingsmaatregelen omzeilt. Gartner voorspelt dat tegen 2027 AI-agents de tijd die nodig is om accountovernames uit te buiten zal halveren, waardoor organisaties aanzienlijk minder tijd hebben om te reageren op opkomende bedreigingen.

Bedrijfs- en leiderschapsrisico's

De gevolgen van het negeren van deepfake-bedreigingen gaan verder dan technische inbreuken. Organisaties lopen ernstige reputatieschade op, erosie van vertrouwen bij belanghebbenden en toenemende regelgevende controle. Openbaar toegankelijke activa zoals sociale media-accounts, executive foto's en bedrijfslogo's zijn primaire doelen geworden voor impersonatie-aanvallen.

Opkomende verdedigingsstrategieën

Gartner voorspelt dat tegen 2027 50% van de bedrijven zal investeren in desinformatiebeveiligingsproducten en TrustOps-strategieën, tegen minder dan 5% vandaag. Het opkomende gebied van narrative intelligence vertegenwoordigt een proactieve aanpak om AI-gegenereerde desinformatie te bestrijden door bedreigingen te identificeren en tegen te gaan voordat ze operationele of reputatieschade veroorzaken.

Misschien ook interessant