Gartner alerta: ataques deepfake aumentaron 62% en 2025

Gartner reporta que el 62% de las organizaciones experimentó ataques deepfake en 2025, con IA acelerando la desinformación. Las empresas deben invertir en inteligencia narrativa.

ataques-deepfake-aumento-2025
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

El creciente peligro de los ataques deepfake impulsados por IA

Una nueva investigación de Gartner revela un aumento dramático en los ataques deepfake contra organizaciones a nivel mundial. Una encuesta exhaustiva a 302 líderes de ciberseguridad muestra que el 62% de las organizaciones experimentó al menos un ataque deepfake en el último año, con un 43% reportando incidentes de audio y un 37% enfrentando deepfakes en comunicaciones por video.

La IA acelera las campañas de desinformación

La inteligencia artificial está transformando fundamentalmente el panorama de amenazas, permitiendo a los adversarios crear contenido deepfake avanzado que evade las medidas de seguridad tradicionales. Gartner predice que para 2027, los agentes de IA reducirán a la mitad el tiempo necesario para explotar tomas de cuentas, dando a las organizaciones significativamente menos tiempo para responder a las amenazas emergentes.

Riesgos empresariales y de liderazgo

Las consecuencias de ignorar las amenazas deepfake van más allá de las brechas técnicas. Las organizaciones enfrentan daños graves a su reputación, erosión de la confianza de las partes interesadas y un mayor escrutinio regulatorio. Los activos de acceso público como cuentas de redes sociales, fotos ejecutivas y logotipos corporativos se han convertido en objetivos principales para ataques de suplantación de identidad.

Estrategias defensivas emergentes

Gartner pronostica que para 2027, el 50% de las empresas invertirá en productos de seguridad contra desinformación y estrategias de TrustOps, frente a menos del 5% actual. El campo emergente de la inteligencia narrativa representa un enfoque proactivo para combatir la desinformación generada por IA, identificando y contrarrestando amenazas antes de que causen daños operativos o reputacionales.

Artículos relacionados

deepfakes-ia-elecciones-democracia-2026
Ai

Deepfakes de IA y Elecciones: Guía Completa para Defender la Democracia | Análisis 2026

Los deepfakes de IA amenazan las elecciones 2025-2026 con un aumento del 700% en incidentes. La Ley de IA de la UE...

ciberdelincuencia-ia-amenazas-2025
Ai

Ciberdelincuencia con IA: La Nueva Ola de Amenazas Explicada

La ciberdelincuencia con IA aumentó un 72% en 2025, con el 87% de organizaciones enfrentando ataques habilitados por...

crisis-desinformacion-democracia-ia
Ai

La crisis de desinformación amenaza la democracia global: El papel de la IA y la alfabetización mediática en las elecciones

El abuso de la IA y la propagación de desinformación amenazan la democracia global, especialmente durante las...

seguridad-ia-inyeccion-prompts
Ai

¿Qué tan seguro es tu modelo de IA? Dentro de la carrera armamentista de la inyección de prompts

Los ataques de inyección de prompts manipulan modelos de IA explotando su incapacidad para distinguir instrucciones...

semiconductores-exportacion-controles-2024
Ai

Guerra de Semiconductores: Controles de Exportación 2024 y Tecnología

Los controles de exportación de semiconductores de diciembre 2024 son las restricciones más completas de EE.UU....