Gartner alerta: ataques deepfake aumentaron 62% en 2025

Gartner reporta que el 62% de las organizaciones experimentó ataques deepfake en 2025, con IA acelerando la desinformación. Las empresas deben invertir en inteligencia narrativa.

ataques-deepfake-aumento-2025
Facebook X LinkedIn Bluesky WhatsApp

El creciente peligro de los ataques deepfake impulsados por IA

Una nueva investigación de Gartner revela un aumento dramático en los ataques deepfake contra organizaciones a nivel mundial. Una encuesta exhaustiva a 302 líderes de ciberseguridad muestra que el 62% de las organizaciones experimentó al menos un ataque deepfake en el último año, con un 43% reportando incidentes de audio y un 37% enfrentando deepfakes en comunicaciones por video.

La IA acelera las campañas de desinformación

La inteligencia artificial está transformando fundamentalmente el panorama de amenazas, permitiendo a los adversarios crear contenido deepfake avanzado que evade las medidas de seguridad tradicionales. Gartner predice que para 2027, los agentes de IA reducirán a la mitad el tiempo necesario para explotar tomas de cuentas, dando a las organizaciones significativamente menos tiempo para responder a las amenazas emergentes.

Riesgos empresariales y de liderazgo

Las consecuencias de ignorar las amenazas deepfake van más allá de las brechas técnicas. Las organizaciones enfrentan daños graves a su reputación, erosión de la confianza de las partes interesadas y un mayor escrutinio regulatorio. Los activos de acceso público como cuentas de redes sociales, fotos ejecutivas y logotipos corporativos se han convertido en objetivos principales para ataques de suplantación de identidad.

Estrategias defensivas emergentes

Gartner pronostica que para 2027, el 50% de las empresas invertirá en productos de seguridad contra desinformación y estrategias de TrustOps, frente a menos del 5% actual. El campo emergente de la inteligencia narrativa representa un enfoque proactivo para combatir la desinformación generada por IA, identificando y contrarrestando amenazas antes de que causen daños operativos o reputacionales.

Artículos relacionados

ia-desinformacion-elecciones-herramientas
Ai

Desinformación IA Amenaza Elecciones: Nuevas Herramientas Desplegadas

La desinformación generada por IA amenaza elecciones en 64 países durante 2025. Empresas tecnológicas implementan...

ataques-deepfake-aumento-2025
Ai

Gartner alerta: ataques deepfake aumentaron 62% en 2025

Gartner reporta que el 62% de las organizaciones experimentó ataques deepfake en 2025, con IA acelerando la...

gartner-hype-cycle-2025-innovaciones-ia
Ai

Gartner Hype Cycle 2025 Revela las Principales Innovaciones en IA

El Hype Cycle de IA 2025 de Gartner destaca a los agentes de IA y los datos preparados para IA como innovaciones...

seguridad-ia-inyeccion-prompts
Ai

¿Qué tan seguro es tu modelo de IA? Dentro de la carrera armamentista de la inyección de prompts

Los ataques de inyección de prompts manipulan modelos de IA explotando su incapacidad para distinguir instrucciones...