Gartner reporta que el 62% de las organizaciones experimentó ataques deepfake en 2025, con IA acelerando la desinformación. Las empresas deben invertir en inteligencia narrativa.

El creciente peligro de los ataques deepfake impulsados por IA
Una nueva investigación de Gartner revela un aumento dramático en los ataques deepfake contra organizaciones a nivel mundial. Una encuesta exhaustiva a 302 líderes de ciberseguridad muestra que el 62% de las organizaciones experimentó al menos un ataque deepfake en el último año, con un 43% reportando incidentes de audio y un 37% enfrentando deepfakes en comunicaciones por video.
La IA acelera las campañas de desinformación
La inteligencia artificial está transformando fundamentalmente el panorama de amenazas, permitiendo a los adversarios crear contenido deepfake avanzado que evade las medidas de seguridad tradicionales. Gartner predice que para 2027, los agentes de IA reducirán a la mitad el tiempo necesario para explotar tomas de cuentas, dando a las organizaciones significativamente menos tiempo para responder a las amenazas emergentes.
Riesgos empresariales y de liderazgo
Las consecuencias de ignorar las amenazas deepfake van más allá de las brechas técnicas. Las organizaciones enfrentan daños graves a su reputación, erosión de la confianza de las partes interesadas y un mayor escrutinio regulatorio. Los activos de acceso público como cuentas de redes sociales, fotos ejecutivas y logotipos corporativos se han convertido en objetivos principales para ataques de suplantación de identidad.
Estrategias defensivas emergentes
Gartner pronostica que para 2027, el 50% de las empresas invertirá en productos de seguridad contra desinformación y estrategias de TrustOps, frente a menos del 5% actual. El campo emergente de la inteligencia narrativa representa un enfoque proactivo para combatir la desinformación generada por IA, identificando y contrarrestando amenazas antes de que causen daños operativos o reputacionales.