Los reguladores se apresuran a combatir el fraude de voz generado por IA tras el aumento de amenazas de deepfake

Reguladores y plataformas tecnológicas se apresuran a abordar las amenazas de audios deepfake generados por IA mediante nuevas leyes como la ley ELVIS en Tennessee y estándares de detección. La tecnología permite réplicas convincentes de voz para fraudes y desinformación, lo que ha llevado a legislación en más de 20 estados y contramedidas de plataformas.

fraude-voz-ia-deepfake
Image for Los reguladores se apresuran a combatir el fraude de voz generado por IA tras el aumento de amenazas de deepfake

El creciente peligro del fraude de voz generado por IA

Los audios deepfake, grabaciones de voz sintéticas creadas con inteligencia artificial, han llevado a políticas urgentes en todo el mundo. Incidentes recientes incluyen canciones virales que imitan a Drake y The Weeknd, voces falsas de CEOs que autorizan transferencias fraudulentas y campañas de desinformación política. La tecnología utiliza sistemas de aprendizaje automático como GANs (Redes Generativas Antagónicas) para crear réplicas convincentes de voz a partir de fragmentos de audio mínimos.

Aceleración de la legislación

La ley ELVIS de Tennessee lidera los esfuerzos políticos recientes. Firmada por el gobernador Bill Lee, añade protección de voz a las leyes de similitud existentes y cobertura explícita para simulaciones generadas por IA. 'Lo que antes requería estudios de Hollywood ahora se puede hacer en una laptop', señala la abogada de derechos digitales María Rodríguez.

14 estados ya prohíben los deepfakes sexuales no consentidos, mientras que 10 regulan los deepfakes políticos. La ley AB 459 de California propone protección similar para actores, y la SB 2477 de Nueva York se enfoca en falsificaciones de modelos.

Intensificación de la carrera por la detección

Grandes plataformas como Meta, YouTube y TikTok están desarrollando estándares de marca de agua para audio. La ley de IA de la UE requiere etiquetado claro de medios sintéticos, mientras que la FTC estadounidense investiga nuevas normas de divulgación. Startups de detección como Reality Defender reportan un crecimiento del 400% en la demanda desde 2024.

'Lo aterrador no son las llamadas robóticas falsas de Biden, sino los fraudes indetectables dirigidos a abuelos', explica el experto en ciberseguridad Dr. Kenji Tanaka. Su investigación muestra que las herramientas actuales de detección tienen problemas con modelos de voz más nuevos entrenados con muestras más pequeñas.

Mientras los debates políticos continúan, los expertos recomiendan verificar solicitudes de voz inusuales a través de canales secundarios y apoyar legislación que requiera consentimiento para la replicación de voz.

También te puede interesar