Los reguladores se apresuran a combatir el fraude de voz generado por IA tras el aumento de amenazas de deepfake

Reguladores y plataformas tecnológicas se apresuran a abordar las amenazas de audios deepfake generados por IA mediante nuevas leyes como la ley ELVIS en Tennessee y estándares de detección. La tecnología permite réplicas convincentes de voz para fraudes y desinformación, lo que ha llevado a legislación en más de 20 estados y contramedidas de plataformas.

fraude-voz-ia-deepfake
Facebook X LinkedIn Bluesky WhatsApp

El creciente peligro del fraude de voz generado por IA

Los audios deepfake, grabaciones de voz sintéticas creadas con inteligencia artificial, han llevado a políticas urgentes en todo el mundo. Incidentes recientes incluyen canciones virales que imitan a Drake y The Weeknd, voces falsas de CEOs que autorizan transferencias fraudulentas y campañas de desinformación política. La tecnología utiliza sistemas de aprendizaje automático como GANs (Redes Generativas Antagónicas) para crear réplicas convincentes de voz a partir de fragmentos de audio mínimos.

Aceleración de la legislación

La ley ELVIS de Tennessee lidera los esfuerzos políticos recientes. Firmada por el gobernador Bill Lee, añade protección de voz a las leyes de similitud existentes y cobertura explícita para simulaciones generadas por IA. 'Lo que antes requería estudios de Hollywood ahora se puede hacer en una laptop', señala la abogada de derechos digitales María Rodríguez.

14 estados ya prohíben los deepfakes sexuales no consentidos, mientras que 10 regulan los deepfakes políticos. La ley AB 459 de California propone protección similar para actores, y la SB 2477 de Nueva York se enfoca en falsificaciones de modelos.

Intensificación de la carrera por la detección

Grandes plataformas como Meta, YouTube y TikTok están desarrollando estándares de marca de agua para audio. La ley de IA de la UE requiere etiquetado claro de medios sintéticos, mientras que la FTC estadounidense investiga nuevas normas de divulgación. Startups de detección como Reality Defender reportan un crecimiento del 400% en la demanda desde 2024.

'Lo aterrador no son las llamadas robóticas falsas de Biden, sino los fraudes indetectables dirigidos a abuelos', explica el experto en ciberseguridad Dr. Kenji Tanaka. Su investigación muestra que las herramientas actuales de detección tienen problemas con modelos de voz más nuevos entrenados con muestras más pequeñas.

Mientras los debates políticos continúan, los expertos recomiendan verificar solicitudes de voz inusuales a través de canales secundarios y apoyar legislación que requiera consentimiento para la replicación de voz.

Artículos relacionados

audio-deepfake-regulacion
Ai

Audio Deepfake Provoca Llamado a Regulación

Legisladores globales proponen requisitos de etiquetado y estándares de detección para audio generado por IA tras...

ia-clonacion-voz-legislacion
Ai

La clonación de voz por IA conduce a consecuencias legales: artistas exigen control

Actores de voz y artistas exigen consentimiento y regalías ante el auge de la clonación de voz por IA. Legislaciones...

fraude-voz-ia-deepfake
Ai

Los reguladores se apresuran a combatir el fraude de voz generado por IA tras el aumento de amenazas de deepfake

Reguladores y plataformas tecnológicas se apresuran a abordar las amenazas de audios deepfake generados por IA...

clonacion-voces-ia-debate-legal
Ai

La clonación de voces con IA genera un debate legal: Evaluación de leyes para la imitación de medios sintéticos

La tecnología de clonación de voces con IA avanza rápidamente, generando un debate legal sobre la imitación de...

ia-deepfakes-medios-politicos
Ai

Los generadores de imágenes con IA alimentan la desinformación: El desafío de los deepfakes en los medios políticos

Los generadores de imágenes con IA como Midjourney y DALL-E difunden desinformación a través de deepfakes, lo que...

ia-detecta-noticias-falsas
Ai

Cómo la IA detecta noticias falsas (y por qué aún falla)

La IA ayuda a detectar noticias falsas analizando patrones en texto y medios, pero tiene dificultades con los...