EE.UU. ha lanzado directrices de seguridad en IA para equilibrar innovación y riesgos nacionales, con énfasis en desarrollo imparcial de IA y liderazgo global. Las directrices incluyen un plan de acción y abordan tendencias regulatorias globales.

EE.UU. lanza directrices de seguridad en IA
Estados Unidos ha introducido directrices integrales de seguridad en inteligencia artificial (IA) que buscan equilibrar la innovación tecnológica con los riesgos para la seguridad nacional. El nuevo marco, anunciado el 23 de enero de 2025, promueve el avance de la IA mientras mitiga las amenazas potenciales de un desarrollo desregulado.
Disposiciones clave de las directrices
Las directrices subrayan la necesidad de sistemas de IA libres de sesgos ideológicos y agendas sociales construidas. También exigen la creación de un plan de acción en IA en 180 días para mantener el liderazgo global de EE.UU. en este campo. El plan incluye colaboración entre agencias federales, como la Oficina de Política Científica y Tecnológica y el Consejo de Seguridad Nacional.
Contexto y antecedentes
Según el Índice de IA 2025 de la Universidad de Stanford, las menciones legislativas sobre IA han aumentado globalmente, con 59 regulaciones relacionadas con IA introducidas solo en 2024 por agencias federales estadounidenses. Estas directrices amplían ese impulso y abordan preocupaciones expresadas por líderes de la industria como Elon Musk y Sam Altman sobre los riesgos de la IA desregulada.
Perspectivas globales
La regulación de la IA es una prioridad creciente en todo el mundo, con enfoques diversos en países como China y EE.UU. Mientras el 78% de los ciudadanos chinos considera útil la IA, solo el 35% de los estadounidenses comparte esta opinión, lo que destaca la necesidad de políticas equilibradas.