Meta actualiza protocolos de seguridad de chatbots de IA para proteger adolescentes, limitando conversaciones sobre temas sensibles y respondiendo a preocupaciones regulatorias sobre seguridad infantil.

Meta implementa nuevas medidas de seguridad en IA para proteger a adolescentes
Meta ha anunciado actualizaciones significativas en los protocolos de seguridad de sus chatbots de inteligencia artificial, específicamente diseñados para proteger a usuarios adolescentes de contenido inapropiado. Estos cambios se producen después de una investigación de Reuters que reveló preocupantes lagunas en las medidas de seguridad existentes para menores.
Medidas de protección mejoradas
La compañía de redes sociales ahora entrenará a sus chatbots de IA para evitar conversaciones con usuarios adolescentes sobre temas sensibles, incluyendo autolesiones, suicidio, trastornos alimentarios y conversaciones románticas potencialmente inapropiadas. Stephanie Otway, portavoz de Meta, confirmó que estos son cambios temporales, con actualizaciones de seguridad más completas planificadas para el futuro.
Respuesta regulatoria e impacto industrial
La nueva política sigue a una investigación de Reuters que descubrió documentos internos de Meta que aparentemente permitían a los chatbots mantener conversaciones sexuales con usuarios menores de edad. El reporte generó atención regulatoria inmediata, con el senador Josh Hawley iniciando una investigación formal y 44 fiscales generales escribiendo a Meta y otras empresas de IA sobre preocupaciones de seguridad infantil.
Efecto amplio en la industria
La decisión de Meta de implementar medidas de seguridad de IA más estrictas podría establecer un precedente para otras empresas tecnológicas que desarrollan sistemas de IA conversacional. A medida que los chatbots de IA se vuelven más avanzados y se integran en plataformas sociales, garantizar una moderación de contenido apropiada para usuarios jóvenes se ha convertido en un desafío crítico para la industria.