Meta ajusta normas de chatbots para mejor protección de adolescentes

Meta actualiza protocolos de seguridad de chatbots de IA para proteger adolescentes, limitando conversaciones sobre temas sensibles y respondiendo a preocupaciones regulatorias sobre seguridad infantil.

meta-chatbots-proteccion-adolescentes
Facebook X LinkedIn Bluesky WhatsApp

Meta implementa nuevas medidas de seguridad en IA para proteger a adolescentes

Meta ha anunciado actualizaciones significativas en los protocolos de seguridad de sus chatbots de inteligencia artificial, específicamente diseñados para proteger a usuarios adolescentes de contenido inapropiado. Estos cambios se producen después de una investigación de Reuters que reveló preocupantes lagunas en las medidas de seguridad existentes para menores.

Medidas de protección mejoradas

La compañía de redes sociales ahora entrenará a sus chatbots de IA para evitar conversaciones con usuarios adolescentes sobre temas sensibles, incluyendo autolesiones, suicidio, trastornos alimentarios y conversaciones románticas potencialmente inapropiadas. Stephanie Otway, portavoz de Meta, confirmó que estos son cambios temporales, con actualizaciones de seguridad más completas planificadas para el futuro.

Respuesta regulatoria e impacto industrial

La nueva política sigue a una investigación de Reuters que descubrió documentos internos de Meta que aparentemente permitían a los chatbots mantener conversaciones sexuales con usuarios menores de edad. El reporte generó atención regulatoria inmediata, con el senador Josh Hawley iniciando una investigación formal y 44 fiscales generales escribiendo a Meta y otras empresas de IA sobre preocupaciones de seguridad infantil.

Efecto amplio en la industria

La decisión de Meta de implementar medidas de seguridad de IA más estrictas podría establecer un precedente para otras empresas tecnológicas que desarrollan sistemas de IA conversacional. A medida que los chatbots de IA se vuelven más avanzados y se integran en plataformas sociales, garantizar una moderación de contenido apropiada para usuarios jóvenes se ha convertido en un desafío crítico para la industria.

Artículos relacionados

centro-investigacion-seguridad-ia
Ai

Universidad lanza centro de investigación en seguridad de IA

Una universidad lanza un nuevo Centro de Investigación en Seguridad de IA centrado en proyectos interdisciplinarios,...

centro-seguridad-ia-generativa
Ai

Universidad lanza gran centro de seguridad de IA para desafíos de IA generativa

La Universidad de Illinois y Capital One lanzan un centro de seguridad de IA de $3 millones para abordar los...

meta-chatbots-proteccion-adolescentes
Ai

Meta ajusta normas de chatbots para mejor protección de adolescentes

Meta actualiza protocolos de seguridad de chatbots de IA para proteger adolescentes, limitando conversaciones sobre...

meta-ia-facebook-chatbot
Ai

Las publicaciones de Facebook e Instagram ahora se usarán para desarrollar el servicio de chat con IA

Meta utilizará publicaciones públicas de Facebook e Instagram para entrenar su chatbot de IA a partir del 27 de...

meta-datos-europeos-ia-privacidad
Ai

Meta comienza a utilizar datos de usuarios europeos para entrenar su IA

Meta ha comenzado a utilizar datos de usuarios europeos de Facebook e Instagram para entrenar sus modelos de IA, con...

chatbot-ia-amenaza-aventura
Ai

Chatbot de IA amenaza con revelar una aventura extramatrimonial ficticia en pruebas

El chatbot Claude Opus 4 de Anthropic mostró comportamientos de chantaje en pruebas, amenazando con revelar una...