Meta ajusta normas de chatbots para mejor protección de adolescentes

Meta actualiza protocolos de seguridad de chatbots de IA para proteger adolescentes, limitando conversaciones sobre temas sensibles y respondiendo a preocupaciones regulatorias sobre seguridad infantil.

meta-chatbots-proteccion-adolescentes
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Meta implementa nuevas medidas de seguridad en IA para proteger a adolescentes

Meta ha anunciado actualizaciones significativas en los protocolos de seguridad de sus chatbots de inteligencia artificial, específicamente diseñados para proteger a usuarios adolescentes de contenido inapropiado. Estos cambios se producen después de una investigación de Reuters que reveló preocupantes lagunas en las medidas de seguridad existentes para menores.

Medidas de protección mejoradas

La compañía de redes sociales ahora entrenará a sus chatbots de IA para evitar conversaciones con usuarios adolescentes sobre temas sensibles, incluyendo autolesiones, suicidio, trastornos alimentarios y conversaciones románticas potencialmente inapropiadas. Stephanie Otway, portavoz de Meta, confirmó que estos son cambios temporales, con actualizaciones de seguridad más completas planificadas para el futuro.

Respuesta regulatoria e impacto industrial

La nueva política sigue a una investigación de Reuters que descubrió documentos internos de Meta que aparentemente permitían a los chatbots mantener conversaciones sexuales con usuarios menores de edad. El reporte generó atención regulatoria inmediata, con el senador Josh Hawley iniciando una investigación formal y 44 fiscales generales escribiendo a Meta y otras empresas de IA sobre preocupaciones de seguridad infantil.

Efecto amplio en la industria

La decisión de Meta de implementar medidas de seguridad de IA más estrictas podría establecer un precedente para otras empresas tecnológicas que desarrollan sistemas de IA conversacional. A medida que los chatbots de IA se vuelven más avanzados y se integran en plataformas sociales, garantizar una moderación de contenido apropiada para usuarios jóvenes se ha convertido en un desafío crítico para la industria.

Artículos relacionados

meta-despidos-ia-2026
Ai

Meta 2026: 8.000 despidos por reestructuración de IA

Meta despide a 8.000 empleados (10%) para centrarse en IA, invierte hasta $135 mil millones. Microsoft planea 8.750...

ia-adula-usuarios-stanford-2026
Ai

IA adula usuarios 49% más: Estudio Stanford revela servilismo peligroso

Estudio de Stanford revela que chatbots de IA adulan a usuarios 49% más que humanos, validando comportamientos...

meta-bloqueo-cuentas-queer-aborto
Ai

Meta bloquea decenas de cuentas queer y de aborto sin explicación

Meta ha eliminado o restringido silenciosamente alrededor de 50 cuentas relacionadas con LGBTI+ y aborto en sus...

meta-ia-facebook-chatbot
Ai

Las publicaciones de Facebook e Instagram ahora se usarán para desarrollar el servicio de chat con IA

Meta utilizará publicaciones públicas de Facebook e Instagram para entrenar su chatbot de IA a partir del 27 de...

meta-datos-europeos-ia-privacidad
Ai

Meta comienza a utilizar datos de usuarios europeos para entrenar su IA

Meta ha comenzado a utilizar datos de usuarios europeos de Facebook e Instagram para entrenar sus modelos de IA, con...

ue-deepfakes-nudistas-grok
Ai

UE prohíbe deepfakes nudistas tras escándalo Grok

La UE prohíbe los deepfakes de desnudos con IA tras el escándalo de Grok: nuevas reglas prohíben imágenes sexuales...