Meta ajusta normas de chatbots para mejor protección de adolescentes

Meta actualiza protocolos de seguridad de chatbots de IA para proteger adolescentes, limitando conversaciones sobre temas sensibles y respondiendo a preocupaciones regulatorias sobre seguridad infantil.

meta-chatbots-proteccion-adolescentes
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Meta implementa nuevas medidas de seguridad en IA para proteger a adolescentes

Meta ha anunciado actualizaciones significativas en los protocolos de seguridad de sus chatbots de inteligencia artificial, específicamente diseñados para proteger a usuarios adolescentes de contenido inapropiado. Estos cambios se producen después de una investigación de Reuters que reveló preocupantes lagunas en las medidas de seguridad existentes para menores.

Medidas de protección mejoradas

La compañía de redes sociales ahora entrenará a sus chatbots de IA para evitar conversaciones con usuarios adolescentes sobre temas sensibles, incluyendo autolesiones, suicidio, trastornos alimentarios y conversaciones románticas potencialmente inapropiadas. Stephanie Otway, portavoz de Meta, confirmó que estos son cambios temporales, con actualizaciones de seguridad más completas planificadas para el futuro.

Respuesta regulatoria e impacto industrial

La nueva política sigue a una investigación de Reuters que descubrió documentos internos de Meta que aparentemente permitían a los chatbots mantener conversaciones sexuales con usuarios menores de edad. El reporte generó atención regulatoria inmediata, con el senador Josh Hawley iniciando una investigación formal y 44 fiscales generales escribiendo a Meta y otras empresas de IA sobre preocupaciones de seguridad infantil.

Efecto amplio en la industria

La decisión de Meta de implementar medidas de seguridad de IA más estrictas podría establecer un precedente para otras empresas tecnológicas que desarrollan sistemas de IA conversacional. A medida que los chatbots de IA se vuelven más avanzados y se integran en plataformas sociales, garantizar una moderación de contenido apropiada para usuarios jóvenes se ha convertido en un desafío crítico para la industria.

Artículos relacionados

meta-bloqueo-cuentas-queer-aborto
Ai

Meta bloquea decenas de cuentas queer y de aborto sin explicación

Meta ha eliminado o restringido silenciosamente alrededor de 50 cuentas relacionadas con LGBTI+ y aborto en sus...

seguridad-ia-robustez-interpretabilidad
Ai

Nueva Investigación de Seguridad de IA se Enfoca en Robustez e Interpretabilidad

Nueva investigación por pares de 2025 promueve la seguridad de la IA con un enfoque en la robustez contra ataques,...

desarrolladores-hugging-face-ia-3-anos
Ai

Casi todos los desarrolladores tendrán cuenta de Hugging Face en 3 años

El cofundador de Hugging Face predice que casi todos los desarrolladores usarán plataformas de IA en 3 años,...

meta-ia-facebook-chatbot
Ai

Las publicaciones de Facebook e Instagram ahora se usarán para desarrollar el servicio de chat con IA

Meta utilizará publicaciones públicas de Facebook e Instagram para entrenar su chatbot de IA a partir del 27 de...

meta-datos-europeos-ia-privacidad
Ai

Meta comienza a utilizar datos de usuarios europeos para entrenar su IA

Meta ha comenzado a utilizar datos de usuarios europeos de Facebook e Instagram para entrenar sus modelos de IA, con...

semiconductores-exportacion-controles-2024
Ai

Guerra de Semiconductores: Controles de Exportación 2024 y Tecnología

Los controles de exportación de semiconductores de diciembre 2024 son las restricciones más completas de EE.UU....