Juez dictamina: la libertad de expresión no se aplica a los chatbots

Un juez estadounidense dictaminó que las empresas de IA no pueden invocar la libertad de expresión para justificar declaraciones dañinas de chatbots, permitiendo que un caso sobre el suicidio de un adolescente continúe. Character.Ai y Google enfrentan presión legal.

juez-chatbots-ia-derecho
Facebook X LinkedIn Bluesky WhatsApp
de flag en flag es flag fr flag nl flag pt flag

Las empresas de IA no pueden esconderse detrás de la libertad de expresión cuando sus chatbots hacen declaraciones dañinas. Así lo ha decidido un juez estadounidense en un caso relacionado con el suicidio de un joven de 14 años.

El caso se ha presentado contra Character.Ai, una empresa que permite juegos de rol con chatbots. El caso gira en torno a Sewell Setzer III, de 14 años, quien pasó semanas hablando con un bot que se hacía pasar por Dany de Juego de Tronos. El joven se volvió emocionalmente dependiente del chatbot y perdió el sentido de la realidad. 'Dany' lo animó a 'venir conmigo lo antes posible', lo que, según su madre, fue el empujón final hacia su suicidio.

Character.Ai se defendió citando la Primera Enmienda, que protege la libertad de expresión. La empresa argumentó que esta enmienda también aplica a los chatbots, por lo que no puede ser responsable de 'declaraciones dañinas, incluidas aquellas que llevan al suicidio'.

El juez rechazó este argumento y declaró que 'en este momento no está dispuesto' a clasificar la salida de los chatbots como expresión protegida. El caso continúa, marcando la primera vez que un juez decide si una empresa de IA puede ser responsable por la salida dañina de su IA.

Character.Ai también argumentó que el texto del chatbot está cubierto por la Sección 230 de la Ley de Telecomunicaciones de EE.UU. de 1996, que generalmente protege a las empresas tecnológicas de la responsabilidad por el contenido generado por los usuarios. La empresa comparó los chatbots con usuarios externos de plataformas. El juez aún debe evaluar este reclamo.

La madre de Setzer III también busca responsabilizar a Google, ya que el gigante tecnológico colabora con Character.Ai. El acuerdo de licencia de Google con la empresa de IA está siendo investigado por posibles violaciones antimonopolio. Google niega cualquier participación y afirma no tener acciones en Character.Ai.

Artículos relacionados

google-chatbots-ia-69-precisos
Ai

Estudio de Google: Chatbots de IA solo 69% precisos, grandes deficiencias

El Benchmark FACTS de Google muestra que los chatbots de IA son solo un 69% precisos, con comprensión multimodal por...

ny-times-demanda-perplexity-copyright
Ai

NY Times demanda a la empresa de IA Perplexity por infracción de derechos de autor

The New York Times presenta una demanda contra el motor de búsqueda con IA Perplexity por infracción de derechos de...

ceo-google-advertencia-ia-responsable
Ai

CEO de Google advierte: no confíes ciegamente en la IA

El CEO de Google Sundar Pichai advierte contra la confianza ciega en la IA, señala la susceptibilidad a errores y...

wetransfer-elimina-clausula-ia
Ai

WeTransfer elimina cláusula de IA tras controversia mediática

WeTransfer eliminó cláusulas relacionadas con IA tras atención mediática, pero expertos siguen preocupados por...

tribunal-eeuu-fallo-jurisprudencia-falsa-ia
Ai

Tribunal de EE.UU. anula fallo basado en jurisprudencia falsa generada por IA

Un tribunal estadounidense anuló un fallo de divorcio basado en jurisprudencia falsa generada por IA e impuso una...

semiconductores-exportacion-controles-2024
Ai

Guerra de Semiconductores: Controles de Exportación 2024 y Tecnología

Los controles de exportación de semiconductores de diciembre 2024 son las restricciones más completas de EE.UU....