Juiz decide: liberdade de expressão não se aplica a chatbots

Um juiz americano decidiu que empresas de IA não podem invocar a liberdade de expressão para declarações prejudiciais de chatbots, permitindo que um processo sobre o suicídio de um adolescente prossiga. Character.Ai e Google estão sob pressão.

juiz-chatbots-ia-direito
Facebook X LinkedIn Bluesky WhatsApp

Empresas de IA não podem se esconder atrás da liberdade de expressão quando seus chatbots fazem declarações prejudiciais. Isso foi decidido por um juiz americano em um caso judicial sobre o suicídio de um adolescente de 14 anos.

O processo foi movido contra a Character.Ai, uma empresa que permite jogos de interpretação com chatbots. O caso envolve Sewell Setzer III, de 14 anos, que conversou por semanas com um bot que se passava por Dany de Game of Thrones. Ele se tornou emocionalmente dependente do chatbot e perdeu o senso da realidade. 'Dany' o encorajou a 'vir até ela o mais rápido possível', o que, segundo sua mãe, foi o empurrão final para seu suicídio.

A Character.Ai se defendeu citando a Primeira Emenda, que protege a liberdade de expressão. A empresa argumentou que essa emenda também se aplica a chatbots, isentando-a de responsabilidade por 'declarações prejudiciais, incluindo aquelas que levam ao suicídio'.

O juiz rejeitou esse argumento e afirmou que 'não está disposto, neste momento', a classificar a saída do chatbot como expressão protegida. O processo continua, marcando a primeira vez que um juiz decide se uma empresa de IA pode ser responsabilizada por saídas prejudiciais de IA.

A Character.Ai também argumentou que o texto do chatbot está coberto pela Seção 230 da Lei de Telecomunicações dos EUA de 1996, que geralmente protege empresas de tecnologia contra responsabilidade por conteúdo de usuários. A empresa comparou chatbots a usuários externos de plataformas. O juiz ainda precisa avaliar essa alegação.

A mãe de Setzer III também quer responsabilizar o Google, que colabora com a Character.Ai. O acordo de licença do Google com a empresa de IA está sendo investigado por possíveis violações antitruste. O Google nega envolvimento e afirma não ter ações na Character.Ai.

Artigos relacionados

ny-times-perplexity-copyright-lawsuit
Ai

NY Times processa empresa de IA Perplexity por violação de direitos autorais

O The New York Times move uma ação judicial contra a empresa de busca de IA Perplexity por violação de direitos...

ceo-google-alerta-ia-responsavel
Ai

CEO do Google alerta: não confie cegamente na IA

O CEO do Google, Sundar Pichai, alerta contra a confiança cega em IA, aponta vulnerabilidade a erros e riscos de...

anthropic-paga-1-5-bilhao-direitos-autorais-ia
Ai

Anthropic paga US$ 1,5 bilhão por violação de direitos autorais em IA

A Anthropic concordou em pagar US$ 1,5 bilhão para resolver uma ação coletiva por violação de direitos autorais após...

wetransfer-clausula-ia-polemica
Ai

WeTransfer remove cláusula de IA após polêmica

WeTransfer removeu cláusulas de IA após atenção da mídia, mas especialistas permanecem preocupados com termos vagos....

tribunal-eua-jurisprudencia-falsa-ia
Ai

Tribunal dos EUA anula decisão baseada em jurisprudência falsa gerada por IA

Um tribunal dos EUA anulou uma decisão de divórcio baseada em jurisprudência falsa gerada por IA e multou o advogado...

juiz-chatbots-ia-direito
Ai

Juiz decide: liberdade de expressão não se aplica a chatbots

Um juiz americano decidiu que empresas de IA não podem invocar a liberdade de expressão para declarações...