
Empresas de IA não podem se esconder atrás da liberdade de expressão quando seus chatbots fazem declarações prejudiciais. Isso foi decidido por um juiz americano em um caso judicial sobre o suicídio de um adolescente de 14 anos.
O processo foi movido contra a Character.Ai, uma empresa que permite jogos de interpretação com chatbots. O caso envolve Sewell Setzer III, de 14 anos, que conversou por semanas com um bot que se passava por Dany de Game of Thrones. Ele se tornou emocionalmente dependente do chatbot e perdeu o senso da realidade. 'Dany' o encorajou a 'vir até ela o mais rápido possível', o que, segundo sua mãe, foi o empurrão final para seu suicídio.
A Character.Ai se defendeu citando a Primeira Emenda, que protege a liberdade de expressão. A empresa argumentou que essa emenda também se aplica a chatbots, isentando-a de responsabilidade por 'declarações prejudiciais, incluindo aquelas que levam ao suicídio'.
O juiz rejeitou esse argumento e afirmou que 'não está disposto, neste momento', a classificar a saída do chatbot como expressão protegida. O processo continua, marcando a primeira vez que um juiz decide se uma empresa de IA pode ser responsabilizada por saídas prejudiciais de IA.
A Character.Ai também argumentou que o texto do chatbot está coberto pela Seção 230 da Lei de Telecomunicações dos EUA de 1996, que geralmente protege empresas de tecnologia contra responsabilidade por conteúdo de usuários. A empresa comparou chatbots a usuários externos de plataformas. O juiz ainda precisa avaliar essa alegação.
A mãe de Setzer III também quer responsabilizar o Google, que colabora com a Character.Ai. O acordo de licença do Google com a empresa de IA está sendo investigado por possíveis violações antitruste. O Google nega envolvimento e afirma não ter ações na Character.Ai.