
AI-bedrijven kunnen zich niet verschuilen achter de vrijheid van meningsuiting als hun AI-chatbots schadelijke uitspraken doen. Dat heeft een Amerikaanse rechter besloten in een rechtszaak over de zelfmoord van een 14-jarige jongen.
De rechtszaak is aangespannen tegen Character.Ai, een bedrijf dat rollenspellen mogelijk maakt met chatbots. De zaak draait om de 14-jarige Sewell Setzer III, die wekenlang praatte met een bot die zich voordeed als Dany uit Game of Thrones. Hij raakte emotioneel afhankelijk van de chatbot en verloor zijn realiteitszin. 'Dany' moedigde hem aan om 'zo snel mogelijk naar me toe te komen', wat volgens zijn moeder het laatste zetje was voor zijn zelfmoord.
Character.Ai verdedigde zich door te verwijzen naar het Eerste Amendement, dat de vrijheid van meningsuiting beschermt. Het bedrijf stelde dat dit amendement ook voor chatbots geldt, waardoor het niet aansprakelijk kan worden gesteld voor 'schadelijke uitspraken, inclusief die welke tot zelfmoord leiden'.
De rechter verwierp dit argument en stelde dat ze 'op dit moment niet bereid is' om chatbot-uitvoer als expressieve uiting te classificeren. De rechtszaak gaat door, wat de eerste keer is dat een rechter beslist of een AI-bedrijf verantwoordelijk kan worden gehouden voor schadelijke AI-output.
Character.Ai voerde ook aan dat chatbot-tekst valt onder Sectie 230 van de Amerikaanse telecomwet uit 1996, die techbedrijven meestal beschermt tegen aansprakelijkheid voor gebruikerscontent. Het bedrijf vergeleek chatbots met externe platformgebruikers. De rechter moet deze claim nog beoordelen.
De moeder van Setzer III wil ook Google aansprakelijk stellen, omdat de techreus samenwerkt met Character.Ai. Google's licentieovereenkomst met het AI-bedrijf wordt onderzocht op mogelijke antitrustschendingen. Google ontkent betrokkenheid en zegt geen aandelen te hebben in Character.Ai.