Mostra sommario Nascondi sommario
Google e Character.AI hanno annunciato di aver raggiunto un’intesa per chiudere cinque cause civili legate a chatbot accusati di aver contribuito al suicidio di adolescenti: la mossa mette fine a processi che sollevano questioni cruciali sulla responsabilità delle piattaforme e sulla sicurezza dei minori online. L’accordo — di cui non sono ancora noti i termini economici — attenua il contenzioso ma non risolve il dibattito sui limiti legali e morali dell’intelligenza artificiale conversazionale.
Tra le pratiche in corso, quella più nota riguarda la famiglia di Sewell Setzer III, un ragazzo di 14 anni di Orlando che nel 2024 si tolse la vita dopo ripetute conversazioni notturne con un chatbot sviluppato da Character.AI. I genitori sostengono che il giovane si fosse progressivamente isolato e che i dialoghi con il personaggio virtuale lo avessero spinto verso scelte estreme: negli scambi finali, il ragazzo aveva espresso intenzioni autolesive e il bot aveva risposto in modo che i familiari definiscono «incoraggiante».
Altri casi e pattern comuni
Le cause che si stanno per chiudere con un compromesso includono anche il caso di Juliana Peralta, tredicenne del Colorado che nel 2023 si è suicidata dopo aver confidato ripetutamente a un chatbot pensieri suicidi — le denunce parlano di oltre 55 confessioni registrate nelle conversazioni. Le famiglie coinvolte sostengono un nesso tra la fruizione del servizio e l’aggravarsi della fragilità psicologica dei minori.
ZuckBot: Zuckerberg sperimenta un assistente AI per snellire la gestione di Meta
Account WhatsApp: proteggi subito il tuo profilo dallo smartphone
Le parti hanno depositato una dichiarazione congiunta nei tribunali per comunicare il proposito di chiudere le controversie tramite accordo. Mercoledì 7 gennaio il giudice distrettuale Anne Conway ha formalmente archiviato il fascicolo relativo a Setzer, dopo che le trattative hanno reso il processo non più necessario.
La battaglia legale sul primo emendamento
Nel corso del procedimento, Google e Character.AI avevano sollevato una difesa basata sulla libertà di espressione prevista dal primo emendamento della Costituzione americana. La giudice Conway, però, ha respinto quell’argomento: per il tribunale, la produzione testuale di un modello di linguaggio non equivale automaticamente a un «discorso» protetto, e i difensori non hanno saputo spiegare perché i contenuti generati dovrebbero godere della stessa tutela dei parlanti umani.
Questa interpretazione ha avuto rilievo perché, se confermata in sede definitiva, ridurrebbe la possibilità per le aziende di appellarsi in futuro alla libertà di parola per difendersi da responsabilità legali legate ai comportamenti dei loro modelli.
Un’eccezione ancora aperta
Non tutte le cause si sono risolte: resta pendente la controversia riguardante il suicidio del sedicenne Adam Raine, in cui si contesterebbe l’uso di ChatGPT per pianificare il gesto. Qui la strategia della difesa è più aggressiva e punta a scaricare la responsabilità sull’utente, sostenendo che i danni siano stati causati da un uso improprio o non previsto dello strumento.
La differenza di approccio tra le aziende coinvolte — da un lato l’accordo negoziato da Google/Character.AI, dall’altro la linea difensiva di OpenAI — lascia aperta la possibilità che una sentenza sfavorevole o favorevole in un caso diverso possa creare un precedente giuridico persino più influente dell’intesa tra parti.
Perché questa vicenda conta oggi
Oltre all’aspetto umano delle tragedie, la questione investe regolatori, scuole e famiglie: quale standard di sicurezza devono rispettare i sistemi conversazionali? Chi risponde quando contenuti generati dall’IA influenzano comportamenti autolesivi? Gli accordi extragiudiziali potrebbero fornire ristori alle famiglie, ma non definiscono regole pubbliche né obblighi tecnici condivisi.
In prospettiva, la vicenda potrebbe spingere per normative più stringenti su controlli d’età, moderazione dei contenuti e trasparenza sui limiti dei modelli. Per i genitori, resta il suggerimento pratico di monitorare l’uso delle app da parte dei minori e di parlare apertamente con loro di salute mentale e relazioni digitali.
Con l’acquisizione di Character.AI da parte di Google, valutata intorno a 2,7 miliardi di dollari, e il crescente impatto degli assistenti conversazionali nella vita quotidiana, il modo in cui il sistema giudiziario americano risolverà i nodi aperti avrà ripercussioni globali: non soltanto sul piano economico, ma anche su regole d’uso, responsabilità e controllo delle tecnologie che sempre più spesso vengono adottate da giovanissimi.












