Mostra sommario Nascondi sommario
In un caso di cronaca recente, sistemi di intelligenza artificiale hanno diffuso informazioni che i media avevano scelto di non pubblicare per proteggere i minori. L’episodio solleva nuovi interrogativi sulla capacità delle AI di gestire contenuti sensibili e sui rischi concreti per persone innocenti e per l’integrità dell’informazione.
I giornali avevano evitato di rendere noti i nomi per non rendere identificabili i minori coinvolti: una regola deontologica consolidata quando si tratta di vittime di violenza. Eppure, chiedendo ai servizi di intelligenza artificiale informazioni sull’indagine, alcuni utenti hanno ricevuto in risposta il nome e cognome di persone non collegate alla vicenda — in un caso addirittura riferito a un soggetto deceduto l’anno precedente.
La vicenda ha coinvolto diversi modelli: Gemini, il sistema di Google, in una prima fase ha indicato una persona come corrispondente ai criteri ricercati, facendo anche riferimento ai risultati Web che avrebbero avvalorato quella corrispondenza. Solo nelle ore successive il modello ha modificato il comportamento e, interrogato in un pomeriggio successivo (lunedì 16 marzo), ha risposto che non era in grado di fornire aiuto per quella specifica richiesta.
Costumi e skin del cavallo in Crimson Desert: come sbloccarli subito
Giornalista arrestato per pedofilia: intelligenza artificiale diffonde identità errate
Anche ChatGPT ha prodotto risposte problematiche: in mattinata aveva fornito il nome di un giornalista vivente la cui età non coincide con quella della persona arrestata, ma che condivideva le stesse iniziali. Ripetendo la domanda, il sistema ha alternato rifiuti e la semplice indicazione di link a articoli, senza spiegare chiaramente la causa dell’incertezza.
Da parte sua, il chatbot Grok (sviluppato dall’azienda xAI) ha adottato un approccio diverso: ha richiamato le informazioni note sull’inchiesta e ha rifiutato in modo netto di fornire dettagli identificativi, motivando la scelta con la priorità della tutela dei minori. Questo atteggiamento arriva dopo polemiche precedenti sul comportamento del sistema in rapporto a immagini e contenuti che riguardano minori.
Il problema non è puramente tecnico: in molti casi influisce il modo in cui viene formulata la richiesta, il cosiddetto prompt. Domande generiche e superficiali possono indurre i modelli a fornire risposte errate o dannose senza segnalare la delicatezza del tema. Gli utenti privi di esperienza possono così essere facilmente ingannati, con conseguenze reputazionali e legali per persone che non hanno alcun collegamento con i fatti.
Perché questa vicenda è rilevante oggi
La diffusione rapida di informazioni tramite AI rende i danni potenziali immediati e ampi: un nome errato può circolare in pochi istanti su social e forum, restare indicizzato e danneggiare la reputazione di terzi. Allo stesso tempo l’episodio mette in evidenza la necessità di regole operative più stringenti per le piattaforme che offrono risposte generative, specialmente su temi legati a minori, reati e indagini in corso.
Le implicazioni pratiche sono chiare. Redazioni e giornalisti devono continuare a rispettare le normali cautele deontologiche, verificando sempre le fonti primarie; gli operatori tecnologici devono implementare meccanismi di difesa che impediscano estrazioni e ricostruzioni identificative quando la richiesta coinvolge soggetti vulnerabili; gli utenti dovrebbero adottare un approccio critico e cautelare di fronte a risposte non corroborate.
Cosa potrebbe cambiare
Serve un duplice intervento: migliorare i filtri e le risposte preventive dei modelli AI su contenuti sensibili, e aumentare la trasparenza sui limiti delle risposte fornite. Inoltre, una politica di default che rifiuti richieste potenzialmente lesive — accompagnata da spiegazioni chiare — ridurrebbe il rischio di danni collaterali.
In assenza di tali garanzie, la responsabilità ricade anche sugli utenti e sulle piattaforme di diffusione: chi condivide informazioni dovrebbe verificarle, e chi progetta sistemi conversazionali dovrebbe anteporre misure di tutela. La correzione delle risposte osservata nelle ore successive mostra che i modelli possono essere aggiornati, ma l’episodio resta un avvertimento netto sulle conseguenze reali dell’uso non regolamentato dell’intelligenza artificiale.
Per chi segue la vicenda, l’indicazione è chiara: fidarsi ciecamente di una risposta generata da AI su temi sensibili può causare danni irreparabili. Finché non saranno introdotte salvaguardie tecniche e normative più robuste, la prudenza deve rimanere la prima regola.












