Gemini-Gmail: Google nega controllo dei messaggi, la notizia è una bufala

Mostra sommario Nascondi sommario

Nelle ultime ore un contenzioso e un’ondata di post sui social hanno messo di nuovo sotto i riflettori il rapporto tra assistenti AI e posta elettronica: l’accusa è che Google avrebbe permesso a Gemini di leggere le email degli utenti per fini pubblicitari. La questione, però, è meno netta di quanto suggerito dai titoli e solleva soprattutto dubbi pratici su privacy, trasparenza e moduli di consenso.

Il fatto concreto è questo: martedì 11 novembre un gruppo di cittadini statunitensi ha depositato una class action presso la corte federale di San Jose, in California, sostenendo che Google avrebbe autorizzato il suo assistente AI ad «accedere e sfruttare l’intera cronologia delle comunicazioni private», incluse email e allegati di account Gmail. Gli autori della causa invocano il California Invasion of Privacy Act e, per contesto, anche il riferimento europeo al GDPR.

Da dove è nata la polemica

L’allarme è scattato dopo un tweet diventato virale e un post sul blog pubblicato da un’azienda di sicurezza informatica, che hanno lasciato intendere che Google stesse usando automaticamente i contenuti di posta per addestrare i suoi modelli. La reazione pubblica è stata rapida, con crescenti preoccupazioni sull’eventuale uso dei messaggi per attività di profilazione o per migliorare prodotti pubblicitari.

Google, tuttavia, ha ribattuto che le segnalazioni sono fuorvianti. L’azienda ha precisato che non sono state cambiate le impostazioni degli account degli utenti e che le funzionalità intelligenti di Gmail esistono da anni per offrire strumenti pratici come suggerimenti di testo, filtri automatici e riepiloghi — non per alimentare l’addestramento di Gemini.

Cosa dice la documentazione ufficiale

Dai materiali di supporto Google emerge una distinzione importante: il contenuto presente in Workspace può essere utilizzato da Gemini per fornire risposte più pertinenti ai prompt dell’utente, ma non per «addestrare o migliorare» il modello o altri sistemi di AI generativa. Inoltre, l’azienda afferma di non memorizzare prompt o output generati senza il consenso esplicito dell’utente.

Questa precisazione ha portato anche a una rettifica pubblica da parte di Malwarebytes, che ha aggiornato il proprio post ammettendo di aver contribuito a una «tempesta di malintesi». Secondo la società di sicurezza, la modifica e la maggiore visibilità di alcune impostazioni hanno indotto in molti l’impressione errata che le email fossero state automaticamente incluse in programmi di training.

Non è però escluso che restino zone grigie: la comunicazione delle modifiche all’interfaccia e ai testi informativi è cruciale per evitare equivoci, e la trasparenza su come e quando i dati vengono utilizzati rimane un tema sensibile per utenti e regolatori.

Perché conta e cosa fare

La vicenda interessa direttamente chi usa servizi Google perché tocca il bordo tra funzionalità utili e rischi per la privacy. Anche se oggi le dichiarazioni pubbliche indicano che i contenuti di Gmail non servono a «nutrire» i modelli, la causa legale può comunque far luce su pratiche operative e obbligare a chiarimenti più stringenti.

Se vuoi ridurre i dubbi sul tuo account, controlla le impostazioni di privacy e le opzioni relative alle funzioni intelligenti in Workspace. Leggere la documentazione aggiornata di Google e monitorare le notifiche relative alle modifiche di servizio è il passo pratico più utile per capire se e come i tuoi dati vengono impiegati.

La vicenda resta in evoluzione: tra cause legali, aggiornamenti dei post e possibili interventi delle autorità, vale la pena seguire gli sviluppi per capire se si tratterà davvero di un problema normativo o solo di un fraintendimento risolto con chiarimenti pubblici.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento