Deepfake, nuova norma in Italia: rischi penali e cosa cambia per i cittadini

Mostra sommario Nascondi sommario

Da ottobre 2025 l’Italia ha introdotto una norma mirata a punire la diffusione non autorizzata di immagini, video e audio creati o alterati con l’intelligenza artificiale: il provvedimento interviene sul fronte della tutela della dignità e della reputazione. La novità interessa chi condivide contenuti ingannevoli e chi oggi rischia di diventare vittima, soprattutto se minorenne.

Cosa prevede la nuova norma

Il testo è inserito nella legge delega sull’intelligenza artificiale (legge n. 132/2025) e ha trovato spazio nel codice penale con l’articolo 612‑quater. L’obiettivo legislativo non è vietare in assoluto la creazione di contenuti generati dall’AI, bensì colpire la loro diffusione quando questa avviene senza il consenso della persona raffigurata e provoca un danno ingiusto.

In pratica, diventa illecito mettere a disposizione di altri — tramite cessione, pubblicazione o condivisione online — immagini, filmati o tracce vocali falsificate o manipolate in modo da apparire autentiche e ingannare chi le osserva.

Quando scatta il reato

La distinzione cruciale è tra la semplice generazione del materiale e la sua condivisione: il nuovo articolo punisce la seconda condotta. Lo spiega anche l’avvocata Ilaria Curti, partner dello studio Portolano Cavallo, sottolineando che la norma è pensata per reprimere gli usi lesivi del cosiddetto deepfake, non per bloccare tutti gli impieghi creativi dell’AI.

Perché si possa procedere penalmente è necessario che la diffusione avvenga senza il consenso della persona interessata e che ne risulti un danno. Nella maggior parte dei casi la legge richiede la querela della persona offesa; tuttavia, sono previste eccezioni: si procede d’ufficio quando il fatto è collegato a reati perseguibili d’ufficio o quando la vittima è incapace per età o infermità, oppure se l’atto riguarda una pubblica autorità per le funzioni esercitate.

Le sanzioni e il carattere repressivo

La normativa introduce sanzioni detentive significative e prevede aggravanti per le situazioni più gravi, con l’intento di dissuadere la circolazione di contenuti manipolati che ledono la reputazione o la dignità delle persone.

Nel commento degli esperti legali emerge un punto chiave: la norma mira a bilanciare la libertà creativa con la necessità di proteggere soggetti vulnerabili dalla diffusione illecita di immagini e audio.

Pubblicità e piattaforme: il caso di Meta

Parallelamente all’entrata in vigore della legge, continuano a circolare sulle piattaforme social inserzioni che promuovono strumenti per “nudificare” persone tramite AI.

Sulle proprietà di Meta — Facebook e Instagram — sono state rilevate numerose pubblicità che rimandano a siti o app capaci di generare nudi sintetici (i cosiddetti nudificatori). Molti annunci appaiono nelle stories, nel feed o come sovrimpressioni nei reels, spesso senza filtri sull’età o su altri criteri di sicurezza.

Il rischio per i minori

L’Associazione Meter, guidata da Don Fortunato Di Noto e attiva contro la pedopornografia online, ha documentato come alcuni servizi possano essere usati per creare immagini sessualmente esplicite di minori, anche partendo da foto generate dall’AI.

Secondo le indagini dell’associazione, non si tratta di casi isolati: sono emersi gruppi in cui adolescenti venivano denudati virtualmente e i contenuti condivisi, con gravi conseguenze per le vittime. Questo fenomeno mette in luce un vulnus pratico: anche se la norma punisce la diffusione illecita, la prevenzione e il controllo sulle piattaforme restano cruciali.

Meter segnala inoltre che, sebbene alcune intelligenze artificiali blocchino la generazione di corpi infantili riconosciuti automaticamente, non esiste una garanzia totale e il limite è già stato oltrepassato in diversi casi.

Cosa cambia per i cittadini e cosa fare

Per chi teme di essere coinvolto: conservare prove, non condividere il materiale e rivolgersi alle autorità sono azioni fondamentali. Chi individua pubblicità o servizi illegali su social e app può segnalarli direttamente alle piattaforme e, se necessario, presentare querela.

La legge rappresenta un passo avanti, ma il contrasto ai deepfake richiederà coordinamento tra magistratura, forze dell’ordine e società che gestiscono contenuti digitali. Senza un’efficace moderazione e campagne di prevenzione rivolte ai giovani, il rischio che strumenti pericolosi restino accessibili rimane alto.

In sintesi: la creazione di contenuti con l’AI non è vietata in sé, ma condividere materiale manipolato senza consenso, quando causa danno, può diventare reato. E mentre la norma entra in vigore, la realtà delle piattaforme mostra che i controlli e l’informazione ai cittadini sono ora più necessari che mai.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento