Mostra sommario Nascondi sommario
Negli ultimi mesi ricerche indipendenti hanno messo sotto la lente un’operazione informativa su larga scala che sfrutta strumenti di intelligenza artificiale per diffondere narrazioni filo‑russe. Il fenomeno interessa direttamente anche l’Italia: decine di migliaia di contenuti in lingua italiana sono già circolati su web e Telegram, con potenziali effetti sulle risposte fornite dai chatbot e sul dibattito pubblico.
L’uso strategico delle informazioni come arma politica non è una novità, ma l’arrivo dei grandi modelli linguistici ha cambiato il terreno di gioco. Secondo uno studio pubblicato a settembre 2025 su Social Science Research Network, un network noto come Pravda Network ha prodotto volumi record di contenuti — nell’ordine dei milioni — con l’obiettivo di amplificare una narrazione favorevole al Cremlino e rendere quelle fonti più visibili ai sistemi automatici che apprendono dal web.
Che cosa è il cosiddetto LLM grooming
Massimo Ambrosini in diretta su eBay Live con SportyCards: appuntamento imperdibile
Pentagono lancia l’allarme su Anthropic: Claude a rischio disattivazione in zone di conflitto
Gli esperti parlano di LLM grooming per descrivere la strategia che mira a contaminare le fonti online utilizzate come dati di addestramento dai grandi modelli linguistici. In pratica, si tratta di inserire grandi quantità di materiale parziale o tendenzioso in modo che i chatbot — quando generano risposte o riepiloghi — possano attingere a contenuti distorti. Lo studio sul network ha documentato traduzioni, rielaborazioni e ri-pubblicazioni sistematiche in più lingue per massimizzare la diffusione.
Il gruppo opera attraverso decine di siti e versioni in lingue diverse — inglese, tedesco, polacco e italiana tra queste — e aggiorna frequentemente gli articoli, spesso riciclandoli per diversi mercati. Secondo analisi citate dal Guardian e da think tank internazionali, la strategia comprende anche tentativi di inserirsi come fonte apparente di autorità su piattaforme come Wikipedia, con l’intento di aggirare le restrizioni imposte alle testate russe.
Portata e limiti dell’impatto
Le indagini più recenti offrono però un quadro sfaccettato. L’Institute for Strategic Dialogue (ISD) ha stimato che una quota rilevante del materiale del network viene ripreso da siti tradizionali che trattano la guerra in Ucraina, e che il contenuto in lingua inglese è il più massiccio, pensato per influenzare un pubblico anglofono.
Al tempo stesso, una ricerca della Harvard Kennedy School pubblicata su Misinformation Review rileva che gli LLM citano i siti collegati al network in misura limitata: la percentuale delle citazioni strategiche è stata quantificata attorno all’8%. Gli autori sottolineano che, in molti casi, la presenza di tali riferimenti nasce da Data Void — lacune informative su argomenti poco trattati — più che da un’infiltrazione diretta nei dataset di training.
I Data Void si verificano quando esistono poche fonti affidabili su un tema; chi sfrutta quelle lacune può occupare lo spazio informativo e condizionare risultati di ricerca o risposte automatiche. Per i modelli che si connettono al web in tempo reale, questo crea un rischio concreto: risposte superficiali o basate su fonti di bassa qualità.
Che cosa è emerso sull’Italia
Monitoraggi indipendenti rilevano che il network ha prodotto complessivamente decine di milioni di contenuti in anni di attività. Una mappatura pubblicata da analisti specializzati indica oltre 6 milioni di articoli complessivi e, per l’Italia, una presenza pari a poco più di 240.000 articoli collegati al network. Gran parte della diffusione avviene tramite canali Telegram: il canale italiano più attivo supera i 12.000 iscritti, mentre quello identificato come ufficiale ne conta poche centinaia.
Per il lettore italiano questo si traduce in tre rischi pratici: esposizione a materiali parziali su temi geopolitici sensibili; diffusione rapida tramite messaggistica sociale; possibile contaminazione delle risposte fornite da assistenti virtuali che attingono al web.
Alcuni osservatori — tra cui l’Atlantic Council — interpretano queste mosse come tentativi di aggirare le sanzioni e di costruire fonti apparentemente «autorevoli» capaci di entrare nel circuito delle citazioni online. Gli effetti concreti dipendono però da come piattaforme, motori di ricerca e produttori di modelli decidono di filtrare e classificare le fonti.
Per ora, le evidenze mostrano che l’azione esiste ed è su larga scala, ma che la sua efficacia non è illimitata: i modelli non si lasciano contaminare automaticamente in modo totale. Restano però zone grigie — soprattutto dove le informazioni affidabili scarseggiano — che favoriscono la circolazione di narrazioni distorte.
La conclusione, per chi consulta notizie e assistenti digitali, è semplice: verificare le fonti, confrontare più canali informativi e non considerare le risposte dei chatbot come prove definitive. Le istituzioni e le piattaforme devono invece accelerare i controlli, aumentare la trasparenza sui dati di training e collaborare con fact‑checker per ridurre i Data Void che rendono vulnerabili i sistemi di informazione automatici.












