Siti di destra penalizzati dall’AI: studio italiano svela le cause

Mostra sommario Nascondi sommario

Un recente studio pubblicato su PNAS avverte che i grandi modelli linguistici non «capiscono» le notizie: le simulano. È un rischio attuale, perché sempre più persone si affidano a questi sistemi per valutare la credibilità di fonti e articoli — e la loro apparente sicurezza può illudere.

La ricerca, condotta in gran parte da ricercatori della Sapienza di Roma, mette sotto osservazione sia i modelli sia valutatori umani per capire come nasce una valutazione di affidabilità e quali distorsioni emergono quando il processo è delegato a una macchina.

Come è stato fatto l’esperimento

Gli autori hanno confrontato sei modelli oggi in uso — tra cui GPT-4o, Gemini, Mistral, Llama e DeepSeek — con gruppi di valutatori umani, compresi esperti. A tutti è stato chiesto lo stesso compito: giudicare la credibilità di centinaia di siti di informazione e motivare la scelta. In un secondo esperimento, modelli e persone hanno agito come veri e propri agenti, partendo da una homepage, consultando articoli e applicando criteri di valutazione sotto vincolo di tempo.

Alla sperimentazione hanno contribuito, oltre al gruppo principale guidato da Walter Quattrociocchi, i ricercatori Edoardo Loru, Jacopo Nudo, Niccolò Di Marco e Matteo Cinelli, e il Dipartimento di Psicologia della Sapienza con Vincenzo Cestari, Clelia Rossi-Arnaud, Alessandro Santirocchi e Roberto Atzeni; il contatto internazionale è stato facilitato anche da Sander van der Linden.

Cosa hanno scoperto i ricercatori

I risultati mostrano una netta differenza tra apparenza e processo. In superficie, le risposte dei modelli spesso somigliano a quelle degli esperti: formali, coerenti, argomentate. Ma il meccanismo sottostante è altro. I modelli non costruiscono criteri di giudizio; si basano su pattern linguistici appresi dai testi di addestramento. In pratica «riconoscono» segnali lessicali e co-occorrenze statistiche e da lì inferiscono una decisione.

Quando un LLM motiva una scelta, non sta ricostruendo un ragionamento fondato su prova e contesto: sta estendendo statisticamente ciò che nel suo training è associato a etichette come “affidabile” o “polarizzato”. In questo senso, gli autori parlano di una vera e propria simulazione del giudizio: l’esito può apparire argomentato, ma è il prodotto di correlazioni, non di verifica.

Il paper introduce anche il concetto di epistemia: l’illusione che nasce quando la plausibilità linguistica viene scambiata per validazione epistemica.

Bias politici e conseguenze pratiche

Un dato che emerge con chiarezza è la presenza di distorsioni sistematiche. I modelli, riflettendo la distribuzione e i toni presenti nei materiali con cui sono stati addestrati, tendono a segnalare più frequentemente contenuti associati alla destra politica come meno affidabili o più polarizzati. Non si tratta di convinzioni: è il risultato delle frequenze e delle modalità con cui certe posizioni sono state trattate negli ambienti accademici, giornalistici e digitali che compongono il training set.

Questo comportamento può generare un effetto a catena: strumenti usati per valutare fonti possono amplificare e cristallizzare asimmetrie già presenti nell’ecosistema informativo, influenzando percezioni pubbliche e pratiche editoriali.

Per il lettore comune la posta in gioco è concreta: delegare senza controllo significa rischiare di accettare come «verificata» una narrazione che, in realtà, è soltanto plausibile dal punto di vista linguistico.

Da generatori di testo ad agenti: cambia la posta

Un elemento emergente nell’evoluzione dell’IA è che i modelli non si limitano più a rispondere a prompt: iniziano ad agire come agenti. Raccolgono informazioni, scelgono fonti, compongono risposte multi-step e prendono decisioni autonome. Nell’esperimento, quando LLM e persone sono stati messi nelle stesse condizioni operative, è emerso che gli esseri umani impiegano criteri retorici, di tono e di equilibrio; i modelli, invece, leggono segnali strutturali e lessicali e ottimizzano su correlazioni.

La trasformazione è rilevante perché sposta il problema dalla qualità dell’output alla natura del processo decisionale: chi o che cosa decide cosa sia affidabile quando l’agentificazione diventa comune?

No, non si tratta di allarmismo fine a sé stesso. È una questione istituzionale e sociale: trasparenza dei criteri, controllo sui dati di addestramento, e responsabilità nell’uso pratico delle tecnologie.

Il marketing dell’intelligenza artificiale — con slogan su «mente estesa» e «potenziamento cognitivo» — enfatizza capacità e performance misurate da benchmark pensati per essere superati. Ma questi test valutano prestazione, non metodo. E così, mentre il prodotto viene celebrato, la domanda cruciale rimane spesso senza risposta: cosa stiamo effettivamente delegando?

Per chi lavora con informazione, per i professionisti e per i cittadini, la raccomandazione è semplice e urgente: usare questi strumenti con consapevolezza, verificarne le fonti, non confondere la scorrevolezza del linguaggio con la robustezza della prova.

Non sono nemici, ma nemmeno partner neutri. Sono potenti generatori di plausibilità — macchine che fanno sembrare valide certe affermazioni. Se la società accetta la plausibilità al posto della verifica, il problema non sarà l’IA ma la nostra capacità di distinguere apparenza e conoscenza.

Walter Quattrociocchi è professore ordinario di Informatica alla Sapienza di Roma.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento