Internet: oltre metà dei contenuti in inglese ora creati dall’IA

Mostra sommario Nascondi sommario

Secondo una ricerca di Graphite, da novembre 2024 la fetta di articoli in lingua inglese sul web creati da intelligenze artificiali ha superato quella prodotta interamente da persone: una soglia che cambia il modo in cui valutiamo notizie e contenuti online. Questo dato è rilevante subito, perché influisce su fiducia, moderazione e su come i motori di ricerca determinano qualità e visibilità dei testi.

Cosa mostra lo studio

Analizzando un campione di pagine raccolte da CommonCrawl, Graphite ha rilevato che nel mese di novembre 2024 oltre il 51% degli articoli in inglese era stato generato da un large language model. Nelle settimane successive la quota di contenuti attribuiti a autori umani è scesa ancora: due mesi dopo, la percentuale di testi scritti esclusivamente da persone risultava pari al 44,9%.

Per molti osservatori questa inversione conferma un fenomeno già avvertito nel settore editoriale: l’automazione nella scrittura non è più marginale ma entra stabilmente nella produzione quotidiana di contenuti online.

Perché i numeri vanno presi con cautela

Il quadro, però, non è netto come sembrerebbe a prima vista. Lo studio si basa su circa 65.000 documenti prelevati da CommonCrawl e usa strumenti automatici per identificare testi generati da AI. Quegli stessi strumenti ammettono limiti di precisione: Graphite segnala un possibile tasso di falsi positivi attorno al 4,2% e di falsi negativi vicino allo 0,6%.

Inoltre, i modelli linguistici continuano a migliorare nella riproduzione di stili umani, rendendo sempre più difficile distinguere un testo “interamente umano” da uno scritto — o rielaborato — da un algoritmo.

Il fenomeno ibrido

Una variabile spesso trascurata è la pratica diffusa di usare chatbot come punto di partenza: molti autori impiegano risposte generate dall’AI e poi le modificano, integrano o riformulano. Questa realtà “mista” non si presta a classificazioni binarie e complica le percentuali che emergono dai rilevamenti automatizzati.

Il risultato è che la linea di demarcazione tra contenuto umano e contenuto generato si fa sfumata, con effetti pratici su responsabilità editoriale e controllo qualità.

Quali sono le conseguenze per chi legge e per gli editori

Se una parte consistente del web è composta da testi prodotti o co‑scritti dall’AI, cambiano i criteri con cui selezioniamo fonti affidabili. Per i lettori diventa più importante verificare autorevolezza e trasparenza editoriali: conoscere l’origine di un contenuto può influenzare la fiducia e la capacità di distinguere informazione da rielaborazione automatica.

Per le redazioni e per i SEO manager la sfida è duplice: mantenere standard di qualità e segnalare in modo chiaro l’uso di strumenti automatizzati, evitando che la saturazione di testi simili riduca il valore delle pagine nei risultati di ricerca.

AI Slop — l’idea di un sovraccarico di contenuti generici prodotti dall’AI — è un rischio concreto, ma la portata del fenomeno richiede ulteriori analisi e metodi di misurazione più sofisticati.

Che cosa tenere d’occhio nelle prossime settimane

Il trend, secondo Graphite, sembra aver rallentato e in parte invertito dopo il picco, ma il predominio delle tecnologie rimane significativo. Nei prossimi mesi sarà utile seguire tre indicatori: la precisione degli strumenti di rilevazione, la trasparenza degli editori sull’uso dell’AI e le mosse dei motori di ricerca su qualità e ranking dei contenuti.

Per il pubblico il consiglio pratico resta semplice: verificare fonti, preferire editoria trasparente e non dare per scontata l’origine di un testo solo perché è ben scritto. In un panorama in rapida evoluzione, l’alfabetizzazione digitale diventa uno strumento essenziale per orientarsi.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento