Mostra sommario Nascondi sommario
Un recente esperimento scientifico ha mostrato una falla concreta nella sicurezza della filiera biotech: strumenti di intelligenza artificiale sono stati in grado di progettare sequenze tossiche che i controlli automatici delle aziende produttrici di DNA sintetico non hanno rilevato. Perché importa adesso? Perché la combinazione di modelli sempre più potenti e procedure di verifica inadeguate può rendere più facile, e più rapido, l’accesso a materiali biologici per usi dannosi.
Il dibattito sulla regolamentazione dell’intelligenza artificiale, che spesso richiama perfino le regole immaginarie di Asimov, tocca qui un terreno concreto: la possibilità che la tecnologia venga impiegata per manipolare o creare **agenti patogeni**. Oggi molti strumenti di AI supportano ricerche legittime — dall’ideazione di proteine terapeutiche alla velocizzazione di attività di laboratorio — ma non sono ancora sistemi indipendenti; servono guida e verifica umana. Questo non elimina però il rischio legato a un’accelerazione dei tempi e a processi sempre più automatizzati.
La prova pubblicata su Science
Galaxy Buds4 e Buds4 Pro: Samsung svela novità, caratteristiche e prezzi
Un milione di chip per il cloud: Nvidia vende ad Amazon entro il 2027
Nel lavoro riportato dalla rivista Science, un gruppo di ricercatori ha messo alla prova i sistemi di sicurezza usati dalle compagnie che sintetizzano acidi nucleici. Fingendo di essere attori ostili, gli sperimentatori hanno generato progetti digitali simili a noti veleni biologici e li hanno inviati attraverso i canali commerciali. I risultati hanno rivelato che alcuni software di screening non hanno riconosciuto una quota significativa di sequenze potenzialmente pericolose: in un caso oltre il 75% delle sequenze allarmanti è passato inosservato.
Le aziende che forniscono servizi di sintesi si basano su algoritmi che cercano corrispondenze con database di geni e tossine note; ma l’intelligenza artificiale può creare varianti non riscontrabili con i metodi attuali. La capacità dei modelli, del resto, dipende molto da quali e quanti **dati biologici** sono stati usati per addestrarli: più il training è esteso e diversificato, più emergono possibilità tecniche — buone e cattive.
Cosa cambia per la sicurezza
Il fatto che strumenti automatizzati possano eludere i controlli ha conseguenze pratiche. In primo luogo, mette pressione sulle contromisure: è necessario aggiornare gli strumenti di screening, adottare metriche intelligenti per rilevare sequenze nuove o ricombinate e aumentare la condivisione di informazioni tra industria, centri di ricerca e autorità regolatorie. In secondo luogo, accelera la discussione su regole di responsabilità per chi sviluppa e distribuisce modelli AI applicati alla biologia.
Al tempo stesso, è importante ricordare i limiti attuali: la generazione di un agente biologico operativo richiede competenze di laboratorio, infrastrutture e validazioni sperimentali che non sono ancora replicabili da un sistema completamente autonomo. Il fattore che preoccupa maggiormente è la riduzione delle barriere tecniche e temporali, non un salto immediato verso la produzione autonoma di armi biologiche. Il controllo umano nelle fasi di interpretazione e validazione rimane dunque un presidio cruciale.
La reazione della comunità scientifica e del settore biotech dovrà essere multilivello: migliorare i protocolli di verifica per gli ordini di DNA, integrare strumenti di rilevamento basati su AI che siano trasparenti e valutabili, rafforzare la sorveglianza e promuovere linee guida internazionali per l’uso responsabile delle tecnologie. I ricercatori che hanno condotto il test hanno scelto la simulazione controllata proprio per evidenziare le vulnerabilità senza alimentare il rischio reale — un esempio di disclosure responsabile che dovrebbe diventare prassi.
In sintesi, la minaccia esiste ed è concreta, ma non è ancora la sceneggiatura di fantascienza. Serve una risposta rapida e coordinata fra imprese, università e istituzioni pubbliche per aggiornare le difese e prevenire che le potenzialità utili dell’AI si trasformino in un vettore di danno.












