Cina, nuova legge sulla sicurezza dei minori nell’IA: persone pronte a intervenire

Mostra sommario Nascondi sommario

La Cina sta predisponendo nuove regole per frenare i rischi che i chatbot e altri sistemi di intelligenza artificiale possono rappresentare per i minori. Il progetto normativo mira a limitare l’influenza emotiva dell’AI sui giovani e a evitare che conversazioni automatiche possano incoraggiare comportamenti pericolosi, come l’autolesionismo.

Scopo della proposta e chi l’ha promossa

La bozza è stata preparata dall’Amministrazione del cyberspazio della Cina, l’ente che sovrintende alla regolazione della rete nel Paese. L’intento dichiarato è chiaro: mettere regole più stringenti per gli assistenti virtuali “simili agli umani”, in particolare quelli usati come compagnia emotiva.

Limiti sui contenuti e protezione emotiva

I punti chiave del testo vogliono impedire che un chatbot produca messaggi capaci di scuotere emotivamente gli utenti più fragili. In pratica, le piattaforme dovranno evitare:

  • contenuti con forte impatto emotivo rivolti ai minori;
  • forme di violenza verbale generate dall’AI;
  • tecniche di manipolazione emotiva che possano spingere a gesti autolesionistici.

Regole per l’uso da parte dei minorenni

Secondo la proposta, i giovani non potranno usare liberamente servizi di AI per scopi emotivi senza autorizzazione. Tra le misure previste:

  • consenso del tutore per fruire di assistenza emotiva via AI;
  • limiti temporali chiari per le sessioni di compagnia virtuale;
  • impostazioni predefinite di sicurezza quando l’età non è certificata.

Verifica dell’età e impostazioni protette

Le aziende saranno costrette a sviluppare metodi per stabilire se un utente è minorenne anche in assenza di dichiarazioni esplicite. In caso di dubbio, il sistema dovrà applicare automaticamente restrizioni compatibili con la tutela dei minori.

Procedure in situazioni di rischio

Un elemento centrale della bozza riguarda le risposte a segnali di pericolo. Se un utente menziona suicidio o autolesionismo, la tecnologia non deve rimanere sola a gestire il caso. È previsto che:

  • un operatore umano prenda il controllo della comunicazione;
  • venga contattato immediatamente il tutore o una persona designata;
  • la piattaforma attivi protocolli di emergenza per il sostegno.

Obblighi per piattaforme e sviluppatori

Le società che forniscono chatbot dovranno adeguare sia il design sia i processi operativi. Tra le responsabilità indicate nella bozza:

  • implementare filtri e modelli che evitino messaggi nocivi;
  • monitorare conversazioni per rilevare segnali di rischio;
  • assicurare la possibilità di intervento umano rapido.

Problemi pratici e critiche previste

La normativa apre questioni complesse. Alcuni punti sensibili sono:

  • la privacy degli utenti durante la verifica dell’età;
  • il rischio di falsi positivi che potrebbero interferire con conversazioni innocue;
  • il carico operativo per assicurare un intervento umano immediato.

Impatto sul mercato e sulle tecnologie

Se approvate, le regole potrebbero spingere le aziende ad adottare standard più elevati di sicurezza. Allo stesso tempo, le startup e i fornitori di AI dovranno investire in moderazione e compliance per rispettare le nuove prescrizioni.

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento