Intelligenza artificiale: Floridi spiega perché non è davvero intelligente

Mostra sommario Nascondi sommario

Luciano Floridi, uno dei massimi filosofi dell’informazione, smonta miti e offre chiavi concrete per comprendere l’ondata dell’intelligenza artificiale. In un confronto ricco di esempi, prende le distanze dalle narrazioni catastrofiche e indica strade per regolamentare, educare e innovare senza cedere a facili entusiasmi.

Agency versus intelligenza: una distinzione che cambia il discorso sull’AI

Secondo Floridi, il nocciolo del problema è terminologico. Le macchine non mostrano intelligenza come la intendiamo per gli esseri umani. È più utile leggere l’AI come una nuova forma di capacità di agire. Queste tecnologie esibiscono comportamenti e azioni progettati, non consapevolezza.

Questo spostamento di prospettiva ha effetti pratici:

  • si fa meno speculazione metafisica;
  • si valuta ciò che è stato ingegneristicamente realizzato;
  • si misura il rischio e la responsabilità in chi costruisce e usa i sistemi.

Responsabilità e marketing: chi paga il conto delle ambiguità?

La narrativa pubblica e commerciale tende ad attribuire alle macchine capacità che giustificano meno controllo umano. Floridi avverte: questo può servire a sottrarre responsabilità ai produttori.

Se si toglie qualsiasi nozione di intelligenza alla macchina, la responsabilità ricade completamente su chi la realizza e la distribuisce. È una questione etica e legale che richiede chiarezza normativa.

La bolla dell’AI: perché esiste e come potrebbe evolvere

Il filosofo paragona l’attuale dinamica finanziaria a una sovrastima del valore reale dei prodotti AI rispetto agli investimenti. Il problema nasce dallo squilibrio tra capitale di rischio e domanda industriale concreta.

Possibili scenari:

  • una sgonfiatura graduale, se gli acquisti industriali aumentano;
  • uno scoppio improvviso, se il mercato chiede ritorni troppo rapidi;
  • una lunga transizione, se l’adozione richiede decenni come per altre rivoluzioni tecnologiche.

Il rischio maggiore è temporale: se gli investitori cercano guadagni in mesi mentre l’adozione richiede anni, la bolla potrebbe esplodere.

Dot-com vs AI: analogie utili e differenze pericolose

Ci sono somiglianze con la bolla delle dot-com: fallimenti, perdite e la nascita di nuovi giganti. Ma Floridi sottolinea una differenza fondamentale.

I grandi investimenti per il web hanno creato infrastrutture durature. L’AI, invece, richiede aggiornamenti continui. I data center e le architetture odierne invecchiano più in fretta. Questo aumenta il rischio legato all’obsolescenza degli asset.

Il “momento berlinese” dell’AI: spartizione dei mercati e centralità dei dati

Floridi usa la metafora storica della Conferenza di Berlino per descrivere una possibile spartizione del dominio tecnologico. In pratica, i grandi attori potrebbero dividersi i settori secondo i dati che possiedono.

Esempi pratici:

  • chi domina il cloud medico avrà vantaggi per applicazioni sanitarie;
  • chi gestisce il retail online potrà sviluppare AI per l’e-commerce;
  • si profila una competizione di ecosistemi più che di singoli prodotti.

Per l’Europa la posta in gioco è alta. Senza una strategia propria rischiamo di subire questa frammentazione.

Regole europee come vantaggio competitivo e il ruolo dell’open source

Floridi rifiuta la lettura che vede la regolamentazione europea solo come freno. Se il regolatore diventa un valore aggiunto, può trasformarsi in marchio di qualità.

Un possibile modello europeo:

  • norme severe su privacy e copyright;
  • promozione di modelli open source certificati;
  • un “bollino” che attesti conformità e trasparenza.

Open source + norme solide = un quarto polo tecnologico, alternativo a Stati Uniti e Cina.

Orbits: informare e costruire competenze sul territorio

Il progetto Orbits nasce per colmare il vuoto informativo su AI, dati e impatto sociale. L’obiettivo è creare uno spazio dove aziende, istituzioni e ricerca si incontrano.

Caratteristiche dell’iniziativa:

  • formazione e informazione accessibile;
  • dialogo tra pubblico e privato;
  • eventi in città diverse per coinvolgere territori diversi.

Capitale semantico: perché conta la scelta umana nell’era degli LLM

Con i modelli linguistici, la produzione del testo può essere automatizzata. Ma la vera differenza è la progettazione del contenuto: scegliere tema, prospettiva e qualità.

Il capitale semantico è la capacità di scegliere, giudicare e controllare il contenuto prodotto. Questo resta una prerogativa umana e aumenta di valore quando l’AI automatizza le fasi esecutive.

Come coltivare il capitale semantico

  1. definire l’obiettivo comunicativo prima di generare testo;
  2. controllare e revisionare con criterio critico;
  3. usare l’AI come strumento, non come sostituto della scelta.

“Distant writing”: l’esperimento letterario e la nuova artigianalità

Floridi ha portato avanti un esperimento narrativo in cui LLM hanno scritto storie interconnesse. Il progetto dimostra cosa si può fare oggi con questi strumenti.

Risultati salienti:

  • ogni storia è frutto di centinaia di prompt e ore di lavoro;
  • servono competenza e attenzione al dettaglio per ottenere plausibilità;
  • l’autore rimane il designer delle regole e dei vincoli creativi.

La macchina produce, l’umano dirige. La differenza tra un testo buono e uno mediocre sta nell’abilità di chi guida il modello.

Scuola e didattica: cambiare il focus dell’apprendimento

L’uso massiccio di ChatGPT e affini impone una revisione dei metodi didattici. Non ha senso puntare solo sul prodotto finale che la macchina può fornire.

Tre azioni pratiche suggerite:

  • valorizzare il processo e la provenienza delle idee;
  • insegnare a valutare e verificare le fonti;
  • focalizzare l’attenzione su originalità, controllo e giudizio critico.

L’obiettivo è che l’elaborato sia chiaramente “tua” e non solo un risultato generato dall’AI.

Politiche scolastiche e accesso equo agli strumenti

Blocchi e divieti sono soluzioni arretrate. Floridi propone invece apertura controllata e accesso uniforme agli strumenti per evitare disuguaglianze.

Una soluzione pratica: fornire gratuitamente gli strumenti agli studenti, così da non creare un divario tra chi può pagare e chi no.

Competenze pratiche: usare l’AI richiede maestria

L’illusione che basti cliccare un pulsante è pericolosa. I modelli richiedono competenze per essere guidati bene. Floridi sintetizza: l’AI favorisce chi sa, danneggia chi non sa.

Consigli per chi vuole lavorare con i modelli:

  • imparare a costruire prompt efficaci;
  • investire tempo nella revisione e verifica;
  • sviluppare senso critico e competenze etiche.

YouTube video

Categorie IA

Dai il tuo feedback

Sii il primo a votare questo post
o lascia una recensione dettagliata



AmicoGeek è un media indipendente. Sostienici aggiungendoci ai preferiti di Google News:

Pubblica un commento

Pubblica un commento