Una visione realistica dell’Intelligenza Artificiale
Una visione realistica dell’Intelligenza Artificiale
Lettera aperta alla società
Negli ultimi anni, le tecnologie informatiche comunemente note come "intelligenza artificiale" sono entrate con forza nel dibattito pubblico, con l’arrivo e la diffusione esplosiva dei sistemi generativi. Si parla di rivoluzione, di macchine che “pensano”, di coscienza artificiale, di sostituzione delle persone. In questo contesto, riteniamo necessario riportare la discussione su basi chiare e realistiche.
Una domanda semplice resta spesso senza risposta: che cosa sono davvero questi sistemi, e a che punto siamo realmente?
Proviamo a fare chiarezza.
Che cos'è l’intelligenza artificiale?
L’intelligenza artificiale ha l’obiettivo di simulare il pensiero umano, sia quello basato sul ragionamento (deduttivo) sia quello basato sui dati (induttivo). In passato si è lavorato soprattutto col primo approccio perché non c’erano a disposizione né le quantità di dati né la potenza di calcolo che sono disponibili adesso.
Che cos'è un sistema di intelligenza artificiale generativa?
I sistemi di intelligenza artificiale generativa sono modelli matematico-statistici addestrati su enormi quantità di dati. Il loro funzionamento, nella sua essenza, è semplice: imparano dai dati a fare previsioni. Possono stimare quale parola è più probabile in una frase, quale immagine è coerente con una descrizione o quale risposta è compatibile con una domanda. Funzionano perché, nei dati di addestramento, esistono regolarità che il modello riesce a individuare su scala molto ampia. Si sono ottenuti risultati tecnici impressionanti e inattesi in diversi compiti cognitivi, che però non equivalgono a comprensione nel senso umano del termine. Conoscerne bene i limiti e le potenzialità diventa quindi sempre più critico.
I sistemi di IA generativa “capiscono”?
Negli esseri umani, la comprensione implica l'esperienza del mondo e la capacità di verificare le informazioni. I sistemi di IA generativa possono scrivere testi convincenti, risolvere esercizi o sostenere conversazioni complesse. Questo, però, non significa che capiscano ciò che stanno dicendo: c’è solo un calcolo di probabilità. Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.
Dove funzionano e dove no
Questi sistemi funzionano molto bene quando il problema è simile a situazioni già presenti nei dati di addestramento e quando sono disponibili molti esempi da cui apprendere. Diventano invece più fragili quando le informazioni cambiano rapidamente, quando il tema è controverso o quando l’argomento è significativamente diverso dai dati conosciuti. In queste situazioni possono produrre risposte fluenti, cioè apparentemente coerenti e corrette, ma errate. Il punto non è che a volte sbagliano. Il punto è che questi sistemi producono risposte plausibili senza disporre di un meccanismo interno per verificarne la veridicità.
A che punto siamo davvero: il tema dell’AGI (Artificial General Intelligence)
Nel dibattito pubblico si parla spesso di “AGI”, cioè di sistemi capaci di comprendere e ragionare in modo ampio e autonomo come un essere umano. Gli attuali sistemi di AI generativa non presentano queste caratteristiche. Sono molto potenti nel riorganizzare le informazioni già presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani. L’aumento dei dati e della potenza di calcolo migliora le prestazioni, ma non cambia la natura del meccanismo di base, che rimane basato principalmente su previsioni statistiche su larga scala, anche se le rappresentazioni interne che emergono durante l’addestramento possono essere molto complesse.
Il rischio del fraintendimento
Il rischio non è questa tecnologia in sé, ma il modo in cui l'interpretiamo. Se trattiamo la fluidità linguistica come prova di conoscenza o deleghiamo il giudizio senza comprendere il funzionamento dello strumento, rischiamo di confondere coerenza con affidabilità. In questo modo può cambiare, spesso senza accorgercene, il criterio con cui riconosciamo ciò che è conoscenza.
Cosa fare
La vera priorità è formare le persone a comprendere queste tecnologie. Sapere come funzionano, quali sono i loro limiti e come possono essere utilizzate in modo responsabile è oggi una competenza fondamentale per tutti i cittadini.
Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.
Invitiamo altresì studiosi e ricercatori di altri settori a contribuire a quest’attività, ciascuno nell’ambito delle proprie competenze disciplinari.
Invitiamo dunque tutti i colleghi che la condividono ad aggiungere la loro firma a questa lettera aperta.
FIRMATARI INIZIALI
| n. | NOME | ORGANIZZAZIONE |
| 1 | Enrico Nardelli | Univ. Roma Tor Vergata |
| 2 | Walter Quattrociocchi | Sapienza Univ. Roma |
| 3 | Marco Antoniotti | Univ. Milano Bicocca |
| 4 | Paolo Boldi | Univ. MIlano |
| 5 | Paolo Branchini | INFN - Roma Tre |
| 6 | Pierpaolo Brutti | Sapienza Univ. Roma |
| 7 | Valerio Capraro | Univ. Milano Bicocca |
| 8 | Emiliano Casalicchio | Sapienza Univ. Roma |
| 9 | Silvana Castano | Univ. Milano |
| 10 | Tiziana Catarci | CNR - ISTC |
| 11 | Andrea Cerroni | Univ. Roma Tre |
| 12 | Roy Cerqueti | Sapienza Univ. Roma |
| 13 | Paolo Ciancarini | Univ. Bologna |
| 14 | Matteo Cinelli | Sapienza Univ. Roma |
| 15 | Agostino Cortesi | Univ. Venezia Ca’ Foscari |
| 16 | Juan Carlos De Martin | Politecnico Torino |
| 17 | Paolo Ferragina | Scuola Superiore S.Anna, Pisa |
| 18 | Vladi Finotto | Univ. Venezia Ca’ Foscari |
| 19 | Fabio Gadducci | Univ. Pisa |
| 20 | Vittorio Gallese | Univ. Parma |
| 21 | Carlo Ghezzi | Politecnico Milano |
| 22 | Chiara Ghidini | Libera Univ. Bolzano |
| 23 | Mauro Iacono | Univ. Campania Vanvitelli |
| 24 | Antonio Lieto | Univ. Salerno |
| 25 | Enzo Loia | Univ. Salerno |
| 26 | Fabio Massacci | Univ. Trento |
| 27 | Marco Montali | Libera Univ. Bolzano |
| 28 | Andrea Orlandini | CNR - ISTC |
| 29 | Salvatore Orlando | Sapienza Univ. Roma |
| 30 | Gabriella Pasi | Univ. Milano Bicocca |
| 31 | Giovanni Perlingieri | Sapienza Univ. Roma |
| 32 | Antonio Pescapè | Univ. Napoli Federico II |
| 33 | Giovanni Pezzulo | CNR - ISTC |
| 34 | Benedetto Ponti | Univ. Perugia |
| 35 | Guido Proietti | Univ. L’Aquila |
| 36 | Federico Puppo | Univ. Trento |
| 37 | Mattia Samory | Sapienza Univ. Roma |
| 38 | Giulio Sandini | IIT |
| 39 | Antonio Scala | CNR - ISC |
| 40 | Simone Scardapane | Sapienza Univ. Roma |
| 41 | Viola Schiaffonati | Politecnico Milano |
| 42 | Alessandra Sciutti | IIT |
| 43 | Letizia Tanca | Politecnico Milano |
| 44 | Vincenzo Vespri | Univ. Firenze |
| 45 | Fabiana Zollo | Univ. Venezia Ca’ Foscari |
Enrico Nardelli & Walter Quattrociocchi Contatta l'autore della petizione