Petizione di prova

Una visione realistica dell’Intelligenza Artificiale
Lettera aperta alla società

Negli ultimi anni, le tecnologie informatiche comunemente note come "intelligenza artificiale" sono entrate con forza nel dibattito pubblico, con l’arrivo e la diffusione esplosiva dei sistemi generativi. Si parla di rivoluzione, di macchine che “pensano”, di coscienza artificiale, di sostituzione delle persone. In questo contesto, riteniamo necessario riportare la discussione su basi chiare e realistiche.

Una domanda semplice resta spesso senza risposta: che cosa sono davvero questi sistemi, e a che punto siamo realmente?

Proviamo a fare chiarezza.

Che cos'è l’intelligenza artificiale?
L’intelligenza artificiale ha l’obiettivo di simulare il pensiero umano, sia quello basato sul ragionamento (deduttivo) sia quello basato sui dati (induttivo). In passato si è lavorato soprattutto col primo approccio perché non c’erano a disposizione né le quantità di dati né la potenza di calcolo che sono disponibili adesso.

Che cos'è un sistema di intelligenza artificiale generativa?
I sistemi di intelligenza artificiale generativa sono modelli matematico-statistici addestrati su enormi quantità di dati. Il loro funzionamento, nella sua essenza, è semplice: imparano dai dati a fare previsioni. Possono stimare quale parola è più probabile in una frase, quale immagine è coerente con una descrizione o quale risposta è compatibile con una domanda. Funzionano perché, nei dati di addestramento, esistono regolarità che il modello riesce a individuare su scala molto ampia. Si sono ottenuti risultati tecnici impressionanti e inattesi in diversi compiti cognitivi, che però non equivalgono a comprensione nel senso umano del termine. Conoscerne bene i limiti e le potenzialità diventa quindi sempre più critico.

I sistemi di IA generativa “capiscono”?
Negli esseri umani, la comprensione implica l'esperienza del mondo e la capacità di verificare le informazioni. I sistemi di IA generativa possono scrivere testi convincenti, risolvere esercizi o sostenere conversazioni complesse. Questo, però, non significa che capiscano ciò che stanno dicendo: c’è solo un calcolo di probabilità. Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.

Dove funzionano e dove no
Questi sistemi funzionano molto bene quando il problema è simile a situazioni già presenti nei dati di addestramento e quando sono disponibili molti esempi da cui apprendere. Diventano invece più fragili quando le informazioni cambiano rapidamente, quando il tema è controverso o quando l’argomento è significativamente diverso dai dati conosciuti. In queste situazioni possono produrre risposte fluenti, cioè apparentemente coerenti e corrette, ma errate. Il punto non è che a volte sbagliano. Il punto è che questi sistemi producono risposte plausibili senza disporre di un meccanismo interno per verificarne la veridicità.

A che punto siamo davvero: il tema dell’AGI (Artificial General Intelligence)
Nel dibattito pubblico si parla spesso di “AGI”, cioè di sistemi capaci di comprendere e ragionare in modo ampio e autonomo come un essere umano. Gli attuali sistemi di AI generativa non presentano queste caratteristiche. Sono molto potenti nel riorganizzare le informazioni già presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani. L’aumento dei dati e della potenza di calcolo migliora le prestazioni, ma non cambia la natura del meccanismo di base, che rimane basato principalmente su previsioni statistiche su larga scala, anche se le rappresentazioni interne che emergono durante l’addestramento possono essere molto complesse.

Il rischio del fraintendimento
Il rischio non è questa tecnologia in sé, ma il modo in cui l'interpretiamo. Se trattiamo la fluidità linguistica come prova di conoscenza o deleghiamo il giudizio senza comprendere il funzionamento dello strumento, rischiamo di confondere coerenza con affidabilità. In questo modo può cambiare, spesso senza accorgercene, il criterio con cui riconosciamo ciò che è conoscenza.

Cosa fare
La vera priorità è formare le persone a comprendere queste tecnologie. Sapere come funzionano, quali sono i loro limiti e come possono essere utilizzate in modo responsabile è oggi una competenza fondamentale per tutti i cittadini.

Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.

Invitiamo altresì studiosi e ricercatori di altri settori a contribuire a quest’attività, ciascuno nell’ambito delle proprie competenze disciplinari.

FIRMATARI INIZIALI

n. NOME ORGANIZZAZIONE
1 Enrico Nardelli Univ. Roma Tor Vergata
2 Walter Quattrociocchi    Sapienza Univ. Roma
3 Marco Antoniotti Univ. Milano Bicocca
4 Silvana Castano Univ. Milano
5 Paolo Ciancarini Univ. Bologna
6 Carlo Ghezzi Politecnico Milano
7 Mauro Iacono Univ. Campania Vanvitelli
8 Fabio Massacci Univ. Trento
9 Guido Proietti Univ. L'Aquila
10   Letizia Tanca Politecnico Milano

Enrico Nardelli & Walter Quattrociocchi    Contatta l'autore della petizione

Firma questa petizione

Firmando, accetto che Enrico Nardelli & Walter Quattrociocchi possa vedere tutte le informazioni che fornisco in questo modulo.

Non mostreremo il vostro indirizzo email online pubblicamente.

Non mostreremo il vostro indirizzo email online pubblicamente.

Acconsento al trattamento dei dati da me forniti in questo modulo per le seguenti finalità:




Annunci pubblicitari a pagamento

Petizioni.com promuoverà questa petizione presso 3000 persone.

Per saperne di più...