Peter J. Denning, Ted G. Lewis*
L’intelligenza artificiale è intelligente? Un’analisi semplice quanto efficace classifica le macchine AI in base alla capacità di apprendimento, mostrando che nessuna è intelligente. Tuttavia questo non chiude la questione, come dovrebbe, perché si sta facendo strada l’idea di un “modello di progresso”
L’intelligenza artificiale è intelligente? E dunque le macchine AI a cui sempre più velocemente iniziamo ad affidarci, sono intelligenti? L’analisi che qui pubblichiamo affronta la questione in un modo tanto semplice quanto efficace: imposta una classificazione della tecnologia AI in base alla capacità di apprendimento, dal livello 0 al livello 7. Il risultato “mostra che nessuna delle macchine finora costruite ha alcuna intelligenza, il che porta all’intrigante possibilità che l’intelligenza umana non sia computabile”. Tuttavia, questo non chiude la questione, come dovrebbe. Si sta facendo strada l’idea di un “modello di progresso”: man mano che le macchine acquisiscono capacità di apprendimento, si avvicinano all’Intelligenza Artificiale Generale (AGI). È un modello su quattro livelli, ripreso e fatto proprio da OpenAI e, di fatto, già in atto in alcuni contesti. Stiamo andando alla deriva, concludono i due autori, “verso una nuova singolarità: la sottomissione degli umani a reti di macchine poco intelligenti e indifferenti. Ben prima che la Singolarità di Kurzweil unisca gli umani con le macchine nel 2045”.
L’intelligenza artificiale (AI) ha avuto successo in numerosi ambiti, tra cui il riconoscimento vocale, la classificazione automatica, la traduzione linguistica, gli scacchi, il Go, il riconoscimento facciale, la diagnosi delle malattie, la scoperta di farmaci, le auto senza conducente, i droni autonomi e, più di recente, i chatbot linguisticamente competenti. Tuttavia, nessuna di queste macchine è minimamente intelligente e molte di quelle più recenti non sono affidabili. Aziende e governi stanno utilizzando macchine AI in un numero crescente di applicazioni sensibili e critiche, senza essere in grado di sapere quando ci si può fidare di quelle macchine.
Fin dagli inizi, l’ambito dell’intelligenza artificiale è stato afflitto da clamore. Molti ricercatori e sviluppatori erano così entusiasti delle possibilità, che hanno promesso più del dovuto. Gli investitori disillusi si sono tirati indietro due volte durante due ‘inverni AI”. Con l’arrivo dei grandi modelli linguistici (LLM), il clamore ha raggiunto nuove vette e ha spinto un’enorme ondata di investimenti speculativi nelle aziende di intelligenza artificiale. I consulenti finanziari stanno mettendo in guardia da una bolla legata alla AI. Molti ricercatori di intelligenza artificiale hanno espresso preoccupazioni sul fatto che il clamore stia spingendo le persone a fidarsi delle macchine prima che ne sappiamo abbastanza, e a inserirle in applicazioni critiche nelle quali gli errori possono essere costosi o mortali.
Nel 2019 noi (gli autori) abbiamo proposto una modalità oggettiva di guardare alle macchine AI attraverso la quale è possibile evitare di affidarsi a clamore e antropomorfismo (1). Abbiamo scoperto che le macchine AI possono essere raggruppate in classi in base alla capacità di apprendimento. Questo modo di classificarle fornisce maggiori informazioni sull’aspetto della fiducia rispetto alle classificazioni più comuni per ambiti, tra cui linguaggio, vista, linguaggio naturale, giochi, assistenza sanitaria, trasporti, navigazione e così via.
Un aspetto del clamore che ci ha particolarmente turbato sono le affermazioni secondo cui i recenti progressi nell’informatica sono guidati dall’AI e che tutto il software è una forma di AI. È il contrario: l’informatica ha fatto costanti progressi in termini di potenza e affidabilità negli ultimi cinquant’anni, e la maggior parte del software non è intelligenza artificiale. L’AI moderna non esisterebbe se non fosse per questi progressi.
Un altro aspetto preoccupante è la nostra tendenza ad antropomorfizzare, a proiettare sulle macchine le nostre convinzioni e speranze relative all’intelligenza umana (1r). Questo porta a contraddizioni indesiderate e a una fiducia mal riposta nell’AI. Per esempio, crediamo che le persone intelligenti pensino velocemente, eppure i supercomputer che funzionano un miliardo di volte più velocemente degli umani, non sono intelligenti; crediamo che le comunità interagenti di macchine AI saranno collettivamente intelligenti, eppure i computer e le reti massivamente parallele non sono intelligenti; crediamo che i chatbot faranno nuove scoperte, ma non consideriamo intelligenti i loro output.
Una gerarchia di macchine di apprendimento
Nella Tabella 1 offriamo una gerarchia a otto livelli che classifica le macchine AI in base alla loro capacità di apprendimento: una è più capace nell’apprendimento di un’altra se, in un tempo ragionevole, può imparare a svolgere alcune attività che l’altra non può. La capacità di apprendimento deriva dalla struttura. Questa definizione non si basa su alcuna nozione di intelligenza. Non è necessaria alcuna antropomorfizzazione per spiegare perché una macchina è più capace nell’apprendimento di un’altra.
Questa definizione comprende anche i due modi fondamentali in cui le macchine possono apprendere. Uno è tramite programmazione: un progettista esprime tutte le regole operative in un database e la macchina applica queste regole per dedurre i risultati. L’altro è tramite auto-adattamento: la macchina impara da esempi ed esperienze e adatta la sua struttura interna in base a un algoritmo di addestramento. Questi approcci possono essere combinati, con una parte di una macchina AI programmata e altre parti auto-adattanti.
Questa gerarchia non classifica in base alla potenza di calcolo. Tutte le macchine AI sono Turing Complete. La gerarchia mostra che nessuna delle macchine finora costruite ha alcuna intelligenza, il che porta all’intrigante possibilità che l’intelligenza umana non sia computabile…
Continua a leggere acquistando il numero 89
copia digitale PDF: 3,00 euro
copia cartacea: 10,00 euro
* Articolo pubblicato sotto licenza Creative Commons ‘free access’, traduzione a cura di Paginauno. L’articolo originale in inglese può essere trovato qui: Peter J. Denning and Ted G. Lewis. 2024. An AI Learning Hierarchy. Commun. ACM 67, 12 (December 2024), 24–27. https://doi.org/10.1145/3699525. Peter J. Denning è professore emerito di informatica presso la Naval Postgraduate School di Monterey, CA, USA, è editore di ACM Ubiquity ed è stato presidente di ACM. Il suo libro più recente è Navigating a Restless Sea: Mobilizing Innovation in Your Community (con Todd Lyons, Waterside Productions, 2024). Le opinioni dell’autore qui espresse non sono necessariamente quelle del suo datore di lavoro o del governo federale degli Stati Uniti. Ted G. Lewis è membro della Oregon State Hall of Fame del 2021, autore e informatico con competenze in teoria della complessità applicata, sicurezza nazionale, sistemi infrastrutturali e sicurezza informatica. È stato direttore del Center for Homeland Defense and Security presso la Naval Postgraduate School. Il suo libro più recente è Critical Infrastructure Resilience and Sustainability Reader (2024)