G li strumenti di intelligenza artificiale (IA) con cui ci relazioniamo oggi e che stiamo iniziando a introdurre progressivamente nelle nostre vite possono sembrare piuttosto deludenti, specialmente se paragonati alle aspettative generate dalle narrazioni più altisonanti cui siamo stati abituati in particolare negli ultimi tempi, a seguito dell’esplosione delle IA generative. Come testimoniano anche le discussioni più recenti sui cosiddetti “rischi esistenziali”, quelli che riguardano scenari di lunghissimo periodo e dalle tinte catastrofiche e speculative con al centro, di norma, l’avvento di una potenziale IA superpotente e ostile nei confronti degli umani, esiste una differenza sostanziale tra l’IA per come l’abbiamo immaginata e quella che, in realtà, abbiamo già a disposizione. In sostanza, le preoccupazioni dei maggiori produttori dei sistemi di IA – tra cui anche lo stesso Sam Altman di OpenAI – guardano continuamente altrove, in ambiti che se non del tutto fantascientifici di sicuro non riguardano direttamente la realtà in cui ChatGPT e simili trovano oggi applicazione.
Secondo molte voci critiche provenienti dall’accademia e dalla società civile, invece, questa prospettiva lungotermista non solo è inutile, ma rischia anche di distrarre l’attenzione dai reali rischi cui l’IA si accompagna davvero. Rischi per la data justice, in particolare, che sono giù ben visibili e documentati e stanno giù influenzando direttamente la vita di molte persone. La letteratura incentrata su questi esempi è già molto lunga. Al dibattito pubblico su questi temi, in sostanza, serve un una più stretta relazione con la realtà. Anche nel caso dello strumento di IA forse più avanzato al momento a essere disponibile al pubblico, ChatGPT e i large language model più in generale, siamo comunque al cospetto di una IA limitata, capace di svolgere una sola funzione nel modo più efficiente possibile.
Per quanto spettacolarmente realistici e credibili, i risultati testuali di ChatGPT non sono affatto il prodotto di un’intelligenza cosciente di sé, né di una qualche forma di conoscenza o cultura paragonabile a quelle umane, ma di qualcos’altro. La definizione di cosa sia quell’”altro” è al centro del libro La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano (Il Mulino, 2023) di Nello Cristianini, professore di Intelligenza Artificiale presso l’Università di Bath. Il libro è anche una panoramica storica incentrata sul modo in cui l’IA è stata immaginata, e poi costruita, al fine di spiegare come funzionano, e secondo quali assunti, i sistemi di IA di cui disponiamo. Si tratta insomma di cercare di capire cosa sia quell’altro che oggi è in grado di produrre testi o immagini sempre più credibili.
I risultati testuali di ChatGPT non sono affatto il prodotto di un’intelligenza cosciente di sé, ma di qualcos’altro.
“Non è facile accorgersi di quando qualcosa cambia standoci dentro: nel caso dell’IA il gioco è cambiato davanti ai nostri occhi, su questo non c’è dubbio”, spiega a Il Tascabile Cristianini, parlando di come sia cambiato lo studio dell’intelligenza dei calcolatori nell’arco degli ultimi tre decenni: “se prendiamo un articolo accademico di trent’anni fa e uno di oggi il linguaggio, ad esempio, è profondamente diverso e già da questo si può capire quanto sia cambiato l’approccio. Trent’anni fa la macchina svolgeva un compito, poi giudicavamo i risultati. Ora, invece, si misurano le predizioni. All’epoca si partiva dal presupposto che la macchina dovesse ragionare in modo logico, come faremmo noi e qualora lo avesse fatto, come con gli scacchi, allora andava bene così. Nel vecchio approccio, insomma, c’era molta introspezione: per molti anni abbiamo tentato di replicare nelle macchine i meccanismi di ragionamento umano, quelli simbolici e logici. Oggi si usa la statistica”. In un passaggio storico che Cristianini colloca attorno al 2000, allo scoppio della bolla delle Dot-com e alla conseguente, violenta, commercializzazione di Internet e all’ascesa delle Big Tech, si è assistito anche al cambio di paradigma nella progettazione dell’IA: dall’applicazione di modelli teorici si è passati all’utilizzo della statistica per produrre un comportamento intelligente, per quanto artificiale. L’IA che abbiamo oggi è la diretta conseguenza di questa impostazione.
Non è un caso, scrive Cristianini nel suo libro, se i sistemi di raccomandazione sono oggi la più comune forma di agente intelligente che incontriamo online. “Lo abbiamo visto dappertutto: la statistica su scala infinitamente grande ci consente di predire il prossimo libro che leggerai, il prossimo film che guarderai o la prossima parola che scriverai. È un tipo di teoria che può dire solo cosa succederà, ma non perché ed è un cambiamento di paradigma importante”. Questo approccio oggi egemonico – che è la prima “scorciatoia” a dare il titolo al libro – è la ricerca di pattern statistici, resi disponibili dalla qualità e dalla quantità massima di dati disponibili, complice la concomitante crescita esponenziale della disponibilità di informazioni digitali accessibili dovuta all’approdo online della quasi intera umanità. “La prima scorciatoia è stata cominciare a usare relazioni statistiche trovate tra i dati – quelle che si chiamano pattern – al posto delle regole esplicite. Si sono tolte le teorie tradizionali del mondo, insomma, e le si sono rimpiazzate con l’uso di pattern statistici. Di lì è scattata la necessità di ottenere i dati e il posto più naturale per trovarli è stato il web”, spiega Cristianini, che aggiunge: “negli anni ‘90, se avessimo pensato di creare un algoritmo capace di riconoscere i volti, avremmo dovuto convincere un milione di passanti a farsi scattare un ritratto e avremmo dovuto compensarli tutti. Ora i dati li abbiamo. Da questo punto a capire che ci sarebbero potuti essere effetti di secondo ordine, compresi i bias sociali, c’era ancora diversa strada da fare”.
Nel vecchio approccio all’IA c’era molta introspezione e logica, oggi si usa la statistica.
Su queste basi è fondamentale chiedersi cosa siano effettivamente in grado di fare le macchine programmate secondo questo impianto puramente statistico. In questo senso, si legge ne La scorciatoia, occorre abbandonare la “l’ambizione che le macchine intelligenti possano identificare i veri meccanismi dietro ai dati che analizzano” per accontentarci “dell’obiettivo più debole e di fare previsioni utili”. Proprio i large language model che sono alla base di tecnologie come ChatGPT o gli strumenti di traduzione automatica come Translate di Google sono particolarmente interessanti, soprattutto per la relazione che lega quello che sono in grado di fare coi modi in cui vi riescono.
Secondo Cristianini, ad esempio, utilizzandoli “riusciamo a tradurre le lingue, ma non certo perché le app conoscono la linguistica. Siamo però in grado di tradurre senza una teoria, o di navigare il mondo, o di filtrare le email. Siamo in grado di fare una quantità di cose incredibili senza avere alcuna teoria. Le teorie linguistiche, ad esempio quelle di Chomsky, non portano all’algoritmo di Google Translate, ma i meccanismi statistici che lì vengono applicati, e che noi non comprendiamo, traducono eccome. È però un tipo di teoria che può dire solo ‘cosa’ succederà, ma non ‘perché’ ed è un cambiamento di paradigma importante”. Gli strumenti di IA di cui disponiamo oggi sono strabilianti per efficacia, velocità e utilità, ma non sono intelligenti nel senso umano del termine: non parlano, né comprendono le lingue che vengono chiamati a utilizzare, né sanno quel che fanno. Sono in qualche modo intelligenti, però? Secondo Cristianini certamente sì, anche se in modi espressamente non umani e che poco hanno a che vedere con i modi in cui gli umani pensano. Possono fare, in un certo senso, le stesse cose (e in alcuni casi anche in modi più efficienti) ma in modi completamente diversi dai nostri. E forse non hanno alcun interesse a farlo, o a conoscere i nostri modi più in profondità.
“Bisogna essere molto chiari per non mettersi filosoficamente nei guai: l’intelligenza non è un’esclusiva degli esseri umani, esisteva prima degli esseri umani, non richiede il linguaggio e forse nemmeno il cervello”, spiega Cristianini. “Le meduse, ad esempio, non hanno il cervello ma mostrano dei comportamenti certamente intelligenti. L’intelligenza può esistere in tanti modi diversi, persino le piante dimostrano forse forme semplicissime di intelligenza. L’intelligenza umana è solo una delle tante”. Accettare che queste macchine possano mostrare una qualche forma di intelligenza non deve però far cadere nell’errore che sta al centro delle narrative più vacue attorno all’IA e alle visioni estatiche che spesso questa genera nelle menti dei lungotermisti e dei miliardari della Silicon Valley, spesso alterate da sostanze psicotrope: non si tratta mai di intelligenza umana, né tanto meno di una versione “super” di questa, né lo sarà mai.
L’intelligenza artificiale che si basa sui modelli statistici può dire solo cosa succederà, ma non perché, ed è un cambiamento di paradigma importante.
L’errore da non commettere è quello di antropomorfizzare questi strumenti e restare delusi dal loro non assomigliarci. “Quello che abbiamo oggi in termini di intelligenza artificiale è forse meglio interpretabile se comparato all’intelligenza della lumaca, della formica, della vespa. Questo sono gli algoritmi di YouTube o di TikTok in estrema sintesi: algoritmi che hanno un obiettivo semplice e chiaro, i mezzi per perseguirlo e fanno il meglio che possono in modo ossessivo, e lo fanno costantemente”, sottolinea Cristianini. “Anche se riusciamo ormai a emulare le conversazioni umane e a dare l’illusione che la macchina abbia qualcosa di umano dietro, la verità è che la macchina comprende il mondo in modi molto diversi dal nostro. Il fatto che la macchina sia statistica in natura non esclude che comprenda il suo mondo a qualche titolo. Il modello GPT ha 96 livelli di astrazione al suo interno, che dal testo di input portano agli output, pur essendo un dispositivo stocastico. Io penso che qualcosa del mondo comprenda, ma certamente nulla in termini umani. Sicuramente non sarebbe facile capire le sue motivazioni”.
Venire a patti con il fatto che queste macchine dimostrano una qualche forma di intelligenza che è solo loro, e incomprensibile a noi, significa anche venire a patti con il fatto che la loro intelligenza possa non essere la più adatta a comprendere gli umani. Gli ormai noti ed evidenti rischi cui si faceva cenno all’inizio, e soprattutto le numerose discriminazioni algoritmiche di cui i sistemi di IA creati sulla base della “scorciatoia” sono protagonisti, sono il sintomo più evidente di questo stato di cose, e sono una condizione intrinseca di come le macchine funzionano, pensano e misurano gli umani. Il prossimo irrinunciabile passo nella costruzione del futuro con le macchine è quello di trovare modi di vivere con esse, tema cui è dedicata l’ultima parte di La scorciatoia. Vivere nell’aspettativa della replica dell’intelligenza umana – che con ogni probabilità non arriverà mai – e del suo superamento può solo generare delusione, discorsi fatui e pericoli.
Le macchine intelligenti che stiamo creando non sono quelle che pensavamo, ma tocca abituarcisi. E serve trovare loro un posto nel nostro mondo, dove possano solo essere d’aiuto e impedire loro di accedere a spazi in cui potrebbero, al contrario, esasperare problemi che già esistono. “Automatizziamo tutto quello che possiamo”, prevede Cristianini guardando al futuro prossimo, “ma resterà sempre qualcosa fuori e probabilmente diremo che è proprio quella l’essenza del pensiero umano. Lungo la strada potremmo imparare delle cose nuove che ci potrebbero aiutare anche a capire un po’ di più su noi stessi. Non c’è motivo di affermare che stiamo replicando gli esseri umani”.