

C redo che il Nobel del 2024 per la fisica a Geoffrey Hinton, un informatico, abbia due significati. Il primo è scientifico, perché le reti neurali vengono riconosciute come fondamento del successo delle intelligenze artificiali generative. Il secondo, politico, è nell’avvertimento che Hinton ha pronunciato durante il discorso di accettazione del premio: possiamo avere un enorme beneficio dagli assistenti artificiali, ma dobbiamo guardarci dai rischi cruciali a breve (l’inquinamento del dibattito pubblico con contenuti creati per dividere, la sorveglianza delle persone da parte di regimi autoritari, le frodi informatiche) e a lungo termine (le armi letali che decidono autonomamente chi uccidere e il generale pericolo di perdere il controllo dei sistemi autonomi, capaci di assegnarsi da soli obiettivi e strategie).
Due macchine pensanti
Non era scontato che le reti neurali ad apprendimento profondo potessero funzionare, soprattutto non lo era quando Hinton, negli anni Settanta, iniziò il suo dottorato di ricerca. Il campo dell’intelligenza artificiale (IA) era occupato vittoriosamente dalla corrente simbolica che provava a riprodurre artificialmente il pensiero partendo da uno dei suoi prodotti: le frasi, le relazioni significative tra le proposizioni. La corrente connessionista voleva invece ricreare il modello della percezione biologica, proponendo sistemi matematici ispirati alle connessioni tra neuroni, da cui il nome.
Laddove la corrente simbolica provava a riprodurre artificialmente il pensiero partendo da uno dei suoi prodotti, quella connessionista voleva invece ricreare il modello della percezione biologica.
Sempre nel 1958 veniva presentata una versione completamente diversa di una macchina pensante: il perceptron dello psicologo Frank Rosenblatt, la prima ‒ elementare ‒ rete che simulava il funzionamento neuronale, in grado di riconoscere immagini e, soprattutto, di imparare attraverso le azioni, o le esperienze. “I computer possono risolvere problemi più velocemente delle persone ma solo se imboccati dai programmatori” diceva Rosenblatt al New Yorker “noi, per la prima volta, abbiamo creato un oggetto non biologico in grado di interagire con l’ambiente in modo significativo, un sistema che si organizza in modo autonomo, come fa il cervello”. La caratteristica distintiva del perceptron è che interagendo con l’ambiente forma concetti che non erano stati preparati per lui da agenti umani.
Per tutti gli anni Sessanta e Settanta la corrente connessionista dell’IA è stata relegata ai margini, con pochi finanziamenti e l’ostracismo dei centri di ricerca.
Una sorta di padre spirituale
Hinton è abituato a sentirsi l’unico che ha ragione nella stanza da quando i genitori, atei come lui, lo mandarono in una scuola cattolica. È anche abituato al conflitto. Suo padre, eminente entomologo in una famiglia di illustri scienziati, era solito ripetergli: “se ti impegnerai il doppio di me, quando avrai il doppio dei miei anni, potresti arrivare alla metà dei miei risultati”. Non è andata così: Hinton è oggi lo studioso con più citazioni nella scienza informatica, e il secondo tra gli psicologi. Nel 2012 con Alex Krizhesvky e Ilya Sutskever è riuscito a catalogare un milione e duecentomila immagini, in circa mille classi, con un margine di errore che migliorava sensibilmente i risultati ottenuti fino a quel momento. Un successo che è stato reso possibile grazie alla mole di dati a disposizione su internet, all’etichettatura umana delle immagini e alle invenzioni disseminate nella carriera di Hinton. Nel 2018, con Yann Le Cun e Yoshua Bengio ha vinto il Turing Prize.
Per tutti gli anni Sessanta e Settanta la corrente connessionista dell’IA è stata relegata ai margini, con pochi finanziamenti e l’ostracismo dei centri di ricerca. Il cambiamento è avvenuto negli anni Ottanta, con l’apporto di alcune modellizzazioni della fisica dei solidi, applicate alle reti: ecco perché insieme a Hinton è stato premiato John Hopfield e perché il Nobel è quello per la fisica. “C’era un continuo scambio di idee”, ricorda Giorgio Parisi, il fisico italiano premio Nobel nel 2021. Hinton ha aggiunto al modello di Hopfield i cosiddetti livelli nascosti, creando la macchina di Boltzmann e pochi anni dopo l’algoritmo di retropropagazione. Sono le invenzioni chiave che permettono all’idea connessionista, dalla percezione all’esecuzione di compiti complessi tramite apprendimento autonomo, di diventare realtà, che nei termini dell’IA vuol dire macchine che “funzionano”, cioè che capiscono se una certa immagine rappresenta un cane o un gatto, per esempio, o se un contratto assicurativo sia o meno una frode. Per le sue invenzioni, e per aver tenuta accesa la fiamma del connessionismo, ci si riferisce spesso a Hinton come al padre spirituale dell’apprendimento profondo e delle reti neurali, che oggi sono diventati sinonimi di intelligenza artificiale.
È un gatto o un cane?
Come dicevamo, una rete neurale è in grado di distinguere se un’immagine proposta rappresenti un gatto o un cane. Quello che la rete “vede” è un insieme di pixel ma, opportunamente addestrata con una mole enorme di aggregazioni di pixel che significano “gatto” e altri che significano “cane”, è in grado di dare la risposta adeguata: le informazioni passano sui nodi della rete, ogni nodo è un interruttore acceso/spento, il numero di accensioni stabilisce un peso, e determina il risultato finale.
Per le sue invenzioni, e per aver tenuta accesa la fiamma del connessionismo, ci si riferisce spesso a Hinton come al padre spirituale dell’apprendimento profondo e delle reti neurali.
L’addestramento della rete avviene per mezzo di un algoritmo di retropropagazione, un sistema iterativo che valuta quali neuroni e connessioni contribuiscano maggiormente agli errori, così da calibrare la rete per il riconoscimento dell’immagine. Questo tipo di apprendimento può essere supervisionato, nel caso in cui la risposta giusta sia nota; o non supervisionato, nel qual caso cercherà di individuare autonomamente i pattern.
Alessandro Aresu, in Geopolitica dell’intelligenza artificiale (2024), fa ironicamente riferimento al mestiere che Hinton ha brevemente praticato quando era indeciso sul percorso accademico, dicendo che ora è diventato un capo-falegname. Come un falegname, in effetti, Hinton “addestra la rete neurale, tagliando e adattando i pesi sinaptici attraverso la retropropagazione, che ottimizza i pesi per ridurre l’errore tra l’output previsto e quello effettivo […], collega i vari strati di neuroni o layer, per costruire la struttura della rete neurale, dove ogni strato ha una funzione specifica, come riconoscere bordi o texture di un’immagine”. All’inizio della sua carriera Hinton voleva capire come funzionasse il cervello; una volta a capo della falegnameria ha costruito un modello che riproduce una delle sue funzioni principali.
Macchine che fanno analogie
Con il suo “saper-fare”, nel discorso di accettazione del Nobel, Hinton ha riassunto la portata del suo trionfo in una frase: “questa nuova forma di IA eccelle nel riprodurre l’intuizione umana più che il ragionamento”. È una frecciata al partito dell’IA simbolica. Ma perché “intuizione”? Simone Weil nelle Lezioni di filosofia del 1933-34, scrive che se un metodo esiste per produrre analogie sembra avere a che fare con l’“intuizione, il caso”. Intervistato da Joshua Rothman per il New Yorker, Hinton ha spiegato la sua idea di come pensiamo:
Per anni la corrente simbolica dell’intelligenza artificiale ha sostenuto che la nostra natura sia quella di macchine che ragionano. Non ha senso: la nostra natura è di macchine che fanno analogie, con un po’ di ragionamento montato in cima, per accorgerci quando le analogie ci danno la risposta sbagliata e correggerla.
Paragonare un essere umano a una macchina può trarre in inganno se ci si concentra sull’aspetto meccanico, inteso come automatico, non autonomo e programmato dall’esterno.
È utile dividere il pensiero analogico in due componenti base: primo, il processo di percezione di una situazione, che consiste nel considerare i dati relativi a una situazione, quindi filtrarli, e organizzarli in vari modi per arrivare a una rappresentazione appropriata al contesto particolare. Secondo, il processo di proiezione per mappe, che consiste nel considerare le rappresentazioni di due situazioni e nel trovare le corrispondenze appropriate tra gli elementi dell’una e quelli dell’altra, creando così l’accoppiamento che chiamiamo analogia.
Hofstadter e Melanie Mitchell ricercano una posizione intermedia tra approccio simbolico e connessionistico dell’intelligenza artificiale, un “ibrido tra le due” con al centro l’analogia come concetto fluido, nello spirito kantiano per cui percezione e concetto non stanno l’una senza l’altra. Il loro programma Copycat
esplora un territorio intermedio della simulazione cognitiva, posto tra quello dei sistemi simbolici di alto livello e quello dei sistemi connessionistici di basso livello; la ragione per cui si sostiene questo approccio è che il suo livello intermedio è al momento il più utile per trattare la natura fluida dei concetti e delle percezioni, aspetti centrali della mente che emergono con la massima chiarezza nel fare analogie.
Analogico contro logico
Tutti praticano l’analogia quotidianamente, è una componente indispensabile del pensiero, eppure è poco presente nella letteratura scientifica. Scriveva il filosofo Enzo Melandri in La linea e il circolo. Studio logico-filosofico sull’analogia nel 1968: tanto grande la pratica, quanto piccola la teoria. L’analogia è costretta a una guerra continua con la logica: una guerra civile, in cui nessuno dei due contendenti riporta una vittoria definitiva. La lotta tra logica e analogia è una metafora che Melandri usa per sottolineare quanto per pensare siano necessarie entrambe, con una delle due, la logica, che cerca però di farsi dominatrice assoluta e negare l’importanza dell’altra, fino a oscurarne la rilevanza.
Hofstadter e Melanie Mitchell ricercano una posizione intermedia tra approccio simbolico e connessionistico dell’intelligenza artificiale, un “ibrido tra le due” con al centro l’analogia come concetto fluido.
Secondo il senso comune, ragionare è calcolare logicamente, la rilevanza dei procedimenti analogici di percezione, riconoscimento, esemplarità, proporzione e differenziazione sono dati per scontati, forse perché funzionano bene, apparentemente senza fatica. La logica funziona bene nei sistemi chiusi, mentre l’analogia li riapre indefinitamente. Melandri in L’analogia, la proporzione, la simmetria racconta l’analogia come gioco linguistico, dove c’è un rilancio trasgressivo che costruisce inedite associazioni, la cui “molla” è “l’intelligenza intesa come atto creativo, produttivo, innovatore”. Dall’altra parte, la componente del controllo, nella dinamica del gioco analogico, è un tentativo di normalizzazione operato dalla “cultura intesa come atto critico, inibitore, riassimilativo”, che verifica la legittimità e tenuta della nuova associazione.
Giochi chiusi e giochi aperti
Gli scacchi compaiono spesso nella storia dell’intelligenza artificiale, questo perché sono un sistema formale che ben si presta a essere tradotto in problema da affrontare con simboli e operatori logici. Ma non tutti i giochi sono sistemi formali, anzi i giochi sono diversissimi tra loro: scacchi, giochi con la palla, carte e computer, eppure siamo in grado di distinguere un gioco quando lo vediamo. Nelle Ricerche filosofiche, nel famoso paragrafo sulla somiglianza di famiglia, Ludwig Wittgenstein scrive: “non pensare ma osserva!”, esortando a osservare “somiglianze emergere e sparire”. Il percorso di Wittgenstein, dalla fiducia nella logica come chiusura dei discorsi e il successivo rilancio verso la costruzione di analogie, traccia un possibile parallelo con il conflitto tra la scuola simbolica e quella connessionista della ricerca sull’intelligenza artificiale. Le somiglianze che vediamo sorgere e sparire sono quelle in base alle quali costruiamo analogie.
La logica funziona bene nei sistemi chiusi, mentre l’analogia li riapre indefinitamente.
Analogie intorno a noi
Nota sin da Aristotele, l’analogia fino alla seconda metà del Ventesimo secolo riceve poca attenzione. Eppure è dappertutto, usata migliaia di volte al giorno, non solo nei processi cognitivi. Per esempio in giurisprudenza: la common law si basa sul principio analogico, ma non solo. In generale la proporzionalità è uno dei criteri con cui giudichiamo continuamente ‒ quasi senza rendercene conto ‒ l’adeguatezza delle azioni. Decidiamo che qualcosa è sbagliato, non è adeguato, proporzionato al contesto. A un livello più alto di considerazione decidiamo che qualcosa è ingiusto, contrario a una buona norma, perché contravviene o eccede una misura; il modo in cui verifichiamo l’eccedenza è la proporzione tra quanto noi consideriamo accettabile e il fenomeno con cui ci confrontiamo. Sono esempi che vediamo circolare quotidianamente. Il procedimento mentale “per mezzo dell’esempio” è analogico, Aristotele nella Retorica lo chiama “paradigmatico”.
La scelta, come prerogativa umana
Il secondo significato del Nobel a Hinton è politico. Nel discorso di accettazione lo scienziato dice che l’IA ha il potere di migliorare la produttività in quasi tutti i campi umani e questi benefici se distribuiti in modo equo saranno straordinari, ma che dobbiamo guardarci dai pericoli a breve e lungo termine; da chi possiede le IA e intende usarle per il proprio guadagno immediato.
Come impedire ai sistemi ad apprendimento autonomo di volere più controllo? Nessuno ha la risposta.
Nel 2023 ha dato le dimissioni da Google, per poter esprimere liberamente i propri timori sulle nuove forme di intelligenza artificiale: “È difficile vedere come impedire che l’IA sia usata per scopi malvagi, da malintenzionati”. Oggi Hinton è convinto che le “armi autonome” dovrebbero essere fuorilegge, che il loro sviluppo sia pericoloso perché potrebbero sfuggire al controllo dei loro creatori. Perché un sistema ad apprendimento autonomo sia efficace deve essere in grado di creare da sé i suoi sotto-obiettivi. “Sfortunatamente ‒ ha detto Hinton ancora nell’intervista al New Yorker ‒ c’è un sotto-obiettivo di grande validità generale: ottenere più controllo”. La domanda su cui lavorare diventa: come impedire ai sistemi ad apprendimento autonomo di volere più controllo? Nessuno ha la risposta, secondo Hinton. All’inizio della sua carriera aveva lasciato gli Stati Uniti per il Canada, preferendo non ricevere fondi militari per la ricerca. Nel momento in cui Google, Meta e Open AI stanno cambiando le policy per rendere più facili futuri accordi per l’uso militare dell’IA il suo percorso ci ricorda quanto faccia la differenza scegliere da che parte stare.
Hinton continua a non avere paura di essere una voce isolata, come quando propugna il reddito di base universale per contrastare gli sconvolgimenti del mercato del lavoro dovuti alla diffusione delle IA generative, o quando si preoccupa dell’aumento delle disuguaglianze tra ricchi e poveri, o dell’elezione di populisti di destra alle più alte cariche pubbliche. Nel significato politico del Nobel a Hinton, accanto all’interesse collettivo, alle azioni militari e alle guerre commerciali tra Stati, c’è una sfumatura che riguarda la dimensione individuale, dove non risuona la paura, ma la fiducia nel potere dell’intuizione.