D al momento che non esiste una definizione universalmente accettata di che cosa l’intelligenza sia, è a maggior ragione difficile mettersi d’accordo su che cosa significhi “superintelligenza”. Ancor più complesso è capire che tipo di entità potrebbe essere quella “superintelligenza artificiale” che in futuro – secondo alcuni addetti ai lavori – potrebbe sorgere a causa dei continui, rapidissimi e spesso sorprendenti progressi degli algoritmi di deep learning, alla base di tutto ciò che, oggi, definiamo intelligenza artificiale.
Prima di tutto, con il termine “superintelligenza artificiale” non si fa riferimento a strumenti in grado di superare ampiamente singole capacità tipiche dell’essere umano. Se le cose stessero così, saremmo infatti già da parecchio tempo circondati da macchine superintelligenti: una semplice calcolatrice è in grado di effettuare calcoli a una rapidità per noi impossibile, i computer sono da decenni imbattibili a scacchi, mentre ChatGPT è in grado di comporre testi su qualunque argomento – per quanto magari di dubbia qualità – in una frazione del tempo richiesto all’essere umano.
Non è però questo che Nick Bostrom – il controverso filosofo di Oxford che con il suo saggio del 2014 ha enormemente indirizzato il dibattito sul futuro della AI – intende con il termine “superintelligenza”. Per Bostrom, questa etichetta fa infatti riferimento a “un intelletto che supera di molto le migliori attuali menti umane in molteplici ambiti cognitivi molto generali”. Non basta, quindi, aver di gran lunga superato gli umani in singoli ambiti definiti, come il calcolo o gli scacchi. A possedere queste abilità sono infatti le cosiddette narrow AI: le intelligenze artificiali semplici che possono svolgere uno, e un solo, compito per volta. E nemmeno è sufficiente essere in grado di svolgere molteplici compiti come ChatGPT. Prima di tutto perché – per quanto spesso considerato “generale” – il sistema di OpenAI è in grado quasi esclusivamente di prevedere quale parola abbia statisticamente la migliore probabilità di essere coerente con quella che l’ha preceduta. E in secondo luogo perché – nonostante i risultati spesso sorprendenti – non è assolutamente in grado di “superare di gran lunga le migliori attuali menti umane”: è semmai più rapido, ma afflitto da moltissimi limiti.
La definizione di ‘superintelligenza’ proposta da Bostrom ha enormemente indirizzato il dibattito sul futuro della AI.
La definizione di Bostrom pone inoltre un immediato problema: quali sarebbero gli “ambiti cognitivi molto generali” che rappresenterebbero l’essenza della capacità intellettiva umana? A questo punto, è indispensabile cercare di dare una definizione di intelligenza. Secondo l’accezione corrente, l’intelligenza è il “complesso di facoltà psichiche e mentali che consentono di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e adattarsi all’ambiente”.
Una definizione che, per iniziare, ci offre una certezza: al momento, nessuno dei sistemi che ricadono sotto l’etichetta “intelligenza artificiale” può essere considerato neanche lontanamente intelligente, non essendo in grado di “pensare o comprendere”. ChatGPT e gli altri Large Language Model forniscono soltanto una simulazione algoritmica di queste capacità, limitandosi a ricombinare per via statistica il materiale presente nel database senza avere alcuna idea di che cosa stiano facendo e perché. Un limite che provoca i loro frequenti errori e li fa spesso cadere vittima di “allucinazioni” – quando cioè una AI presenta come fossero dei fatti delle informazioni completamente inventate).
Queste macchine non sono nemmeno in grado di “elaborare modelli astratti della realtà” (che, anzi, è da sempre uno dei principali limiti al loro sviluppo in direzione umana) e ovviamente neanche possono adattarsi all’ambiente, essendo prive di un corpo (e anche questa è una carenza da molti ritenuta fondamentale). Tutto ciò però – secondo i teorici della singolarità tecnologica e di analoghe correnti di pensiero – rappresenterebbe uno stadio temporaneo, che verrà sicuramente superato. In particolare, ChatGPT e i suoi omologhi si troverebbero all’inizio di un percorso evolutivo che in futuro ci condurrà inizialmente a delle vere intelligenze artificiali (dotate quindi della qualità sopra descritte) e successivamente – attraverso un meccanismo di costante e rapidissimo autoaddestramento – a conquistare lo status di superintelligenza. Prima di vedere quanto ci sia di realistico in queste previsioni, è importante a questo punto sottolineare come i seguaci della singolarità tecnologica si dividano in due campi.
Chi ha paura della superintelligenza artificiale?
Da una parte c’è chi, come il potentissimo investitore Marc Andreessen, fondatore della società di venture capital a16z, ritiene che l’intelligenza artificiale “salverà il mondo” e sarà l’ultima invenzione di cui l’essere umano avrà bisogno: quella che ci permetterà di creare una società utopistica basata sulla cosiddetta “economia dell’abbondanza” (come teorizzato anche dallo scienziato informatico Kai-Fu Lee, autore di “AI 2041”). Dall’altro lato dello schieramento troviamo invece i sostenitori del “rischio esistenziale”, posto da un’intelligenza artificiale in grado di conquistare autonomia rispetto all’essere umano, sfuggire al suo controllo e magari ribellarsi a esso. In questo campo troviamo un potente think tank come il Future of Life Institute (autore della lettera aperta per chiedere la sospensione dello sviluppo dell’intelligenza artificiale), imprenditori come Elon Musk (che già nel 2014 ha paragonato lo sviluppo della AI alla “evocazione del demonio”), personalità come lo scomparso Stephen Hawking e tantissimi altri ancora.
Una nozione, quella del “rischio esistenziale”, che sta prendendo talmente piede da essere stata al centro del recente AI Summit: il convegno internazionale tenuto sul finire di ottobre a Londra, patrocinato dal premier britannico Rishi Sunak e che ha visto la partecipazione della vicepresidente USA Kamala Harris, della premier italiana Giorgia Meloni e di altre figure di primissimo piano delle istituzioni internazionali. Durante l’AI Summit l’intelligenza artificiale è stata definita “una minaccia esistenziale che richiede un’azione globale”, portando a una lettera d’intenti sulla necessità di “contenere i potenziali rischi catastrofici posti dalla galoppante avanzata della AI”. Tutto ciò mostra quanto la paura nei confronti dello sviluppo della AI non sia più confinato tra i cosiddetti doomers (ovvero i tecno-catastrofisti) e stia invece diventando sempre più diffusa in ogni strato della società: dai politici fino ai cittadini comuni – secondo una ricerca di YouGov, il 69% degli statunitensi sostiene oggi che sarebbe giusto interrompere lo sviluppo dell’intelligenza artificiale e un impressionante 46% ritiene di essere “preoccupato dalla possibilità che l’intelligenza artificiale metta fine alla specie umana”.
Il 46% dei cittadini statunitensi si dice preoccupato dalla possibilità che l’intelligenza artificiale metta fine alla specie umana.
Ma perché una presunta superintelligenza artificiale dovrebbe rappresentare un rischio del genere? Secondo alcuni paper scientifici (come questo, intitolato significativamente “La selezione naturale favorisce la AI rispetto all’essere umano”), le specie più intelligenti causano “naturalmente” l’estinzione di quelle meno intelligenti. E in effetti, come spiega il docente di neuroscienze Blake Richards insieme ad altri colleghi in una lunga analisi pubblicata su Noema, “nel corso della storia della Terra esistono esempi di una specie che ha causato l’estinzione di una specie meno intelligente: i casi più citati sono quelli in cui le estinzioni sono state causate dall’essere umano”. Questa, però, è una chiave di lettura parziale, se non altro perché ogni specie è dotata di una propria forma di intelligenza ed è del tutto arbitrario stabilire un ordinamento gerarchico.
Ad ogni modo, Richards prosegue evidenziando che “il fatto di essere un’intelligenza superiore non è il fattore chiave in questi eventi: ci sono molti esempi di specie meno intelligenti che hanno causato l’estinzione di altre più intelligenti. Per esempio, nel tardo Devoniano la rapida diversificazione delle piante – e i cambiamenti nell’atmosfera da essa provocati – è considerata una delle principali cause dell’estinzione di massa dell’epoca, che provocò la perdita di tre quarti di tutte le specie, molte delle quali erano probabilmente più intelligenti delle piante”. C’è un altro elemento estremamente interessante sottolineato da Richards: “la caratterizzazione dell’evoluzione come se riguardasse la competizione e l’egoismo interspecie è un’errata rappresentazione di ciò che la biologia evoluzionistica oggi ci dice. Questa caratterizzazione potrebbe avere le sue radici nella nostra storia filogenetica di primati e nelle assunzioni di stampo patriarcale”. In ogni caso, sempre secondo Richards, quando effettivamente una specie provoca l’estinzione di un’altra ciò è dovuto fondamentalmente a tre fattori: competizione per le risorse, caccia o alterazione del clima e della nicchia ecologica.
È evidente come nessuno di questi tre casi si applichi all’intelligenza artificiale: siamo noi che le forniamo le risorse di cui ha bisogno: dall’energia ai materiali, dai chip alle infrastrutture cloud. Senza la nostra manutenzione, le AI smetterebbero immediatamente di funzionare. A meno che tutta la filiera produttiva non venga completamente automatizzata e affidata all’intelligenza artificiale – un percorso comunque graduale e che ci fornirebbe molteplici occasioni di interromperlo – questa presunta superintelligenza artificiale continuerà a dipendere da noi. Se anche fosse in grado di sfuggire al nostro controllo, la cosa più probabile, spiega sempre Richards, è che “una superintelligenza si accorgerebbe di ciò e cercherebbe di preservare l’essere umano, poiché noi siamo fondamentali all’esistenza dell’intelligenza artificiale tanto quanto le piante che producono ossigeno lo sono per noi”.
Se anche fosse in grado di sfuggire al nostro controllo, la superintelligenza artificiale rimarrebbe dipendente da noi.
Per obiettare a questa linea di pensiero si potrebbe menzionare Matrix e sottolineare come nel capolavoro delle sorelle Wachowski l’intelligenza artificiale, in effetti, tenga in vita gli esseri umani per garantirsi il loro necessario apporto, ma lo faccia mantenendoli in una sorta di terrificante allevamento intensivo e privandoli addirittura della coscienza. Eppure, anche volendo accettare il riferimento a un film di fantascienza, il paragone non regge: l’intelligenza artificiale non è un’entità che sorge all’improvviso come in Matrix, ma è una tecnologia che noi stiamo gradualmente e consapevolmente costruendo, che potremmo in qualunque momento fermare semplicemente spegnendo gli interruttori dei server. È un software che inoltre non può in alcun modo prendere possesso in autonomia dei processi produttivi, a meno di non essere noi, di nostra volontà, ad automatizzarli completamente e affidarglieli. Uno scenario assurdo, lontanissimo dalla nostra realtà e che peraltro mostra come spesso gli “esperimenti mentali” (tra cui quello notissimo del “paradosso delle graffette” di Bostrom) abbiano davvero poca attinenza con la realtà in cui viviamo. Uno scienziato informatico ed esperto di neuroscienze come Yann LeCun, uno dei pionieri del deep learning, sottolinea un aspetto ulteriore:
“Nel corso della nostra storia evolutiva di primati spesso violenti, l’intelligenza è stata la chiave della dominazione sociale e ha consentito il nostro successo riproduttivo. E in effetti l’intelligenza è un potente strumento adattivo che può facilitare la sopravvivenza in molti modi. Ma l’intelligenza di per sé non genera la spinta alla dominazione. […] Come altri strumenti adattivi, l’intelligenza è emersa nel corso della selezione naturale perché migliora la sopravvivenza e la propagazione della specie. Questi obiettivi sono istinti innati, presenti nelle profondità del sistema nervoso anche dei più semplici organismi. Dal momento che, però, i sistemi d’intelligenza artificiale non hanno dovuto affrontare la sfida della selezione naturale, non hanno dovuto sviluppare questo istinto di sopravvivenza. Nella AI, l’intelligenza e la sopravvivenza sono disgiunti, di conseguenza la loro intelligenza può servire qualunque scopo noi stabiliamo per essa”.
Volendo comunque mantenere il parallelismo con gli esseri viventi (che, come abbiamo visto, non necessariamente è corretto), potremmo comunque osservare come nel corso della storia animale l’intelligenza sia stata in realtà anche – se non soprattutto – un’abilitatrice della cooperazione, sia intraspecie sia tra specie diverse. A questo punto, è interessante notare come effettivamente, fino a oggi, le intelligenze artificiali generative – quelle che, grazie alle modalità conversazionali con cui ci rapportiamo a esse, danno maggiormente prova di qualità che siamo propensi ad antropomorfizzare – siano state molto più nostre collaboratrici che concorrenti. ChatGPT funziona al meglio se è usato come assistente degli esseri umani, non al posto degli esseri umani. E lo stesso vale per tutti gli altri strumenti basati su deep learning utilizzati per prendere decisioni (chi assumere, a chi erogare un mutuo e così via). È la combinazione tra la nostra intelligenza (intesa quindi come capacità di pensare, comprendere, elaborare modelli astratti della realtà) e le abilità degli strumenti di deep learning (scovare correlazioni sofisticatissime e a noi invisibili all’interno di colossali database) che ha dimostrato di offrire i risultati migliori, non la competizione.
È la combinazione tra la nostra intelligenza e le abilità degli strumenti di deep learning che ha dimostrato di offrire i risultati migliori, non la competizione.
Se l’intelligenza artificiale viene vista già oggi – e in particolare nel mondo del lavoro – come una concorrente è soprattutto per la spinta economica a usarla per tagliare i costi invece che per aumentare la qualità dell’output. Se vediamo le macchine come concorrenti non è insomma perché siano intrinsecamente nostre rivali, ma perché, all’interno del nostro sistema economico, vengono usate così dall’essere umano. Un discorso simile vale per i rischi che, effettivamente, l’intelligenza artificiale potrebbe porre. Certo, impiegare su larga scala le armi autonome, automatizzare interamente la gestione di un laboratorio biochimico sarebbe effettivamente molto pericoloso. Non è però necessario l’avvento di una superintelligenza artificiale per automatizzare questi processi: sarebbe in realtà possibile farlo già oggi. In questo caso, il problema sarebbe però l’impiego errato di una tecnologia da parte dell’essere umano, non la tecnologia in sé: qualcuno ha mai accusato l’energia nucleare di essere “sfuggita al nostro controllo” e aver dato vita alla bomba?
L’utilitarismo del rischio esistenziale
E se invece LeCun, Richards e tutti gli altri esperti che ritengono fantascientifico non tanto l’avvento di una superintelligenza artificiale, ma il fatto che essa rappresenterebbe un pericolo si sbagliassero? Se davvero a un certo punto emergesse da un laboratorio della Silicon Valley un algoritmo talmente evoluto e assetato di potere da rivelarsi un rischio esistenziale per l’umanità? Se anche la probabilità fosse microscopica, il rischio non è talmente elevato da imporci già oggi di affrontarlo?
È una sorta di versione tecnologica della scommessa di Pascal, secondo cui le conseguenze di non credere in Dio sono, qualora Dio esistesse, talmente negative da rendere semplicemente più razionale credere in questa entità, indipendentemente dalla sua esistenza. Ma possiamo davvero basare le nostre azioni su una logica di questo tipo, che prende in considerazione soltanto i possibili esiti senza preoccuparsi della probabilità che una cosa del genere avvenga? Dovremmo allora anche preoccuparci del rischio che un demone emerga dalle viscere della Terra, visto che sarebbe potenzialmente pericolosissimo? E perché – più realisticamente – non investiamo tutte le nostre risorse esclusivamente allo scopo di evitare che un meteorite ci colpisca, qualcosa che tra l’altro è già avvenuto e con conseguenze disastrose?
Come scrive Richards, “la scommessa di Pascal, sia nella sua versione originale sia in quella legata all’intelligenza artificiale, è progettata per mettere fine a ogni dibattito ragionevole assegnando un ‘costo infinito’ a un esito improbabile”. In un’analisi utilitarista, si calcola infatti il rischio moltiplicando il danno potenziale per la probabilità che ciò avvenga. Di conseguenza, un danno potenzialmente infinito provoca un rischio infinito per ogni probabilità diversa da zero. Ma è davvero attraverso un calcolo del genere che possiamo selezionare le nostre priorità? Di sicuro, è proprio un cieco utilitarismo di questo tipo ad aver posto le basi di un’inquietante scuola di pensiero come quella del lungotermismo, secondo il quale dovremmo preoccuparci soltanto dei “rischi esistenziali”, indipendentemente da quanto in là nel tempo potrebbero verificarsi (fossero anche milioni di anni). Il lungotermismo, di conseguenza, arriva a derubricare come emergenza secondaria anche la crisi climatica, visto che difficilmente arriverà a eliminare l’intera specie umana.
Se vediamo le macchine come concorrenti non è perché siano intrinsecamente nostre rivali, ma perché vengono usate così dall’essere umano.
Un’argomentazione fanaticamente utilitarista e che rasenta il settarismo, ma che sta avendo un enorme impatto sul modo in cui la società, l’imprenditoria e anche la politica affrontano il tema dell’intelligenza artificiale. Peggio ancora, la diffusione della teoria dei “rischi esistenziali” sta facendo passare in secondo piano aspetti molto più importanti: per esempio, il modo in cui l’impiego di strumenti predittivi basati sulla statistica rischi di ridurre la libertà della nostra società, come ha brillantemente spiegato la sociologa Helga Nowotny nel saggio Le macchine di Dio (2022). Concentrarsi sui rischi esistenziali potrebbe dirottare risorse politiche, sociali ed economiche che andrebbero invece riversate sulle vere “priorità globali”, come la crisi climatica, le guerre o le pandemie.
L’attenzione ottenuta dagli scenari catastrofisti e fantascientifici sta inoltre distraendo la società dai rischi concreti e immediati legati all’utilizzo dell’intelligenza artificiale, che coinvolgono ambiti delicati come l’informazione, la sanità, la giustizia, l’assegnazione di finanziamenti, la selezione dei posti di lavoro e tantissimi altri. Tutti campi in cui questi strumenti hanno mostrato di commettere frequenti errori, di discriminare donne e minoranze, di portare ad arresti ingiustificati e altro ancora. E se l’obiettivo di chi sostiene la tesi del “rischio esistenziale” e della tecnologia che minaccia di sfuggire al nostro controllo fosse proprio quello di distogliere l’attenzione dai rischi più realistici e che andrebbero immediatamente affrontati?
Non può in effetti passare inosservato che molte delle persone che sostengono la tesi dell’imminente avvento di una superintelligenza artificiale – a partire da Elon Musk (che ha da poco fondato la sua società di intelligenza artificiale: X.ai), Demis Hassabis (fondatore di Google DeepMind), Dario Amodei (fondatore di Anthropic) o Sam Altman (fondatore di OpenAI) – siano tutti imprenditori che operano proprio in questo campo. Le persone che lanciano allarmi sul rischio posto dalle AI sono quasi sempre le stesse che questi sistemi stanno sviluppando: che senso ha?
Concentrarsi sui rischi esistenziali potrebbe dirottare risorse che andrebbero invece riversate sulle vere priorità globali.
Per capirlo, forse è necessario togliersi le lenti della tecnologia e indossare quelle del marketing e dello storytelling. Interpretati in questa chiave, gli allarmi lanciati da alcuni dei principali protagonisti del settore assumono maggiore senso. Secondo un’interpretazione di questo tipo, il loro obiettivo sarebbe di presentarsi come gli unici con le conoscenze necessarie per sviluppare in sicurezza e tenere sotto controllo le intelligenze artificiali; gli unici di cui possiamo fidarci e a cui la classe politica deve dare ascolto nel tentativo di capire quali sono i modi migliori per gestire questa tecnologia. Tutto ciò ha inoltre il risultato di far passare in secondo piano i veri aspetti problematici di questi strumenti, per affrontare i quali sono necessarie regolamentazioni che potrebbero ostacolare la diffusione di questi strumenti e quindi i guadagni delle aziende.
Una spiegazione forse semplicistica, ma che almeno ci aiuta a comprendere perché personalità e istituzioni stiano dedicando così tante energie a qualcosa che non esiste e nemmeno sappiamo se mai esisterà. Non abbiamo infatti nemmeno la più pallida idea di come si possa arrivare alla superintelligenza artificiale. Peggio ancora: non sappiamo nemmeno se sarà mai possibile creare una normale intelligenza artificiale: un’entità cioè in grado di dare prova di ragionamento, comprensione e astrazione.
L’intelligenza “artificiale” non esiste
Il termine “intelligenza artificiale” è stato coniato in un’epoca drasticamente diversa da quella che stiamo oggi vivendo: nasce infatti durante la celebre conferenza di Dartmouth del 1956, quando dieci scienziati e matematici dell’epoca – tra cui John McCarthy, a cui si deve il termine, e un pioniere come Marvin Minsky – si riunirono con lo scopo di “creare una macchina che possa simulare ogni aspetto dell’apprendimento e ogni altra caratteristica dell’intelligenza”. Per fare tutto ciò, stimarono che sarebbero stati necessari pochi mesi. Ovviamente, il loro obiettivo fallì, ma pose alcune basi degli studi futuri e soprattutto fece entrare il termine “intelligenza artificiale” nell’immaginario collettivo.
È un termine che – attraversando anche la cultura pop da Star Trek a Terminator, da Matrix a Ghost in the Shell – ha fatto sì che tutte le tecnologie battezzate come “intelligenza artificiale” venissero interpretate a livello sociale come fossero delle entità che giungono autonomamente e improvvisamente sulla Terra, come se fossero creature invece che strumenti. Il primo e più importante dei fraintendimenti causati da questo termine è quindi proprio legato all’utilizzo della parola “intelligenza” per descrivere dei sistemi che di intelligente non hanno nulla.
Come detto, in loro non c’è comprensione, ma solo l’abilità statistica di scovare correlazioni all’interno di un database. E questo vale per ogni sistema basato su deep learning, indipendentemente dalla quantità di parametri posseduti dal network neurale, dalla mole di dati usati per l’addestramento, dalla potenza di calcolo impiegata. Se ChatGPT risponde in maniera coerente alle nostre domande, non è perché ha capito cosa gli abbiamo chiesto, ma perché ha cercato nel suo database le risposte che hanno la maggiore probabilità di essere coerenti con le parole chiave individuate.
La differenza oggi non sta in un progresso dell’intelligenza, ma in aumento dei dati e del potere di calcolo.
Un classico esempio che aiuta a capire questo meccanismo è quello che ha come protagonisti l’ingegnere di Google Blake Lemoine e il sistema di intelligenza artificiale LaMDA (simile a ChatGPT). Alla domanda di Lemoine “come ti piace passare il tuo tempo libero?”, LaMDA ha risposto: “Con gli amici e con la mia famiglia”. Ovviamente, LaMDA non ha né amici né tantomeno famiglia: si è quindi limitata a scovare nel mare di testi a sua disposizione quali fossero le risposte che ricorrono più frequentemente quando viene posta questa domanda. Il fatto che, in seguito a quella conversazione (peraltro pesantemente editata), Lemoine si sia convinto che LaMDA fosse “senziente” ci svela in realtà poco delle abilità delle AI, ci dice però molto di quanto proiettiamo sulle macchine le nostre speranze e i nostri timori.
Come ha scritto James Bridle, autore di Nuova era oscura (2019), “ChatGPT è intrinsecamente stupido: ha letto la maggior parte del web e sa come dovrebbe suonare il linguaggio umano, ma non ha alcuna relazione con la realtà. […] È molto bravo a produrre ciò che suona come se avesse senso, e soprattutto a produrre cliché e banalità, ma è incapace di relazionarsi in maniera significativa al mondo per ciò che è. Diffidate di chiunque vi dica che questo sia un’eco, anche solo un’approssimazione, di una coscienza”. I concetti fondamentali dell’intelligenza artificiale in ambito accademico, spiega ancora Bridle, non sono d’altra parte mai cambiati negli ultimi due decenni. La differenza oggi non sta in un progresso dell’intelligenza, ma in aumento dei dati e del potere di calcolo.
Le AI vengono interpretate a livello sociale entità che giungono autonomamente e improvvisamente sulla Terra, come se fossero creature invece che strumenti.
Il deep learning che alimenta ogni intelligenza artificiale attualmente esistente è esclusivamente uno strumento statistico, in cui la presenza di una vera intelligenza è proiettata dalle nostre aspettative. Abbiamo creato uno strumento appositamente allo scopo di simulare l’intelligenza umana, e adesso che ci stiamo riuscendo la scambiamo per vera intelligenza. Tutto questo è indipendente da quanto ancora questi sistemi potranno diventare più grandi, efficienti, potenti e rapidi: un progresso di questo tipo è infatti esclusivamente quantitativo, non qualitativo. Come si possa passare da un sistema di correlazione statistica (per quanto potente e sorprendente) a una macchina altamente intelligente o addirittura cosciente di sé, in grado di sfuggire al nostro controllo e provocare danni incalcolabili perseguendo i propri interessi in totale autonomia, è davvero difficile da comprendere.
“Non esiste nessuna intelligenza artificiale”, ha scritto sul New Yorker lo scienziato informatico e artista Jason Lanier:“La posizione più pragmatica è pensare alla AI come a uno strumento invece che come a una creatura. […] Mitologizzare la tecnologia rende soltanto più probabile che finiremo per utilizzarla male. […] Questi nuovi programmi fondono assieme il lavoro svolto da menti umane. Si tratta di un traguardo significativo e che varrebbe la pena di celebrare, ma dev’essere considerato soltanto per la sua capacità di mettere in luce concordanze prima nascoste tra le creazioni umane, non come se fosse l’invenzione di una nuova mente”.
I timori, le paure, le speranze e le aspettative irrealistiche riposte nell’intelligenza artificiale ci dicono poco della tecnologia che stiamo sviluppando. Ci dicono molto di più della psicologia degli esseri umani, della capacità di antropomorfizzare le nostre creazioni, di come impariamo a simulare grossolanamente alcune abilità umane e poi ci stupiamo di essere riusciti nell’impresa. Di come l’immaginario collettivo possa essere manipolato da potentissimi imprenditori che hanno tutto l’interesse a farlo. E infine di quanto anche i più potenti strumenti inventati dalla scienza possano dare vita a visioni millenariste e quasi religiose.