A soli quarantaquattro anni lo svedese Nick Bostrom ha realizzato l’aspirazione inconfessabile di quasi ogni filosofo: influenzare la politica. Il Future of Humanity Institute da lui fondato presso Oxford è infatti uno dei think tank più citati da personalità come Obama, Gates e Musk. L’Istituto si occupa di mettere a punto modelli predittivi riguardo i principali “rischi esistenziali” per il proseguimento della nostra specie: dal riscaldamento globale alle migrazioni di massa fino all’impatto di nuove tecnologie radicali. Attraverso sinergie con altre discipline – dalle scienze sociali alla fisica teorica – ogni anno il FHI produce ricerche di varia natura e fortuna, spesso apparentate solo da un estremo grado di preoccupazione per le umane sorti.
Ed è proprio intorno a questa tendenza a una negatività tinta a volte di sensazionalismo che, nel tempo, si sono concentrate le principali critiche a Bostrom e alla sua cerchia. Se, come detto, l’influenza è una delle aspirazioni inconfessabili dei filosofi dai tempi della Repubblica di Platone, l’altra faccia della medaglia di quella pulsione, peraltro trattata nella stessa Repubblica, è il sospetto della prossimità tra filosofia e potere. Tanto Bostrom quanto i suoi critici risiedono quindi in una scissione congenita allo sviluppo del pensiero occidentale. Se non sono bastati duemilacinquecento anni per districare i nodi di questa schizofrenia, dubito ci riusciremo in questa recensione di un saggio che, peraltro, fornisce argomenti sia a favore di Bostrom come rigoroso “thick thinker” contemporaneo, sia ai suoi detrattori, che nel libro troveranno – vi hanno già trovato essendo l’originale del 2014 – un certo numero di eccessi.
Scritto in uno stile asciutto se non proprio sciatto, più da articolo accademico che da saggio divulgativo, Superintelligenza tratta il più attuale e insieme fantascientifico dei temi: l’avvento – dato per certo da Bostrom, molto meno da altre campane – di un’intelligenza artificiale esponenzialmente più intelligente di qualunque intelletto umano (una superintelligenza, appunto) e in grado di sviluppare una forma di coscienza al di fuori del controllo dei suoi creatori. Un’eventualità che, secondo il filosofo svedese, rappresenta la più seria minaccia alla sopravvivenza della nostra specie. Esatto: più di una guerra nucleare, di una pandemia o del cambiamento climatico.
Se i primi capitoli di Superintelligenza sono dedicati a una ricognizione dello stato della ricerca nei campi dell’informatica, delle neuroscienze e della psicologia cognitiva, i successivi sono pieni, forse anche troppo, di congetture e previsioni circa le conseguenze dei loro futuri sviluppi. Il libro entra così nella sua fase più speculativa e a Bostrom va riconosciuto il merito di non perdere mai, nemmeno mentre compone gli scenari più estremi, un saldo rigore logico nel giungere a certe conclusioni a partire da certe premesse. Il problema, semmai, è che spesso queste premesse poggiano su ulteriori ipotesi al momento ancora indimostrabili, dando per certe innovazioni e scoperte la cui fattibilità è discussa se non addirittura smentita da operatori impegnati in prima linea nella ricerca sull’intelligenza; artificiale o meno. Questo atteggiamento di fondo, per cui il pensatore svedese prende – o anzi, pone – per valide premesse che meriterebbero a loro volta un’indagine più scrupolosa, caratterizza un po’ tutto il libro e tradisce la volontà di Bostrom di arrivare in modo spicciolo alla “domanda spettacolare” che gli sta davvero a cuore. La domanda è, anzi le domande sono: le macchine ci estingueranno? Possiamo evitarlo?
Nonostante Bostrom sviluppi l’argomento con grande rigore, resta comunque una visione prematuramente catastrofista.
La solennità con cui Bostrom affronta la questione nei capitoli centrali del testo rende molto difficile non finire per condividere, almeno in parte, il suo pessimismo circa le scarse possibilità di controllo umano di un’eventuale “esplosione di intelligenza” artificiale. Vale qui la pena citare almeno uno dei paradossi immaginati dal filosofo svedese per illustrare i rischi di una simile esplosione. È il paradosso del “massimizzatore di graffette”: un esperimento mentale proposto per la prima volta da Bostrom in un paper del 2003 e divenuto in seguito tanto celebre da aver ispirato un videogioco online. Il paradosso del “massimizzatore di graffette” si basa sul concetto di “convergenza strumentale”. Un concetto che, a sua volta, postula la tendenza, da parte di una qualsiasi macchina sufficientemente intelligente, a perseguire in modo ostinato obiettivi come l’auto-preservazione e l’accumulazione di risorse, per continuare a svolgere il compito che le è stato assegnato dai suoi programmatori con effetti collaterali imprevedibilmente nocivi e del tutto indipendenti dall’apparente inoffensività del compito stesso.
Bostrom immagina quindi che, per essere sicura di tenerla sotto controllo mentre la studia, una equipe di informatici istruisca la super-AI su cui sta lavorando con un compito pedestre e a prima vista del tutto innocuo: assemblare graffette a partire da un certo numero di materie prima.
Niente di cui preoccuparsi, giusto? Sbagliato. In realtà – sostiene Bostrom – una super-intelligenza di questo tipo potrebbe temere che, nel momento in cui le materie prime a sua disposizione si saranno esaurite, i ricercatori la disattiveranno impedendogli di continuare a svolgere il compito che le è stato affidato e che è l’unica raison d’être o “movente strumentale” che conosce. Per continuare quindi a perseguirlo, un’intelligenza simile potrebbe decidere di liberarsi dal controllo umano – cosa che gli risulterebbe molto facile date le sue facoltà superiori – per proseguire autonomamente a massimizzare la produzione di graffette. Il risultato? Nel giro di qualche tempo, una super-AI del genere trasformerebbe ogni risorsa del pianeta – comprese le forme di vita che ospita – in materie prime necessarie all’assemblaggio di graffette. Una volta esaurite anche quelle, passerebbe quindi a utilizzare quelle di altri pianeti, galassie, cluster di galassie, fino a trasformare in sostanza l’intero universo in una miniera di materie prime per graffette e, ovviamente, graffette stesse.
Se vi pare un’iperbole è perché in gran parte lo è. Nonostante Bostrom sviluppi l’argomento con grande rigore, resta comunque una visione prematuramente catastrofista. La fattibilità, prossima o remota, degli avanzamenti scientifici richiesti da un’eventualità simile è infatti oggi così discussa e nebulosa da essere del tutto imponderabile. Per quanto perversamente affabulante, il “massimizzatore” di Bostrom ha quindi per ora più a che fare con la fantascienza che con la ricerca. Questo lo rende l’esempio perfetto per sottolineare limiti e virtù di Superintelligenza. Tra i primi, appunto, l’eccessiva agilità con cui Bostrom salta tra le suggestioni più estreme e pionieristiche offerte oggi dalla ricerca sulle intelligenze, facendo un uso selettivo solo di quelle più confacenti al suo bias negativo in merito. Ed è superfluo specificare che postulare una tesi di fondo per poi sorreggerla con un’impalcatura di “se” non è esattamente una prassi analitica encomiabile.
D’altra parte, in questo modo e forse grazie proprio a questi eccessi, Bostrom e Superintelligenza hanno avuto il merito di sottolineare le aporie insite in uno sguardo acritico sull’intelligenza artificiale e di formalizzare, rendendolo più accessibile, il dibattito intorno alle super-intelligenze e ai potenziali rischi che portano con sé. Un merito non trascurabile in un momento in cui i programmi più ambiziosi in questo campo sono in mano a grandi colossi tecnologici privati, le cui decisioni in merito non sono in alcun modo di dominio pubblico. Il che è particolarmente problematico perché – graffette o meno, catastrofiche o meno – le loro conseguenze invece sicuramente lo saranno.