È
raro trovare un racconto di fantascienza che immagini un mondo in cui robot ed esseri umani coesistono in una società più giusta e libera di quella in cui viviamo oggi. Il tono è spesso distopico o apocalittico, a volte sanguinario, con l’ineluttabile elemento di conflitto tra gli uomini e le macchine – che si fanno quasi sempre coscienti, e quindi ribelli.
In questa realtà qui, fuori dai libri e dai film, l’intelligenza artificiale cambierà il mondo, è vero, ma il modo in cui avverrà la trasformazione dipenderà solo dagli esseri umani. Jerry Kaplan è un informatico e un imprenditore, lavora al Center for Legal Informatics della Stanford University dove insegna Storia e filosofia dell’intelligenza artificiale. A novembre dell’anno scorso è stato pubblicato anche in Italia Le persone non servono (LUISS University Press) che si concentra soprattutto sulle questioni dell’automazione del lavoro. In questi giorni è uscito anche Intelligenza artificiale, guida al futuro prossimo (sempre LUISS University Press), breviario in cui Kaplan risponde alle domande ricorrenti sul tema.
Come omaggio di benvenuto a Roma, prima della lectio magistralis che ha tenuto agli studenti dell’università LUISS, Kaplan ha trovato su un tavolo decine di spille rosse e blu con una scritta bianca. “JERRY KAPLAN 2020”. Gli chiedo se sta pensando sul serio di correre per le prossime elezioni presidenziali. Divertito, alza le spalle: “Se c’è qualcosa che è stato ormai ampiamente dimostrato è che negli USA davvero chiunque può diventare presidente”.
È appena uscito Blade Runner 2049. Non voglio entrare nel merito del giudizio sul film. Però, per essere una storia che parla di robot, androidi e replicanti, girata nel 2017 e ambientata nel 2049, è un film che in realtà sembra assolutamente disinteressato a cercare di capire e raccontare sul serio cosa sia l’intelligenza artificiale oggi e cosa potrebbe diventare tra trent’anni, non solo dal punto di vista tecnico ma anche sotto la lente del rapporto uomo – macchina. E credo sia un’impostazione comune di molti film di fantascienza degli ultimi anni. Siamo fermi a un’idea antica del futuro.
È un discorso che infatti vale sin dal primo Blade Runner. La rappresentazione dell’intelligenza artificiale nei film e nei libri di fantascienza di oggi ha davvero poco a che fare con l’effettiva ricerca scientifica che si sta facendo. In Blade Runner, l’elemento drammatico ruota attorno a poche domande: può un manufatto che non è biologicamente umano avere una mente, avere emozioni autentiche? E dobbiamo di conseguenza estendere ai robot la nostra empatia? Devono avere qualche forma di diritto? Domande ricorrenti in molti copioni di fantascienza. “Cosa è vero?”. Ma, per come vedo io le cose, queste sono domande totalmente assenti nella ricerca e nei ragionamenti che si stanno facendo attorno all’intelligenza artificiale, sono solo esagerazioni drammatiche di un aspetto tecnologico minore. Non sono cose con le quali avremo davvero a che fare in futuro. Eppure immaginare i robot in questo modo è forse un’attrazione troppo forte perché tendiamo ad antropomorfizzare tutto.
In un passaggio di Le persone non servono, lei spiega come questo richiamo all’antropomorfismo attragga i finanziamenti soprattutto verso i progetti di intelligenza artificiale con robot umanoidi.
Vorrei essere chiaro su questo punto, però. Non credo che questo tipo di ricerca sia uno spreco di risorse. Ci sono persone che stanno sviluppando macchine che somigliano a esseri umani o che hanno almeno degli elementi che ricordano quelli umani, e questa è una cosa che ha perfettamente senso: se vogliamo costruire macchine che interagiscano in spazi umani, spazi fisici e sociali, è cruciale che quelle macchine si conformino all’ambiente. E non solo perché, banalmente, se devono muoversi in uno spazio domestico dovranno avere le dimensioni adatte per passare attraverso le porte. Dobbiamo anche studiare dal punto di vista comportamentale e psicologico le convenzioni umane per capire come inserire l’interazione con le macchine in quel flusso. Da questo punto di vista la ricerca con robot umanoidi è un tipo di ricerca assolutamente valido, necessario. Quello che penso sia marginale, in questo campo, è lo sforzo di capire e cercare di ricreare nei robot quello che ci rende reali e unici come esseri umani.
Oggi c’è ancora molta confusione anche sul termine stesso “intelligenza artificiale”.
Perché è un termine definito ancora molto male. Venne utilizzato per la prima volta nel 1956 da John McCarthy in una conferenza. McCarthy pensava all’epoca che la logica e il ragionamento matematico fossero alla base del ragionamento umano, e che una volta scomposto il ragionamento umano in passaggi avremmo potuto costruire delle macchine per simulare l’intelligenza umana passaggio per passaggio, approccio ormai abbandonato. Oggi il campo di ricerca più popolare è il machine learning: macchine che riescono a modellare il loro comportamento basandosi sui dati che hanno a disposizione, studiano le correlazioni e provano a capire come rispondere a nuovi input. “Fare intelligenza artificiale” dovrebbe significare, grossomodo, costruire macchine che fanno cose intelligenti. Ma è una definizione poco efficace perché non definisce bene il processo: le macchine non sono davvero “intelligenti”, risolvono problemi che le persone utilizzano l’intelligenza per risolvere, ma lo fanno in maniera molto diversa.
Nell’immaginario collettivo quando parliamo di intelligenza artificiale pensiamo istintivamente ai droidi di Guerre Stellari o gli androidi di Blade Runner . Nel 2049 quando diremo “robot” o “intelligenza artificiale” a cosa ci riferiremo invece?
È un’ottima domanda. Credo che guarderemo indietro nel tempo e penseremo quanto siamo stati ingenui a confondere queste tecnologie mettendole in parallelo alla natura umana, una speculazione che si sarebbe dimostrata totalmente falsa. Nel 2049 guarderemo all’intelligenza artificiale e alle macchine nella stessa maniera in cui guardiamo oggi computer e automobili. Sono strumenti utili e oggetti di valore, che possiamo creare in differenti forme e dimensioni. Ma non penseremo ai “sentimenti delle macchine”. Da questo punto di vista, nel 2049 riconosceremo di aver preso un abbaglio in buona fede. Come gli alchimisti del medioevo, che spesso erano i primi scienziati, chimici che cercavano di trasformare il rame in oro. Oggi ci sembra uno sforzo risibile. Era un sistema di ricerca che si sarebbe rivelato infondato, ma nel perseguirlo è stata creata anche tanta buona chimica. Tra trent’anni guarderemo con la stessa bonarietà alle nostre preoccupazioni sul fatto che i robot si possano ribellare, o possano acquisire coscienza.
A proposito di proiezioni più o meno sbagliate del mondo futuro: cosa pensa delle varie lettere aperte, firmate da personalità di spicco della scienza e della tecnologia come Stephen Hawking e Elon Musk, che mettono in guardia la società sui rischi dello sviluppo dell’intelligenza artificiale?
Beh non sono assolutamente d’accordo. Contesto sia il merito che le conseguenze di quello che dicono. Credo che stiano facendo un enorme disservizio alla nostra società. E quello che loro intendono è molto differente dal messaggio pubblico che passa alla fine: la gente finisce per interpretare le loro lettere pensando che se non ci poniamo delle regole siamo destinati a scenari di distruzione alla Terminator. “Dio mio, i robot finiranno per conquistarci”. Non ha senso. Ci sono invece dei pericoli veri dei quali bisogna tenere conto nello sviluppo e nell’uso della tecnologia, ci sono questioni etiche, questioni sociali molto urgenti, e iniziative come quelle di Hawking e Musk sono solo delle distrazioni. Le persone che firmano queste lettere dovrebbero prendersi le proprie responsabilità a riguardo: stanno uccidendo il dibattito sensato di cui abbiamo bisogno attorno a questi argomenti. Stephen Hawking ovviamente è un fisico brillante, ma non sa nulla di intelligenza artificiale. Penso che legga semplicemente quello che qualcun altro gli passa. È una sorta di circolo vizioso in cui queste persone si fanno eco a vicenda. Elon Musk ha motivazioni diverse, ovviamente. Non ho mai parlato di questo con lui, ma sospetto che non apprezzi moltissimo il fatto che non ci sia nessun percorso ovvio che la tecnologia di oggi può prendere.
Qualche ragione ce l’hanno, però, quando si parla di tecnologia militare.
Questa è la parte valida delle loro argomentazioni. C’è un dibattito molto acceso tra gli esperti, su questo. Ci sono dubbi etici su come usare questo tipo di tecnologie, per la sicurezza e per l’esercito, perché sono strumenti che potrebbero avere effetti collaterali non previsti, potrebbero avere problemi di progettazione, venire utilizzati al di fuori degli obiettivi per cui sono stati creati, o semplicemente cadere nelle mani sbagliate. La domanda è sempre la stessa, sta lì dalla prima introduzione della tecnologia in campo militare: è giusto dal punto di vista morale? Dobbiamo costruire queste armi, e potenziare quelle che già abbiamo? Che tipo di controllo tecnologico dobbiamo avere su di esse? È per rispondere a queste domande che io credo ci sia bisogno di una “etica computazionale”.
Al di là delle applicazioni militari, leggendo i suoi libri mi sembra di capire che il rischio più grande che lei prospetta sia la perdita di potere decisionale. Non dobbiamo delegare alle macchine le nostre decisioni, dobbiamo capire in ogni momento cosa fanno e in che modo sono programmate per fare quello che fanno, e dobbiamo scrivere secondo etica le regole alla base del loro comportamento.
Quando dico che c’è bisogno di valore etico dietro al codice, intendo questo: stiamo costruendo delle macchine per risolvere dei problemi. Dal momento che possono essere molto pericolose, dobbiamo capire cosa succede, come si comportano – anche se odio usare questa parola, perché ricado anche io nell’antropomorfismo – in determinate circostanze. Se la storia ci insegna qualcosa è che le nuove tecnologie hanno avuto ripercussioni che non erano previste. Ora parliamo di macchine a guida autonoma che andranno in giro da sole. Come si comporteranno in un incidente? Salveranno la vita al conducente o al pedone distratto? Dobbiamo programmarle in maniera attenta. Ma credo che neanche questo basterà per tranquillizzarci. Qui a Roma sono venuto all’università guidando un’auto, ed è stata una delle esperienze più spaventose della mia vita. Immaginiamo che per qualche motivo a Roma non ci siano mai state auto, e cosa succederebbe se di punto in bianco provassimo a introdurle, oggi. La gente direbbe “è orribile, non è etico”, perché le auto sono pericolose, uccidono centinaia di persone tutti i giorni. Eppure ci sono anche dei benefici. Nel caso delle automobili abbiamo fatto la scelta implicita che la comodità di muoversi velocemente e arrivare più facilmente nei posti è più importante delle vite che si perdono. Senza rendercene bene conto, tolleriamo dei possibili effetti collaterali anche molto pericolosi. Questo è lo stesso tipo di giudizio morale che dovremmo applicare alle auto a guida autonoma, e all’intelligenza artificiale in generale. Oggi c’è più consapevolezza dei rischi e per questo più resistenza. Credo che se avessimo saputo da subito quanto sarebbero state pericolose le automobili le avremmo vietate immediatamente. Le auto a guida autonoma ridurranno il numero di morti, ma è un tipo di tecnologia nuova e questo spaventa.
La paura più grande però rimane l’impatto dell’intelligenza artificiale sul mondo del lavoro.
L’automazione ha una portata morale. Ci saranno conseguenze positive e conseguenze negative sul mercato del lavoro. L’ondata di automazione andrà a investire diverse attività che un tempo richiedevano molto lavoro umano, soprattutto per la gestione di dati. Come già Karl Marx aveva capito, l’automazione è una sostituzione di capitale, a svantaggio dei lavoratori. Ma guardando il sistema in maniera più generale, ci saranno rischi per qualcuno e benefici per altri, lavori che si perderanno e nuove opportunità.
Ma se la rivoluzione tecnologica avviene sotto le strutture di potere già esistenti, non si rischia piuttosto di rafforzare il sistema e aumentare le disuguaglianze?
È difficile prevedere cosa accadrà, ma guardando le caratteristiche generali delle nuove tecnologie e dei loro possibili effetti, sì, è probabile che l’automazione da questo punto di vista si dimostri una forza che tenderà anche ad aumentare la disuguaglianza sociale. Questi sono gli effetti negativi. E sì, credo che sia vero, avremo bisogno di politiche sociali ed economiche per cercare di mitigare le possibili sperequazioni che nasceranno. Gestire la transizione del mercato del lavoro sarà la parte più delicata, anche perché sarà più veloce di qualsiasi altra transizione nella storia. Ma in generale io credo ci saranno soprattutto aspetti positivi e che come società ne trarremo beneficio.
Però è anche vero che delegare l’idea di sviluppo economico ai privati della Silicon Valley sperando che ci siano delle ricadute positive su tutta la società suona un po’ come la “versione internet” della Trickle-down economics di Reagan.
Non credo che questa sia la risposta giusta, infatti. Bisogna cercare proposte alternative, e ce ne sono molte. L’ipotesi di reddito di cittadinanza è una delle più popolari, oggi. Non è l’unica, non so se è quella giusta. È un argomento molto delicato, ma dietro tutte queste proposte c’è una domanda: stiamo facendo abbastanza per le persone che non ricavano benefici dallo sviluppo tecnologico ed economico? La risposta è no, secondo me, e molte persone la pensano come me. È prima di tutto una questione morale profonda: perché il nostro sistema facilita le disuguaglianze? Ma c’è anche una ragione pratica ed egoistica in più, oggi, perché anche i ricchi e i potenti si interessino a questi temi. Ed è una sorta di aggiornamento di quello che intendevano gli antichi romani con “panem et circenses”: bisogna mantenere la popolazione serena. Lo vediamo in quello che sta succedendo nel mondo: chi rimane indietro è sempre più rancoroso e arrabbiato.