L’ espressione “capitalismo della sorveglianza”, coniata da Shoshana Zuboff, condensa efficacemente due concetti: quello di un nuovo capitalismo, alternativo a quello industriale dei secoli scorsi, e quello di un nuovo sistema di potere fondato sul controllo del comportamento individuale. Il sottotitolo del libro di Zuboff insiste su questo epocale significato politico: il futuro dell’umanità nell’era dei nuovi poteri.
Il capitalismo della sorveglianza, portato in Italia da LUISS University Press, con la traduzione di Paolo Bassotti, è un libro importante e ampio (oltre 600 pagine) che descrive una realtà con cui miliardi di persone hanno a che fare, spesso inconsapevolmente, e introduce conoscenze che dovrebbero far parte dell’istruzione di qualsiasi cittadino. Un’opera in cui è utile, per un primo orientamento, distinguere due aspetti: primo, l’analisi storica, giuridica e economica del nuovo capitalismo sorto all’inizio del millennio e fondato sulle nuove tecnologie digitali; secondo, la descrizione di una nuova forma di potere antidemocratico, basata sul sistematico e occulto condizionamento delle scelte individuali, su cui l’autrice vuole provocare “indignazione”, invocando l’azione politica.
La seconda parte del libro è meno ancorata ai fatti: guardando al futuro delinea un’utopia negativa, una previsione plumbea fondata su alcune assunzioni filosofiche e politiche che si ritrovano anche in altri tentativi recenti di futurologia, come quelli di Yuval Harari. Ma, come cercherò di spiegare più avanti, Zuboff e Harari, pur avendo l’ambizione di “leggere” il futuro nelle tecnologie del presente, trascurano il contributo dell’epistemologia, della filologia, della filosofia, e in genere delle discipline che insegnano a comprendere criticamente i discorsi scientifici e i testi.
Le radici del capitalismo digitale
Cominciamo dall’inizio, cioè dai primi anni 2000. Google è l’azienda che scopre il principio del nuovo capitalismo. L’idea di fondo è “appropriarsi dell’esperienza umana usandola come materia prima da trasformare in dati sui comportamenti”, che diventano merce. Di che si tratta? Inizialmente, Google si limita a analizzare i dati sui movimenti dell’utente sulla propria piattaforma per produrre delle ricerche mirate rispetto ai suoi interessi: t’interessa una cosa, e faccio in modo che compaia in testa alle tue ricerche. Gli amministratori di Google si rendono conto che tracciare le ricerche – le “briciole digitali” – permette di comprendere gli interessi dell’utente e quindi, in certa misura, di prevederne il comportamento futuro.
La svolta è quando Google decide di guadagnarci, vendendo queste informazioni in modo da realizzare delle pubblicità a misura del singolo utente, cioè “targettizzate”. Mediante avanzate tecniche di analisi dei dati, Google estrae dalle azioni degli utenti previsioni sui loro comportamenti che “vengono vendute ai suoi reali clienti, e non a noi. Noi siamo i mezzi per lo scopo di qualcun altro”. Questa nuova merce ricavata dagli utenti delle piattaforme digitali, che Zuboff chiama “il surplus comportamentale”, produce l’esponenziale crescita economica di Google, che nel 2014 diventa l’azienda più ricca del mondo dopo Apple. Google verrà seguita, su questa strada, da Facebook, Microsoft, Verizon e altre aziende del digitale.
L’espressione “capitalismo della sorveglianza” condensa due concetti: quello di un nuovo capitalismo, alternativo a quello industriale dei secoli scorsi, e quello di un nuovo sisema di potere fondato sul controllo del comportamento individuale.
Il libro di Zuboff racconta nei dettagli questa storia, soffermandosi sul versante legale della nuova “estrazione” di risorse capitalistica. Colpisce scoprire come meccanismi di monitoraggio delle attività dell’utente in rete, come i cookies, sollevassero inizialmente resistenze giuridiche e politiche ispirate dal principio della privacy, che riguardava, secondo le parole di un giudice della corte suprema degli Stati Uniti nel 1977, “la scelta dell’individuo di rivelare in cosa crede, cosa pensa, cosa possiede”. Nel 2001 vennero presentati al congresso degli Stati Uniti tre progetti di legge per regolamentare i cookies, e nel 2005 l’amministrazione Clinton li vietò su tutti i siti federali. Proprio nel momento in cui questi meccanismi diventavano parte della nuova attività economica di Google e compagnia, le aziende interessate elaborarono diverse strategie per continuare indisturbate a estrarre i dati. Prima di tutto, con vari tentativi non autorizzati di eludere del tutto ogni forma di controllo, estraendo i dati all’insaputa degli utenti. Poi, quando questa strategia veniva scoperta, con campagne fatte di ostruzionismo nelle cause legali e tentativi di rendere culturalmente accettabili i loro metodi.
Per esempio Facebook dapprima creò Beacon, un sistema pubblicitario che consentiva agli inserzionisti di tracciare le attività degli utenti, dovette poi pagare circa 10 milioni di dollari per chiudere le cause legali seguite a questa mossa, ma nel 2009 cambiò unilateralmente le impostazioni degli utenti, rendendo pubblici i loro status. In un’intervista del 2010, Mark Zuckerberg dichiarò che “la gente si è davvero abituata a condividere più informazioni di vario tipo, e a farlo più apertamente e con più persone. Quella norma sociale [della privacy] si è evoluta nel tempo”. Nella nuova retorica capitalista, la privacy è un prezzo da pagare per servizi “gratuiti” di informazione e connessione. Tuttavia, col tempo i contratti di concessione dei dati personali, mostra Zuboff, sono diventati praticamente impossibili da leggere e comprendere per intero e hanno indotto milioni di persone a cedere dati personali per accedere ai servizi senza sapere nulla del modo in cui sarebbero stati elaborati, della loro destinazione commerciale e del loro enorme valore.
A tutto questo, sottolinea Zuboff, avrebbero giovato sia l’habitat neoliberista americano, in cui lo Stato è presentato sempre come ingombrante ostacolo per la libera iniziativa economica, sia la stretta della sorveglianza seguita all’11 settembre 2001, in cui sono state le stesse agenzie di intelligence statunitensi a rivolgersi ai privati come Google per ottenere informazioni sugli individui. Questo sfondo ha agevolato gli abusi di potere di enti privati in quello che alcuni studiosi descrivono come un ritorno a dottrine feudali. Gradualmente le nuove aziende capitalistiche si sono assicurate sostegno e protezioni politiche grazie a attività di lobbying politica e ricerca accademica mirata a modificare la percezione della privacy.
Nella nuova retorica capitalista, la privacy è un prezzo da pagare per servizi “gratuiti” di informazione e connessione. “L’imperativo dell’estrazione” ha portato le aziende a cercare sempre nuove fonti per ricavare informazioni sugli utenti.
“L’imperativo dell’estrazione”, come lo chiama Zuboff, ha portato a cercare sempre nuove fonti per ricavare informazioni sugli utenti. La concessione gratuita della licenza di Android, per esempio, rispecchiava l’interesse di Google a ottenere un numero enorme di dati sulle ricerche grazie ai telefonini. Un discorso simile vale per Gmail, Google Pay, YouTube, Google Maps, Google Photos.
La vicenda di Google Street View è particolarmente interessante. Nel 2010 la commissione tedesca per la protezione dei dati rese noto che le auto di Street View raccoglievano segretamente dati privati dalle reti wi-fi private. Ben presto, in tutto il mondo la “violazioni della privacy” di Google diventarono oggetto di indagini. L’azienda si difese presentandole come un “errore” di un singolo ingegnere su un progetto “sperimentale” e, grazie ai suoi avvocati, ne uscì quasi illesa: Street View è stata messa al bando in pochi paesi, come Austria, Repubblica Ceca e India. Nel frattempo, grazie alla retorica sul beneficio e sulla “inevitabilità” di trasformare il mondo offline in mondo online, Street View ha recuperato terreno.
Zuboff mostra come la ricerca tecnologica miri a estendere l’estrazione di dati a tutta l’esperienza. Dagli smart phone all’uso delle immagini satellitari, dall’entrata di Google Maps negli spazi interni di ristoranti e hotel agli elettrodomestici smart e ai Google Glasses, diverse tecnologie tracciano gli utenti con un procedimento che Zuboff paragona alla telemetria, con cui gli etologi, dagli anni ’60, hanno iniziato a seguire gli animali di altre specie. La stessa scoperta del like nel 2010 aveva lo scopo di tracciare preferenze che restavano disponibili per l’analisi e la vendita anche dopo il logout degli utenti. Inizialmente l’azienda parlò di errori e equivoci. Nel 2014 il tracking fu dichiarato apertamente, lasciando agli utenti due sole alternative: dentro o fuori. L’obiettivo di creare un gigantesco archivio collettivo veniva riassunto così dal cofondatore di Google Larry Page: “le persone genereranno una mole enorme di dati […] Qualunque cosa tu abbia visto o sentito o vissuto potrà essere cercata. Tutta la tua vita diventerà ricercabile”.
Questo progetto assomiglia al piano descritto nel racconto di Borges Del rigore della scienza di riprodurre l’Impero in una mappa in scala 1:1. Ma questa utopia scientifica, secondo Zuboff, nasconde un disegno politico antidemocratico, che si ricaverebbe dalle dichiarazioni dei capi di Google e Facebook. Per quanto riguarda gli Stati Uniti, questo disegno rifletterebbe il fatto che l’oligarchia economica, come ha ricordato Thomas Piketty nel Capitale del XXI secolo, ha una fortissima partecipazione alla politica del Paese. Nel 2015, secondo un’indagine del New York Times, solo 158 famiglie hanno fornito quasi la metà del denaro con cui i due principali partiti americani hanno finanziato i candidati alle primarie presidenziali, soprattutto a sostegno di candidati repubblicani che “hanno promesso di deregolamentare il mercato, tagliare le tasse […] e limitare i diritti”. Si trattava di un legame bipartisan: la campagna di Obama del 2008 raccolse dati su 250 milioni di americani, per cui uno dei consulenti politici del Presidente avrebbe poi dichiarato: “sapevamo per chi […] le persone avrebbero votato prima che lo decidessero”.
L’utopia della Silicon Valley, secondo Zuboff, nasconde un disegno politico antidemocratico, che si rafforza nel fatto che l’oligarchia economica ha una fortissima partecipazione alla politica del Paese.
Negli anni della presidenza di Obama ci fu un’impressionante circolazione di personale tra l’amministrazione Obama e Google, che proprio in questo periodo crebbe in modo straordinario. 197 persone passano dal governo a Google, e 61 in direzione opposta. Ma questo non riguarda i soli Stati Uniti, come ha mostrato la vicenda della società Cambridge Analytica, svelata dalla giornalista del Guardian Carole Cadwalladr e poi documentata dal documentario The Great Hack (2019). La vendita di dati privati non sarebbe servita soltanto alla campagna del 2016, che portò all’elezione di Trump, ma anche a numerose altre campagne elettorali, incluse quella della Brexit.
Nel raccontare e esaminare le vicende qui parzialmente riassunte, Il capitalismo della sorveglianza ha il grande merito di ricostruire un intreccio di tecnologia, economia, diritto e politica che è fondamentale conoscere per orientarsi nel mondo contemporaneo. Questo obiettivo corrisponde a meno della metà dell’opera, il resto mira invece a uno sviluppo e un approfondimento di queste analisi alla luce della psicologia e della filosofia. È questa la parte più speculativa del libro, in cui Zuboff approfondisce quello che chiama il nuovo “potere strumentalizzante” esercitato dal nuovo capitalismo, un potere impersonale e apparentemente non-violento, ma estremamente minaccioso.
Futuro e profezie
In generale, Shuboff sostiene che il capitalismo della sorveglianza non si limita a violare la privacy, ma minaccia il “diritto al futuro, cioè il diritto di agire liberamente dall’influenza di forze illegittime che operano al di fuori della nostra consapevolezza per influenzare, modificare e condizionare il nostro comportamento”. I toni qui si fanno profetici: se l’economista Karl Polanyi aveva previsto che il capitalismo della civiltà industriale lasciato a se stesso avrebbe distrutto la Terra, il nuovo capitalismo della civiltà dell’informazione, prevede Zuboff, “potrà prosperare solo a spese della natura umana, minacciando di distruggere la nostra stessa umanità”. Ma come si passa dalla prevedibilità del comportamento umano al suo controllo e, infine, nientemeno che alla distruzione dell’umanità?
Zuboff introduce la questione partendo dal modello teorico di uno studioso del MIT, Joseph Paradiso, che mira a catturare sufficienti dati da produrre “una realtà pervasiva e costantemente aumentata” in cui percezione e comportamento siano interamente tradotte in informazioni. Possibili applicazioni locali di questa teoria si avrebbero nelle “città smart”, sperimentate per esempio negli Stati Uniti e in Cina, in cui l’osservazione ubiqua rende possibile organizzare servizi come parcheggi e car sharing. Da modelli come questi Zuboff trae la prospettiva inquietante di un futuro prossimo in cui ogni aspetto dell’esperienza umana sia reso misurabile, indicizzabile e navigabile. Che da questo possano derivare un controllo del comportamento individuale Zuboff lo spiega con un esempio tratto dal ramo delle assicurazioni. Secondo uno studio di settore, l’idea sarebbe di offrire “coperture assicurative basate sul comportamento” in cui “il surplus comportamentale” su uso delle cinture, velocità media, accelerazioni aggressive e così via “viene usato per attivare delle punizioni, come un peggioramento della classe assicurativa in tempo reale, una multa, un coprifuoco o il blocco del motore, o ricompense, come sconti sulle rate, coupon e stelline d’oro che danno accesso a benefit futuri”. In altre parole: sapere di essere controllati condiziona il comportamento.
L’ipotesi che gran parte della vita futura sia sottoposta a norme imposte dalle assicurazioni era stata già avanzata da Jaques Attali in Breve storia del futuro, che concludeva: “sorveglianza: parola chiave dei tempi a venire”. Si tratta però, in questo caso, di un sistema di controllo che il cliente può rifiutare, basato su regole condivise. Zuboff invece è interessata a una forma di controllo ingannevole, fondato su uno squilibrio di informazioni: il condizionamento, in questo caso, avverrebbe in forma subliminale, mediante stimoli opportunamente somministrati agli utenti in base a una conoscenza delle loro preferenze. Il risultato è una nuova forma di potere strumentalizzante, che mira a “strutturare e strumentalizzare il comportamento al fine di modificarlo, predirlo, monetizzarlo e controllarlo”.
Si tratta di un sistema che Zuboff paragona al totalitarismo del Novecento studiato da Hannah Arendt: se il totalitarismo di fondava sulla violenza dello Stato per controllare le coscienze dall’interno, e ha una efficace rappresentazione letteraria nel Grande Fratello orwelliano, il nuovo potere non vuole impadronirsi delle anime ma vuole solo monetizzare i nostri comportamenti, e ha il volto amichevole degli assistenti digitali.
Zuboff trae la prospettiva inquietante di un futuro prossimo in cui ogni aspetto dell’esperienza umana sia reso misurabile, indicizzabile e navigabile: anche da questo può derivare il controllo del comportamento individuale.
Come sostenuto da Hal Varian di Google, lo scopo di queste intelligenze artificiali è perfezionare la “personalizzazione e customizzazione” dei dati personali. Il primo assistente di Google, Google Now, ha lo scopo di “sapere che cosa volete, e dirvelo prima ancora che domandiate”. Questa tecnologia, per Zuboff, costituisce una minaccia alla volontà individuale, che deve conformarsi ai modelli che sono stati ricavati dal suo stesso comportamento: “Nel futuro che il capitalismo della sorveglianza sta preparando per noi, la mia e le vostre volontà costituiscono una minaccia per il flusso di denaro che proviene dalla sorveglianza. Il suo scopo non è quello di distruggerci, ma semplicemente quello di scrivere la nostra storia per guadagnare soldi […] Siamo intrappolati senza consapevolezza, privi di alternative per sfuggire, resistere e proteggerci”.
Ma qui il ragionamento di Zuboff passa dalla descrizione alla congettura, e bisogna porsi delle domande: Quanto efficaci sono le previsioni fatte da un’intelligenza artificiale? Siamo sicuri che l’individuo, in ogni aspetto della sua esperienza, sia riconducibile agli algoritmi delle intelligenze artificiali che ne ricostruiscono il comportamento passato e futuro? E quanto, posta questa modellizzazione (o “renderizzazione”) del comportamento, il condizionamento può minacciare la volontà individuale? Zuboff prende sul serio queste possibilità di riduzione e controllo dell’esperienza basandosi sulle teorie dello psicologo comportamentista Burrhus Skinner, che lei stessa ricorda di aver conosciuto da studentessa a Harvard e che, dopo la galleria di villains delle aziende capitaliste, diventa protagonista della seconda parte del libro.
Ingegneria del comportamento
Il principio della psicologia di Skinner è il condizionamento: i comportamenti possono essere indotti e soprattutto “rinforzati” da opportune strategie. Skinner aveva sviluppato le sue teorie lavorando su animali non umani, e le aveva generalizzate e applicate alla società umana in diverse opere, come Oltre la libertà e la dignità (1971). In questo saggio, Skinner rifiutava l’idea stessa di libertà del volere: quando definiamo un’azione libera, in realtà stiamo confessando la nostra provvisoria ignoranza sul “vortice di stimoli” che l’ha prodotta. L’idea di libertà del volere nasce quindi dall’ignoranza, che la scienza potrà superare. Parallelamente, Skinner considerava la dignità dell’individuo come un concetto narcisistico che la cultura del passato aveva posto alla base dell’attuale sistema democratico di governo, e che si fondava sulla medesima ignoranza, a cui farà seguito la constatazione che l’organizzazione sociale si basa piuttosto su principi di pianificazione collettiva. In base alla sua psicologia, Skinner riteneva quindi che il comportamento è senz’altro prevedibile e controllabile, e che questo fatto deve essere posto alla base della società del futuro, governata non con la violenza ma con l’“ingegneria dei comportamenti”, una visione che Skinner aveva già prospettato nel romanzo utopico Walden Due, del 1948. Noam Chomsky protestò parlando di un libro “che, per la sua vaghezza, va a genio tanto ai liberisti quanto ai fascisti” e la stessa Zuboff ricorda che tanti studenti di Harvard, come lei, si riferivano al libro in modo sprezzante storpiando il titolo in Verso la schiavitù e l’umiliazione.
Tuttavia, Zuboff continua a prendere sul serio l’“ingegneria del comportamento” teorizzata da Skinner, ritrovandola in atto nel capitalismo della sorveglianza. In questo caso la app propone il suggerimento, uno stimolo, e di conseguenza modifica il comportamento dell’utente. Per esempio, in un “esperimento d’influenza sociale” svolto nel 2012 da ricercatori di Facebook il sapere che i propri amici sui social hanno partecipato a una votazione condizionava la scelta di votare. Nelle parole di un data scientist della Silicon Valley:
Lo scopo di tutto quello che facciamo è cambiare il comportamento reale delle persone su larga scala. Vogliamo capire come costruire il cambiamento del comportamento di una persona, e vogliamo cambiare il modo in cui tante persone prendono le loro decisioni quotidiane. Quando le persone usano la nostra app, possiamo catturare i loro comportamenti e identificare quali sono quelli buoni e quali quelli cattivi.
In base a questi rilievi, i gestori possono intervenire con stimoli martellanti, mirati a indurre un certo tipo di comportamenti, e testarne l’efficacia. A questo si aggiunge la sempre più diffusa dipendenza dai social, cui Zuboff dedica pagine interessanti e ricche di dati, che garantisce l’esposizione costante degli utenti agli stimoli. Così, riprendendo una terminologia kantiana, Zuboff sostiene che i capitalisti della sorveglianza sostituiscono un’azione autonoma, cioè fondata su principi che l’individuo sceglie di porre alla base della propria volontà, con un’azione eteronoma, in cui questi principi vengono psicologicamente indotti. Tutto questo costituirebbe la minaccia alla democrazia su cui Zuboff vuole lanciare l’allarme.
Ma torniamo alla nostra domanda: ne siamo sicuri? Certo, come abbiamo visto, a livello statistico il tracciamento dei dati individuali aiuta a fare previsioni per prevedere singoli comportamenti con poche alternative, come il voto elettorale o l’acquisto di un certo prodotto. Ma si tratta di forme di previsione e tentativo di influenzare il comportamento che esistevano già in passato, e non è chiaro in che modo, in se stesse, minaccino la democrazia. Un sistema di controllo capillare delle azioni che influisce sulla libertà e sulla autodeterminazione degli individui, che Zuboff discute brevemente, si trova in Cina, con la presenza pervasiva della app WeChat e il sistema dei crediti sociali (ne parla a fondo Simone Pieranni in Red Mirror). In questo caso, le informazioni sull’utente possono portare a una restrizione dei diritti dell’individuo. Si tratta però di una forma di controllo sociale che è realizzata, appunto, da un governo non democratico. Come tale non può dirsi un potere occulto, e senz’altro non si basa solo su meccanismi di mercato, bensì presuppone il vecchio ma sempre efficace monopolio dello Stato sulla violenza.
Se invece si resta alla società democratica e alla minaccia del capitalismo “pirata”, come fa Zuboff, il ragionamento ha almeno due punti deboli. Il primo riguarda il modello teorico della mente umana assunto da Zuboff, la seconda le prospettive politiche che si aprono per arginare gli abusi del nuovo capitalismo.
L’agire umano è riducibile a quello di una macchina, come sembra suggerire Zuboff? È un modello popolare, ma che non riflette lo stato attuale delle scienze cognitive.
Primo punto: non è scontato che i modelli digitali di “renderizzazione” del comportamento possano scrivere il nostro futuro. Il modello della “renderizzazione” presuppone il funzionamento totale dell’analogia tra individuo e algoritmo comportamentale, elaborata da Skinner e ripresa dagli informatici di oggi, come Alex Pentland del MIT (cui Zuboff dedica decine di pagine), che condivide la sua visione tecnocratica della mente e della società. Con le dovute tecniche, secondo questo modello, a un dato input seguirà un dato output. L’agire umano è riducibile a quello di una macchina. Ma questo modello non riflette lo stato attuale delle scienze cognitive, cioè di quel paradigma di discipline (che include intelligenza artificiale e psicologia) che dagli anni Cinquanta ha mirato a comprendere la mente umana. Negli anni Settanta Hilary Putnam, il cui funzionalismo è tutt’ora un’importante teoria nelle scienze cognitive, teorizzò come modello della mente una “macchina probabilistica”, cioè una macchina i cui comportamenti si potevano ridurre a probabilità di rispondere a un dato stimolo con una data risposta. Ma questo modello della mente è stato sottoposto a numerose critiche e sviluppi negli ultimi cinquant’anni, e il fatto di ignorarle e mettere in primo piano il suo ex professore Skinner apre una crepa nel ragionamento di Zuboff.
È interessante notare come una simile visione scientifica ricorre, in forma ancora più dogmatica, in un altro testo fondamentale della futurologia contemporanea, Homo deus. Una breve storia del futuro di Harari (2015). Secondo Harari, “il libero arbitrio esiste solo nelle favole che ci siamo inventati come esseri umani”. Si tratterebbe, secondo Harari, di un vero e proprio dato scientifico, dimostrato dalla psicologia e dalla biologia, che distrugge l’idea fondamentale del liberalismo di un individuo libero e autonomo. La nostra convinzione di essere liberi è una confabulazione, in realtà non siamo che assemblee di neuroni che agiscono secondo le leggi dell’evoluzione, che a loro volta sarebbero riducibili a calcoli:
gli organismi sono algoritmi e gli umani non sono individui […] ne consegue che un algoritmo esterno – cioè un’intelligenza artificiale – potrebbe teoricamente conoscermi meglio di quanto possa conoscermi io stesso. Un algoritmo che monitora ciascuno dei sistemi attivi nel mio corpo e nel mio cervello potrebbe sapere chi sia io realmente, come mi senta e che cosa desideri. Una volta sviluppato, un algoritmo del genere potrebbe sostituire l’elettore, il consumatore e l’osservatore. Allora l’algoritmo saprà cosa è meglio, l’algoritmo avrà sempre ragione e la bellezza risiderà nei calcoli dell’algoritmo.
Questa citazione di Harari è utile a notare quanto lo scientismo pregiudichi questo tipo di narrazioni futurologiche. Si prendono modelli dotati di conferme localizzate e circoscritte e li si estende a tutta l’esperienza e a una critica della cultura “umanista”. Che Zuboff, nel compiere una tale indebita estrapolazione, si ispiri al romanzo Walden Due è sintomatico: si passa qui dalla scienza alla fantascienza.
In realtà, che la mente umana sia riducibile a un algoritmo non è una tesi scientificamente consolidata. Al contrario, tra i neuroscienziati e filosofi che si occupano di coscienza si trovano molti sostenitori di posizioni di tipo emergentista, secondo cui la mente cosciente, per quanto prodotta da processi biologici, ha un potere causale non riducibile a quello delle sue parti. Gli esperimenti neuroscientifici che hanno provato a negare il libero arbitrio, da Benjamin Libet in poi, hanno avuto il merito di sollevare la questione, ma hanno anche sollevato critiche e importanti difese della tesi secondo cui la mente ha un controllo causale sulle azioni (un bel resoconto di questo campo di discussioni si trova in Il libero arbitrio, di Christian List, appena tradotto da Einaudi).
Quanto alla metafora della mente come software, che si è accompagnata per decenni all’idea che i processi cognitivi siano algoritmi, da tempo i neuroscienziati – un caso noto: Antonio Damasio – ne hanno denunciato i limiti, sottolineando che prendendola alla lettera e limitando lo studio della mente al cervello si stacca la mente dal corpo e dall’ambiente naturale e sociale, pregiudicando l’efficacia dei nostri modelli. Di recente il filosofo Justin Smith – uno specialista di Leibniz, cioè del filosofo moderno che più di tutti ha anticipato l’idea di una meccanizzazione deterministica dell’uomo con la sua idea di “automa spirituale” – ha ricordato come questa idea della mente come algoritmo sia oggi promossa da filosofi come Nick Bostrom, secondo cui l’intero universo è una realtà virtuale, paragonabile a un videogioco, e vada per la maggiore nella Silicon Valley, tra personaggi come Elon Musk. Smith ha sostenuto che, tuttavia, c’è una differenza tra l’alienazione della nostra libertà sui social media e l’identificazione con un algoritmo. Quando ti affidi ai suggerimenti dei social media, accetti “di vederti come potresti apparire da un punto di vista esterno, un punto di vista che non prende in considerazione cosa vuol dire essere te, e non può farlo. Puoi recuperare la tua soggettività in ogni istante, anche se questo non piacerà alle compagnie di social media, semplicemente riaffermando il primato dei tuoi gusti, desideri e opinioni; allontanandoti dalle macchine quando è tempo di coltivare e raffinare questi gusti, desideri e opinioni; e, infine, abbandonare la pigra analogia del sé con un algoritmo, che come tutte le analogie del genere è presa come l’asserzione di una verità letterale da chi è credulone e manca di curiosità”.
La realtà descritta nel di Zuboff si riduce a un ambiente virtuale, integralmente informatizzato, in cui non esistono circostanze casuali e incontri
Smith, ricorda, per esempio, come la sua formazione sia dipesa da un cumulo di libri abbandonati in un granaio. Il caso, qui, è stato una condizione dell’esercizio della libertà: “Questo è il modo in cui gli esseri umani in generale si sono fatti strada nel mondo, e ha poco a che fare con il sistema di selezione che si basa su macchine programmate secondo il principio ‘potrebbe anche piacerti…’” A Smith piacque un libro sulla guardia forestale tedesca, qualcosa che “nessuna macchina potrebbe mai aver proposto come suggerimento, a meno che non funzionasse male. Ma quel che per le macchine sarebbe malfunzionamento, è, per noi, la definizione di prosperare”.
Questa discussione suggerisce un problema dell’analisi di Zuboff: la realtà descritta nel suo libro si riduce a un ambiente virtuale, integralmente informatizzato, in cui non esistono circostanze casuali e incontri. È un’idea concepibile nello studio di un analista di dati della Silicon Valley o di una psicologa sociale di Harvard come lei, ma difficilmente è un’immagine adeguata della realtà del mondo contemporaneo. Ma la questione filosofica non si esaurisce qui. In generale, dobbiamo chiederci, quanto e a quali condizioni la nostra volontà è limitata nel suo esercizio? Non è immediatamente chiaro come la pensi Zuboff. Poiché insiste sul rischio del condizionamento, non sembra essere una sostenitrice di un libero arbitrio puro, del tutto incondizionato, come quello kantiano. Poiché, d’altra parte, sottolinea che la condizione umana naturale è dominata dall’incertezza – “Non c’è libertà senza incertezza” – non è nemmeno determinista: una certa libertà esiste. La sua posizione sembra essere, implicitamente, una specie di “compatibilismo”: le azioni non sono mai del tutto arbitrarie, ma sono variamente determinate dagli stimoli e dalle nostre conoscenze. Così, la tecnica persuasiva e la conoscenza negata dal nuovo capitalismo riducono la libertà; al contrario, una conoscenza dei suoi principi e metodi può restituircela.
Il libro stesso di Zuboff sta a testimoniarlo, quando sostiene che la realtà digitale è basata su un “doppio testo”, quello ufficiale, a cui accede l’utente, e quello occulto, elaborato dal “nuovo clero” capitalista. Ma se il libro di Zuboff costituisce una celebrazione del potere della conoscenza, grazie a cui l’autrice ha saputo leggere questo secondo testo, la sua prospettiva politico-culturale salta a piè pari un elemento chiave: l’istruzione.
Proviamo infatti a immaginare una situazione in cui tutti gli utenti di internet fossero istruiti ai principi del capitalismo della sorveglianza dispiegati da Zuboff. Non sarebbe questo il modo più efficace per indebolire il “potere strumentalizzante”? Eppure, inutilmente si cercherebbe nelle pagine di Zuboff un riferimento all’istruzione, pubblica o privata, e come questa possa essere l’autentico bacino di una resistenza al condizionamento. Zuboff impiega le conoscenze apprese con il suo dottorato a Harvard, ma considera tutti gli altri uomini come utenti dei social, sottoposti ai meccanismi del gregge, trascurando la possibilità che anche loro potrebbero acquisire conoscenze paragonabili alle sue.
Lo stesso difetto si trova nel libro di Harari, che a un certo punto fa questa affermazione sorprendente: “Poiché non sappiamo quale assetto troverà il mercato del lavoro nel 2030 o nel 2040, già oggi non abbiamo la più pallida idea di cosa insegnare ai nostri figli. La maggior parte di ciò che essi imparano oggi a scuola sarà con ogni probabilità irrilevante per quando avranno quarant’anni”. Harari esprime così una concezione dell’istruzione che ha già abbassato le armi di fronte al capitalismo globale. Questa concezione, unita allo scientismo di cui ho detto sopra, pregiudica profondamente le analisi futurologiche di questi autori.
Libri come Il capitalismo della sorveglianza vogliono e possono dare un contributo prezioso alla promozione di una cultura capace di evitare la riduzione dell’esperienza a comportamenti stereotipati e condizionati, se il loro messaggio diventa oggetto di istruzione e di politiche culturali e sociali.
Questo limite teorico si sovrappone al secondo limite di cui accennavo, quello politico. Nelle analisi di Zuboff, ispirate dagli stessi teorici della Silicon Valley e del MIT che intende criticare, sembra che il controllo delle transazioni e delle navigazioni online possa interamente determinare la vita politica, e che il solo mezzo per fermare questa “automazione del sé” sarebbero leggi che difendano il diritto a disporre dei propri dati e non condividerli, richieste a gran voce dall’“azione collettiva”. Questo accento sulla giurisdizione può dipendere dal fatto che Zuboff parla in primo luogo a un pubblico statunitense, dove le leggi a tutela della privacy e del diritto a cancellare i dati sono molto meno sviluppate che, per esempio, nell’Unione Europea. Ma così, presupponendo un sistema – come quello americano – in cui l’istruzione pubblica è molto più debole di quella privata, Zuboff non si dice nulla delle disuguaglianze sociali e politiche fondate sull’accesso all’istruzione, sulla cittadinanza, sulla discriminazione razzista, che condizionano il modo in cui i singoli utenti accedono a internet. Che l’intera realtà possa essere analizzata in base allo studio dei social network e dei meccanismi di tracciamento del comportamento digitale appare al momento un’illusione, e quindi un difetto del modello teorico della società, che ne pregiudica il potere predittivo.
Si tratta in fondo di un paradosso: libri come Il capitalismo della sorveglianza vogliono e possono dare un contributo prezioso alla promozione di una cultura capace di evitare la riduzione dell’esperienza a comportamenti stereotipati e condizionati, se solo il loro messaggio diventasse oggetto di istruzione e di politiche culturali e sociali. La profezia di un mondo di utenti inconsapevoli presuppone che queste conoscenze non escano dall’ambito esoterico di quella stessa élite intellettuale che invece, come fa Zuboff, propone di farne un principio di “lotta”.