

N ei piani di Elon Musk, quella a cui stiamo assistendo in queste settimane è soltanto la prima fase dell’azione di DOGE (Department Of Government Efficiency), il dipartimento per l’efficienza governativa da lui guidato e nato per volontà di Donald Trump. Una prima fase che prevede di individuare “ridondanze” nell’amministrazione pubblica, nei ministeri e nelle varie agenzie governative, tagliare fino a tre quarti dei lavoratori federali, accorpare o cancellare enti considerati inutili o dannosi (a partire da USAID, United States Agency for International Development, il braccio umanitario del soft power statunitense), diminuire drasticamente le normative che regolano la macchina pubblica e, nel complesso, arrivare a ridurre anche di duemila miliardi di dollari il bilancio governativo.
Già in questa prima fase – che ha messo nel mirino, oltre a USAID, anche il ministero dell’Educazione, gli uffici che sovrintendono ai programmi di retribuzione per i dipendenti federali e tantissimi altri – Elon Musk sta sfruttando i sistemi di intelligenza artificiale (AI, Artificial Intelligence) per identificare ciò che considera spese superflue, personale sovrabbondante e programmi federali sgraditi. Non tutto sta andando per il verso giusto: al di là delle azioni giudiziarie che hanno temporaneamente bloccato, o almeno tamponato, alcune intemerate di Musk e del suo staff, sono stati segnalati casi in cui l’accetta del DOGE si è abbattuta su persone che – anche volendo aderire al 100% all’ideologia “anti-woke” che ne guida l’operato – non avevano fatto nulla per caderne vittime.
È il caso per esempio delle 100 persone che sono state messe in congedo amministrativo in seguito all’ordine esecutivo con cui Trump ha vietato ogni iniziativa federale nell’ambito DEI (Diversity, Equity, Inclusion). Come segnala il Washington Post, “la grande maggioranza delle persone messe in congedo si era iscritta a un singolo corso d’aggiornamento sulla diversità, molti di loro perché li aiutava a soddisfare un requisito professionale da più parti richiesto”. È quello che avviene quando si agisce freneticamente, sfruttando sistemi automatizzati e guidati da un cieco fervore ideologico. Lo ha parzialmente ammesso lo stesso Musk, che ospite di Trump alla Casa Bianca ha affermato: “Alcune delle cose che farò saranno sbagliate e dovranno essere corrette. Nessuno può avere una media perfetta. Tutti commettiamo errori. Ma agiremo rapidamente per correggere qualsiasi errore”.
Ma questo, come detto, potrebbe essere solo il primo passo di un piano che, se riuscirà a vedere la luce, avrebbe un altro obiettivo, esplicitato nell’ottobre 2024 in un paper pubblicato dal think tank Foundation for American innovation (molto vicino a Musk). Nel secondo capitolo del paper, intitolato “Utilizzare l’intelligenza artificiale per ottimizzare le operazioni e ridurre la burocrazia”, si legge: “La Casa Bianca dovrebbe emanare un ordine esecutivo incaricando l’Ufficio per la gestione del personale e le agenzie federali di esaminare e individuare opportunità per l’uso dell’AI da parte del governo federale al fine di semplificare la burocrazia, anche attraverso la riduzione della forza lavoro federale per le posizioni che possono essere automatizzate”. In sintesi, Musk non sta impiegando l’intelligenza artificiale solo per identificare i costi superflui da tagliare. L’obiettivo ultimo della nuova amministrazione statunitense è quello di sostituire i dipendenti federali (e la loro autonomia) con dei sistemi automatici. Di rimpiazzarli con uno strumento che – ha affermato lo stesso Trump in un suo ordine esecutivo – “è privo di bias ideologici o di agende sociali ingegnerizzate” (un’affermazione, come vedremo tra poco, completamente sbagliata).
È l’utopia tecnosoluzionista. Un sistema in cui, nella sua versione ultima, i sistemi di intelligenza artificiale vengono dotati di effettivo potere politico.
E se succedesse davvero? Se realmente il processo decisionale politico venisse sostituito da un algoritmo in grado di individuare la strada più efficiente per conseguire determinati obiettivi (crescita economica, pareggio di bilancio, lotta all’evasione fiscale o qualunque altra questione complessa)?
Nell’opinione pubblica, questa ipotesi gode di un certo sostegno: nel 2021, un sondaggio del Center for the governance of change aveva mostrato come il 51% degli europei fosse favorevole a ridurre il numero di parlamentari nazionali e a riallocare questi seggi a un algoritmo di intelligenza artificiale. Il sostegno era particolarmente alto in Spagna (66%), Italia (59%) ed Estonia (56%). Ma come funzionerebbe una cosa del genere? Le possibili alternative sono parecchie: c’è chi ha proposto, come Joshua Davis di Wired USA, che gli elettori si rechino alle urne per votare un’intelligenza artificiale di centrosinistra o una di centrodestra, incaricandola di portare avanti nel modo più efficace possibile il programma delle forze che appartengono ai due schieramenti.
Il 51% degli europei si dice favorevole a ridurre il numero di parlamentari nazionali e a riallocare questi seggi a un algoritmo di intelligenza artificiale.
Un algoritmo, seguendo questa interpretazione, potrebbe non accettare di introdurre misure che rischiano di aumentare il già spaventoso debito pubblico italiano (che mette a repentaglio le generazioni future). Non solo: “Immaginate un presidente AI nel 2003. Il software avrebbe analizzato decenni di report su Saddam Hussein, assorbito tutta l’intelligence a disposizione sulle armi di distruzione di massa e concluso che l’invasione dell’Iraq non avrebbe in alcun modo diffuso la democrazia”, ha scritto sempre Joshua Davis.
Oppure, come ha provocatoriamente scritto Yuval Noah Harari in Homo Deus (2016), potremmo anche smettere di andare a votare: “A cosa servono delle elezioni democratiche quando gli algoritmi sanno già come ogni persona voterà e quando conoscono anche le esatte ragioni neurologiche per cui una persona vota democratico e un’altra repubblicano?”. Potremmo allora saltare la fase elettorale, determinare “neurologicamente” cosa vuole la maggioranza e poi affidarci a una AI per realizzarlo.
È difficile prendere sul serio queste suggestioni. Se anche un algoritmo sapesse già a che partito va la mia preferenza (cosa effettivamente probabile), quale sarebbe il vantaggio di farlo votare al mio posto? E davvero qualcuno pensa che i politici italiani varino misure che hanno la conseguenza di far aumentare il debito pubblico senza rendersene conto? Chi ha il coraggio di credere che l’invasione dell’Iraq sia realmente stata fatta per “diffondere la democrazia”? In tutti i casi citati, avere un algoritmo al posto di un politico non servirebbe a nulla. Nell’ipotesi di Davis, se una percentuale di persone votasse per misure – tagli o bonus fiscali – che rischiano di aumentare il debito pubblico, l’intelligenza artificiale non potrebbe fare altro che obbedire. E magari, se fornito di tutte le motivazioni geopolitiche ed economiche che hanno portato i neocon a decidere che fosse conveniente per gli interessi statunitensi invadere l’Iraq, l’algoritmo arriverebbe alla stessa conclusione, cioè che mentire sulle armi di distruzione di massa e destituire con la forza Saddam Hussein fosse la scelta giusta.
Fino a oggi, i sistemi d’intelligenza artificiale in campo pubblico-politico sono stati utilizzati cedendo alla macchina ampia autonomia decisionale e sottoponendola a scarsa supervisione umana. In molti casi con risultati disastrosi.
Fino a oggi, l’utilizzo dei sistemi d’intelligenza artificiale in campo pubblico-politico si è avvicinato più al primo filone, cedendo però alla macchina ampia autonomia decisionale e sottoponendola a scarsa supervisione umana. In molti casi, i risultati sono stati disastrosi. Per esempio, un algoritmo impiegato dalle agenzie di collocamento polacche, introdotto nel 2014 dal governo di Varsavia, ha sistematicamente penalizzato – come documentato dalla ONG Algorithm Watch – persone con disabilità, madri single, chi proveniva da zone rurali e altre categorie ancora. Poiché i sistemi d’intelligenza artificiale funzionano tutti su base statistica, l’algoritmo si era limitato a “notare” come certe categorie venissero raramente assunte in passato per svolgere determinate professioni, valutandole quindi negativamente. L’algoritmo – che infatti il governo ha poi ritirato in fretta e furia – non faceva altro che discriminare chi viene già solitamente discriminato, celando però queste criticità dietro l’aura della “oggettività statistica”.
Una situazione simile si è verificata nel 2020 nel Regno Unito, ma in questo caso le vittime di quello che è passato alla storia come “A-Level Fiasco” erano gli studenti in attesa di ottenere il diploma superiore e di conoscere quale sarebbe stato il loro voto finale: un fattore decisivo per entrare nelle università più prestigiose. A causa del Covid, nel 2020 il Regno Unito ha però rinunciato a svolgere l’equivalente britannico dei nostri esami di maturità. Al suo posto, il dipartimento governativo preposto (Ofqual, Office of qualifications and examinations regulation) ha deciso che a dare i voti agli studenti sarebbe stato un algoritmo. Come spiega sul sito della London school of economics il professor Daan Kolkman, docente di sociologia informatica, i voti venivano assegnati dall’algoritmo sulla base di tre aspetti: la distribuzione storica dei voti in una data scuola nei tre anni precedenti, le previsioni degli insegnanti sul voto finale degli studenti e i voti da essi ottenuti in ogni materia.
Risultato? Gli studenti delle scuole private più prestigiose hanno ottenuto voti finali più alti di quelli attesi dai loro insegnanti (e quindi una maggiore possibilità di accedere alle migliori università), mentre gli studenti delle scuole pubbliche hanno ottenuto voti in media più bassi di quelli attesi dagli insegnanti. Le ragioni dietro a questa discrepanza sono molteplici e spesso è quasi impossibile interpretarle, visto che un algoritmo effettua miliardi di calcoli sulla base di innumerevoli variabili.
L’oggettività statistica dell’intelligenza artificiale è un mito, ed è noto da tempo quanto questi sistemi siano soggetti a discriminazioni e pregiudizi che colpiscono quasi invariabilmente minoranze e fasce già penalizzate della popolazione.
Sono solo due casi che mostrano come l’oggettività statistica dell’intelligenza artificiale sia un mito e quanto questi sistemi siano soggetti, come noto da tempo, a discriminazioni e pregiudizi che colpiscono quasi invariabilmente minoranze e fasce già penalizzate della popolazione. Se non bastasse, è facilissimo celare – anche di proposito – i nostri espliciti pregiudizi all’interno di un sistema algoritmico di valutazione, confidando nell’enorme difficoltà di rendersi conto di ciò che sta avvenendo. È il caso per esempio del sistema, inaugurato sempre da Trump, che rifiuta i finanziamenti a ricerche accademiche che contengono parole chiave come, appunto, “bias”, “attivismo”, “diversità”, “inclusione” e tantissime altre. In questo caso, l’assurda procedura voluta da Trump è emersa subito pubblicamente, ma è fin troppo facile immaginare un futuro in cui dei sistemi automatici rifiutano finanziamenti (o sussidi o mutui o lavori) sulla base di parole chiave che non sono note al pubblico, impedendo che a fare le necessarie valutazioni siano degli esseri umani, nella loro diversità d’opinioni e sensibilità.
La capacità di macinare enormi quantità di dati e di scovare correlazioni a noi invisibili può essere estremamente utile in ambiti cruciali, come la medicina o il contrasto alla crisi climatica.
Più in generale, il timore segnalato sempre da Salvaggio è che l’iniziativa di Trump e Musk punti a “togliere al Congresso la supervisione sulla spesa pubblica e sui programmi stabiliti per legge, affidandola a un sistema automatizzato”. Questo rappresenterebbe “il primo segnale che il ‘colpo di Stato’ dell’intelligenza artificiale è compiuto. Indicherebbe il passaggio dalla governance democratica all’automatismo tecnocratico, in cui gli ingegneri stabiliscono come dirottare i finanziamenti del Congresso verso gli obiettivi del potere esecutivo”.
E quindi, l’utilizzo dell’intelligenza artificiale nel campo della governance, della pubblica amministrazione e della politica è tutto da buttare? In realtà, no. La capacità di macinare enormi quantità di dati e di scovare correlazioni a noi invisibili può essere estremamente utile in ambiti cruciali, come la medicina o il contrasto alla crisi climatica, dove l’intelligenza artificiale può aiutare a elaborare i dati sul cambiamento delle temperature e sulle emissioni di anidride carbonica, a prevedere gli eventi meteorologici estremi, a ottimizzare l’utilizzo delle fonti energetiche, a monitorare gli oceani e non solo. Soprattutto nei campi più scientificamente complessi, l’intelligenza artificiale può essere un alleato estremamente utile del decisore umano. Per certi versi, se usata nel modo giusto e in alcuni ambiti specifici, l’intelligenza artificiale potrebbe proiettare la politica e la governance in una sua era “Moneyball”.
Con questo termine si fa riferimento alla rivoluzione che, nel mondo dello sport (a partire dal baseball e poi anche nel basket, calcio, ecc.), è stata abilitata dall’informatica, permettendo di analizzare in maniera scientifica i dati relativi a giocatori, schemi ed efficacia di entrambi, dove prima allenatori e manager potevano affidarsi soltanto a istinto, osservazione ed esperienza. A oltre vent’anni di distanza da questa rivoluzione sportiva, allenatori e manager non sono stati sostituiti da algoritmi informatici, ma li hanno resi parte del loro processo decisionale e di valutazione.
Perché l’intelligenza artificiale deve sostituire l’essere umano, quando è la combinazione dei due a dare i risultati migliori?
E allora perché non è questa la strada intrapresa da Musk? La ragione è abbastanza evidente: lo scopo non è migliorare l’efficienza della macchina amministrativa, ma distruggere la sua forma attuale e sostituirla con algoritmi ciecamente obbedienti. Spiega sempre Salvaggio:
Per raggiungere il suo obiettivo, qualsiasi intelligenza artificiale impiegata in questo contesto non dovrebbe necessariamente essere capace di prendere buone decisioni o di mostrare nuove capacità. Le basterebbe essere considerata una concorrente plausibile al processo decisionale umano, quel tanto che basta per estromettere gli attuali decisori nell’amministrazione pubblica, ossia le persone che incarnano i valori e la missione dell’istituzione. Una volta sostituite, si perderebbe la conoscenza umana su cui l’istituzione si fonda.