S ul lungo termine siamo tutti morti”. La celeberrima – e spesso fraintesa – massima di John Maynard Keynes non potrà che risultare insopportabile agli adepti della filosofia oggi più in voga nella Silicon Valley e tra le élite tecnologiche: il lungotermismo (in inglese longtermism). Pensiero messo a punto – tra gli altri – anche da vere e proprie celebrità della filosofia come Nick Bostrom (fondatore nel 2005 del Future of Humanity Institute e noto per le sue teorie sulla superintelligenza artificiale, sulla teoria della simulazione e gli scenari di estinzione umana). Il lungotermismo è un pensiero che nasce da principi morali, logici e scientifici ma che sfocia in conclusioni ambigue, classiste, antropocentriche, a volte apertamente deliranti, di sicuro scivolose, criticate e discusse.
Per capirlo appieno, e per comprendere meglio le sue contraddizioni e perché se ne sta parlando sempre di più, è necessario subito fare un passo indietro e analizzare il movimento sociale da cui il lungotermismo discende: l’effective altruism, in italiano traducibile come “altruismo efficace”. Emerso all’inizio degli anni Dieci di questo secolo nel dipartimento di Filosofia di Oxford, alla base dell’effective altruism c’è la volontà di mettere in pratica – nel campo dell’altruismo – l’idea che tutte le vite umane abbiano lo stesso identico valore: la nostra, quella dei nostri vicini e anche quella di persone che vivono in posti remoti in cui non siamo mai stati. Da questo punto di vista, l’effective altruism rappresenta un tentativo di superare quella visione iper-soggettiva che ci fa istintivamente preoccupare di più per tragedie (terremoti, alluvioni, attentati, ecc) che avvengono in luoghi a noi vicini rispetto a ciò che accade in luoghi lontani o che coinvolgono persone considerate distanti.
A un primo sguardo questa scuola di pensiero, fondata dal filosofo scozzese Will MacAskill (autore del saggio What we owe to the future), sembra quindi voler dotare di maggiore razionalità, responsabilità e anche misurabilità il mondo della beneficenza e della filantropia, affrontando i più grandi problemi di oggi – dalla malaria alla povertà estrema e altro ancora – in maniera rigorosa e valutando quantitativamente il loro effettivo impatto. L’altruismo efficace ha nel corso degli anni raccolto una marea di soldi e portato avanti numerosi progetti e donazioni, sempre cercando di legarli a una rigorosa analisi costi-benefici (anche se poi se n’è parlato soprattutto in seguito ai problemi penali dell’imprenditore di criptovalute Sam Bankman-Fried che ne era un noto sostenitore).
La scuola di pensiero del lungotermismo nasce dall’idea di massimizzare i benefici globali delle nostre azioni – e quindi di accordare massima urgenza ai rischi esistenziali di medio-lungo termine.
Le condivisibili premesse dell’effective altruism furono però da subito oggetto di aspre critiche, che lo descrivevano non come una vera teoria morale ma come un pensiero contiguo alle realtà sociali ed economiche responsabili di alcuni dei danni che si proponeva di affrontare. È una delle critiche più concrete – non legate quindi esclusivamente alla natura filosofica di stampo consequenzialista – a un movimento le cui valutazioni morali quantitative lo conducono inevitabilmente dalle parti dell’efficienza economica di scuola neoliberale. Non solo: MacAskill sostiene apertamente la necessità di assumere posizioni di lavoro ad altissimo reddito – nella finanza o nel mondo degli affari – per poter guadagnare più soldi da dare in beneficenza, apparentemente senza vedere la contraddizione di partecipare attivamente, in ruoli di enorme impatto, a un sistema che causa gli stessi danni che si vorrebbero aggiustare con la beneficenza (per un’ampia critica di questa corrente di pensiero, vale la pena di leggere il saggio di Alice Crary su Radical Philosophy).
Indefessi, alcuni sostenitori di questo movimento hanno deciso però di portare l’effective altruism alle sue estreme conseguenze logiche, innescando un effetto domino che, come vedremo, finisce per assumere risvolti estremamente inquietanti. Se il punto di partenza di questo nuovo altruismo è l’idea secondo cui – quando pianifichiamo azioni altruistiche – non solo non sia importante dove le persone sono nate, ma non conti nemmeno quando sono nate, allora, come si legge su Vox, il modo migliore per aiutare il maggior numero di persone diventa focalizzarsi sul futuro a lungo termine dell’umanità. Sul benessere di quei tantissimi miliardi di persone che devono ancora nascere. Messa così, potrebbe apparire una visione razionale; soprattutto in una fase storica, la nostra, in cui – come scrive il filosofo ed ex adepto dell’effective altruism Émile P. Torres – “gli scenari escatologici e apocalittici che vengono discussi sono basati (…) su robuste conclusioni scientifiche sostenute dai massimi esperti nel campo della climatologia, dell’ecologia, dell’epidemiologia e così via”.
È difficile non concordare con la necessità di avere una visione di medio-lungo termine quando si tratta di contrastare il cambiamento climatico, di evitare o rallentare una sesta estinzione di massa che potrebbe provocare cambiamenti irreversibili nell’ecosistema o di impedire che il COVID-19 si riveli solo l’antipasto di qualcosa di ancora più grave e devastante. “Queste considerazioni [sui rischi esistenziali] hanno portato molti scienziati e accademici a riconoscere che, come scrisse Stephen Hawking sul Guardian nel 2016, stiamo vivendo uno dei momenti più pericolosi nello sviluppo dell’umanità’”, spiega sempre Torres. “Lord Martin Rees, per esempio, stima che la civiltà umana abbia una chance solo del 50% di raggiungere il 2100. Noam Chomsky sostiene che il rischio di annientamento oggi corso da Homo sapiens sia senza precedenti”. Come noto, d’altra parte, la lancetta dei secondi del famoso “Doomsday Clock” – con cui gli scienziati del Bulletin of the Atomic Scientists cercano di visualizzare quanto siamo vicini a distruggere il nostro pianeta – si trova soltanto a 90 secondi dalla mezzanotte.
Proprio dalla necessità evidenziata dall’effective altruism di massimizzare i benefici globali delle nostre azioni – e quindi di accordare massima urgenza ai rischi esistenziali di medio-lungo termine – è gemmata la scuola di pensiero del lungotermismo, “che ambisce a farci attentamente pensare al nostro futuro distante, prendendo seriamente in considerazione i possibili rischi futuri in ogni nostra riflessione e scelta morale, facendo tutto ciò in maniera rigorosa e quantitativa ogni volta che è possibile”, come ha scritto il filosofo Peter Godfrey-Smith su Foreign Policy. “Anche fisici e filosofi considererebbero fattualmente corretta l’idea che le persone siano distanti nel tempo in un modo che è paragonabile alla loro distanza nello spazio”, prosegue Godfrey-Smith. “Ci viene spesso detto che il tempo è un’altra dimensione fisica, analoga alle dimensioni spaziali e che le persone del futuro sono parti reali dell’universo. È però inoltre vero che chiunque esisterà in futuro potrà esserlo anche in conseguenza delle scelte che ci assumiamo oggi e domani. Alcune di queste scelte incideranno sulla presenza di un numero inferiore, superiore o magari causeranno l’assenza di esseri umani tra un migliaio di anni”.
Alla base del lungotermismo più realista sembrerebbe quindi esserci soprattutto un doveroso buon senso e uno spiccato senso di responsabilità nei confronti delle prossime generazioni
Alla base del lungotermismo più realista, come quello esposto da Godfrey-Smith, sembrerebbe quindi esserci soprattutto un doveroso buon senso e una esigenza di responsabilità nei confronti delle prossime generazioni: quella che spesso viene anche chiamata “giustizia intergenerazionale” e che oggi ha come inevitabile protagonista il contrasto al cambiamento climatico. In effetti, MacAskill considera la necessità di rendere il nostro sistema energetico indipendente dai combustibili fossili un vero e proprio “proof-of-concept”, test essenziale del lungotermismo, in grado di convincere anche i più scettici della ragionevolezza e della necessità di adottare una prospettiva di questo tipo.
Considerando che la classe politica globale fino a oggi ha dimostrato scarsa volontà di adottare una visione di lungo termine (soprattutto in relazione alla crisi climatica), la diffusione delle idee di MacAskill anche nei think tank e nelle istituzioni sembrerebbe un passo avanti positivo: “C’è una tendenza crescente in questo senso”, scrive Torres su Aeon. “Lo si vede nelle numerose cause che vengono intentate sostenendo che le attuali politiche governative non facciano il loro dovere nel proteggere le prossime generazioni. Lo si vede nella decisione del Galles di nominare un ‘Commissario per le Generazioni Future’ che interviene quando i legislatori prendono decisioni che potrebbero danneggiare le persone sul lungo termine. E lo si vede anche nel recente rapporto delle Nazioni Unite che propone la creazione della figura di inviato speciale delle Nazioni Unite per le Generazioni Future e di una Dichiarazione sulle Generazioni Future che garantisca alle persone del futuro uno status legale”. Tutto bene, allora? No, perché qui cominciano le complicazioni, e l’effetto domino che dicevamo.
Un pericoloso effetto domino
Finché si tratta di salvaguardare le generazioni future, il lungotermismo sembra a tutti gli effetti un pensiero ragionevole, quasi inattaccabile dal punto di vista logico e morale. Il problema è che adottare questa visione in maniera freddamente razionale porta, quasi inevitabilmente, gli adepti di questa scuola di pensiero ad abbracciare le pericolose estremizzazioni già insite in un approccio filosofico di questo tipo. Cosa succede infatti se iniziamo a prendere in considerazione le conseguenze delle nostre azioni politiche e sociali non tanto o non solo sulle prossime tre o quattro generazioni, ma su quelle che verranno migliaia se non milioni di anni?
Sfruttando la catalogazione stilata da Vox, si potrebbe immaginare il lungotermismo come una ferrovia con tre principali stazioni. La prima stazione è quella del “lungotermismo debole”, la seconda del “lungotermismo forte” e l’ultima del “lungotermismo galaxy-brain”. La prima forma di lungotermismo, fondamentalmente, sostiene che dovremmo prestare più attenzione al futuro. La seconda sostiene invece che il futuro di lungo termine è più importante di qualunque altra cosa e dovrebbe essere la nostra assoluta priorità. La terza è invece quella secondo cui dovremmo essere oggi disposti anche ad assumerci dei grossi rischi pur di assicurarci la sopravvivenza dell’essere umano in un futuro remoto.
Il lungotermismo forte ha quindi un solo obiettivo: prevenire l’estinzione, evitare che si verifichino rischi esistenziali per l’essere umano, senza dare peso a quanto in là nel tempo potrebbero avvenire. Non solo: anche eventi molto improbabili di un futuro lontano assumono una grande importanza, a discapito magari di problemi che possono sembrare oggi più grandi e urgenti e sicuri. È una semplice questione di matematica, ha spiegato il già citato Nick Bostrom: “Se anche ci fosse solo l’un per cento di possibilità che in futuro vivano 10^54 persone, allora ridurre la probabilità che si verifichi un rischio esistenziale di un miliardesimo di miliardesimo avrebbe più valore di salvare un miliardo di vite umane oggi”.
Insomma, secondo questa scuola di pensiero – come ha scritto Kieran Setiya – “se potessi salvare un milione di vite oggi o evitare che ci sia lo 0,0001% di probabilità di una prematura estinzione dell’essere umano – una chance su un milione di salvare 8 miliardi di vite – dovresti optare per quest’ultima”. Oltre a Nick Bostrom e MacAskill, tra le figure di spicco del lungotermismo troviamo anche Hilary Greaves, anch’essa filosofa di Oxford e direttrice del Global Priorities Institute, e Toby Ord, autore del saggio The Precipice: Existential Risks and the Future of Humanity, in cui sottolinea il pericolo rappresentato da un’intelligenza artificiale di livello umano (che – se non allineata ai “nostri valori” – potrebbe mettere a rischio la stessa sopravvivenza della nostra specie) e dalle armi biologiche create dall’essere umano, in grado di generare pandemie molto peggiori di quelle naturali. Tra i più noti adepti di questo movimento, troviamo invece il fondatore di OpenAI e Y Combinator (il principale incubatore della Silicon Valley) Sam Altman.
Il lungotermismo forte ha quindi un solo obiettivo: prevenire l’estinzione, evitare che si verifichino rischi esistenziali per l’essere umano, senza dare peso a quanto in là nel tempo potrebbero avvenire.
Nonostante sia balzata agli onori delle cronache solo negli ultimi mesi, non è difficile trovare tracce della già notevole e crescente influenza di questa scuola di pensiero: il lavoro di Toby Ord, per esempio, è stato citato dall’ex primo ministro britannico Boris Johnson, mentre il think tank Center for Security and Emerging Technologies di Washington è stato fondato da Jason Matheny (già consigliere per la tecnologia e la sicurezza nazionale di Joe Biden) con l’obiettivo di collocare dei seguaci del lungotermismo nelle istituzioni statunitensi. Lo stesso Ord è stato consigliere dell’OMS, della Banca Mondiale, del World Economic Forum e di parecchie altre istituzioni.
Da qualche tempo – e senza dare troppo nell’occhio – il lungotermismo si sta insomma infiltrando nelle istituzioni che hanno concretamente il potere di plasmare il nostro futuro. E così potrebbe direttamente influenzarne l’azione, magari finanziando chi studia come evitare che l’intelligenza artificiale sfugga al nostro controllo (che è un classico tema lungotermista, su cui torneremo più avanti) anche a costo di sottrarre fondi alla campagna vaccinale contro la malaria nelle zone più povere del mondo.
Per i lungotermisti, d’altra parte, la povertà di un Paese o le malattie circoscritte ad alcune zone del mondo non sono priorità, perché non rappresentano un rischio esistenziale totale, e persino la globale crisi climatica è derubricata a problema minore perché potrebbe essere più logico, seguendo il pensiero lungotermista, investire piuttosto nella ricerca di un “pianeta B” da colonizzare (e qui riecheggia un altro imprenditore vicino a questa corrente come Elon Musk).
“Allo scopo di valutare le azioni da compiere, prima di tutto possiamo semplicemente ignorare tutti gli effetti che si verificheranno nei prossimi 100 (o anche 1000) anni, concentrandoci invece sugli effetti più di lungo termine. Le conseguenze di breve termine possono al massimo servire per capire dove far pendere la bilancia”, scrivono MacAskill e Greaves in un loro paper del 2019 (nella versione del 2021 questo passaggio è stato eliminato). La logica alla base è tanto semplice quanto feroce: se nel giro di 150 mila anni Homo sapiens ha 8 miliardi di esemplari, tra mille anni potremmo essere 500 miliardi. Un calcolo che fa capire come la nostra priorità debba di conseguenza essere di assicurarci che questi esseri umani del futuro siano in vita, in buona salute e possibilmente anche in ricchezza. Ma, ancora una volta, questa visione delle cose ha davvero senso solo se assunta in maniera “debole”: chi potrebbe negare oggi che – negli anni Settanta e Ottanta, quando gli scienziati iniziavano a denunciare i rischi legati alle emissioni di gas serra – sarebbe stato doveroso rinunciare parzialmente alla crescita economica (e quindi al benessere delle persone dell’epoca) per evitare di trovarci dopo quarant’anni alle prese con la crisi ambientale di cui stiamo iniziando a subire gli effetti già da tempo previsti?
Questo tipo di considerazioni sul medio termine (senza poter porre un confine preciso) sembrano a tutti gli effetti tenere insieme buon senso e logica. Ma quando le si porta alle loro estreme conseguenze, tutto ciò che rimane è un elemento logico-matematico che diventa via via più astruso e scollegato dalla realtà. E così, si arriva fino alle valutazioni deliranti di Jaan Tallinn, fondatore di Skype e cofondatore del think tank lungotermista Future of Life Institute (collegato al Future of Humanity Institute), secondo cui il cambiamento climatico non rappresenta un “rischio esistenziale”, poiché non compromette il futuro di una specie umana destinata a colonizzare lo spazio.
L’ideologia più pericolosa del momento
Sono affermazioni di questo tipo che hanno portato Émile P. Torres a definire il lungotermismo l’ideologia più pericolosa del momento: “Elevare il compimento del presunto potenziale umano al di sopra di qualunque altra cosa rischia di aumentare in maniera non trascurabile la probabilità che delle persone vere e proprie – quelle vive oggi e nel futuro vicino – subiscano gravi danni, compresa la morte. (…) Se anche il cambiamento climatico causasse la scomparsa di intere nazioni, scatenasse migrazioni di massa e uccidesse milioni di persone, potrebbe comunque non compromettere il nostro potenziale di lungo termine, relativo alle prossime migliaia di miliardi di anni. Se si assume una visione cosmica della situazione, anche qualora una catastrofe climatica eliminasse il 75% della popolazione sarebbe, nel grande disegno delle cose, niente più di un piccolo incidente”.
Quando si portano le idee di partenza del lungotermismo alle loro estreme conseguenze, tutto ciò che rimane è un elemento logico-matematico che diventa via via più astruso e scollegato dalla realtà.
È sempre Nick Bostrom, d’altra parte, a sostenere che “un disastro non esistenziale che provochi il crollo della civilizzazione globale sia, dalla prospettiva dell’umanità nel suo complesso, una battuta d’arresto dalla quale si può potenzialmente recuperare. Da questo punto di vista, anche tragedie come Chernobyl o l’AIDS sono semplici increspature sulla superficie del grande mare della vita”.
Com’è possibile che un movimento che si ispira a principi razionali, logici e scientifici arrivi a conclusioni che nulla hanno a che fare con la scienza e sembrano invece adottare un approccio fanatico e settario? I ragionamenti lungotermisti sembrano rapidamente prendere una piega “nerd”, fantascientifica, che vuole rendere reali le sue fantasie escapiste. Seguendo lo stesso ragionamento dei lungotermisti, infatti, potremmo sostenere che il rischio più elevato per l’essere umano è che dalle profondità della Terra emerga un demone sterminatore, la cui apparizione – per quanto le probabilità siano infinitesimali – assicurerebbe la totale e irreversibile estinzione di ogni forma di vita sul nostro pianeta. E che, di conseguenza, tutte le nostre risorse debbano essere impiegate per evitare che uno scenario del genere si verifichi.
E oggi come oggi (e per il futuro a venire), temere che sorga una superintelligenza artificiale non è più razionale di preoccuparsi dell’avvento di un demone sterminatore. Il problema è che le fantasie pseudo-razionali lungotermiste hanno ricadute concrete: un personaggio controverso come Peter Thiel ha per esempio donato imponenti somme al Machine Intelligence Research Institute, il cui scopo è salvare l’umanità dalle macchine superintelligenti. Dal momento che, come abbiamo visto, esponenti del lungotermismo stanno iniziando a farsi largo tra le istituzioni, il pericolo è che risorse da impiegare contro rischi concreti e immediati vengano invece dirottate per scongiurare timori paranoici e immaginari.
Il “destino manifesto” dell’essere umano
L’aspetto che più avvicina i lungotermisti agli adepti di una setta millenarista è però un altro: poniamo che non ci sia nessuna forma di vita altamente intelligente in nessun altro luogo dell’universo conosciuto e che non faccia mai la sua comparsa. Secondo MacAskill, in questo caso le nostre azioni sarebbero addirittura di importanza cosmica. “Da una grande rarità deriva una grande responsabilità. Per tredici miliardi di anni, l’universo noto è stato privo di coscienza”, scrive MacAskill. “Adesso e nei secoli a venire affronteremo minacce che potrebbero ucciderci tutti. Se roviniamo tutto, lo roviniamo per sempre. L’autocomprensione dell’universo potrebbe essere irreversibilmente persa, quella breve e flebile fiamma di coscienza che ha luccicato per un po’ potrebbe estinguersi per sempre”.
Se anche fosse una prospettiva realistica (ma in realtà non sappiamo se da qualche parte o in qualche tempo siano presenti altre forme di vita altamente intelligenti), potremmo tranquillamente replicare ai timori di MacAskill con un’alzata di spalle. È davvero così importante che l’intelligenza dell’essere umano viva per sempre? E da che punto di vista la nostra intelligenza sarebbe talmente degna di nota da dover essere preservata a tutti i costi, il nostro? Interessa qualcosa all’universo della nostra sopravvivenza?
Dubbi inesistenti per i lungotermisti, visto che il dogma centrale di questa scuola di pensiero è proprio che niente è più importante, dal punto di vista etico, che portare a termine il nostro potenziale di “specie intelligente che ha origine sulla Terra”. Il nostro pianeta è infatti senza dubbio il luogo in cui abbiamo avuto origine, ma non c’è ragione – secondo MacAskill e compari – perché debba anche essere il luogo in cui la nostra storia si esaurisce. Non solo: i lungotermisti sembrano considerare l’essere umano come qualcosa di scollegato dalla Terra, il che spiega anche l’attenzione nulla rivolta alla cura del nostro pianeta e delle altre forme di vite che lo abitano.
Il pianeta Terra e i suoi abitanti non umani non contano nulla, per i lungotermisti. Conta solo ed esclusivamente l’essere umano, che – per dirla con Musk – deve diventare una specie multiplanetaria per massimizzare la possibilità di sopravvivenza ed evitare che un evento cataclismatico causi la scomparsa di quella che (forse) è l’unica specie altamente intelligente presente nell’universo. In questa lettura incredibilmente antropocentrica e in cui qualunque creatura che non sia umana non viene nemmeno presa in considerazione, si fa strada nelle tesi lungotermiste l’ennesimo aspetto ambiguo: non è importante solo che l’essere umano sopravviva, è fondamentale anche che si moltiplichi il più possibile.
Per i lungotermisti, la povertà di un Paese o le malattie circoscritte ad alcune zone del mondo non sono priorità, perché non rappresentano un rischio esistenziale totale, e persino la globale crisi climatica è derubricata a problema minore.
Il ragionamento lungotermista funziona più o meno così: in prospettiva una vita umana è importante, ma dieci vite sono più importanti e cento lo sono ancora di più. Seguendo in maniera lineare questa strada, diventa di centrale importanza una sola cosa: che esista un domani il maggior numero possibile di vite. Di conseguenza, è indispensabile garantire che l’essere umano possa moltiplicarsi il più possibile in ogni luogo del cosmo. È per questo che il lungotermismo va di pari passo con movimenti come il natalismo (una corrente abbracciata dall’ultradestra che ritiene prioritario dare alla luce quanti più figli possibile e usare la biogenetica per garantire che siano sani, belli e intelligenti), come il transumanesimo e appunto con l’esplorazione spaziale. Ed è qui che rientra in gioco il filosofo Nick Bostrom, che ritiene – utilizzando lo stesso processo logico con cui è arrivato ad affermare che l’universo in cui viviamo è probabilmente una simulazione – che “la colonizzazione dell’universo ci darebbe le risorse e lo spazio di cui abbiamo bisogno per creare un’immensa quantità di simulazioni digitali di vite”
Da dove nasce questa ossessione numerica dei lungotermisti, che porta a dare priorità assoluta alla moltiplicazione a tutti i costi del numero di esseri umani, anche qualora fossero solo “simulazioni digitali”? Il ragionamento sottostante sembra essere che le persone non siano altro che un mezzo per un fine, che non abbiamo alcun valore intrinseco. Le persone sono considerate invece delle sorte di ‘contenitori’ di valore, che di conseguenza contano soltanto se ‘contengono valore’, e quindi contribuiscono all’ammontare netto complessivo di valore nell’universo. Seguendo questo ragionamento, fatto sempre da Emile P. Torres, maggiore è il numero di persone (contenitori di valore) che esistono con un ammontare netto positivo di valore (rappresentato dal loro benessere), migliori saranno le condizioni dell’universo. In sintesi, per i lungotermisti non è il valore che esiste al fine di beneficiare le persone, ma sono le persone che esistono al fine di massimizzare il valore.
È un cortocircuito paradossale, in cui un meccanismo di pensiero freddamente logico, distaccato e anaffettivo porta a rovesciare ciò che il semplice buon senso segnala, ovvero che il benessere (più spesso indicato come “felicità”) non è un valore di per sé, ma lo diventa se applicato alle persone che ne possono beneficiare. Fin dove può arrivare una visione del mondo di questo tipo? Alla logica conclusione del percorso ci porta direttamente il filosofo Nick Beckstead, membro del Future of Humanity Institute, che nella sua tesi di dottorato del 2013 – lodata entusiasticamente da Toby Ord – spiega che:
Salvare vite umane nelle nazioni povere potrebbe essere meno utile che salvare vite nelle nazioni ricche. Questo perché le nazioni più ricche hanno a disposizione innovazioni considerevolmente migliori e i loro lavoratori sono molto più produttivi. Di conseguenza, è plausibile che, a parità di condizioni, salvare una vita in una nazione ricca sia sostanzialmente più importante che salvarne una in un paese povero.
In sintesi, se ciò che conta è garantire la maggior quantità di “vite felici” in futuro, dobbiamo oggi preoccuparci di salvare le vite che hanno la maggior probabilità di condurci verso questa terra promessa. È a questa conclusione mostruosamente classista che si arriva quando si considera – da un punto di vista freddamente e ciecamente logico – il “benessere” o la “felicità” come entità astratte e l’essere umano come dotato di un “destino manifesto” cosmico.
Considerata l’immensa quantità di soldi (si parla di 46 miliardi di dollari) raccolta dai seguaci dell’altruismo efficace e del lungotermismo – e il loro graduale inserimento all’interno di istituzioni sempre più importanti e prestigiose – è evidente che i problemi sollevati dalla diffusione di questa scuola di pensiero non siano più solo filosofici, ma politici.
Nel corso del Ventesimo secolo abbiamo scoperto fin troppo bene dove ci può condurre la giustificazione freddamente e ciecamente razionale di una presunta “massimizzazione del bene”: oltre a negare l’importanza di combattere il cambiamento climatico e dare priorità al “Primo mondo” sul “Terzo”, quali atrocità sarebbe in grado di giustificare una visione del mondo che aspira niente meno che a garantire la realizzazione del destino multiplanetario dell’essere umano e alla massimizzazione del benessere goduto da (potenzialmente) miliardi di persone che un domani, non importa quanto lontano, potrebbero abitare ai quattro angoli della galassia?
Fino a dove arriverebbero a spingersi dei fanatici (com’è il caso di chiamarli) secondo i quali la crisi climatica è solo “un incidente di percorso”, che sono disposti ad abbandonare le persone che vivono nelle zone più difficili del pianeta e a instaurare una qualunque forma di dittatura se dovesse in qualche modo aumentare la nostra possibilità di evitare crimini o attentati? Si può escludere che i lungotermisti possano giustificare politicamente il sacrificio di un miliardo di persone con la speranza paranoide che tra un milione di anni quest’azione salverà miliardi di miliardi di persone che ancora non esistono?
Il lungotermismo è una “filosofia” in grado di minimizzare qualsiasi catastrofe e ingiustizia odierna, di giustificare qualunque sfruttamento, manipolazione e trasformazione della natura in nome di un presunto e lontanissimo avvenire utopico.
Siamo di fronte a una visione ciecamente fanatica, che ignora completamente che proprio l’antropocentrismo di stampo baconiano alla base del lungotermismo è ciò che ci ha portato alla crisi climatica e alla sesta estinzione di massa. Da un certo punto di vista, cercando di dare un senso alle assurdità lungotermiste, si potrebbe considerare questa visione del mondo come l’estremo tentativo del capitalismo di giustificare la sua inesauribile necessità di sfruttamento delle risorse, senza curarsi dei danni provocati oggi. Il lungotermismo è infatti una “filosofia” in grado di minimizzare qualsiasi catastrofe e ingiustizia odierna, di giustificare qualunque sfruttamento, manipolazione e trasformazione della natura in nome di un presunto e lontanissimo avvenire utopico: un domani paradossalmente sempre rinviabile a un futuro ancora più lontano.
Tutto è giustificabile – anche la peggiore dittatura, l’eugenetica, il sacrificio di intere popolazioni; perfino la distruzione del nostro stesso pianeta – se può portare a massimizzare le chance di realizzare il destino manifesto dell’essere umano e la sua gloria multiplanetaria. Il lungotermismo rappresenta in definitiva l’apice di un cupo tardocapitalismo dagli evidenti tratti fascisti e suprematisti.
Per assurdo, il lungotermismo (o almeno una sua versione moderata e di buon senso) dovrebbe avere a cuore più di ogni altra cosa il benessere dell’ecosistema in cui viviamo, perché è l’unico modo per dare davvero dare alla nostra specie – e a tutte le altre che popolano il pianeta – la migliore chance di sopravvivere in maniera dignitosa. L’accento posto sul nostro destino manifesto di specie multiplanetaria è ciò che invece porta questa visione del mondo a essere completamente incurante nei confronti di un pianeta che tanto siamo destinati ad abbandonare. È una visione ammantata di futuro e tecnologia, ma che è invece orribilmente reazionaria e antiquata nel suo estremo antropocentrismo. Una visione che ci ricorda fino a quali eccessi si può spingere l’essere umano quando dimentica di essere solo una delle forme di vita che abitano il pianeta. E di non avere, per fortuna, alcun destino manifesto da raggiungere.