LUNGOTERMISMO: FILOSOFIA, IDEOLOGIA, RELIGIONE O DELIRIO?
Innanzitutto, una premessa che è anche una promessa. In questa rubrica racconto delle storie e per questo intendo astenermi, per quanto possibile, da temi politici. Però questa è una storia che, sebbene davvero molto politica, credo sia sfuggita ai non addetti ai lavori e mi sembra doveroso raccontarla sia perché è di per sé interessante ma ancora di più perché ha già e potrebbe avere ancora di più in futuro, serie conseguenze sulla gestione della crisi climatica, sulla distribuzione delle risorse, sulle disuguaglianze, insomma per la vita di tutti noi. Quanti sanno cos'è il lungotermismo?
Il termine longtermism, da long term "lungo termine", è
stato coniato intorno al 2017 da William MacAskill e Toby Ord, due filosofi di Oxford.
MacAskill, uno degli esponenti principali del sedicente effective altruism ("altruismo
efficace"), è l'autore di What We Owe The Future, pubblicato nel 2022 e tradotto l'anno
seguente in italiano col titolo Che cosa dobbiamo al futuro. Prospettive per il prossimo
milione di anni.
Il concetto fondamentale esposto nel libro è che il benessere e la sopravvivenza delle
generazioni future sono la priorità morale fondamentale per gli esseri umani che abitano il
presente.
A una prima lettura sembra un pensiero ragionevole, ampiamente condivisibile, ineccepibile
dal punto di vista etico e logico e il primo impulso è quello di aderire immediatamente e
incondizionatamente al lungotermismo. Il problema nasce se si comincia a pensare quali
potrebbero essere le conseguenze delle nostre azioni non tanto sulle prossime tre o quattro
generazioni, ma su quelle di un remoto futuro.
MacAskill, infatti, non propone un lungotermismo "debole", che si preoccupi dei nipoti e
pronipoti degli attuali abitanti della terra, ma un lungotermismo "forte" anzi "galaxy-brain",
orientato a una ipotizzata umanità destinata alla conquista dell'intera galassia.

Che cosa succede se portiamo quest'idea alle sue estreme, inquietanti conseguenze logiche? Ci risponde Irene Doda, in L'utopia dei miliardari. Analisi e critica del lungotermismo, rifacendosi al filosofo "lungotermista pentito" Émile Torres:
Immaginiamo una situazione ipotetica in cui un soggetto, vivo nel tempo presente, abbia i mezzi, la tecnologia e la volontà di salvare dalla povertà un miliardo di persone. Allo stesso tempo ha anche un'altra opzione: compiere un'azione che benefici una frazione infinitesimale degli esseri umani che potrebbero esistere qualora colonizzassimo il Superammasso della Vergine, il cluster galattico che contiene la Via Lattea. Torres si rifà ai calcoli compiuti da Nick Bostrom, secondo il quale il Superammasso potrebbe contenere 1023 esseri umani. Quale sarebbe la scelta etica per il nostro decisore lungotermista? Ovviamente la seconda.
Infatti, scrive Torres: Basta fare due conti: lo 0,000000001 per cento di 1023 persone è pari a dieci miliardi di persone. Ciò significa che, se si vuole fare del bene, bisogna concentrarsi su queste persone del futuro piuttosto che aiutare chi oggi è in estrema povertà".

I lungotermisti minimizzano e banalizzano i problemi del mondo attuale in quanto, a loro avviso, non rappresentano un "rischio esistenziale", ossia non minacciano la sopravvivenza della specie umana. Cosa sono la crisi climatica, le guerre, le pandemie in confronto alla colonizzazione dell'universo o ai pericoli connessi all'avvento di una superintelligenza artificiale?
Se anche il cambiamento climatico causasse la scomparsa di intere nazioni, scatenasse migrazioni di massa e uccidesse milioni di persone, potrebbe comunque non compromettere il nostro potenziale di lungo termine, relativo alle prossime migliaia di miliardi di anni. Nel grande disegno delle cose, il cambiamento climatico non è più di un piccolo incidente, dal quale si può potenzialmente recuperare.
Allo stesso modo degli eventi climatici estremi sono potenzialmente irrilevanti, in un'ottica lungotermista, pandemie, disastri nucleari, guerre sanguinose e così via, sempre che non rappresentino un "rischio esistenziale" per le lontane generazioni future. A una delle logiche conclusioni di stampo razzista giunge il filosofo Nick Beckstead, membro del Future of Humanity Institute che, nella sua tesi di dottorato del 2013, spiega che:
Salvare vite umane nelle nazioni povere potrebbe essere meno utile che salvare vite nelle nazioni ricche. Questo perché le nazioni più ricche hanno a disposizione innovazioni considerevolmente migliori e i loro lavoratori sono molto più produttivi. Di conseguenza, è plausibile che, a parità di condizioni, salvare una vita in una nazione ricca sia sostanzialmente più importante che salvarne una in un paese povero.
Il lungotermismo avalla i progetti di colonizzazione del cosmo, di digitalizzazione dell'umanità, di creazione di super-intelligenze artificiali. Il potenziale dell'umanità si realizzerebbe nell'iper tecnologia espansionistica, nella creazione di realtà parallele alternative, e nel miglioramento biologico delle nostre caratteristiche di specie attraverso l'ibridizzazione con mezzi tecnologici e la di selezione degli embrioni di tipo eugenetico nei processi di fecondazione in vitro. Nel suo libro del 2014, Superintelligenza, Nick Bostrom, filosofo svedese tra i padri del lungotermismo, afferma che schiere di esseri umani del futuro vivranno vite ricche e felici interagendo l'uno con l'altro in ambienti virtuali. L'aspetto che più avvicina i lungotermisti agli adepti di una setta millenarista è che, se non ci fosse alcuna forma di vita altamente intelligente in nessun altro luogo dell'universo conosciuto, le nostre azioni sarebbero d'importanza cosmica. Scrive MacAskill:
Da una grande rarità deriva una grande responsabilità. Per tredici miliardi di anni, l'universo noto è stato privo di coscienza. […] Adesso e nei secoli a venire affronteremo minacce che potrebbero ucciderci tutti. Se roviniamo tutto, lo roviniamo per sempre. L'autocomprensione dell'universo potrebbe essere irreversibilmente persa, quella breve e flebile fiamma di coscienza che ha luccicato per un po' potrebbe estinguersi per sempre.
Quindi il pianeta Terra e i suoi abitanti non umani non contano nulla. Conta solo ed esclusivamente l'essere umano, che, per dirla con Elon Musk, deve diventare una specie multiplanetaria per massimizzare la possibilità di sopravvivenza ed evitare che un evento cataclismatico causi la scomparsa di quella che (forse) è l'unica specie altamente intelligente dell'universo. A questo punto una domanda sorge spontanea: perché dovremmo preoccuparci di questa scuola filosofica dagli evidenti aspetti deliranti?
Il fatto è che il suo successo è stato immenso, tanto da conquistare in pochi anni, specialmente negli Stati Uniti, fondazioni filantropiche, aziende multinazionali e le stesse istituzioni pubbliche. Émile Torres afferma che il lungotermismo non solo è l'ideologia più pericolosa del momento ma anche l'ideologia più influente di cui probabilmente il pubblico generalista non ha mai sentito parlare.
Il giornalista Andrea Daniele Signorelli titola un suo articolo:
Il nuovo credo della Silicon Valley è una religione da incubo.
https://www.wired.it/article/lungotermismo-silicon-valley-libro/
Tra gli adepti alla teoria vi sono Elon Musk, l'uomo più ricco del mondo e proprietario di X, Sam Altman, fondatore di OpenAI, Jaan Tallinn, fondatore di Skype, Vitalik Buterin, ideatore della criptovaluta Ethereum e molti altri multimiliardari.

Irene Doda, nel suo articolo Lungotermismo: la filosofia peggiore di sempre (https://www.indiscreto.org/lungotermismo-la-filosofia-peggiore-di-sempre/) scrive:
L'aspetto più preoccupante della filosofia del lungotermismo non sono le utopie (o distopie) cosmiche proiettate nell'arco di trilioni di anni, ma l'utilità di questa filosofia nel rafforzare i sistemi e i rapporti di potere qui e ora. […] Il punto è che questa ideologia è estremamente utile alle visioni tecnocratiche dei miliardari del settore tecnologico: non c'è bisogno di pensare al presente, agli effetti delle proprie azioni sui milioni di persone che subiscono le conseguenze di un sistema iniquo. Paris Marx, un critico da sinistra dell'industria tecnologica, ha scritto su New Statesman: "Il lungotermismo è un sogno tecnocratico che ha come fine quello di dare ad alcune delle persone più ricche del mondo la capacità di pianificare il futuro lontano dell'umanità secondo i loro capricci personali. È hubris, che tratta miliardi di persone come pedine di super-ricchi che si comportano come dèi, che accumulano fortune impensabili e cercano costantemente nuovi modi per produrre consenso". È difficile non vedere la convenienza di questa visione: non c'è sforzo per un cambiamento condiviso, ci sono sogni astratti di futuro, ma c'è un potere che rimane ben saldo nelle mani di chi già lo detiene. In queste prospettive del futuro della civiltà, così come nei sogni di colonizzazione dello spazio, o di digitalizzazione della realtà di cui si riempiono la bocca personaggi come Elon Musk, Mark Zuckerberg o Jeff Bezos, non vi è nessuno spazio per l'analisi dei rapporti di potere nel presente, nella realtà dei fatti. I miliardari ci vogliono far credere che ci troviamo tutti sulla stessa barca e che l'avvenire dell'umanità dipenda da scelte più o meno ambiziose, da tecnologie più o meno lungimiranti. Ma non sono certo loro a subire in prima battuta i danni delle catastrofi che il sistema economico e geopolitico in cui viviamo ha contribuito a causare: non sono le prime vittime degli eventi climatici estremi, delle guerre o delle pandemie.
Andrea Daniele Signorelli, nell'articolo Cos'è il lungotermismo, la nuova fanatica utopia della Silicon Valley (https://www.iltascabile.com/scienze/lungotermismo/), ci ammonisce:
Fino a dove arriverebbero a spingersi dei fanatici (com'è il caso di chiamarli) secondo i quali la crisi climatica è solo "un incidente di percorso", che sono disposti ad abbandonare le persone che vivono nelle zone più difficili del pianeta e a instaurare una qualunque forma di dittatura se dovesse in qualche modo aumentare la nostra possibilità di evitare crimini o attentati? Si può escludere che i lungotermisti possano giustificare politicamente il sacrificio di un miliardo di persone con la speranza paranoide che tra un milione di anni quest'azione salverà miliardi di miliardi di persone che ancora non esistono? […] Si potrebbe considerare questa visione del mondo come l'estremo tentativo del capitalismo di giustificare la sua inesauribile necessità di sfruttamento delle risorse, senza curarsi dei danni provocati oggi. Il lungotermismo è infatti una "filosofia" in grado di minimizzare qualsiasi catastrofe e ingiustizia odierna, di giustificare qualunque sfruttamento, manipolazione e trasformazione della natura in nome di un presunto e lontanissimo avvenire utopico: un domani paradossalmente sempre rinviabile a un futuro ancora più lontano. Tutto è giustificabile – anche la peggiore dittatura, l'eugenetica, il sacrificio di intere popolazioni; perfino la distruzione del nostro stesso pianeta – se può portare a massimizzare le chance di realizzare il destino manifesto dell'essere umano e la sua gloria multiplanetaria. Il lungotermismo rappresenta in definitiva l'apice di un cupo tardocapitalismo dagli evidenti tratti fascisti e suprematisti.
Già oggi siamo di fronte alle conseguenze potenzialmente tragiche di questa ideologia. Non sono forse lungotermiste, anche se nessuno lo affermerebbe in modo esplicito, alcune scelte dell'amministrazione Trump, come quella di ritirarsi dall'OMS e dagli accordi di Parigi sul clima?

Oppure la decisione di cancellare miliardi di aiuti internazionali erogati dall'Agenzia americana per lo sviluppo internazionale ai Paesi più poveri e fragili?

Cosa possono contare qualche decina di milioni di morti oggi, di fronte al benessere di decine di miliardi di uomini in un eventuale lontanissimo futuro? Le ideologie utili all'élite high-tech non ci mettono al riparo dalle conseguenze di un sistema ingiusto; a loro rispondiamo: non ci interessano le promesse di una felicità lontana trilioni di anni, vogliamo un futuro sicuro per i nostri figli e i nostri nipoti.
Per chi volesse approfondire il tema consiglio il breve ma istruttivo saggio di Irene Doda, L'utopia dei miliardari. Analisi e critica del lungotermismo, edito da Tlon.

P.S.
Gli appassionati di fantascienza degli anni Cinquanta (non so se esistono ancora!) non avranno
avuto difficoltà ad avvertire echi tra l'ideologia lungotermista e alcuni romanzi e racconti di quel
periodo.
Nella Trilogia della Fondazione di Isaac Asimov (1951-53) si trova la stessa pretesa di
prevedere il corso della storia umana per millenni, grazie alla scienza della psicostoriografia.
Il protagonista, Hari Seldon, inventore di questa scienza, utilizzando complesse funzioni
matematiche da lui inventate e raccolte in una psicostoriografia giunge alla conclusione che
l'Impero Galattico sarebbe crollato entro 500 anni, e che prima della ricostituzione di un nuovo
ordinamento che assicuri pace e tranquillità, sarebbero passati 30.000 anni di anarchia e
barbarie. Nel tentativo di ridurre questo periodo di caos ad appena mille anni, Seldon, che nel
frattempo ha acquistato potere e popolarità nella capitale dell'Impero, invia su Terminus, un
pianeta all'estrema periferia della galassia, una comunità di scienziati psicostoriografi: la
Fondazione.
Questa ha ufficialmente l'incarico di creare un'enciclopedia galattica, opera
monumentale necessaria a mantenere intatto il sapere tecnologico e scientifico nei futuri
secoli bui. In realtà il suo scopo è quello di far superare una serie di Crisi Seldon, ossia i
momenti peggiori di crisi, previsti anni o addirittura secoli prima da Seldon proprio grazie alla
psicostoriografia.
I "rischi esistenziali" di Nick Bostrom sembrano avere non pochi punti in comune con le Crisi Seldon ipotizzate da Isaac Asimov.
Gli idioti in marcia (The Marching Morons) è un racconto scritto da Cyril M. Kornbluth nel 1951; vi si trova la stessa presunzione e lo stesso delirio eugenetico di una piccola casta di "persone superintelligenti" nei confronti della restante umanità. In un lontano futuro la stragrande maggioranza della popolazione terrestre è composta da idioti, discendenti degli strati meno colti della società che si sono moltiplicati in modo incontrollato. Il pianeta sopravvive solo per l'occulto lavoro di un ristretto gruppo di persone estremamente intelligenti che lo governano senza mai manifestarsi apertamente. Grazie al casuale ritrovamento di un uomo in stato di animazione sospesa proveniente dal XX secolo gli "intelligenti" riusciranno a sbarazzarsi di miliardi di "idioti".

(DrRestless Roberto Gerbi)