Riprodotto dal volume: “Energia Nucleare – Il bisogno e il non detto. Documenti, sguardi e riflessioni” a cura del Centro Studi Sereno Regis, Torino (in pubblicazione).

INTRODUZIONE

89 secondi alla mezzanotte

Ogni anno il Bulletin of the Atomic Scientists, organizzazione fondata nel 1945 da Einstein e Oppenheimer, pubblica un rapporto per il pubblico, per i decisori politici, e per le persone di scienza, dove informa sulle principali minacce che gli umani si trovano ad affrontare. Simbolicamente usano un orologio, il Doomsday Clock (“orologio del giorno del giudizio o dell’apocalisse”), che indica quanto tempo manca all’apocalisse, rappresentata dalla mezzanotte. Il Doomsday Clock oggi rappresenta uno degli indicatori più importanti della vulnerabilità di homo sapiens alle catastrofi globali causate dalle tecnologie sviluppate dagli umani stessi. L’ultimo rapporto del 2025, intitolato “It is now 89 seconds to midnight”, segna un preoccupante primato: dalla sua origine, ottanta anni fa, non era mai stato così vicino alla mezzanotte. Il messaggio di quest’anno, formulato da un comitato costituito da persone esperte del mondo della scienza e della cultura che include nove Premi Nobel, segnala le quattro minacce principali per l’umanità e le altre forme di vita sul pianeta: le armi nucleari, il cambiamento climatico, le pandemie e le cosiddette tecnologie emergenti, compresa l’intelligenza artificiale (BAS, 2025).

Sulle armi atomiche, i conflitti attualmente in corso “potrebbero diventare nucleari in qualsiasi momento a causa di una decisione avventata, di un incidente o di un errore di calcolo”. I paesi che possiedono armi nucleari sono in aumento, in tutto il mondo si stanno investendo miliardi di dollari in armi e i trattati per il controllo degli armamenti nucleari vengono cancellati.

L’impatto del cambiamento climatico è evidente. Dall’aumento delle emissioni globali di gas serra e dall’aumento delle temperature e degli eventi meteorologici estremi in tutti i continenti: ondate di calore, siccità, incendi colossali, cicloni tropicali, alluvioni, fusione dei ghiacciai, aumento del livello del mare. Le pandemie e le malattie emergenti (e riemergenti) continuano a minacciare la società e la sicurezza su scala globale. La cosiddetta intelligenza artificiale (più correttamente bisognerebbe parlare di “macchine calibrate con tanti dati”) e la sua diffusione rapidissima e incontrollata stanno rendendo il mondo più instabile e pericoloso: dai sistemi di armi automatiche all’integrazione del software di intelligenza artificiale nelle infrastrutture critiche che controllano le armi atomiche, dai contesti dove verrà consentito alle macchine di prendere decisioni autonome alla competizione spaziale come nuovo scenario di confronto tecnologico.

Il filo rosso che collega queste quattro minacce si potrebbe identificare con complessità e interdipendenza.

Ad esempio la diffusione dell’intelligenza artificiale sta facendo crescere la fame di energia (elettrica) dei data center delle Big Tech (che investono nella riapertura del nucleare civile, strettamente connesso con il nucleare militare). Le stime dicono che i consumi elettrici dei loro data center bruciano buona parte dell’energia elettrica consumata dal digitale: 333 Miliardi di KWh nel 2022. Le proiezioni sono: 536 nel 2025, 681 nel 2026 e 1065 Miliardi di KWh nel 2030 (Ramachandran, 2024); come confronto, nel 2022 l’Italia ha consumato 316 Miliardi di KWh (fonte Terna). In termini numerici, secondo alcune proiezioni, nel 2024 vi erano 5709 data center nel mondo, nel 2030 diventeranno 8378 (Wong, 2024). Un recente rapporto di Goldman Sachs prevede che i data center aumenteranno i consumi elettrici dagli attuali 3% a circa 8% dell’elettricità degli Stati Uniti nel 2030 (GS, 2024).

Questa rincorsa tra domanda e offerta di energia illimitata contribuisce all’aumento dei gas serra, che scatenano la crisi climatica con aumento delle temperature globali. Il riscaldamento globale causa lo scioglimento dei ghiacciai e del permafrost dove virus sconosciuti erano intrappolati da millenni: nel ghiacciaio Guliya in Tibet sono stati scoperti 28 virus sconosciuti intrappolati da 15.000 anni (Anderson, 2020). I virus attualmente ospiti di animali potrebbero essere “spinti”, da eccessi di temperatura, umidità, condizioni del suolo, ad “attaccare” altre specie (cercare ospitalità), tra cui gli esseri umani contribuendo così al rischio di pandemie. I virus e il riscaldamento globale sono strettamente interconnessi, solo una diversa percezione del rischio ci fa vedere gli impatti del cambiamento climatico ancora molto lontani, nello spazio e nel tempo (Magliani, 2020; Pignataro, 2020; Zhong, 2020).

Affrontare la complessità significa imparare a vedere connessioni invisibili: “generare” immagini con l’intelligenza artificiale consuma l’energia pari a metà ricarica di uno smartphone (Luccioni e Strubell, 2024), che aumenta la richiesta di energia elettrica (anche da centrali nucleari), che contribuisce al cambiamento climatico, che contribuisce alle pandemie.

La scienza post-normale

La sfida della complessità e interdipendenza richiede un nuovo approccio al sapere scientifico. Infatti quando gli interessi in gioco e i livelli di incertezza sono bassi la “normale” scienza applicata è sufficiente. Ma come procedere quando interessi, rischi e incertezze sono altissimi?

Emerge la necessità di affiancare all’approccio tradizionale della scienza “normale”, un approccio da “scienza post-normale” dove i fenomeni in studio sono talmente complessi che non si possono semplificare con un classico metodo riduzionista e sono difficilmente ripetibili (Futowicz e Ravetz, 1997). In queste situazioni, dove non a caso gli interessi in gioco sono alti, come pure i livelli di rischio e incertezza, spesso le conseguenze delle scelte sono irreversibili (o perlomeno con effetti indeterminati) e hanno conseguenze a lunghissimo termine.

Il dibattito sul clima e sull’energia (nucleare), ad esempio, connette almeno due delle minacce principali studiate dal Bulletin of the Atomic Scientists. Sono classici scenari dove gli interessi in gioco e i rischi sono alti come pure l’irreversibilità delle scelte: ammesso di azzerare oggi le emissioni, la temperatura globale non tornerebbe normale prima centinaia o migliaia di anni (Buis, 2019); vedi anche l’impossibilità di risolvere il problema del confinamento delle scorie radioattive: prima di produrne altre bisognerebbe riflettere seriamente. Su questi temi sono da ricordare i fondamentali contributi di Nanni Salio (1943-2016) – ricercatore, educatore e attivista per la pace e tra le voci più autorevoli della cultura nonviolenta in Italia – proprio sull’importanza dello studio dell’irreversibilità delle scelte, spesso legate a “conflitti sull’uso delle risorse naturali” (Salio, 2008).

Come applicare il metodo della scienza post-normale?

Il primo passo consiste nell’allargamento dei soggetti coinvolti (stakeholders). Questo comporta la raccolta di informazioni approfondite e la revisione dei documenti più rilevanti. Questo processo dovrebbe coinvolgere non solo gli “esperti”, ma anche i cittadini interessati dalle scelte in esame. Questo dovrebbe facilitare scelte “sagge”, che tengano conto di più prospettive allargando il consenso.

Il secondo passo consiste nell’adozione del principio di precauzione. Questo principio entra in gioco quando vi è un ragionevole dubbio che le scelte in esame comportino un rischio notevole e, dato che l’incertezza è elevata (siamo in una situazione post-normale), si ha il dovere morale di prevenire il più possibile i danni. Viene quindi capovolto l’approccio classico del risk-assessment (“quanto danno è permesso?”) per introdurre l’approccio, appunto del principio di precauzione (“qual è il danno minimo possibile?”). Il principio di precauzione non ci dice cosa fare, ci propone una serie di azioni per monitorare attentamente il processo decisionale, per definire gli obiettivi e i passi per raggiungerli con il minimo danno possibile; in caso di incertezza, sono i proponenti a dover dimostrare l’assenza di danni irreversibili (“shift the burden of the proof”). Ovviamente alla fine del processo una decisione legittima potrebbe anche essere quella di rinunciare alla scelta in esame (L’Astorina e Mangia, 2022).

Quando le questioni sono molto controverse, il confronto tra opinioni diverse dovrebbe essere un arricchimento, cercando di evitare la polarizzazione e accettando posizioni, interessi e valori diversi. Il processo delineato (allargamento della rete di stakeholders e principio di precauzione) ovviamente può essere anche molto complesso e richiede tempo. I lavori del filosofo Jurgen Habermas sulla teoria dell’azione comunicativa hanno ispirato molti progetti in questi ambiti, dove è importante rispettare le posizioni della maggioranza tenendo conto anche delle voci delle minoranze (Habermas, 2023). L’ascolto e l’inclusività sono pratiche alla base di queste metodologie.

Inquinamento dell’ecosistema dell’informazione

L’intreccio e la complessità delle minacce evidenziate dal rapporto del Bulletin of the Atomic Scientists (nucleare, cambiamento climatico, pandemie, intelligenza artificiale) è ulteriormente aggravato dal livello di inquinamento dell’ecosistema dell’informazione. Una delle conseguenze sociali degli sviluppi dell’intelligenza artificiale è la crescente difficoltà di discernere il vero dal falso. Infatti con l’IA diventa facile diffondere:

mala-informazione (informazione vera, effettiva, diffusa tipicamente fuori contesto);

mis-informazione (informazione falsa e fuorviante, creata e diffusa senza l’esplicita intenzione di ingannare, purtroppo percepita e ritrasmessa come se fosse vera);

dis-informazione (informazione falsa, diffusa con l’esplicita intenzione di ingannare le persone, polarizzare l’opinione in gruppi incomunicanti, senza vie intermedie, fino alle estreme conseguenze).

Questo rende ancora più difficile affrontare i problemi descritti con un dibattito aperto su basi scientifiche minimamente condivise; tutto questo, unito alla centralizzazione delle tecnologie informatiche, sta minando le basi stesse della democrazia. Emergono leader politici che deridono il metodo scientifico compromettendo il dibattito basato su fatti condivisi, limitano la libertà di parola, fino a restringere i diritti umani.

Le conseguenze sociali e politiche di questa centralizzazione in pochissime mani delle piattaforme informatiche (nel 2025 oltre un miliardo di persone si connettono a ChatGPT di Microsoft-OpenAI, oltre tre miliardi a WhatsApp di Meta-Facebook, oltre 320 milioni ad Amazon, oltre 5 miliardi a Google (Duarte, 2025; Statista, 2025)) sono preoccupanti: “Stati che non controllino, anche fisicamente, queste infrastrutture sono, per dirla in maniera delicata, a sovranità limitata … quale prezzo pagheranno i Paesi europei per aver ceduto agli Usa buona parte del sistema nervoso delle loro società, delle loro economie e dei loro apparati statali” (De Martin, 2025).

Tutto questo proprio nel momento in cui ci sarebbe bisogno di uno sguardo scientifico ancora più ampio, di una scienza basata non sul dominio di homo sapiens nei confronti del pianeta ma di una saggezza che ci aiuti a convivere in armonia con il pianeta.

Che fare? Nuove visioni

La risposta alle minacce descritte richiede una nuova visione della politica, della vita delle comunità e degli stili di vita individuali. Una delle proposte più visionarie emersa negli anni ’80 la dobbiamo ad Alexander Langer (1946-1995): “Sinora si è agito all’insegna del motto olimpico citius, altius, fortius (più veloce, più alto, più forte), che meglio di ogni altra sintesi rappresenta la quintessenza dello spirito della nostra civiltà, dove l’agonismo e la competizione non sono la nobilitazione sportiva di occasioni di festa, bensì l’ossessiva norma quotidiana. Se non si radica una concezione alternativa, che potremmo forse sintetizzare, al contrario, in lentius, profundius, suavius (più lento, più profondo, più dolce), e se non si cerca in quella prospettiva il nuovo benessere, nessun singolo provvedimento, per quanto razionale, sarà al riparo dall’essere ostinatamente osteggiato, eluso o semplicemente disatteso” (Langer, 1996).

Ad esempio, non ha senso fondare il dibattito sull’energia sulla continua rincorsa dell’offerta verso la domanda in crescita esponenziale. I consumi di energia crescenti vengono assunti come dogma, dimenticando che una crescita infinita non è possibile su un pianeta finito, come indicava il Club di Roma già nel 1972 (Meadows e al., 1972).

Il cambiamento deve avvenire a tutti i livelli: della politica, delle comunità e delle singole persone. Una ricerca di una visione a lungo termine basata su un’etica del futuro, progettando con un nuovo sguardo le varie dimensioni della vita.

Ad esempio in diverse culture e luoghi e in diversi ambiti si stanno sviluppando visioni decentrate, connesse e nello stesso tempo il più possibile autosufficienti: sul cibo (filiera corta), sui rifiuti (verso “rifiuti zero”), sulla mobilità urbana (disincentivare l’uso dell’auto privata, incentivare gli spostamenti a piedi, in bici, con mezzi pubblici, con mezzi elettrici). Sull’energia: creazione di “comunità energetiche” dove si produce, scambia e accumula energia rinnovabile localmente, adeguamento delle reti elettriche alle nuove architetture decentrate; riduzione dei consumi di energia (luci, riscaldamento), produzione di energia rinnovabile in ogni casa, quartiere, edificio, scuola; abbandono dell’energia da fonti fossili (petrolio, gas, carbone). Sul digitale: le tecnologie informatiche hanno un impatto ambientale in crescita esponenziale. Per essere memorizzati, elaborati e trasmessi i bit richiedono quantità crescenti di materia ed energia. A causa dell’IA, secondo Goldman Sachs, rispetto al 2023 i consumi elettrici dei data center delle Big Tech aumenteranno del 50% nel 2027 e del 165% nel 2030 (GS, 2025). Come affrontare la sfida della complessità (e interdipendenza) sul digitale?

Tecnologie (digitali) conviviali (democrazia e autonomia da riconquistare)

Questo termine, tecnologie conviviali, viene introdotto nel 1973 dal filosofo e pedagogista Ivan Illich come: “strumenti che garantiscano alle persone il diritto a lavorare in autonomia” (Illich, 1973; Milani, 2022). Passando alle tecnologie digitali, siamo però di fronte ad uno scoglio enorme: la filiera di produzione delle tecnologie informatiche è la più complessa di tutta la storia industriale. Il digitale ha visto molte stagioni: dopo la prima dei grandi computer (iniziata nel 1959 con l’Olivetti Elea 9003), arriva la seconda stagione del digitale che nasce di nuovo a Ivrea nel 1965 con l’Olivetti P101, il primo Personal Computer della storia. Questo è già un piccolo passo verso la definizione di Illich: il PC restituisce alle persone gli strumenti di lavoro. Era però sfuggito un dettaglio molto importante: il contesto di una società capitalistica ha portato le grandi corporation a riappropriarsi di questi strumenti. Infatti nella terza stagione del digitale, quella attuale, il controllo è ri-centralizzato nelle mani di pochissime Big Tech: concentrando la ricchezza in pochissime mani, il digitale è diventato uno strumento di dominio, fino a diventare lo strumento principale della guerra del XXI secolo.

Le tecnologie informatiche più diffuse sono chiuse, non sono comunitarie, anzi nelle mani di pochissime persone che si arricchiscono ormai in modo osceno. Sono centralizzate e non interoperabili, chiuse in “silos” inespugnabili. Sono tecnologie del “dominio”.

Cambiare è possibile

Le tecnologie (digitali) conviviali devono avere almeno quattro caratteristiche:

– devono essere aperte e libere, quindi riscoprire che tra i tanti beni comuni c’è anche la conoscenza; si deve poter vedere come sono fatte;

– devono essere comunitarie, deve esserci una comunità che le sviluppa e le aggiorna, che condivide la conoscenza e che aiuta supportando le persone, anche in luoghi fisici dove potersi incontrare;

– devono essere decentrate, non deve esserci un centro di potere, un centro dal quale dipendono tutti; una architettura decentrata (e federata) è anche più resiliente dal punto di vista tecnico;

– devono infine essere interoperabili, le persone devono poter spostare i loro dati liberamente, da un ambiente a un altro e continuare a lavorare.

Alcuni esempi per quanto riguarda il software: Linux per i sistemi operativi, LibreOffice per gli strumenti di produttività personale, Tutanota o ProtonMail per la posta elettronica, Firefox o Brave per la navigazione sul Web, Signal per la messaggistica, Mastodon per i social network, PixelFed per condividere foto, FramaTalk per videoconferenze, PeerTube per pubblicare video, FramaPad per scrivere documenti in modalità collaborativa, FramAgenda per calendari condivisi, FramaDate per scegliere date e orari di riunioni, FramaForms per questionari online, NextCloud per condividere file e cartelle, OpenStreetMap per le mappe online, Wikipedia per contribuire alla conoscenza condivisa, etc.

L’uso di queste tecnologie (digitali) conviviali, oltre a contribuire alle comunità del software libero che le sviluppano e le assistono, evita di consegnare i dati degli utenti alle Big Tech che, offrendo servizi gratuiti, usano i dati per calibrare le loro “intelligenze artificiali”.

Verso la diffusione delle tecnologie (digitali) conviviali

Le azioni necessarie per la diffusione delle tecnologie (digitali) conviviali si possono esemplificare a tre livelli: a livello politico, a livello di comunità e a livello personale.

A livello politico, l’Europa è stato il primo continente a muoversi per contrastare questa concentrazione di potere e di ricchezza. Per esempio sull’intelligenza artificiale, l’AI Act è stato ritardato e boicottato in tutti i modi dalle Big Tech. Dopo l’iperliberismo degli anni ’90 forse è arrivato il momento di riconoscere che lasciare la società in mano a mercato e tecnologia è stato un errore politico. Si riscopre l’importanza delle altre due dimensioni dimenticate: l’educazione e le norme condivise. In Italia, sempre sull’intelligenza artificiale, un documento molto importante con linee guida chiare è l’AI Assisi Act (SCA, 2025). Interessante anche il progetto Eurostack, che per la prima volta prova a delineare piattaforme digitali europee indipendenti dalle Big Tech statunitensi (Bria e al., 2025).

A livello di comunità, localmente, oltre alle tecnologie sono necessari dei luoghi fisici dove incontrarsi, scambiarsi esperienze, dove le persone esperte aiutano le altre, vista la complessità di questi strumenti. Dove si sono affermate queste tecnologie (digitali) conviviali? Alcuni esempi: la provincia autonoma di Trento; la legge italiana impone la preferenza al software libero (Codice Amministrazione Digitale). In Spagna, la regione autonoma dell’Estremadura dal 2012 ha adottato software libero nella pubblica amministrazione, negli ospedali e nelle scuole. In Danimarca addirittura il ministero per la digitalizzazione ha dichiarato recentemente la migrazione a software libero in tutti i ministeri e negli enti locali (Ilsole, 2025). Interessante la motivazione: non si parla solo di costi ma di riprendere il controllo degli strumenti (Illich!).

A livello personale, ciascuno ha un determinato budget annuale stimato dall’IPCC (Intergovernmental Panel on Climate Change) per riuscire a stare sotto i 1,5 gradi di riscaldamento globale. Un carbon budget e un budget di materia e energia. Ogni persona, con tutti gli strumenti e dispositivi digitali, PC, smartphone, tablet, TV, etc. per fare web, mail, streaming, videoconferenze, etc., consuma il 41% del carbon budget e il 55% del matter and energy budget: il digitale da solo di mangia la metà del budget procapite (Istrate, 2024). Diventa necessario pensare ad una sobrietà digitale: dove non è essenziale il digitale proviamo a farne a meno. Rivalutare le capacità di scelta, passare dal “vorrei ma non posso” al “potrei ma non voglio“. Anche i piccoli cambiamenti non sono irrilevanti, non saranno sufficienti per cambiare la società ma sono necessari! Bisogna tornare a pensare con audacia futuri possibili, costruire e comunicare una narrazione diversa, una diversa visione del mondo, una diversa Weltanschauung.

Riferimenti

– Anderson, N. (2020, 31 Jan). 15,000-Year-Old Viruses and Bacteria Found in Glacier Ice from Tibet. SciNews.

– BAS (2025). Closer than ever: It is now 89 seconds to midnight. Bulletin of the Atomic Scientist.

– Bria, F., Timmers, P., Gernone, F. (2025). EuroStack – A European Alternative for Digital Sovereignty. Bertelsmann Stiftung. Gütersloh.

– Buis, A. (2019). The Atmosphere: Getting a Handle on Carbon Dioxide, NASA.

– De Martin, J.C. (2025, 8 Gennaio). La resa europea, ilmanifesto.

– Duarte, F. (2025, 24 Giugno). Number of ChatGPT Users (June 2025). Exploding-Topics.

– Futowicz, S., Ravetz J.R. (1997). Environmental problems, post-normal science, and extended peer communities, Etud. Rech. Syst. Agraires Dév. 30: 169-175.

– GS (2024, 28 Aprile). AI, data centers and the coming US power demand surge, Goldman Sachs.

– GS (2025, 4 Febbraio). AI to drive 165% increase in data center power demand by 2030, Goldman Sachs.

– Habermas, J. (2023). Etica del discorso, Ed.Laterza.

– Illich, I. (1973). Tools for Conviviality, Harper & Row.

– Ilsole (2025, 20 Giugno). Denmark towards a farewell to Microsoft Office, IlSole24ore.

– Istrate, R. et al. (2024). The environmental sustainability of digital content consumption, Nature Communications, 15:3724.

– Langer, A. (1996). La conversione ecologica potrà affermarsi solo se apparirà socialmente desiderabile, Colloqui di Dobbiaco. In E. Rabini & A. Sofri (eds.), Il viaggiatore leggero. Scritti 1961-1995. Sellerio.

– Luccioni, A.S., Strubell, E. (2024, 15 Ottobre). Power Hungry Processing: Watts Driving the Cost of AI Deployment? ACM FAccT 24.

– L’Astorina, A., Mangia, C. (2022). Scienza, politica e società: l’approccio post-normale in teoria e nelle pratiche, CNR Edizioni.

– Magliani, V. (2020, 27 Feb). Il permafrost si scioglie e la terra diventa un pericoloso colabrodo. FocusTech.

– Meadows, D. H., Meadows, D. L., Randers, J., & Behrens, W. W., III. (1972).

The Limits to Growth, Universe Books.

– Milani, C. (2022). Tecnologie conviviali, Eleuthera.

– Pignataro, S. (2020, 12 Mar). Emergenza climatica e virus, problemi interconnessi.Vita.

– Ramachandran, K. (2024, 19 Novembre). As generative AI asks for more power, data centers seek more reliable, cleaner energy solutions, Deloitte Center for Technology Media & Telecommunications.

– Salio, N. (2008, 25 Settembre). Complessità, globalità e ignoranza: fondamenti epistemologici della conoscenza ecologica, Centro Studi Sereno Regis.

– SCA, Sacro Convento di Assisi (2025). AI Assisi Act, Sala Stampa, www.sanfrancesco.org.

– Statista (2025). https://www.statista.com/statistics/260819/number-of-monthly-active-whatsapp-users/

– Wong, Y. (2024, 1 Ottobre). How Many Data Centers Are There and Where Are They Being Built? ABI Research. – Zhong, A.P. (2020, 27 Jan). Glacier ice archives fifteen-thousand-year-old viruses. BioRXiv.