La scienza di von Neumann,
o di come capiremo il mondo

Ananyo Bhattacharya
L’uomo venuto dal futuro
La vita visionaria
di John von Neumann
Traduzione di Luigi Civalleri

Adelphi, Milano, 2024
pp. 447, € 30,00

Benjamin Labatut
Quando abbiamo smesso
di capire il mondo
Traduzione di Lisa Topi

Adelphi, Milano, 2024
pp. 180, € 12,00

Ananyo Bhattacharya
L’uomo venuto dal futuro
La vita visionaria
di John von Neumann
Traduzione di Luigi Civalleri

Adelphi, Milano, 2024
pp. 447, € 30,00

Benjamin Labatut
Quando abbiamo smesso
di capire il mondo
Traduzione di Lisa Topi

Adelphi, Milano, 2024
pp. 180, € 12,00


Quando Roberto Calasso, dominus della casa editrice Adelphi, morì, il matematico e polemista Piergiorgio Odifreddi pubblicò una violentissima invettiva alla sua memoria su La Stampa dal titolo Cacciari, Calasso e gli antiscienza. A Calasso Odifreddi rinfacciava innanzitutto la scelta di pubblicare l’opera omnia di Friedrich Nietzsche, il filosofo del “Non ci sono fatti, solo interpretazioni” che il matematico considera un sottile veleno che ha intossicato le menti di generazioni, spingendole verso atteggiamenti antiscientifici. Da lì, poi, proseguiva stigmatizzando le scelte editoriali di Calasso, “che ‘infiniti addusse danni’ alla cultura italiana”, per la sua scelta di “opere scientifiche borderline”, come Il Tao della fisica di Fritjof Capra, Il principio antropico di John Barrow e Frank Tipler, La matematica e degli dèi di Paolo Zellini, Psiche e natura di Wolgang Pauli, accostati a “ciarlatani come René Guénon o Elémire Zolla” (Odifreddi, 2021). Con ciò ignorando o, meglio, fingendo di ignorare altre opere di scienza uscite per Adelphi, tra cui i testi di premi Nobel come Richard Feynman, Leonard Susskind, James Watson, Konrad Lorenz, insieme a giganti come Oliver Sacks, David Quammen, Luigi Cavalli-Sforza, John Bell, Carlo Rovelli, Martin Rees, Edward O. Wilson, Sean Carroll, Douglas Hofstadter, Rudy Rucker. Certo però l’invettiva colpiva nel segno, perché l’impronta dell’editore (come si intitola un libro dello stesso Calasso) non è mai stata più forte nel mondo editoriale italiano che in Adelphi, in cui ogni titolo non è mai una scelta casuale. Anche oggi che Calasso non è più tra noi, se ne può scorgere l’impronta nella recente pubblicazione di due titoli su un personaggio che meritava una riscoperta proprio negli anni in cui viviamo: John von Neumann. Di lui si è occupato Benjamin Labatut in Maniac (testo che abbiamo già analizzato in precedenza su Quaderni d’Altri Tempi) e, più prosaicamente e con un taglio più strettamente biografico, il giornalista e scrittore di scienza Ananyo Bhattacharya in L’uomo venuto dal futuro.

“Un orrore che nessun romanzo di fantascienza era riuscito a evocare”
Di John von Neumann si era già occupato lo stesso Calasso, a partire da un paragrafo del suo capolavoro La rovina di Kasch (1983), che vale la pena citare per intero:

“Quando von Neumann, nel 1956, prese l’occasione delle Silliman Lectures per compendiare rapidamente che cosa era appena successo, che cosa stava succedendo fra le macchine che ormai calcolavano da sole, quando cominciò presentando la distinzione fra calcolatori digitali e calcolatori analogici, un nuovo nome veniva dato ai due poli che occultamente ci reggono. Il polo digitale sembrerebbe biologicamente secondario e dipendente, come lo scambio sembrerebbe secondario rispetto all’oggetto da scambiare. Ma poi il polo digitale takes command, rivelando una capacità di avviluppare l’altro polo, di assorbirlo – e naturalmente utilizzarlo. Il polo digitale dà un grande potenza, ma non contiene, all’interno della macchina, quella fisicità dei valori mobili che è un ultimo palpabile ricordo del mondo esterno. Digitalità è pura sequenza di segni: quando il suo dominio si è esteso a tutto, non sappiamo più quale terra ci sostiene – se una terra c’è ancora. Continuiamo a vivere il polo analogico, ma non sappiamo più come nominarlo: è emozione muta, che opprime e non sbocca più nel suo antico estuario. La digitalità gli ha predisposto un nuovo letto, indistruttibile silicio”
(Calasso, 1983).

È, naturalmente, una profezia dei tempi moderni, di quell’innominabile attuale che Calasso descriverà poi in un libro di molto successivo (2017), alla vigilia della rivoluzione delle macchine intelligenti. In quel libro Calasso, con straordinaria chiaroveggenza, si appuntò un passaggio di un TED Talk di Stuart Russell, “autore del più diffuso trattato di intelligenza artificiale”, del 25 aprile 2017, in cui fu annunciata la svolta che avrebbe portato di lì a poco alle IA generative. Non essendo stato possibile ottenere un’IA in grado di ragionare come gli esseri umani e allinearsi ai nostri valori attraverso gli approcci fin lì seguiti dagli informatici, la macchina, disse Russell, avrebbe dovuto imparare a leggere: “Che cosa? Tutto. Leggerà «tutto ciò che la razza umana ha scritto»”. E chiosava Calasso:

“Sono poche parole, ma bastano per prospettare un orrore che nessun romanzo di fantascienza era riuscito a evocare: un ammasso sterminato di segni in ogni tipo di alfabeto che vengono letti da un robot e da cui sgorga, come uno sciroppo emolliente, il succo dei valori
(Calasso, 2017) .

“Una riedizione del Trono di Spade
John von Neumann, l’uomo venuto del futuro, fu colui che, anche più di Alan Turing, aveva immaginato per primo tutto questo. A differenza di molti suoi colleghi del tempo, von Neumann non era un riduzionista, non credeva cioè che tutto potesse essere ridotto a princìpi primi; era un emergentista: a partire da mattoni primordiali e leggi molto semplici, riteneva che si potesse ottenere la complessità e tutti quei processi irriducibili come la coscienza e la vita stessa. Era, naturalmente, un materialista, benché Bhattacharya ci ricordi che, all’avvicinarsi della sua morte drammaticamente prematura, ritornò al cattolicesimo di famiglia, sostenendo che fosse la migliore religione in cui morire. La sua era una “scommessa di Pascal”, estremamente pragmatica e tutt’altro che ideologica: se esiste solo una infinitesima possibilità che ci sia un Dio, meglio affidarsi alla sua misericordia che finire per vivere l’eternità nella dannazione. Una versione teologica del dilemma del prigioniero che egli stesso aveva elaborato come pioniere della teoria dei giochi.

La teoria dei giochi, una delle più celebri invenzioni concettuali di von Neumann, esemplifica perfettamente il suo approccio pragmatico, anti-ideologico, apparentemente riduzionista ma fondamentalmente emergentista. Von Neumann credeva che gli esseri umani fossero agenti razionali e che pertanto la complessità delle loro scelte potesse essere ricondotta a leggi molto semplici; se ciò fosse stato possibile, allora si sarebbe trovato un modo per anticipare le scelte degli avversari nel più letale dei giochi della Guerra fredda, quello della corsa agli armamenti, i war games giocati infinite volte nelle stanze della RAND Corporation, il think-tank a cui von Neumann era approdato nel dopoguerra. Combattere o meno una guerra nucleare non doveva rappresentare, per von Neumann, una scelta dettata da furori ideologici; certo, proprio lui che veniva dall’Ungheria e aveva vissuto sulla propria pelle, da ragazzino, le storture della dittatura comunista, era (come il suo conterraneo Edward Teller, padre della bomba H) ferocemente ostile all’Unione sovietica e convinto della necessità di impedire che l’Europa prima e il mondo poi finissero sotto il giogo del PCUS, a qualsiasi costo, foss’anche quello di centinaia di milioni di vittime. E tuttavia, una scelta del genere – combattere o meno una guerra nucleare – era decisamente troppo importante perché fossero decisioni di tipo ideologico a dettarla, esattamente come nella scommessa di Pascal: occorreva trovare un modo per razionalizzare e operativizzare l’incertezza.

La teoria dei giochi nacque con queste premesse. Non occorreva davvero ipotizzare che ciascun individuo fosse perfettamente razionale e che le sue scelte fossero di natura binaria; bastava ammettere che l’essere umano medio sia riducibile a queste assunzioni di base. Dopodiché, i comportamenti complessi sarebbero emersi dall’interazione tra due o più attori, “proprio come i moti delle singole molecole determinano le proprietà macroscopiche di un gas”. C’era un limite, tuttavia, nell’elegante formulazione matematica del comportamento umano della teoria dei giochi. Quando von Neumann provò ad applicarla anche “a situazioni in cui esiste la possibilità di un mutuo beneficio”, fallì. I suoi esempi di giochi a tre finivano invariabilmente in una “riedizione del Trono di spade, con i suoi sanguinosi cicli di alleanze e tradimenti che continuano senza sosta”. Il massimo mutuo beneficio che la sua matematica era in grado di immaginare era quello di due giocatori a scapito di un terzo. Al più si poteva ipotizzare di giocare col “morto”, un giocatore fittizio che “perde la somma che gli altri giocatori vincono e viceversa vince la somma che gli altri giocatori perdono”. Questa incapacità di immaginare soluzioni per giochi a somma non zero fu il motivo – spiega Bhattacharya – della freddezza con cui a lungo fu trattata la teoria dei giochi nel mondo dell’economia, finché in seguito importanti risultati, premiati con il Nobel, non riuscirono lì dove von Neumann aveva fallito.

“Il Grifone sulla soglia della scienza dei calcolatori”
Non si poteva pretendere molto di più da un uomo che aveva trascorso anni a progettare bombe atomiche sempre più potenti e che poi aveva messo la sua intelligenza al servizio delle simulazioni di guerra nucleare. Ma la vera passione di von Neumann era per i calcolatori. Se il suo nome oggi è ricordato come uno dei padri dell’informatica e non come uno dei padri della bomba atomica o della meccanica quantistica, è perché egli comprese prima di altri l’enorme importanza dei computer per il futuro dell’umanità. Nei computer, von Neumann vide soprattutto la possibilità di dimostrare che la complessità può emergere da leggi semplici, e meglio ancora che la vita e la coscienza possono evolvere a partire da stati fondamentali. Convinto assertore del paradigma digitale, che riduce le decisioni di base a una scelta tra 0 e 1, von Neumann non era però un grande sostenitore della logica simbolica, probabilmente perché conosceva bene Gödel e aveva compreso chiaramente i limiti dell’approccio logicista che i matematici dei primi del secolo avevano tentato di perseguire. Perciò, si convinse che per rispondere alla domanda di Turing se le macchine possono pensare occorresse un altro tipo di approccio, in grado di replicare l’evoluzione della vita. Questo approccio, che descrisse nel testo pubblicato postumo col titolo Theory of Self-Reproducing Automata (1966), è oggi ben noto nella variante del Gioco della Vita di John Conway: si parte da una singola cella su una griglia bidimensionale infinita e, date una serie limitata di regole, si arriva a un livello di complessità estrema che genera le “infinite forme, bellissime e meravigliose” di darwiniana memoria.

Uno dei suoi discepoli, John McCarthy, si convinse della possibilità di “produrre macchine intelligenti sfruttando l’evoluzione”, un’idea che a von Neumann piacque moltissimo. McCarthy coniò poco dopo il termine “intelligenza artificiale” e iniziò a studiare il problema con Marvin Minsky (su questi temi cfr. Dyson, 2000, 2012). Ma von Neumann ci era arrivato prima, in quelle Silliman Memorial Lecture da cui scaturì il libro Computer e cervello, “il Grifone sulla soglia della scienza dei calcolatori” (Calasso, 2017). La grande intuizione fu che “i neuroni non si attivano uno dopo l’altro, ma simultaneamente: non sono seriali (…), ma massicciamente paralleli”. Ci sono voluti anni, ma alla fine il calcolo in parallelo sulle moderne GPU ha reso possibile le intelligenze artificiali generative preconizzate da Russell qualche anno fa, dimostrando la bontà dell’intuizione di von Neumann che solo un approccio emergentista avrebbe permesso di ottenere una reale simulazione di intelligenza nelle macchine. Non solo. Come ci ricorda Bhattacharya:

“Alcuni futurologi ipotizzano che un’intelligenza artificiale sovraumana potrebbe trasformare la società fino a renderla irriconoscibile. Oggi si parla di questa evenienza come della «singolarità» – un termine usato per la prima volta da chi ne aveva previsto la possibilità molti anni prima: John von Neumann”
(Bhattacharya, 2024).

“Esiste almeno una cosa stabile su cui si basa l’universo?”
In realtà, il concetto di singolarità è di diversi anni precedente a von Neumann. Ce lo ricorda Benjamin Labatut in Quando abbiamo smesso di capire il mondo, ristampato da Adelphi in economica dopo il successo di Maniac, in cui Labatut affrontava il lato oscuro del pensiero di von Neumann. C’è uno stretto collegamento, in effetti, tra von Neumann e quella storia – raccontata mille volte al punto da essere diventata un mito moderno – della scoperta della meccanica quantistica e della crisi della scienza nel primo Novecento. “Singolarità” è un concetto coniato per primo da Karl Schzwarzschild nelle trincee della Prima guerra mondiale, quando si accorse che una soluzione alle equazioni della relatività generale di Einstein prevedeva che “una stella ideale, perfettamente sferica, senza rotazione né carica elettrica”, sottoposta a contrazione avrebbe visto la forza di gravità crescere fino al punto da curvare lo spazio-tempo all’infinito. “Il risultato era una voragine senza fine, separata per sempre dal resto dell’universo”. Un simile punto di densità infinita avrebbe messo fine alla validità di ogni legge fisica, rappresentando appunto una singolarità. Schzwarschild non sopravvisse molto a questa scoperta, che turbò profondamente Einstein. La singolarità rappresentava l’incarnazione della più grande delle paure di un fisico teorico, “che la fisica non fosse capace di spiegare i movimenti delle stelle e di trovare un ordine dell’universo”:

“Esiste almeno una cosa stabile su cui si fonda l’universo o non c’è nulla a cui aggrapparsi in questa catena di movimenti senza sosta nella quale tutto è intrappolato? Rendetevi conto fino a che punto siamo caduti nell’incertezza, se l’immaginazione umana non riesce a trovare un solo luogo in cui gettare l’ancora e non c’è pietra al mondo che possa considerarsi immobile!”
(Labatut, 2024).

Questa grande paura ha scosso la mente e il fisico di tutti i grandi scienziati di cui Labatut ci racconta nel suo fortunato libro: Schwarzschild e il giapponese Shinichi Mochizuki, che affermò nel 2012 di aver dimostrato la celebre congettura della teoria dei numeri a + b = c per poi cancellare tutto; Werner Heisenberg nel suo disperato soggiorno a Helgoland, già romanzato in parte da Carlo Rovelli (2020), e Alexander Grothendieck, ridotto a un eremita; Louis de Broglie, con la sua montagna di sterco creata in casa, e Erwin Schrödinger con le sue ossessioni erotiche. In Maniac Labatut ci mostra un von Neumann scosso da analoga follia, ma le cose non stanno esattamente così. Di fronte al rischio di smettere di capire il mondo esistono due soluzioni, che in realtà sono la stessa cosa: la prima è di penetrare sempre più in profondità, rompere il mondo finché non lo si è capito; la seconda è costruirsi un mondo alternativo, comprensibile e rassicurante. In entrambi i casi, queste soluzioni hanno a che fare con il controllo, e con il dominio.

Labatut ci ricorda che il primo a dimostrare che Schzwarschild avesse ragione e Einstein torto fu Robert Oppenheimer, il cui articolo che dimostrava il collasso delle stelle massive fino a punti di densità infinita apparve il giorno stesso dello scoppio della Seconda guerra mondiale. Non ebbe difficoltà, Oppenheimer, a passare da quegli argomenti alla costruzione di una bomba atomica, perché costruire un’arma basata sulle riottose leggi della fisica fondamentale significa domarle. “Si tratta dello sfruttamento del potere fondamentale dell’universo”, come sintetizzò Harry Truman nel discorso radio con cui annunciò il bombardamento di Hiroshima. “La forza da cui il sole trae energia è stata lanciata contro coloro che hanno provocato la guerra in Estremo Oriente”. Von Neumann la pensava allo stesso modo. Fu il primo ad accettare di buon grado le paradossali conseguenze della meccanica quantistica, nei suoi geniali Fondamenti matematici della meccanica quantistica (1932), in cui dimostrò l’inconsistenza di teoria a “variabili nascoste”, del tipo auspicato da Einstein, per spiegare l’enigma dell’entanglement, e a sostenere una soluzione del problema della misura che attribuisce alla coscienza il processo di riduzione quantistica – un’interpretazione (detta di von Neumann-Wigner) sui cui oggi si basa un’incredibile quantità di teorie New Age. Von Neumann, come Oppenheimer, non si lasciò distruggere dall’incomprensibilità del mondo: cercò di controllarla, e quindi di dominarla. Ma, al tempo stesso, imboccò anche l’altra strada. È quella di cui ci parlava Stanislaw Lem nella sua Summa Technologiae, la tentazione all’incistamento, che si potrebbe verificare quando una civiltà intelligente, nel corso della sua evoluzione, scontrandosi con i limiti della propria capacità di comprensione della realtà, decide di “incistarsi” in un sotto-mondo a propria misura, una simulazione di tipo deterministico dove tutto è prevedibile e controllabile. Non è forse questo il mondo che von Neumann ha provato a creare attraverso i suoi contributi all’informatica e al digitale? Forse gli automi cellulari non rappresentano il modo in cui la vita si è evoluta nel nostro mondo, ma potrebbero rappresentare i semi di un altro mondo dove a dominare sarà l’intelligenza artificiale.

“Ma chi mai avrebbe voluto fare una cosa del genere?”
Qui torniamo da dove abbiamo iniziato, ossia a Calasso. Il polo digitale che prende il sopravvento sull’analogico, come aveva prefigurato ne La rovina di Kasch, è appunto l’esito finale del “rapporto della scienza con l’ignoto”:

“I mattatoi di Chicago, i laboratori universitari, dai corridoi odoranti di rane smembrate, le centrali mimetizzate nel deserto sono luoghi di uno stesso culto. Distribuiscono la forza grazie a un intervento violento, una decisione, dove tutto si concentra sulle procedure, perché la loro capacità di controllo è sempre più perfetta. Non avevano già detto i veggenti vedici che «l’esattezza, la realtà è il sacrificio»? Quanto più perfetto il controllo, tanto più ricco il materiale elaborabile, tanto più intensa la forza sprigionata, tanto più incontrollabile il suo sbocco”
(Calasso, 1983).

Si può quasi sentire il digrignare di denti di un Odifreddi che legge queste righe. Labatut chiude praticamente nello stesso modo Quando abbiamo smesso di capire il mondo. Il giardiniere notturno dell’epilogo risponde all’autore, che gli chiede quanto tempo resti da vivere al suo albero di limoni, che l’unico modo per saperlo sarebbe quello di tagliare il suo tronco per contrarne gli anelli. “Ma chi mai avrebbe voluto fare una cosa del genere?”. E viene in mente l’amaro finale del romanzo di Lem Il pianeta del silenzio, che ci pone di fronte a un’umanità futura che a furia di cercare di comprendere l’universo rompendo le cose che non capisce, distrugge l’oggetto stesso della sua ricerca.

Letture
  • Roberto Calasso, La rovina di Kasch, Adelphi, Milano, 1983.
  • Roberto Calasso, L’innominabile attuale, Adelphi, Milano, 2017.
  • George Dyson, L’evoluzione delle macchine, Raffaello Cortina, Milano, 2000.
  • George Dyson, La cattedrale di Turing, Raffaello Cortina, Milano, 2012.
  • Benjamin Labatut, Maniac, Adelphi, Milano, 2023.
  • Stanislaw Lem, Il pianeta del silenzio, Mondadori, Milano, 2022.
  • Stanislaw Lem, Summa Technologiae, Luiss University Press, Roma, 2024.
  • Piergiorgio Odifreddi, Cacciari, Calasso e gli antiscienza, La Stampa, 1° agosto 2021.
  • Carlo Rovelli, Helgoland, Adelphi, Milano, 2020.