Come è nato l'Universo?
Fausto Bersani Greggio - 01/01/2016
Il 2013, per quanto concerne la Fisica, sarà ricordato come l’anno del bosone di Higgs, la tanto rincorsa particella, la cui scoperta è valsa a Peter Higgs e Francois Englert il riconoscimento del premio Nobel per la Fisica anche se, in modo del tutto discutibile, non è stato egualmente gratificato lo sforzo sperimentale, per lo più italiano, che nei laboratori del CERN ha condotto a tale risultato.
Il “bosone di Higgs” è una particella prevista dal cosiddetto modello standard, e gioca un ruolo fondamentale nella cosmologia: la teoria la indica come portatrice di un campo di forze che si ritiene sia stato in grado di fornire la massa a tutte le particelle oggi conosciute.
Questo meccanismo prende il nome di Rottura Spontanea della Simmetria, ed accade tutte le volte nelle quali i sistemi fisici presentano una condizione di equilibrio instabile.
Al di là del tecnicismo che a questo punto potrebbe aver scoraggiato la maggior parte dei lettori, tranquillizziamo tutti dicendo che è possibile comunque tratteggiare in modo intuitivo la situazione usando un’analogia meccanica facilmente comprensibile.
L’energia di questo campo di forze la possiamo immaginare come il fondo di una bottiglia di spumante: ossia come una sorta di collinetta attorniata da una valle circolare, con una pallina posta, in equilibrio instabile, sulla sommità della collinetta stessa.
A questo punto, supponendo che una “piccola perturbazione” modifichi lo stato iniziale di equilibrio instabile, vedremo la pallina rotolare lentamente sottoposta all’azione di una forza antagonista determinata dalla presenza dello “spumante”, ossia di un fluido in grado di generare una frizione, o se si preferisce una resistenza, al moto di caduta.
Tale proprietà determina un’evoluzione iniziale molto lenta (denominata slow rolling down) dopo la quale il campo di Higgs “cade” rapidamente verso il minimo, ossia verso la valle circolare posta attorno alla collinetta, subendo oscillazioni smorzate simili a quelle che otterremmo liberando una pallina all’interno della concavità di una tazza: lo smorzamento è accompagnato dalla liberazione di calore (reheating), in modo analogo a quanto accade quando interviene “l’attrito”, e dalla creazione di particelle [1]. Quindi, in sostanza, la discesa del campo di Higgs dalla collinetta fa si che questo si fissi più in basso, in una posizione di equillibrio stabile, liberando l’energia che servirà alla formazione della materia. Il bosone di Higgs, in forma estremamente semplificata, rappresenta per l’appunto la particella che opera durante questa fase.
Tuttavia, pur avendo fatto enormi progressi nella comprensione dell’Universo, sia a livello teorico che sperimentale, siamo ancora molto lontani dall’aver completato il puzzle cosmologico. Ad esempio, uno dei quesiti che rimane ancora irrisolto, e al quale mi dedico da tempo, è capire l’origine di quella “piccola perturbazione” iniziale, descritta in precedenza, la quale determina per l’appunto la discesa del campo di Higgs verso la valle sottostante: il problema è comprendere la genesi di quella “prima mossa” dalla quale si è originata una straordinaria partita che ha condotto all’Universo attuale.
In questo mio articolo cercherò di descrivere i risultati a cui sono pervenuto, conscio del fatto che di fronte a un tentativo di risposta si aprono scenari ricchi di nuovi interrogativi e quanto sto per descrivere rappresenta solo un contributo parziale.
Il caos deterministico e la meccanica quantistica
Scriveva Poincaré nel 1903: "una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l'effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell'universo all'istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. Ma se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto. Ma non è sempre così; può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile".
Poincaré si accorse, già dalla fine dell’800, che una piccolissima variazione delle condizioni iniziali di un sistema fisico può amplificarsi in modo esponenziale nel tempo, generando un’evoluzione completamente diversa da quella determinata dalla condizione invariata. Solo negli anni ’50 e ’60 del XX secolo, una serie di simulazioni numeriche, realizzate utilizzando i primi calcolatori elettronici, portarono alla scoperta del cosiddetto caos deterministico [3], [4]: ossia un comportamento della materia regolato da leggi perfettamente deterministiche che possono tuttavia produrre un moto completamente caotico e assolutamente imprevedibile, uno scenario senza leggi governato per intero dalle leggi. Quest’ultima affermazione potrebbe apparire come una contraddizione in termini. D’altra parte la fisica moderna si è accorta che sistemi all’apparenza anche molto semplici possono portare a soluzioni talmente complesse da apparire del tutto casuali. In modo molto lucido, Giulio Casati (1942), uno dei pionieri italiani dello studio del caos, sintetizzò la situazione affermando che “vengono a cadere quelle barriere psicologiche dovute a secoli di tradizione che hanno considerato determinismo e caos come concetti contrapposti”.
Essendo la Fisica un scienza sperimentale, le condizioni iniziali di un sistema non saranno mai note con precisione assoluta e, pertanto, in molti casi ci troveremo nella situazione di non poter trovare una soluzione univoca di un problema.
Il paradigma del determinismo classico si basava sull’assunto che se le equazioni prescrivono l’evoluzione di un sistema in modo unico, senza alcun apporto esterno casuale, il comportamento del sistema è specificato in modo univoco per sempre.
Oggi invece stiamo dicendo che è possibile avere un comportamento disordinato e aperiodico in un sistema deterministico a causa dell’estrema sensibilità di alcuni sistemi alle condizioni iniziali: grandi mutamenti non hanno necessariamente grandi cause. La casualità non dipende da fattori esterni di disturbo ma è una proprietà intrinseca dei sistemi.
Negli anni '60 il metereologo Edward Lorenz trovò che a livello previsionale condizioni iniziali molto simili davano luogo a dinamiche completamente diverse. Egli stava compiendo simulazioni sul clima al computer utilizzando un programma con dodici parametri che simulavano gli andamenti di temperature, pressione, venti, ecc. Un giorno dell’inverno del 1961, nel corso di una di queste simulazioni, successe qualcosa di inatteso. Pur avendo copiato esattamente i numeri di una prova precedente, l’evoluzione dell’ultima simulazione era assai differente dalla precedente, contrariamente alle aspettative.
Lorenz si rese conto che, per risparmiare spazio, nella seconda simulazione aveva approssimato i numeri a 3 decimali dopo la virgola, invece dei 6 del calcolo precedente, ossia aveva introdotto un’approssimazione al decimillesimo, supponendo che la differenza avesse un’incidenza del tutto trascurabile. Il computer di Lorenz utilizzava un sistema di equazioni puramente deterministiche. Dato un punto di partenza leggermente diverso, le condizioni meteorologiche si sarebbero dovute evolvere in modo leggermente diverso. Un piccolo errore numerico era come un soffio di vento, eppure nel particolare sistema di equazioni utilizzato da Lorenz, piccoli errori si dimostrarono catastrofici. Questo fenomeno fu da lui definito “effetto farfalla”, per indicare la possibilità che una perturbazione infinitesima delle condizioni iniziali, quali il battito d’ali di una farfalla in Brasile, poteva causare un tornado in Texas, a distanza di qualche giorno: piccole differenze nelle condizioni iniziali generano grandissime differenze nell’evoluzione del sistema, come aveva già scoperto Poincaré.
Le rivoluzionarie scoperte che hanno cambiato le nostre basi scientifiche |
Oggi noi sappiamo che le istituzioni fondamentali della fisica teorica sono rappresentate dalle leggi della meccanica quantistica, mentre le leggi della fisica classica forniscono solo una descrizione approssimata della realtà, valida per sistemi macroscopici. È quindi lecito chiedersi se esista una relazione tra caos deterministico e meccanica quantistica ed eventualmente di che tipo.
Intanto va detto che è possibile dimostrare che le distanze tra stati quantistici diversi rimangono costanti nel tempo. Ossia se consideriamo due sistemi fisici posti in condizioni iniziali leggermente diverse tra loro, descrivibili dalle leggi della meccanica quantistica, si può verificare che, in genere, essi manterranno, nel tempo, la medesima separazione. In questo senso il caos in meccanica quantistica non esiste o, per meglio dire, può esistere solo come fenomeno transitorio.
Infatti, vari esperimenti numerici con modelli semplici hanno mostrato che l’evoluzione di un sistema quantistico segue il suo analogo classico, con tanto di dinamica caotica, solamente fino ad un tempo critico, detto tempo di rottura TR.
Per tempi maggiori di TR l’evoluzione temporale dello stato quantistico non segue più quella del suo analogo classico, lo stato quantistico rimane “localizzato”, nel senso che la divergenza esponenziale delle traiettorie caotiche scompare. In questo caso si parla di soppressione quantistica del caos classico [4].
Anche se la descrizione di questi effetti non è ancora completa, si è tuttavia dimostrato che il tempo di rottura dipende dalla costante fondamentale presente in tutti i fenomeni quantistici, ossia la costante di Planck ћ (ћ ≅ 10^-34 J·s), e dal numero N di particelle che compongono il sistema secondo una relazione del tipo
TR ≅ ћ^(1-3N). (1)
Pertanto, se il numero di particelle è molto grande, il tempo di rottura può essere molto lungo. Ad esempio, nei sistemi macroscopici, dove N >>1, il tempo di rottura è così lungo che di fatto non viene mai osservato e permane un regime sostanzialmente caotico classico.
La regola d’Oro
La descrizione dell’Universo primordiale, basata sul modello del big bang caldo, così come ci viene fornita dalla Relatività Generale presenta, per vari motivi sui quali non entriamo in questa sede, alcuni problemi che i fisici tentano di risolvere nell’ambito di teorie quantistiche dei campi di forze.
La teoria di Higgs è per l’appunto una di queste teorie la quale presuppone una transizione verso una fase in cui l’Universo, inizialmente “vuoto”, si popola di particelle e, contestualmente, evolve attraverso un periodo caratterizzato da un’espansione accelerata nota con il nome di “inflazione”.
Per inquadrare la situazione da un punto di vista spazio-temporale, diciamo che si prevede che questi eventi si siano verificati in un’epoca successiva all’età di Planck, epoca alla quale l’Universo aveva un’età di 10^-43 sec e dimensioni incredibilmente piccole, dell’ordine di 10^-33 cm.
A questo livello microscopico è ragionevole supporre che la fisica quantistica rappresenti il miglior apparato teorico a disposizione, specie se si vuole studiare il passaggio dall’epoca di Planck a quella del campo di Higgs.
Supponiamo che un sistema quantistico si trovi inizialmente in un certo stato e si voglia studiare la sua evoluzione nel tempo, in particolare si voglia calcolare la probabilità, per unità di tempo, di trovarlo, ad un istante successivo, in un altro stato. In altri termini, consideriamo la probabilità di transizione, tra stati diversi di energia, operata dall’azione di un campo di forze.
Il formalismo matematico che si utilizza in questi casi ebbe un’applicazione così vasta nei fenomeni quantistici che fu chiamata la Regola d’Oro di Enrico Fermi [5].
L’idea che ho sviluppato, circa l’applicazione della Regola d’Oro all’evoluzione cosmologica dell’Universo, è quella di immaginare una situazione simile a quanto accade durante il decadimento di una particella instabile. In questo caso la probabilità P che avvenga questa trasformazione è inversamente proporzionale alla vita media T della particella stessa
P ≅ 1/T (2)
Per semplificare possiamo dire che aumenta la probabilità di assistere al decadimento della particella quanto più è breve la sua vita media.
Ispirandoci a questa analogia possiamo ipotizzare che la transizione dalla fase di Planck a quella di Higgs dipenda proprio dal tempo di rottura (TR)
P ≅ 1/TR (3)
ponendo nella (1) N = 0 dal momento che l’Universo, inizialmente, era ancora privo di materia.
Infatti, con questa ipotesi si ottiene TR = 10^-34 sec, coerentemente con quanto previsto dalle moderne teorie “inflazionistiche”.
Calcoli più approfonditi, dimostrano inoltre l’esistenza di un’energia potenziale iniziale EP
EP ≅ -1/ћ (4)
L’interpretazione che emerge da questo quadro è quella di un campo energetico dominante e costante, sovrapposto a quello di Higgs, il quale, tuttavia, divenne immediatamente trascurabile appena l’Universo si popolò di particelle. In altri termini è come se avessimo avuto a disposizione un enorme serbatoio di energia, inizialmente ricolmo, che in seguito si è svuotato trasformando il proprio contenuto nella materia ordinaria e probabilmente non solo, infatti dai calcoli emerge che la quantità di energia liberata è tale, forse, da poter giustificare anche l’esistenza di altre forme di materia/energia quali la materia oscura (dark matter) e/o l’energia oscura (dark energy), i due grandi enigmi, o se preferite, le due grandi sfide della cosmologia contemporanea.
Conclusioni
È naturale chidersi che cosa, ad un certo punto, abbia fatto virare il destino dell’Universo. Tornando all’analogia con il fondo della bottiglia, è come se l’energia iniziale, espressa dalla (4), ne abbia modellato la forma della sommità, rendendola praticamente piatta, quindi sostanzialmente stabile per un’eventuale sferetta postavi sopra la quale si verrebbe a trovare come su una sorta di “altopiano”.
Ricordiamoci che per tempi inferiori al “tempo di rottura” (10^-34 sec), la dinamica era di fatto caotica, di tipo classico, nonostante fossero presenti “fluttuazioni quantistiche”. L’Universo microscopico infatti è un ribollire caotico di energia che si forma e scompare spontaneamente e il principio di indeterminazione di Heinsenberg fissa la durata dell’esistenza di questi stati eccitati in modo tale da risultare inversamente proporzionale alla loro energia.
Tali “fluttuazioni quantistiche”, in presenza di un regime caotico classico, possono tuttavia aver generato “la prima mossa”, ossia l’allontanamento irreversibile della sferetta dalla zona centrale dell’altopiano spingendola verso il bordo del precipizio, facendola precipitare e trasformando l’energia potenziale iniziale in calore e materia.
In sostanza l’idea che vorrei suggerire è quella dell’esistenza di una fase, antecedente al tempo di rottura, in cui l’Universo era sicuramente quantistico, ma in pratica regolato da un comportamento caotico classico in cui perturbazioni infinitesime sono state amplificate nella loro azione da una sorta di “effetto farfalla comologico”. In altri termini siamo di fronte a una rivalutazione delle leggi della fisica classica, le quali si dimostrano in grado di alimentare quella “prima mossa” che ha rotto il torpore di un Universo che aspettava solo di essere svegliato.
NOTE
[1] Introduzione alla cosmologia – F. Lucchin, Zanichelli (1990).
[2] Determinismo e caos – A. Vulpiani, NIS (1994)
[3] La fisica del caos – U. Amaldi, Zanichelli (2011)
[4] Meccanica quantistica, caos e sistemi complessi – L. Maccone, L. Salasnich, Carocci ed. (2009).
[5] Introduzione alla meccanica quantistica – P. T. Matthews, Zanichelli (1978)