...

Stephen W. Hawking

by user

on
Category: Documents
17

views

Report

Comments

Transcript

Stephen W. Hawking
Stephen W. Hawking
Dal Big Bang
ai buchi neri
Introduzione di
Carl Sagan
Illustrazioni di
Ron Miller
Rizzoli
Questo libro è dedicato
a Jane
Proprietà letteraria riservata
© 1988 by Stephen W. Hawking
© 1988 by Cari Sagan per l'Introduzione
© 1988 by Ron Miller (ter le illustrazioni
© 1988 RCS Rizzoli Libri S.p.A., Milano
First published Aprii 1988 by Bantam Books
in the United States and Canada
ISBN 88-17-85343-7
Titolo originale:
A BRIEF HISTORYOF TIME
Traduzione di
Libero Sosio
Prima edizione: maggio 1988
Seconda edizione: giugno 1988
Terza edizione: luglio 1988
Quarta edizione: luglio 1988
Quinta edizione: luglio 1988
Sesta edizione: settembre 1988
Settima edizione: settembre 1988
Ottava edizione: ottobre 1988
Nona edizione: ottobre 1988
Decima edizione: dicembre 1988
Undicesima edizione: febbraio 1989
Dodicesima edizione: febbraio 1989
Tredicesima edizione: marzo 1989
Quattordicesima edizione: maggio 1989
Quindicesima edizione: settembre 1989
Sedicesima edizione: ottobre 1989
RINGRAZIAMENTI
Presi la decisione di cimentarmi in un libro di divulgazione sullo spazio e sul
tempo dopo aver tenuto il ciclo delle Loeb lectures a Harvard nel 1982.
Esisteva già un numero considerevole di libri sugli inizi dell'universo e sui
buchi neri, da quelli ottimi, come I primi tre minuti di Steven Weinberg, a
quelli pessimi, che lascerò nell'anonimato. Pensavo però che nessuno di essi
avesse affrontato veramente i problemi che mi avevano condotto a
compiere ricerche nei campi della cosmologia e della teoria quantistica: da
dove ebbe origine l'universo? Come e perché ebbe inizio? Avrà mai fine, e in
tal caso come? Queste sono domande che interessano a tutti noi. Ma la
scienza moderna è diventata così tecnica che solo un numero piccolissimo di
specialisti è in grado di padroneggiare la matematica usata per descriverla.
Le idee fondamentali sull'origine e la sorte dell'universo possono però
essere espresse senza bisogno di far ricorso alla matematica, in un modo
comprensibile anche da chi non abbia una formazione scientifica. Sarà il
lettore a giudicare se io sia o no riuscito nel mio intento.
Qualcuno mi disse che ogni equazione che avessi incluso nel libro avrebbe
dimezzato le vendite. Decisi perciò che non avrei usato alcuna equazione.
Alla fine, però, ho fatto un'eccezione per la famosa equazione di Einstein,
E =mc2. Spero che essa non spaventerà metà dei miei potenziali lettori.
A parte la sfortuna di contrarre la mia grave malattia dei motoneuroni, sono
stato fortunato sotto quasi ogni altro aspetto. L'aiuto e il sostegno che ho
ricevuto da mia moglie, Jane, e dai miei figli, Robert, Lucy e Timmy, mi
hanno dato la possibilità di condurre una vita abbastanza normale e di avere
successo nella carriera accademica. Un'altra fortuna che ho avuto è stata
quella di scegliere fisica teorica, poiché si tratta di una scienza che sta per
intero nella mente. La mia invalidità non ha quindi rappresentato uno
svantaggio grave. I miei colleghi scientifici mi hanno dato, senza eccezione,
moltissimo aiuto.
Nella prima fase, «classica», della mia carriera, i miei principali associati e
collaboratori furono Roger Penrose, Robert Geroch, Brandon Carter e
George Ellis. Io sono loro riconoscente per l'aiuto che mi hanno dato, e per il
lavoro che abbiamo svolto assieme. Questa fase fu compendiata nel libro
The Large Scale Structure qf Spacetime; scritto da Ellis e da me nel 1973.
Non consiglierei ai lettori di questo libro di consultare quell'opera per
trovarvi ulteriori informazioni: si tratta infatti di un libro altamente tecnico e
del tutto illeggibile. Spero, da allora, di avere imparato a scrivere in un modo
più comprensibile.
Nella seconda fase, «quantistica», del mio lavoro, dopo il 1974, i miei
principali collaboratori sono stati Gary Gibbons, Don Page e Jim Hartle. Io ho
grandi debiti verso di loro e verso i miei studenti ricercatori, che mi hanno
dato molto aiuto, tanto nel senso fisico quanto in quello teorico della parola.
Il fatto di dover tenere il passo con i miei studenti mi ha molto stimolato e
mi ha impedito, almeno lo spero, di fossilizzarmi.
Nella preparazione di questo libro ho avuto un grande aiuto da un mio
studente, Brian Whitt. Nel 1985, dopo avere scritto la prima stesura, fui
colpito da una polmonite. Dovetti subire una tracheotomia, che mi tolse la
capacità di parlare e mi rese quasi impossibile comunicare. Pensavo che non
sarei riuscito a terminare questo lavoro. Brian, però, non solo mi aiutò a
rivederlo, ma mi convinse a usare un programma di comunicazione
chiamato Living Center che mi fu donato da Walt Woltosz, della Words Plus
Inc. di Sunnyvale, in California. Con l'aiuto di questo programma sono in
grado sia di scrivere libri e articoli sia di parlare con la gente usando un
sintetizzatore vocale donatomi dalla Speech Plus, anch'essa di Sunnyvale. Il
sintetizzatore e un piccolo personal computer furono montati sulla mia
sedia a rotelle da David Mason. Questo sistema ha avuto un'importanza
grandissima: in effetti io riesco a comunicare meglio adesso che non prima
di perdere la voce.
Ho avuto dei suggerimenti per migliorare questo libro da un gran numero di
persone che ne hanno visto versioni preliminari. In particolare Peter
Guzzardi, redattore alla Bantam Books, mi inviò pagine e pagine di
commenti e di domande su punti che pensava non fossero spiegati in modo
appropriato. Devo ammettere che rimasi abbastanza irritato quando
ricevetti il suo lungo elenco di cose da cambiare, ma aveva ragione lui. Sono
certo che questo è un libro migliore in conseguenza della sgobbata
supplementare che egli mi ha costretto a fare.
Sono molto grato ai miei assistenti, Colin Williams, David Thomas e
Raymond Laflamme; alle mie segretarie Judy Fella, Ann Ralph, Cheryl
Billington e Sue Masey; e ai miei infermieri. Questo libro non sarebbe stato
possibile senza il sostegno, per le mie spese mediche e di ricerca, for-nito
dal Gonville and Caius College, dal Science and Engineering Research Council
e dalle fondazioni Leverhulme, McArthur, Nuffield e Ralph Smith. A tutti
esprimo qui la mia gratitudine.
S.H.
20 ottobre 1987
INTRODUZIONE
di Carl Sagan
Noi viviamo la nostra vita quotidiana senza comprendere quasi nulla del
mondo. Ci diamo poco pensiero del meccanismo che genera la luce del Sole,
dalla quale dipende la vita, della gravità che ci lega a una Terra che ci
proietterebbe altrimenti nello spazio in conseguenza del suo moto di
rotazione, o degli atomi da cui siamo composti e dalla cui stabilità
fondamentalmente dipendiamo. Se trascuriamo i bambini (i quali non sanno
abbastanza per formulare le domande importanti), ben pochi di noi
spendono molto tempo a chiedersi perché la natura sia così com'è; da dove
sia venuto il cosmo, o se esista da sempre; se un giorno il tempo comincerà
a scorrere all'indietro e gli effetti precederanno le cause; o se ci siano limiti
ultimi a ciò che gli esseri umani possono conoscere. Ci sono persino
bambini — e io ne ho conosciuto qualcuno — i quali vorrebbero sapere che
aspetto hanno i buchi neri; quale sia il pezzo più piccolo di materia; perché
ricordiamo il passato e non il futuro; come mai, se in passato ci fu il caos,
oggi non ci sia un caos ancora maggiore; e perché esiste un universo.
Nella nostra società c'è ancora l'uso, per genitori e insegnanti, di rispondere
alla maggior parte di queste domande con una scrollatina di spalle o con un
rinvio a nozioni religiose richiamate in modo vago. Qualcuno si trova a
disagio dinanzi a problemi come questi, che mettono in luce in modo così
evidente i limiti dell'intelletto umano.
Gran parte della filosofia e della scienza sono spinte avanti proprio da tali
domande. Un numero crescente di adulti non hanno timore a porsi
interrogativi di questo genere, e di tanto in tanto ottengono risposte
sorprendenti. Equidistanti dagli atomi e dalle stelle, noi stiamo espandendo
gli orizzonti della nostra esplorazione ad abbracciare sia l'estremamente
piccolo sia l'estremamente grande.
Nella primavera del 1974, un paio di anni prima che il veicolo Viking
scendesse su Marte, ero in Inghilterra a un convegno patrocinato dalla Royal
Society di Londra per investigare il problema di come si potessero ricercare
forme di vita extraterrestri. Durante una pausa per il caffè, avendo notato
che una manifestazione molto maggiore si teneva in una sala adiacente, vi
entrai spinto dalla curiosità. Mi resi subito conto che stavo assistendo a un
antico rito, l'investitura di nuovi membri della Royal Society, una fra le più
antiche società culturali di tutto il mondo. In prima fila un giovane seduto su
una sedia a rotelle stava scrivendo il suo nome, con grande lentezza, in un
libro che recava in una delle primissime pagine la firma di Isaac Newton.
Quando infine la cerimonia finì, ci fu un'ovazione commovente. Stephen
Hawking era una leggenda già allora.
Hawking è oggi il professore lucasiano di matematica a Cambridge, posto
occupato un tempo da Newton e in seguito da P.A.M. Dirac, due famosi
esploratori dell'estremamente grande e dell'estremamente piccolo. Egli è il
loro degno successore. Questo libro — il primo libro di Hawking per non
specialisti — contiene molti motivi di interesse per il pubblico dei profani.
Altrettanto interessante quanto la varietà degli argomenti trattati è la
possibilità che esso fornisce di gettare uno sguardo sul modo di operare
della mente del suo autore. In questo libro si trovano lucide rivelazioni sulle
frontiere della fisica, dell'astronomia, della cosmologia, e del coraggio.
Questo è anche un libro su Dio... o forse sull'assenza di Dio. La parola Dio
riempie queste pagine. Hawking si avventura in una ricerca per rispondere
alla famosa domanda di Einstein se Dio abbia avuto qualche scelta nella
creazione dell'universo. Hawking sta tentando, come afferma esplicitamente,
di capire la mente di Dio. E questo fatto rende tanto più inattesa la
conclusione del suo sforzo, almeno finora: un universo senza confini nello
spazio, senza inizio o fine nel tempo, e con nulla da fare per un creatore.
Cornell University,
Ithaca, New York
DAL BIG BANG AI BUCHI NERI
1
LA NOSTRA IMMAGINE DELL'UNIVERSO
Un famoso scienziato (secondo alcuni fu Bertrand Russell) tenne una volta
una conferenza pubblica su un argomento di astronomia. Egli parlò di come
la Terra orbiti attorno al Sole e di come il Sole, a sua volta, compia un'ampia
rivoluzione attorno al centro di un immenso aggregato di stelle noto come la
nostra galassia. Al termine della conferenza, una piccola vecchia signora in
fondo alla sala si alzò in piedi e disse: «Quel che lei ci ha raccontato sono
tutte frottole. Il mondo, in realtà, è un disco piatto che poggia sul dorso di
una gigantesca tartaruga». Lo scienziato si lasciò sfuggire un sorriso di
superiorità prima di rispondere: «E su che cosa poggia la tartaruga?». «Lei è
molto intelligente, giovanotto, davvero molto», disse la vecchia signora.
«Ma ogni tartaruga poggia su un'altra tartaruga!»
La maggior parte delle persone troverebbe piuttosto ridicola
quest'immagine del nostro universo che poggia su una torre infinita di
tartarughe, ma perché mai noi dovremmo pensare di saperne di più? Che
cosa sappiamo sull'universo, e come lo sappiamo? Da dove è venuto
l'universo, e dove sta andando? L'universo ebbe un inizio e, in tal caso, che
cosa c'era prima! Qual è la natura del tempo? Il tempo avrà mai fine?
Progressi recenti in fisica, resi possibili in parte da fantastiche nuove
tecnologie, suggeriscono risposte ad alcune di queste domande di età
venerabile. Un giorno queste risposte potrebbero sembrarci altrettanto
ovvie del fatto che la Terra orbita attorno al Sole, o forse altrettanto ridicole
di una torre di tartarughe. Solo il tempo (qualunque cosa esso sia) ce lo dirà.
Già nel 340 a.C. il filosofo greco Aristotele, nel De caelo, potè proporre due
argomenti a sostegno della tesi che la Terra non è un disco piano, bensì una
sfera. Innanzitutto, egli si rese conto che le eclissi di Luna sono causate
dall'interposizione della Terra fra la Luna e il Sole. L'ombra della Terra
proiettata sulla Luna era sempre rotonda, cosa possìbile solo nel caso che la
Terra fosse sferica. Se la Terra avesse avuto la forma di un disco, l'ombra
sarebbe stata quasi sempre allungata ed ellittica, tranne nei casi in cui il
centro del Sole, quello della Terra e quello della Luna fossero stati
perfettamente allineati. In secondo luogo, i greci sapevano dai loro viaggi
che le stelle circumpolari apparivano tanto più basse in cielo quanto più a
sud ci si spingeva, mentre nelle regioni più settentrionali si vedevano più in
alto. (La Stella Polare, che si trova sul prolungamento dell'asse terrestre, è
allo zenit per un osservatore che si trovi al Polo Nord, mentre chi la osservi
dall'equatore la vede esattamente sull'orizzonte.) Dalla differenza nella
posizione apparente di varie stelle in cielo (in Egitto e nella regione di Cipro
si vedono stelle che non sono visibili nelle regioni settentrionali, e viceversa)
si poteva desumere una conferma della sfericità della Terra. Aristotele citò
addirittura una stima dei matematici secondo la quale la circonferenza
terrestre misurava 400.000 stadi. Oggi non sappiamo esattamente quanto
fosse lungo uno stadio, ma secondo un'ipotesi esso potrebbe essere stato di
circa 183 metri, cosicché la stima equivarrebbe a più di 73.000 km, che è
una lunghezza quasi doppia rispetto al valore di 40.000 km attualmente
accettato. I greci avevano addirittura un terzo argomento a sostegno della
sfericità della Terra: se la Terra non fosse stata sferica, com'era possibile che
di una nave apparissero al di sopra dell'orizzonte prima le vele e poi lo
scafo?
Aristotele pensava che la Terra fosse immobile e che il Sole, la Luna, i pianeti
e le stelle si muovessero in orbite circolari attorno ad essa. Egli credeva
infatti, per ragioni mistiche, che la Terra fosse il centro dell'universo e che il
moto circolare fosse il più perfetto fra tutti. Nel II secolo d.C. Tolomeo
sviluppò quest'idea in un modello cosmologico completo. Nel suo sistema la
Terra era al centro, circondata da otto sfere che trasportavano la Luna, il
Sole, le stelle e i cinque pianeti noti a quel tempo, ossia Mercurio, Venere,
Marte, Giove e Saturno (fig. 1.1). I pianeti stessi si muovevano su cerchi
minori, gli epicicli, in movimento sulle rispettive sfere: quest'ipotesi era
necessaria per spiegare le loro traiettorie apparenti piuttosto complicate in
cielo. La sfera più esterna trasportava le cosiddette stelle fisse, le quali si
trovano sempre nella stessa posizione l'una rispetto all'altra ma compiono
assieme in modo solidale una rotazione diurna attraverso il cielo. Che cosa ci
fosse al di là della sfera delle stelle fisse non fu mai chiarito, ma certamente
era qualcosa che non faceva parte dell'universo osservabile dall'umanità.
Fig. 11
Il modello di Tolomeo fornì un sistema ragionevolmente esatto per predire
le posizioni dei corpi celesti in cielo. A tal fine Tolomeo dovette però
supporre che la Luna percorresse una traiettoria che comportava grandi
variazioni nella sua distanza. Ne conseguiva però che a volte le dimensioni
apparenti del disco lunare dovessero raddoppiarsi! Tolomeo riconobbe che
questo era un punto debole della sua teoria, ma nondimeno il suo modello
fu accettato generalmente, anche se non universalmente. Esso fu adottato
anche dalla Chiesa cristiana come l'immagine dell'universo che era in
accordo con la Sacra Scrittura, tanto più che aveva anche il grande vantaggio
di lasciare all'esterno della sfera delle stelle fisse una grande quantità di
spazio in cui sistemare il paradiso e l'inferno.
Un modello più semplice fu proposto nel 1514 dal canonico polacco Niccolò
Copernico. (Dapprima, forse per timore di essere bollato come eretico dalla
sua Chiesa, Copernico fece circolare il suo modello in forma anonima.) Egli
propose la nuova idea che al centro si trovasse il Sole, immobile, e che
attorno ad esso si muovessero, in orbite circolari, la Terra e i pianeti.
Successivamente due astronomi (il tedesco Giovanni Keplero e il fiorentino
Galileo Galilei) cominciarono a pronunciarsi pubblicamente a favore della
teoria di Copernico, nonostante che le orbite da essa predette non
corrispondessero del tutto con quelle osservate. Il colpo mortale alla teoria
aristotelico-tolemaica fu inferto nel 1609. Quell'anno Galileo cominciò a
scrutare il cielo notturno con un telescopio, strumento che era stato appena
inventato. Osservando il pianeta Giove, Galileo trovò che era accompagnato
da vari piccoli satelliti o lune che orbitavano attorno ad esso. Questo fatto
implicava che non tutti i corpi celesti dovessero orbitare direttamente
attorno alla Terra, come avevano creduto Aristotele e Tolomeo.
(Ovviamente si poteva ancora pensare che la Terra fosse immobile al centro
dell'universo e che i satelliti di Giove orbitassero in modi estremamente
complicati attorno ad essa, creando l'apparenza di orbitare attorno a Giove.
La teoria copernicana era però molto più semplice.) Nello stesso anno
Keplero modificò la teoria eliocentrica di Copernico, suggerendo che i
pianeti si muovessero non su cerchi bensì su ellissi (un'ellisse è un cerchio
allungato). Ora le predizioni concordavano finalmente con le osservazioni.
Secondo Keplero, le orbite ellittiche erano semplicemente un'ipotesi ad hoc,
e un'ipotesi piuttosto difficile da accettare in quanto le ellissi erano
chiaramente meno perfette di cerchi. Avendo scoperto quasi per caso che le
orbite ellittiche corrispondevano bene alle osservazioni, egli non riuscì però
a conciliarle con la sua idea che i pianeti venissero fatti orbitare attorno al
Sole da forze magnetiche. Una spiegazione fu fornita solo molto tempo
dopo, nel 1687, quando Isaac Newton pubblicò i Philosophìae naturalis
principia mathematica (Principi matematici della filosofia naturale),
probabilmente l'opera singola più importante che sia mai stata pubblicata
nel campo delle scienze fisiche. In essa Newton non solo propose una teoria
sul modo in cui i corpi si muovono nello spazio e nel tempo, ma sviluppò
anche il complesso apparato matematico necessario per analizzare tali moti.
Newton postulò inoltre una legge della gravitazione universale, secondo la
quale ogni corpo nell'universo è attratto verso ogni altro corpo con una
forza direttamente proporzionale al prodotto delle loro masse e
inversamente proporzionale al quadrato della loro distanza. Era questa
stessa forza a causare la caduta al suolo degli oggetti. (Il racconto secondo
cui Newton sarebbe stato ispirato da una mela cadutagli in testa è quasi
certamente apocrifo. Tutto ciò che lo stesso Newton scrisse in proposito fu
che l'idea della gravità gli venne mentre se ne stava seduto «in uno stato
d'animo contemplativo» e «fu occasionata dalla caduta di una mela».)
Newton continuò mostrando che, secondo la sua legge, era la gravità a far
muovere la Luna in un'orbita ellittica attorno alla Terra e a determinare le
orbite ellittiche della Terra e dei pianeti attorno al Sole.
Il modello copernicano gettava a mare le sfere celesti di Tolomeo e con esse
l'idea che l'universo avesse un confine naturale. Poiché le «stelle fisse» non
sembravano mutare la loro posizione in cielo, eccezion fatta per il moto
diurno dell'intera sfera celeste causato dalla rotazione della Terra sul suo
asse, divenne naturale supporre che le stelle fisse fossero oggetti simili al
nostro Sole ma molto più lontani.
Newton si rese conto che, secondo la sua teoria della gravita, le stelle
avrebbero dovuto attrarsi fra loro, cosicché sembrava che non potessero
restare essenzialmente immobili come apparivano. Esse avrebbero dovuto
invece cadere tutte verso un qualche centro gravitazionale comune. In una
lettera da lui scritta nel 1691 a Richard Bentley, un altro fra i principali
pensatori del tempo, Newton sostenne che questo era per l'appunto quanto
accadrebbe se esistesse solo un numero finito di stelle distribuite in una
regione finita dello spazio. Egli affermò però che, se esistesse invece un
numero infinito di stelle, distribuite in modo più o meno uniforme in uno
spazio infinito, ciò non accadrebbe, perché in tal caso non esisterebbe un
punto centrale verso cui cadere.
Questo ragionamento è un esempio dei trabocchetti in cui si può cadere
parlando dell'infinito. In un universo infinito ogni punto può essere
considerato il centro, avendo un numero infinito di stelle attorno a sé in
ogni direzione. L'impostazione corretta, come ci si rese conto solo molto
tempo dopo, è quella di considerare la situazione finita, in cui tutte le stelle
cadono l'una verso l'altra, e poi di chiedersi come cambierebbero le cose se
si aggiungessero altre stelle, distribuite in maniera grosso modo uniforme
all'esterno di questa regione. Secondo la legge di Newton, le stelle aggiunte
non farebbero alcuna differenza rispetto a quelle prese in considerazione in
principio, cosicché queste continuerebbero a cadere le une verso le altre
con la stessa velocità. Possiamo aggiungere quante stelle vogliamo, ma le
nostre stelle della regione .finita iniziale continuerebbero a cadere verso un
centro gravitazionale comune. Oggi sappiamo che è impossibile avere un
modello statico infinito dell'universo in presenza di gravitazione che sia
sempre attrattiva.
E un indizio interessante sul clima di pensiero generale dominante prima del
XX secolo che nessuno abbia mai suggerito che l'universo sia in espansione o
in contrazione. Tutti accettavano l'idea che l'universo o fosse esistito da
sempre in uno stato sempre uguale o che fosse stato creato, in un tempo
finito in passato, più o meno come lo osserviamo oggi. In parte tale
credenza in un universo immutabile era forse dovuta all'inclinazione della
gente a credere in verità eterne, oltre che al conforto che si trovava nel
pensare che, anche se le persone potevano invecchiare e morire, l'universo
è eterno e immutabile.
Persino chi si rendeva conto che — in un'applicazione rigorosa della teoria
della gravitazione di Newton — l'universo non poteva essere statico era ben
lontano dal pensare che esso potesse essere in espansione. Si tentava
invece di modificare la teoria facendo l'ipotesi che, a distanze molto grandi,
l'attrazione gravitazionale potesse trasformarsi in repulsione. Quest'ipotesi
non incideva in modo significativo sulle predizioni dei moti dei pianeti, ma
permetteva a una distribuzione infinita di stelle di restare in equilibrio, con
le forze di attrazione fra stelle vicine controbilanciate dalle forze di
repulsione fra quelle più lontane. Noi oggi crediamo però che un tale
equilibrio sarebbe instabile: se le stelle in una qualche regione si
avvicinassero anche solo di poco fra loro, le forze d'attrazione crescerebbero
fino a diventare dominanti su quelle di repulsione, cosicché le stelle
continuerebbero a cadere l'una verso l'altra. D'altra parte, se le stelle si
allontanassero un pochino l'una dall'altra, diventerebbero dominanti, in tale
ipotesi, le forze di repulsione, le quali continuerebbero a farle allontanare
sempre di più.
Un'altra obiezione a un universo statico infinito viene normalmente
attribuita al filosofo tedesco Heinrich Olbers, che pubblicò il suo
«paradosso» nel 1823. In realtà il problema era stato già sollevato da vari
contemporanei di Newton, e l'articolo di Olbers non fu neppure il primo a
contenere argomenti plausibili in proposito. Esso fu, però, il primo a
richiamare su di sé una grande attenzione. Il paradosso di Olbers consisteva
nel fatto che, in un universo infinito statico, in qualsiasi direzione si volga lo
sguardo la linea visuale finirebbe sulla superficie di una stella, cosicché
l'intero cielo dovrebbe essere luminoso come il Sole, persino di notte.
Olbers trovò la soluzione di questo paradosso nell'argomento che la luce
proveniente da stelle molto lontane è presumibilmente attenuata
dall'assorbimento per opera della materia interposta. Se così fosse, però, la
materia interstellare si sarebbe col tempo riscaldata sino a diventare a sua
volta luminosa come le stelle. L'unico modo per evitare la conclusione che
l'intero cielo notturno dovesse essere altrettanto luminoso della superficie
del Sole sarebbe stato quello di supporre che le stelle non esistono da
sempre ma siano state «accese» in un qualche tempo finito in passato.
In tal caso la materia assorbente poteva non essersi ancora riscaldata,
oppure la luce proveniente dalle stelle più lontane poteva non essere ancora
pervenuta sino a noi. Questo ragionamento ci porta però al problema di che
cosa possa avere causato, a un certo punto, l'accensione delle stelle.
L'inizio dell'universo fu, ovviamente, oggetto di riflessioni già da molto
tempo prima di Olbers. Secondo varie cosmologie antiche e secondo la
tradizione ebraico-cristiano-islamica, l'universo ebbe inizio in un tempo
finito, e non molto lontano, in passato. Un argomento a favore di un tale
inizio dell'universo nel tempo era la convinzione che, per spiegarne
l'esistenza, fosse necessario postulare una «Causa prima». (All'interno
dell'universo, ogni evento poteva sempre essere spiegato riconducendolo a
un evento anteriore, ma l'esistenza dell'universo stesso poteva essere
spiegata in questo modo solo ammettendo che esso avesse avuto un inizio.)
Un altro argomento fu addotto da sant'Agostino nel De civitate Dei {La città
di Dio). Agostino sottolineò che la civiltà progredisce e che noi ricordiamo
chi fece una certa cosa o sviluppò una certa tecnica. Perciò l'uomo — e
quindi forse anche l'universo — non poteva esistere da un tempo molto
lungo. Sant'Agostino accettò come data per la creazione dell'universo il
5000 a.C. circa, secondo calcoli fondati sul libro della Genesi. (E interessante
osservare che tale data non è poi così lontana dalla fine dell'ultima epoca
glaciale, databile attorno al 10.000 a.C., che segna secondo gli archeologi il
vero inizio della civiltà.)
Aristotele e la maggior parte degli altri filosofi greci, d'altra parte, non
amavano l'idea di una creazione, poiché essa sapeva troppo di un intervento
divino. Essi credevano, perciò, che il genere umano e il mondo intero
esistessero da sempre, e che avrebbero continuato a esistere per sempre.
Gli antichi avevano già considerato l'argomento del progresso ripreso poi da
sant'Agostino, ma avevano risposto ad esso sostenendo che c'erano stati
diluvi o altri disastri periodici, i quali avevano riportato ogni volta il genere
umano a uno stato di barbarie da cui avrebbe avuto inizio ogni volta di
nuovo la civiltà.
I problemi se l'universo abbia avuto inizio nel tempo e se sia limitato nello
spazio furono in seguito esaminati diffusamente dal filosofo Immanuel Kant
nella monumentale (e difficilissima) Critica della ragion pura, la cui prima
edizione uscì nel 1781. Kant chiamò questi problemi antinomie (ossia
contraddizioni) della pura ragione, convinto com'era che esistessero
argomenti altrettanto convincenti a sostegno della tesi, che l'universo
avesse avuto un inizio nel tempo, e dell'antitesi, che esso esistesse da
sempre. Il suo argomento a favore della tesi era che, se l'universo non
avesse avuto un inizio, ci sarebbe stato un periodo di tempo infinito prima di
ogni evento, cosa che egli considerava assurda. L'argomento a favore
dell'antitesi era che, se l'universo avesse avuto un inizio, ci sarebbe stato un
periodo di tempo infinito prima della sua esistenza, cosicché ci si potrebbe
chiedere perché mai l'universo avrebbe dovuto avere inizio in un qualsiasi
tempo particolare piuttosto che in un altro. In realtà le due argomentazioni,
a favore sia della tesi sia dell'antitesi, si innestano sullo stesso ragionamento.
Entrambe si fondano sull'assunto inespresso che il tempo continui a ritroso
per sempre, tanto nel caso che l'universo fosse o non fosse esistito
dall'eternità. Come vedremo, però, prima dell'inizio dell'universo il concetto
di tempo non ha alcun significato. Questa nozione fu proposta per la prima
volta dallo stesso sant'Agostino. Alla domanda: «Che cosa faceva Dio prima
di creare l'universo?» sant'Agostino non rispose, come un personaggio di
epoca più recente: «Stava preparando l'inferno per le persone che fanno
domande del genere». Egli disse invece che il tempo era una proprietà
dell'universo creato da Dio, e che quindi prima dell'inizio dell'universo il
tempo non esisteva.
Quando la maggior parte delle persone credeva in un universo
essenzialmente statico o immutabile, il problema se esso avesse o no avuto
un inizio era in realtà una questione di competenza della metafisica o della
teologia. Si poteva spiegare altrettanto bene ciò che si osservava sia con la
teoria che l'universo esistesse da sempre sia con la teoria alternativa che
esso fosse stato messo in movimento in un qualche tempo finito in passato,
in modo tale da dare l'impressione che esso esistesse da sempre. Ma nel
1929 Edwin Hubble fece l'osservazione di importanza capitale che, in
qualsiasi direzione si osservi, le galassie lontane presentano un moto di
rapida recessione da noi. In altri termini, l'universo sta espandendosi. Ciò
significa che, in passato, gli oggetti che lo compongono dovevano essere
molto più vicini fra loro di quanto non siano oggi. Sembrava, in effetti, che ci
fosse stato un tempo in passato, circa dieci o venti miliardi di anni fa, in cui
tutti gli oggetti dovettero trovarsi esattamente nello stesso luogo e in cui,
perciò, la densità dell'universo era infinita. Questa scoperta portò infine il
problema dell'inizio dell'universo nell'ambito della scienza.
Le osservazioni di Hubble suggerirono che doveva esserci stato un tempo,
chiamato in seguito il big bang (la grande esplosione), in cui l'universo era
infinitesimamente piccolo e infinitamente denso. In una tale condizione
tutte le leggi della scienza, e perciò l'intera abilità di predire il futuro,
venivano meno. Se prima di tale tempo ci furono altri eventi, essi non
avrebbero potuto avere alcuna incidenza su ciò che accade oggi. La loro
esistenza può essere tranquillamente ignorata perché non avrebbe alcuna
conseguenza sul piano dell'osservazione. Si può dire quindi che il tempo ha
avuto un inizio col big bang, nel senso che tempi anteriori non potrebbero
semplicemente essere definiti in alcun modo. E opportuno sottolineare che
questo inizio nel tempo è molto diverso da quelli che erano stati presi in
considerazione in precedenza. In un universo immutabile, un inizio nel
tempo è qualcosa che dev'essere imposto da un qualche essere esterno
all'universo, e non c'è alcuna necessità fisica di un inizio. Si può immaginare
che Dio abbia creato l'universo letteralmente in un tempo qualsiasi in
passato. D'altra parte, se l'universo è in espansione, potrebbero esserci
ragioni fisiche per cui dovette esserci un inizio. Si potrebbe ancora
immaginare che Dio creò l'universo nell'istante del big bang, o addirittura
successivamente, in modo tale da dare l'apparenza che ci fosse stata una
grande esplosione primigenia, mentre non avrebbe alcun senso supporre
che l'universo sia stato creato prima del big bang. Un universo in espansione
non preclude un creatore, ma pone dei limiti circa il tempo in cui egli
potrebbe aver compiuto questo lavoro!
Per poter parlare della natura dell'universo e discutere problemi come se ci
sia stato un inizio o se ci sarà una fine, occorre avere ben chiaro che cosa sia
una teoria scientifica. Io adotterò qui la concezione ingenua che una teoria
sia solo un modello dell'universo, o di una sua parte limitata, e un insieme di
regole che mettono in relazione le quantità presenti nel modello con le
osservazioni che facciamo nella realtà. Il modello esiste solo nella nostra
mente e non ha alcun'altra realtà (qualsiasi cosa questa affermazione possa
significare). Una teoria, per essere una buona teoria scientifica, deve
soddisfare due richieste: descrivere con precisione una grande classe di
osservazioni sulla base di un modello contenente solo qualche elemento
arbitrario, e fare predizioni ben definite sui risultati di future osservazioni.
Per esempio, la teoria di Aristotele che ogni cosa fosse composta da quattro
elementi — terra, acqua, aria e fuoco — era abbastanza semplice per poter
essere presa in considerazione, ma non faceva alcuna predizione ben
definita. D'altra parte la teoria della gravitazione di Newton si fondava su un
modello ancora più semplice, in cui i corpi si attraevano l'un l'altro con una
forza che era proporzionale a una quantità chiamata la loro massa e
inversamente proporzionale al quadrato della distanza fra loro. Eppure
questa teoria predice con un alto grado di precisione i moti del Sole, della
Luna e dei pianeti.
Qualsiasi teoria fisica è sempre provvisoria, nel senso che è solo un'ipotesi:
una teoria fisica non può cioè mai venire provata. Per quante volte i risultati
di esperimenti siano stati in accordo con una teoria, non si può mai essere
sicuri di non ottenere la prossima volta un risultato che la contraddica.
D'altra parte si può confutare una teoria trovando anche una sola
osservazione che sia in disaccordo con le sue predizioni. Come ha
sottolineato il filosofo della scienza Karl Popper, una buona teoria fa un
certo numero di predizioni suscettibili, in linea di principio, di essere
confutate, o «falsificate», dall'osservazione. Ogni volta che nuovi
esperimenti forniscono risultati in accordo con le predizioni, la teoria
sopravvive e la nostra fiducia in essa aumenta; ma se troviamo una nuova
osservazione che non si concilia con le predizioni, dobbiamo abbandonare o
modificare la teoria. Questo, almeno, è quanto dovrebbe accadere, ma si
può sempre mettere in discussione la competenza della persona che ha
eseguito le osservazioni.
In pratica, spesso accade che una nuova teoria sia in realtà solo
un'estensione della teoria precedente. Per esempio, osservazioni molto
precise del pianeta Mercurio rivelarono una piccola discrepanza fra il suo
moto orbitale e le predizioni della teoria della gravitazione di Newton. La
teoria generale della relatività di Einstein prediceva un moto leggermente
diverso da quello predetto dalla teoria di Newton. Il fatto che le predizioni
della teoria di Einstein fossero in accordo con le osservazioni, mentre quelle
della teoria di Newton risultassero inesatte, fu una delle conferme cruciali
della nuova teoria. Noi oggi continuiamo però a usare a fini pratici la teoria
di Newton perché, nelle situazioni di cui ci occupiamo normalmente, la
differenza fra le sue predizioni e quelle della relatività generale è
trascurabile. (La teoria di Newton ha anche il grande vantaggio di richiedere
calcoli molto meno complessi di quella di Einstein!)
Il fine ultimo della scienza è quello di fornire una singola teoria in grado di
descrivere l'intero universo. L'impostazione seguita in realtà dagli scienziati
è invece quella di separare il problema in due parti. Da una parte ci sono le
leggi che ci dicono in che modo l'universo cambia col tempo. (Se sappiamo
che in ogni tempo l'universo è stato sempre uguale a com'è oggi, queste
leggi fisiche ci dicono come sarà in qualsiasi altro tempo in futuro.) Dall'altra
c'è il problema dello stato iniziale dell'universo. Alcuni pensano che la
scienza dovrebbe occuparsi solo della prima parte (quella delle leggi): essi
considerano il problema dello stato iniziale un argomento da lasciare alla
metafisica o alla religione. Secondo loro, Dio, essendo onnipotente, avrebbe
potuto iniziare l'universo in qualsiasi modo a suo libito. E così potrebbe
essere veramente, solo che in tal caso avrebbe potuto anche farlo
sviluppare in un modo completamente arbitrario. Pare invece che egli abbia
scelto di farlo evolvere in un modo molto regolare secondo certe leggi. Pare
perciò altrettanto ragionevole supporre che anche lo stato iniziale debba
essere governato da leggi.
Risulta molto difficile escogitare una teoria in grado di descrivere l'intero
funzionamento dell'universo. Abitualmente noi scomponiamo il problema in
varie parti e inventiamo varie teorie parziali. Ognuna di queste teorie
descrive e predice una certa classe limitata di osservazioni, trascurando gli
effetti di altre quantità, o rappresentandole per mezzo di semplici insiemi di
numeri. Può darsi che questa impostazione sia completamente sbagliata. Se
ogni cosa nell'universo dipende in un modo fondamentale da ogni altra cosa,
potrebbe essere impossibile approssimarsi a una soluzione completa
investigando isolatamente le diverse parti del problema. Nondimeno, è
certamente questo il modo in cui abbiamo proceduto in passato. L'esempio
classico è, anche in questo caso, la teoria newtoniana della gravità, la quale
ci dice che la forza gravitazionale che si esercita fra due corpi dipende solo
da un numero associato a ciascun corpo, la sua massa, mentre è per altro
verso indipendente dalla composizione del corpo. Non c'è quindi bisogno di
possedere una teoria della struttura e della composizione del Sole e dei
pianeti per poterne calcolare le orbite.
Oggi gli scienziati descrivono l'universo nei termini di due teorie
fondamentali parziali: la teoria generale della relatività e la meccanica
quantistica. Queste due teorie sono le grandi conquiste intellettuali della
prima metà di questo secolo. La teoria generale della relatività descrive la
forza di gravità e la struttura dell'universo su scale molto grandi, comprese
da pochi chilometri a milioni di miliardi di miliardi (1 seguito da ventiquattro
zeri) di chilometri, che sono le dimensioni dell'universo osservabile. La
meccanica quantistica si occupa invece di fenomeni su scale estremamente
piccole, come un milionesimo di milionesimo di centimetro. E noto però che
queste due teorie sono purtroppo in disaccordo fra loro, e non possono
quindi essere entrambe corrette. Una delle maggiori imprese della fisica di
oggi — che è anche il tema principale di questo libro — è la ricerca di una
nuova teoria che le includa entrambe: una teoria quantistica della gravità.
Noi non possediamo ancora una tale teoria, e può darsi che debba passare
ancora molto tempo prima di pervenire ad essa, ma conosciamo già
parecchie delle proprietà che essa deve avere. E vedremo, in altri capitoli,
che sappiamo già molto sulle predizioni che una teoria quantistica della
gravità deve fare.
Ora, se crediamo che l'universo non sia arbitrario ma sia invece governato
da leggi ben definite, dovremo infine combinare le teorie parziali in una
teoria unificata completa in grado di descrivere ogni cosa nell'universo.
Nella ricerca di una tale teoria unificata c'è però un paradosso fondamentale.
Le idee sulle teorie scientifiche che abbiamo abbozzato sopra prendono
l'avvio dall'assunto che noi siamo esseri razionali liberi di osservare
l'universo come più ci aggrada e di trarre deduzioni logiche da ciò che
vediamo. In un tale schema è ragionevole supporre che noi potremmo
progredire sino ad approssimarci sempre più alle leggi che governano il
nostro universo. Ma, se esistesse in realtà una teoria unificata completa,
essa dovrebbe presumibilmente determinare anche le nostre azioni. In tal
modo sarebbe la teoria stessa a determinare l'esito della nostra ricerca di
una tale teoria! E per quale motivo essa dovrebbe stabilire che, a partire dai
materiali d'osservazione, noi dobbiamo pervenire alle, conclusioni giuste?
Non potrebbe essa predire altrettanto bene che noi dovremmo trarre la
conclusione sbagliata? O nessuna conclusione?
L'unica risposta che io mi sento di dare a queste domande si fonda sul
principio darwiniano della selezione naturale. L'idea è che, in ogni
popolazione di organismi che si autoriproducono, ci saranno variazioni nel
materiale genetico e nell'educazione dei diversi individui. In conseguenza di
tali differenze alcuni individui saranno migliori di altri nel trarre le
conclusioni giuste sul mondo che li circonda e nell'agire di conseguenza.
Questi individui avranno maggiori probabilità di sopravvivere e di riprodursi,
cosicché il loro modello di comportamento e di pensiero verrà a dominare. E
stato certamente vero in passato che l'intelligenza e la scoperta scientifica
hanno fornito un vantaggio ai fini della sopravvivenza. Non è altrettanto
chiaro che oggi sia ancora così: le nostre scoperte scientifiche potrebbero
benissimo distruggere l'intero genere umano, e quand'anche così non fosse,
una teoria unificata completa potrebbe non fare molta differenza per le
nostre possibilità di sopravvivere. Nondimeno, purché l'universo si fosse
evoluto in un modo regolare, potremmo attenderci che le capacità di
ragionamento largiteci dalla selezione naturale conservassero la loro validità
anche nella nostra ricerca di una teoria unificata completa, e non ci
conducessero quindi a conclusioni sbagliate.
Poiché le teorie parziali che possediamo ci consentono di fare predizioni
precise, eccezion fatta solo per le situazioni più estreme, la ricerca della
teoria ultima dell'universo sembra difficile da giustificare sul piano pratico.
(Val però la pena di notare che argomentazioni simili avrebbero potuto
essere usate tanto contro la teoria della relatività, quanto contro la
meccanica quantistica: eppure queste teorie ci hanno dato sia l'energia
nucleare sia la rivoluzione della microelettronica!) La scoperta di una teoria
unificata completa, perciò, potrebbe non contribuire alla sopravvivenza
della nostra specie. Essa potrebbe addirittura non incidere sul nostro stile di
vita. Fin dall'alba della civiltà, però, l'uomo non si è mai accontentato di
vedere gli eventi come non connessi fra loro e inesplicabili, ma si è sempre
sforzato di pervenire a una comprensione dell'ordine che sta dietro le cose e
gli eventi. Oggi noi desideriamo ancora sapere perché siamo qui e da dove
veniamo. Il profondissimo desiderio di conoscenza dell'uomo è una
giustificazione sufficiente per il persistere della nostra ricerca. E il nostro
obiettivo non è niente di meno di una descrizione completa dell'universo in
cui viviamo.
2
SPAZIO E TEMPO
Le nostre idee attuali sul moto dei corpi risalgono a Galileo e a Newton.
Prima di allora la gente credeva in Aristotele, il quale aveva detto che lo
stato naturale di un corpo era la quiete e che un corpo si muoveva solo in
conseguenza di una forza o di una trazione. Ne seguiva che un corpo
pesante (grave) doveva cadere più velocemente di un corpo leggero,
essendo oggetto di una trazione più forte verso la Terra.
La tradizione aristotelica riteneva anche che fosse possibile determinare
tutte le leggi che governano l'universo per mezzo del puro pensiero: non era
necessaria la loro verifica per mezzo dell'osservazione. Perciò nessuno, fino
a Galileo, si preoccupò di accertare se corpi di peso diverso cadessero
effettivamente a velocità diverse. Si racconta che Galileo dimostrò
l'erroneità della teoria di Aristotele lasciando cadere oggetti di vario peso
dal campanile pendente di Pisa. Questa storia è quasi certamente falsa, ma
Galileo fece qualcosa di equivalente: fece rotolare delle palle di peso diverso
lungo un piano inclinato ben levigato. La situazione è simile a quella di corpi
gravi che cadano verticalmente, ma in questo caso l'osservazione è più facile
perché le velocità sono minori. Le misurazioni di Galileo indicarono che ogni
corpo aumentava la sua velocità nella stessa misura, qualunque fosse il suo
peso. Per esempio, se si lascia discendere una palla su un piano inclinato che
abbia una pendenza del 10 per cento, la palla si muoverà lungo il pendio alla
velocità di un metro al secondo circa dopo un secondo, di due metri al
secondo ogni due secondi e così via, per quanto pesante essa possa essere.
E ovvio che un oggetto di piombo cadrebbe più velocemente di una piuma,
ma solo per il fatto che una piuma è rallentata dalla resistenza dell'aria. Se si
lasciano cadere due corpi che non trovino molta resistenza nell'aria, come
due oggetti di piombo di peso diverso, essi cadranno con la stessa velocità.
Le misurazioni di Galileo furono usate da Newton come base delle proprie
leggi del moto. Negli esperimenti di Galileo, quando un corpo rotolava lungo
il piano inclinato, la forza che agiva su di esso era sempre la stessa (il suo
peso), e l'effetto era un'accelerazione costante del moto. Ciò dimostrava
che l'effetto reale di una forza è sempre quello di modificare la velocità di un
corpo, e non di causarne semplicemente il movimento, come si pensava in
precedenza. Ciò significava anche che, quando su un corpo non agisce
alcuna forza, esso persiste nel suo movimento in linea retta con velocità
uniforme. Quest'idea fu formulata per la prima volta esplicitamente da
Newton nei Principia mathematica (1687) ed è nota come la prima legge di
Newton. Quel che accade a un corpo quando una forza agisce su di esso è
espresso nella seconda legge di Newton. Questa afferma che il corpo
accelera, ossia modifica la sua velocità, in modo proporzionale alla forza.
(Per esempio, nel caso che la forza applicata sia doppia anche
l'accelerazione è doppia.) L'accelerazione è inoltre tanto minore quanto
maggiore è la massa (o quantità di materia) del corpo. (La stessa forza,
agendo su un corpo di massa doppia, produrrà un'accelerazione pari alla
metà dell'accelerazione precedente.) Un esempio familiare ci viene fornito
da un'automobile: quanto più il motore è potente, tanto maggiore è
l'accelerazione, ma quanto più pesante è la macchina tanto minore è
l'accelerazione per lo stesso motore.
Oltre alle sue leggi del moto, Newton trovò anche una legge per descrivere
la forza di gravità: questa legge dice che ogni corpo attrae ogni altro corpo
con una forza che è proporzionale alla massa di ciascun corpo. Così la forza
che si esercita fra due corpi si raddoppierebbe nel caso che si raddoppiasse
la massa di uno dei corpi (per esempio A). Questa conclusione è del resto
facilmente prevedibile; è infatti sufficiente pensare il nuovo corpo A come
composto da due corpi ognuno dei quali avente una massa uguale a quella
originaria. Ciascuno di questi due nuovi corpi attrarrebbe il corpo B con la
forza originaria. Così la forza totale fra A e B sarebbe il doppio della forza
originaria. E se, diciamo, uno dei due corpi avesse massa doppia, e l'altro
massa tripla, rispetto alle masse originarie, la forza sarebbe sei volte
maggiore. Si può quindi vedere perché tutti i corpi cadano con la stessa
velocità: un corpo di peso doppio sarà attratto con una forza doppia, ma
avrà anche una massa doppia. Secondo la legge di Newton, questi due
effetti si cancellano reciprocamente, cosicché l'accelerazione sarà la stessa
in tutti i casi.
La legge di gravità di Newton ci dice anche che la forza di attrazione sarà
tanto minore quanto più i corpi saranno lontani fra loro. Essa dice,
precisamente, che l'attrazione gravitazionale esercitata da una stella è
esattamente quattro volte maggiore di quella di una stella simile che si trovi
a una distanza doppia da noi. Questa legge ci consente di predire con grande
precisione le orbite della Terra, della Luna e dei pianeti. Se l'attrazione
gravitazionale di una stella diminuisse in proporzione diretta all'aumentare
della sua distanza (anziché al quadrato della distanza), le orbite dei pianeti
non sarebbero ellittiche, ma essi cadrebbero con un movimento a spirale nel
Sole. Se la sua diminuzione fosse più lenta, le forze gravitazionali delle stelle
lontane dominerebbero su quella terrestre.
La grande differenza fra le idee di Aristotele da una parte e quelle di Galileo
e di Newton dall'altra è che Aristotele credeva in uno stato privilegiato di
quiete, stato in cui ogni corpo si troverebbe se non fosse spinto da una
qualche forza o impulso. In particolare, Aristotele pensava che la Terra fosse
in quiete. Dalle leggi di Newton segue però che non esiste un sistema di
riferimento privilegiato per la quiete. Si potrebbe infatti dire altrettanto
bene che il corpo A è in quiete e il corpo B in movimento con velocità
costante rispetto al corpo A, o che in movimento è il corpo A e in quiete il
corpo B. Per esempio, se ignoriamo per un momento la rotazione della Terra
e il suo movimento di rivoluzione attorno al Sole, potremmo dire che la
Terra è in quiete e che un treno sta viaggiando su di essa verso nord alla
velocità di 150 chilometri all'ora o che il treno è in quiete e che è la Terra a
muoversi verso sud alla velocità di 150 chilometri all'ora. Se si facessero
degli esperimenti con degli oggetti in movimento sul treno, tutte le leggi di
Newton conserverebbero la loro validità. Per esempio, giocando a ping-pong
sul treno, troveremmo che la pallina continuerebbe a obbedire alle leggi di
Newton, esattamente come su un tavolino accanto al binario. Non esiste
quindi alcun modo per dire se a muoversi sia il treno o la Terra.
La mancanza di un sistema di riferimento assoluto per la quiete comporta
l'impossibilità di stabilire se due eventi che ebbero luogo in tempi diversi si
verificarono o no nella stessa posizione nello spazio. Per esempio
supponiamo che la nostra pallina da ping-pong sul treno rimbalzi colpendo
due volte il tavolo sullo stesso punto a un secondo di distanza. Per un
osservatore che si trovasse sul binario, i due punti in cui la pallina tocca il
tavolo sembrerebbero a quaranta metri di distanza l'uno dall'altro, perché
fra un rimbalzo e l'altro della pallina il treno avrebbe percorso quella
distanza sul binario. L'inesistenza della quiete assoluta significa perciò che,
diversamente da quanto pensava Aristotele, non si potrebbe indicare la
posizione assoluta di un evento nello spazio. Le posizioni di eventi e la
distanza fra loro sarebbero diverse per una persona che si trovasse sul treno
e per un osservatore sul binario, e non ci sarebbe alcuna ragione per
preferire'le posizioni di una persona a quelle dell'altra.
Newton si preoccupò molto per questa mancanza di una posizione assoluta,
o di uno spazio assoluto, come veniva chiamato, perché essa non si
accordava con la sua idea di un Dio assoluto. In realtà egli accettò l'esistenza
di uno spazio assoluto, anche se distinse da esso uno spazio relativo,
concepito come dimensione mobile o misura dello spazio assoluto. Egli fu
aspramente criticato per questa sua convinzione irrazionale da molte
persone, e in particolare dal vescovo Berkeley, il famoso filosofo idealista, il
quale credeva che tutti gli oggetti materiali e lo spazio e il tempo fossero
un'illusione. Quando al famoso filosofo dottor Johnson fu riferita l'opinione
di Berkeley, esclamò: «Io la confuto così!», e colpì con una pedata una
grossa pietra.
Tanto Aristotele quanto Newton credettero nel tempo assoluto. Essi
credettero cioè che si potesse misurare con precisione l'intervallo di tempo
fra due eventi, e che questo tempo sarebbe stato lo stesso chiunque lo
avesse misurato, purché si fosse usato un buon orologio. Il tempo era
completamente separato dallo spazio e da esso indipendente. Questa era la
concezione del tempo che chiunque avrebbe ritenuto ovvia. Le idee sullo
spazio e sul tempo erano però destinate a mutare in modo radicale. Benché
le nozioni del senso comune funzionino perfettamente quando ci si deve
occupare di cose come mele o pianeti, che si muovono con relativa lentezza,
non funzionano affatto per cose che si muovano alla velocità della luce o a
una velocità prossima ad essa.
Il fatto che la luce si propaghi a una velocità finita, anche se grandissima, fu
scoperto per la prima volta nel 1675 dall'astronomo danese Ole Christensen
Römer. Egli notò che le epoche di eclisse dei satelliti di Giove erano diverse
da quelle che ci si doveva attendere nell'ipotesi che essi orbitassero attorno
a Giove a velocità costanti. Poiché tanto la Terra quanto Giove orbitano
attorno al Sole, la distanza fra loro presenta variazioni enormi. Römer
osservò che i ritardi con cui si osservavano le eclissi dei satelliti di Giove
erano connessi al variare della distanza di Giove dalla Terra. Egli sostenne
che tali ritardi erano dovuti al tempo maggiore impiegato dalla luce
proveniente dal sistema di Giove per pervenire fino a noi quando la Terra e
Giove si trovano alla loro distanza massima (quando Giove è in prossimità
della congiunzione col Sole) che non quando Giove si trova in opposizione al
Sole o a distanze intermedie. Le misurazioni a opera di Römer della distanza
Terra-Giove non furono però molto precise, e il valore da lui ottenuto per la
velocità della luce fu di circa 225.000 chilometri al secondo, in luogo del
valore moderno di circa 300.000 chilometri al secondo. Il risultato
conseguito da Römer, non solo nel dimostrare che la luce si propaga a una
velocità finita, ma anche nel misurare tale velocità, fu nondimeno
considerevole, venendo ben undici anni prima della pubblicazione dei
Principia mathematica di Newton.
Una teoria adeguata della propagazione della luce non si ebbe fino al 1865,
quando il fisico britannico James Clerk Maxwell riuscì a unificare le teorie
parziali che erano state usate fino allora per descrivere le forze
dell'elettricità e del magnetismo. Le equazioni di Maxwell predicevano che
nel campo elettromagnetico combinato potevano verificarsi perturbazioni
simili a onde e che queste perturbazioni si sarebbero propagate a una
velocità fissa, come onde provocate sulla superficie di uno stagno
gettandovi un sasso. Se la lunghezza d'onda (la distanza fra una cresta
dell'onda e la successiva) è di un metro o più, si hanno quelle che oggi
chiamiamo onde radio. Le onde di lunghezza minore sono note come
microonde (nel caso di onde della lunghezza di qualche centimetro) o raggi
infrarossi (di più di un decimillesimo di centimetro). La luce visibile ha una
lunghezza d'onda compresa fra quaranta e ottanta milionesimi di
centimetro. Le onde di lunghezza ancora minore sono note come
ultravioletto, raggi X e raggi gamma.
La teoria di Maxwell prediceva che le onde radio o le onde luminose
debbano propagarsi a una certa velocità fissa. Ma la teoria di Newton aveva
rifiutato l'idea di una quiete assoluta, cosicché, se la luce doveva viaggiare a
una velocità fissa, si sarebbe dovuto dire relativamente a che cosa si doveva
misurare tale velocità fissa. Fu perciò formulata l'ipotesi che esistesse una
sostanza chiamata «etere», la quale sarebbe stata presente dappertutto,
persino nello spazio «vuoto». Le onde luminose dovevano propagarsi
attraverso l'etere nello stesso modo in cui le onde sonore si propagano
attraverso l'aria, e la loro velocità doveva perciò essere relativa all'etere.
Diversi osservatori, muovendosi relativamente all'etere, vedrebbero la luce
venir loro incontro a velocità diverse, ma la velocità della luce relativamente
all'etere resterebbe fissa.
In particolare, muovendosi la Terra attraverso l'etere nella sua rivoluzione
annua attorno al Sole, la velocità della luce misurata nella direzione del
moto della Terra attraverso l'etere (quando il movimento fosse stato verso
la sorgente di luce) avrebbe dovuto essere maggiore della velocità della luce
in direzione ortogonale rispetto a tale moto (quando il movimento non fosse
stato verso la sorgente di luce). Nel 1887 Albert Michelson (che sarebbe
stato in seguito il primo americano a ricevere un Premio Nobel per la fisica)
ed Edward Morley eseguirono un esperimento molto accurato alla Case
School of Applied Science di Cleveland. Essi confrontarono la velocità della
luce nella direzione del moto della Terra con quella ad angoli retti rispetto a
tale moto. Con loro grande sorpresa, trovarono che la velocità nelle due
direzioni era esattamente la stessa!
Fra il 1887 e il 1905 ci furono vari tentativi, fra cui particolarmente notevole
quello del fisico olandese Hendrick Lorentz, di spiegare il risultato
dell'esperimento di Michelson e Morley nei termini di oggetti che si
contraevano e di orologi che rallentavano mentre si muovevano attraverso
l'etere. In un articolo famoso, pubblicato nel 1905, un giovane fisico fino
allora sconosciuto che lavorava come impiegato all'Ufficio Brevetti svizzero,
Albert Einstein, sottolineò che l'intera idea di un etere era inutile, purché si
fosse stati disposti ad abbandonare l'idea del tempo assoluto.
Un'osservazione simile fu fatta qualche settimana dopo da un autorevole
matematico francese, Henri Poincaré. Gli argomenti di Einstein erano più
vicini alla fisica di quelli di Poincaré, che considerò questo problema
esclusivamente da un punto di vista matematico. Il merito per la nuova
teoria viene di solito riconosciuto a Einstein, ma il contributo di Poincaré
viene ricordato associando il suo nome a una parte importante della teoria
stessa.
Il postulato fondamentale della teoria della relatività, come fu chiamata, era
che le leggi della scienza dovrebbero valere nello stesso modo per tutti gli
osservatori liberamente in movimento, quale che fosse la loro velocità.
Questo valeva per le leggi del moto di Newton, ma ora l'idea fu estesa a
includere la teoria di Maxwell e la velocità della luce: tutti gli osservatori
dovevano misurare la stessa velocità della luce, per quanto elevata fosse la
loro velocità. Questa semplice idea ha alcune conseguenze notevoli. Quelle
forse più note sono l'equivalenza di massa ed energia, compendiata nella
famosa equazione di Einstein E = me2 (dove E è l'energia, m la massa e c la
velocità della luce), e la legge che nulla può muoversi a una velocità
superiore a quella della luce. A causa dell'equivalenza di energia e massa,
l'energia che un oggetto ha in conseguenza del suo movimento andrà a
sommarsi alla sua massa. Questo fatto renderà più difficile aumentarne la
velocità. Questo effetto diventa peraltro realmente significativo solo per
oggetti che si muovano a velocità prossime a quella della luce. Per esempio,
a una velocità pari al 10 per cento della velocità della luce la massa di un
oggetto aumenta solo dello 0,5 per cento, mentre al 90 per cento della
velocità della luce essa aumenta a più del 200 per cento. All'approssimarsi di
un oggetto alla velocità della luce, la sua massa aumenta sempre più
rapidamente, cosicché per accrescere la sua velocità si richiederà una
quantità di energia sempre maggiore. Nessun oggetto potrà mai in effetti
essere accelerato sino alla velocità della luce perché a quella velocità la sua
massa diventerebbe infinita e quindi, per l'equivalenza fra massa ed energia,
per fargli raggiungere tale velocità si richiederebbe una quantità di energia
infinita. Per questa ragione un qualsiasi oggetto normale è confinato per
sempre dalla relatività a muoversi a velocità inferiori alla velocità della luce.
Soltanto la luce, o altre onde che non posseggano una massa intrinseca,
possono muoversi a tale velocità limite.
Una conseguenza non meno notevole della relatività risiede nel modo in cui
essa ha rivoluzionato le nostre idee di spazio e tempo. Nella teoria di
Newton, se un impulso di luce viene trasmesso da un luogo a un altro,
diversi osservatori sarebbero d'accordo sul tempo impiegato dalla luce a
spostarsi da un punto all'altro (poiché il tempo è assoluto), ma non sempre
sarebbero d'accordo sulla distanza percorsa dalla luce (nell'ipotesi che
venisse usato lo spazio relativo). Poiché la velocità della luce è esattamente
il quoziente della distanza percorsa divisa per il tempo impiegato a
percorrerla, osservatori diversi misurerebbero per la luce velocità diverse.
Nella relatività, invece, tutti gli osservatori devono essere d'accordo sulla
velocità di propagazione della luce. Anche nella relatività, però, gli
osservatori non sono d'accordo sulla distanza percorsa dalla luce, cosicché
ora devono essere in disaccordo anche sul tempo impiegato. (Il tempo
impiegato è, dopo tutto, solo il prodotto della velocità della luce — su cui
tutti gli osservatori sono d'accordo — moltiplicata per la distanza percorsa
dalla luce — ed è qui che l'accordo viene meno.) In altri termini, la teoria
della relatività mise fine all'idea del tempo assoluto! Appariva chiaro che
ogni osservatore doveva avere la sua propria misura del tempo, qual era
registrato da un orologio che ciascuno di loro portava con sé, e che orologi
identici trasportati dai vari osservatori non avrebbero necessariamente
concordato.
Ogni osservatore potrebbe usare un radar per dire dove e quando un evento
ebbe luogo. Una parte degli impulsi di luce o di onde radio emessi dal radar,
pervenuti sul luogo dell'evento, viene riflessa all'indietro e l'osservatore
misura il tempo in cui riceve l'eco. Si dice allora che il tempo dell'evento è
l'istante di mezzo dell'intervallo di tempo intercorso fra l'emissione degli
impulsi e la ricezione del segnale riflesso: la distanza dell'evento è data dalla
metà del tempo impiegato in questo viaggio di andata e ritorno moltiplicata
per la velocità della luce. (Un evento, in questo senso, è qualcosa che ha
luogo in un singolo punto nello spazio, in un punto specificato nel tempo.)
Quest'idea è illustrata nella figura 2.1, in cui si fornisce un esempio di un
diagramma dello spazio-tempo. Usando questo procedimento, osservatori
in movimento l'uno relativamente all'altro assegneranno a uno stesso
evento tempi e posizioni diversi. Nessuna misurazione di un particolare
osservatore può considerarsi più corretta di quelle di un qualsiasi altro
osservatore, ma tutte le misurazioni hanno una relazione fra loro. Qualsiasi
osservatore potrebbe calcolare esattamente quale tempo e quale posizione
qualsiasi altro osservatore assegnerebbe a un evento, purché conoscesse la
velocità relativa dell'altro osservatore.
Oggi noi usiamo proprio questo metodo per misurare esattamente le
distanze, essendo noi in grado di misurare con maggiore precisione il tempo
che non la lunghezza. In effetti, il metro è definito come la distanza percorsa
dalla luce in 0,000000003335640952 secondi, misurati da un orologio al
cesio. (La ragione di questo numero particolare è che esso corrisponde alla
definizione storica del metro, qual è precisata da due intagli su un
particolare regolo di platino-iridio conservato a Parigi.) Oggi possiamo usare
anche una nuova unità di misura più comoda, detta il secondo-luce. Questa
è definita semplicemente come la distanza percorsa
dalla luce in un secondo. Nella teoria della relatività, noi definiamo ora la
distanza nei termini del tempo e della velocità della luce, cosicché ne segue
automaticamente che la luce avrà la stessa velocità per ogni osservatore
(per definizione, di 1 metro ogni 0,000000003335640952 secondi). Non c'è
alcun bisogno di introdurre l'idea dell'etere, la cui esistenza non può in alcun
caso essere rivelata, come dimostrò l'esperimento di Michelson e Morley. La
teoria della relatività ci costringe però a modificare radicalmente le nostre
idee dello spazio e del tempo. Noi dobbiamo accettare l'idea che il tempo
non sia separato completamente dallo spazio e da esso indipendente, ma
che sia combinato con esso a formare un'entità chiamata spazio-tempo.
E un fatto di comune esperienza che si può descrivere la posizione di un
punto nello spazio per mezzo di tre numeri, o coordinate. Per esempio, si
può dire che un punto in una stanza si trova a due metri da una parete, a un
metro dall'altra e a un metro e mezzo dal pavimento. Oppure si potrebbe
specificare che un punto si trova a una certa latitudine e longitudine e a una
certa altezza al di sopra del livello del mare. Si possono usare tre coordinate
idonee qualsiasi, anche se esse hanno solo un ambito di validità limitato.
Non sarebbe certo opportuno specificare la posizione della Luna in
chilometri a nord e a ovest del Colosseo e in centimetri sopra il livello del
mare. La si potrebbe invece descrivere nei termini di distanza dal Sole, di
distanza dal piano delle orbite dei pianeti e dell'angolo formato dalla linea
che congiunge la Luna al Sole con la linea che congiunge il Sole a una stella
vicina, come Alpha Centauri. Persino queste coordinate non sarebbero di
grande utilità per descrivere la posizione del Sole nella nostra galassia, o la
posizione della nostra galassia nel cosiddetto Gruppo locale di galassie. Di
fatto, si potrebbe descrivere l'intero universo nei termini di una serie di
chiazze sovrapponentisi. In ogni chiazza si potrebbe usare un diverso
insieme di tre coordinate per specificare la posizione di un punto.
Un evento è qualcosa che accade in un particolare punto nello spazio e in un
particolare tempo. E perciò possibile specificarlo per mezzo di quattro
numeri o coordinate. Di nuovo, la scelta delle coordinate è arbitraria: si
possono usare ogni volta un insieme qualsiasi di tre coordinate spaziali ben
definite e una qualsiasi misura di tempo. Nella relatività non c'è alcuna
distinzione reale fra le coordinate spaziali e la coordinata temporale, così
come non c'è alcuna reale differenza fra due coordinate spaziali quali si
vogliano. Si potrebbe scegliere un nuovo insieme di coordinate in cui,
diciamo, la prima coordinata spaziale fosse una combinazione delle vecchie
prima e seconda coordinata spaziale. Per esempio, invece di misurare la
posizione di un punto sulla Terra in chilometri a nord del Colosseo e in
chilometri a ovest del Colosseo, si potrebbero usare chilometri a nordest del
Colosseo e chilometri a nordovest del Colosseo. Similmente, nella teoria
della relatività, si potrebbe usare una nuova coordinata temporale che fosse
il vecchio tempo (in secondi) più la distanza (in secondi-luce) a nord del
Colosseo.
E spesso utile pensare le quattro coordinate di un evento come se ne
specificassero la posizione in uno spazio quadridimensionale chiamato
spazio-tempo.
È
però
impossibile
immaginare
uno
spazio
quadridimensionale. Io, personalmente, trovo difficile persino visualizzare lo
spazio tridimensionale! E invece facile disegnare diagrammi di spazi
bidimensionali, come la superficie della Terra. (La superficie della Terra è
bidimensionale perché la posizione di un punto su di essa può essere
specificata per mezzo di due coordinate, latitudine e longitudine.) In
generale userò diagrammi in cui il tempo cresce verso l'alto e una delle
dimensioni spaziali è rappresentata da un asse orizzontale. Le altre due
dimensioni spaziali vengono ignorate oppure, qualche volta, una di esse è
indicata in prospettiva. (Questi diagrammi sono chiamati diagrammi
spazio-temporali, come quello nella figura 2.1.) Nella figura 2.2, per
esempio,
Il tempo viene misurato verso l'alto in anni e la distanza lungo la linea che
congiunge il Sole con Alpha Centauri è misurata orizzontalmente in
chilometri. Le traiettorie percorse dal Sole e da Alpha Centauri nello
spazio-tempo sono illustrate dalle linee verticali a sinistra e a destra del
diagramma. Un raggio di luce proveniente dal Sole segue la linea diagonale e
impiega quattro anni per andare dal Sole ad Alpha Centauri.
Come abbiamo visto, le equazioni di Maxwell predicevano che la velocità
della luce doveva essere la stessa quale che fosse la velocità della sorgente,
fatto che è stato confermato da precise misurazioni. Ne segue che, se un
impulso di luce viene emesso in un tempo particolare in un particolare
punto nello spazio, esso si propagherà poi verso l'esterno nella forma di una
sfera di luce le cui dimensioni e posizione sono indipendenti dalla velocità
della sorgente. Dopo un milionesimo di secondo la luce si sarà propagata a
formare una sfera di 300 metri di raggio; dopo due milionesimi di secondo il
raggio sarà cresciuto a 600 metri, e via dicendo. Si avrà un fenomeno simile
a quello delle onde che si generano sulla superficie di uno stagno dopo che
vi si sia gettato un sasso. Le onde si propagano sotto forma di cerchi che
diventano sempre più grandi col passare del tempo. Se si pensa a un
modello tridimensionale formato dalla superficie bidimensionale dello
stagno e dalla dimensione unica del tempo, il cerchio in espansione formato
dalle onde delimiterà un cono il cui vertice si trova nel punto dello spazio e
del tempo in cui la pietra colpì l'acqua (fig. 2.3). Similmente, la luce che si
diffonde da un evento verso l'esterno forma un cono tridimensionale nello
spazio-tempo quadridimensionale. Questo cono è chiamato il cono di luce
del futuro dell'evento. Nello stesso modo possiamo disegnare un altro cono,
chiamato il cono di luce del passato, che è l'insieme di eventi da cui un
impulso di luce può raggiungere l'evento dato (fig. 2.4).
I coni di luce del passato e del futuro di un evento P dividono lo
spazio-tempo in tre regioni (fig. 2.5). Il futuro assoluto dell'evento è la
regione all'interno del cono di luce del futuro di P. Esso è l'insieme di tutti gli
eventi che potranno risentire di ciò che accade in P. Gli eventi esterni al
cono di luce di P non possono essere raggiunti da segnali provenienti da P
poiché nulla può viaggiare a una velocità superiore a quella della luce. Essi
non possono perciò essere influenzati da ciò che accade in P. Il passato
assoluto di P è la regione all'interno del cono di luce del passato. Esso è
l'insieme di tutti gli eventi da cui possono giungere in P segnali che si
propaghino alla velocità della luce o a una velocità inferiore. E perciò
l'insieme di tutti gli eventi che possono influire su ciò che accade in P. Se si
sa che cosa stia accadendo in un qualche tempo particolare nella regione
dello spazio che si trova all'interno del cono di luce del passato di P si può
predire che cosa accadrà in P. L'altrove è la regione dello spazio-tempo che
non si trova nei coni di luce del futuro o del passato di P. Gli eventi che si
verificano neh'altrove non possono influire sugli eventi in P, né possono
risentirne l'influenza. Per esempio, se il Sole dovesse cessare di emettere
luce in questo istante, esso non eserciterebbe alcuna influenza sulle cose
sulla Terra nel tempo presente perché esse si troverebbero nell'altrove
dell'evento nel momento in cui il Sole si spegne (fig. 2.6). Noi saremmo
informati di questo fenomeno solo otto minuti dopo, il tempo che la luce
impiega a percorrere la distanza Sole-Terra. Soltanto allora gli eventi sulla
Terra rientreranno nel cono di luce del futuro dell'evento in cui il Sole si
spense. Similmente, noi non sappiamo che cosa stia accadendo adesso in
regioni dell'universo più lontane: la luce delle galassie remote che
osserviamo oggi cominciò il suo viaggio milioni di anni fa. Perciò, quando noi
osserviamo l'universo, lo vediamo non com'è oggi bensì com'era in un
passato più o meno lontano.
Se si trascurano gli effetti gravitazionali, come fecero nel 1905 Einstein e
Poincaré, si ha la cosiddetta teoria speciale o ristretta della relatività. Per
ogni evento nello spaziotempo possiamo costruire un cono di luce (l'insieme
di tutte le traiettorie possibili nello spazio-tempo della luce emessa in
quell'evento) e poiché la velocità della luce è la stessa in ogni evento e in
ogni direzione, tutti i coni di luce saranno identici e saranno puntati tutti
nella stessa direzione. La teoria ci dice anche che niente può viaggiare a una
velocità maggiore di quella della luce. Ciò significa che la traiettoria di un
qualsiasi oggetto attraverso lo spazio e il tempo dev'essere rappresentata da
una linea che si trova all'interno del cono di luce in ogni evento che lo
riguardi (fig. 2.7).
La teoria speciale della relatività ebbe un grande successo nello spiegare che
la velocità della luce appare la stessa a tutti gli osservatori (come aveva
mostrato l'esperimento di Michelson e Morley) e nel descrivere che cosa
accada quando le cose si muovono a velocità prossime a quella della luce.
Essa era però in disaccordo con la teoria newtoniana della gravità, la quale
diceva che gli oggetti si attraggono fra loro con una forza la cui grandezza
dipende dalla distanza fra loro. Ciò significava che, se si spostava uno degli
oggetti, la forza che si esercitava sull'altro mutava istantaneamente. O, in
altri termini, che gli effetti gravitazionali dovevano propagarsi con una
velocità infinita, anziché con la velocità della luce o con una velocità
inferiore, come richiedeva la teoria della relatività speciale. Fra il 1908 e il
1914 Einstein fece vari tentativi, che non furono però coronati dal successo,
per trovare una teoria della gravità che fosse in accordo con la relatività
speciale. Infine, nel 1915, propose quella che è nota oggi come teoria
generale della relatività.
Einstein fece il suggerimento rivoluzionario che la gravità non sia una forza
come le altre, bensì una conseguenza del fatto che lo spazio-tempo non è
piatto, come si era supposto in precedenza, bensì incurvato, o «distorto»,
dalla distribuzione della massa e dell'energia in esso presenti. I corpi come la
Terra non sono fatti per muoversi su orbite incurvate da una forza chiamata
gravità; essi seguono invece la cosa più vicina che esista a una traiettoria
rettilinea in uno spazio curvo, ossia una geodetica. Una geodetica è la
traiettoria più breve (o più lunga) fra due punti vicini. Per esempio, la
superficie della Terra è uno spazio curvo bidimensionale. Una geodetica
sulla Terra è chiamata un cerchio massimo, ed è la via più breve che esista
fra due punti (fig. 2.8). Poiché la geodetica è la traiettoria più breve fra
due aeroporti, essa è la linea che l'ufficiale di rotta di una linea aerea dirà al
pilota di seguire. Nella relatività generale, i corpi seguono sempre linee rette
nello spazio-tempo quadridimensionale, ma nel nostro spazio
tridimensionale ci appaiono sempre muoversi lungo traiettorie curve. (E un
po' come osservare un aereo che voli al di sopra di una regione montuosa.
Benché esso segua una linea retta nello spazio tridimensionale, sul suolo
bidimensionale la sua ombra segue una traiettoria incurvata.)
La massa del Sole incurva lo spazio-tempo in modo tale che, benché la Terra
segua una traiettoria rettilinea nello spazio quadridimensionale, nello spazio
tridimensionale essa ci appare muoversi in un'orbita circolare. In realtà le
orbite dei pianeti predette dalla relatività generale sono quasi esattamente
identiche a quelle predette dalla teoria newtoniana della gravitazione. Nel
caso di Mercurio, però, che essendo il pianeta più vicino al Sole sperimenta
gli effetti gravitazionali più forti, e che ha un'orbita alquanto allungata, la
relatività generale predice che l'asse maggiore dell'ellisse dovrebbe ruotare
attorno al Sole spostandosi di un grado circa ogni diecimila anni. Per quanto
piccolo sia questo effetto, esso era stato già osservato prima del 1915 e
fornì una delle prime conferme della teoria di Einstein. In anni recenti gli
scarti ancora più piccoli delle orbite degli altri pianeti rispetto alle traiettorie
predette da Newton sono stati misurati col radar e trovati in accordo con le
predizioni della relatività generale.
Anche i raggi di luce devono seguire le geodetiche nello spazio-tempo. Di
nuovo, il fatto che lo spazio sia incurvato ha come conseguenza che la luce
non sembri propagarsi nello spazio in linea retta. Così la relatività generale
predice che la traiettoria della luce dovrebbe essere incurvata dai campi
gravitazionali. Per esempio, la teoria predice che i coni di luce di punti in
prossimità del Sole dovrebbero essere leggermente incurvati verso l'interno,
in conseguenza della massa del Sole. Ciò significa che i raggi di luce
provenienti da una stella lontana che si trovassero a passare in prossimità
del disco solare sarebbero deviati di un piccolo angolo e che in conseguenza
di questa deflessione un osservatore sulla Terra vedrebbe la stella spostata
in una posizione diversa (fig. 2.9). Ovviamente, se la luce proveniente dalla
stella passasse sempre in prossimità del Sole, noi non saremmo in grado di
dire se la sua luce sia veramente deviata, o se invece la stella si trovi
realmente dove la vediamo. Mentre la Terra compie le sue rivoluzioni
attorno al Sole, però, varie stelle vengono occultate dal Sole e la loro luce,
nell'istante in cui sfiora il bordo del disco solare prima o dopo
l'occultamento, subisce una deflessione. Esse mutano perciò la loro
posizione apparente relativamente ad altre stelle.
Di solito è molto difficile osservare questo effetto, perché la luce
proveniente dal Sole rende impossibile la visione di stelle che vengono a
trovarsi in cielo in prossimità del disco solare. La situazione muta però
radicalmente durante un'eclisse di Sole, quando il disco del Sole viene
coperto dalla Luna e la luce solare non illumina più l'atmosfera terrestre. La
predizione fatta da Einstein della deflessione della luce delle stelle non potè
essere verificata immediatamente nel 1915, perché era allora in corso la
prima guerra mondiale; nel 1919, però, una spedizione britannica recatasi
nell'Africa occidentale per osservare un'eclisse, confermò che la luce delle
stelle veniva effettivamente deflessa dal Sole nel modo predetto dalla teoria.
Questa conferma di una teoria tedesca da parte di scienziati britannici fu
salutata come un grande atto di riconciliazione fra i due paesi dopo la guerra.
E perciò un'ironia della storia che un posteriore esame delle fotografie
eseguite nel corso di quella spedizione abbia dimostrato errori dello stesso
ordine di grandezza dell'effetto che si cercava di misurare. La misurazione si
era rivelata un caso di mera fortuna, ovvero era stata influenzata dal fatto di
conoscere già il risultato che si voleva ottenere, un fenomeno non
inconsueto nella scienza. La deflessione della luce è però stata confermata
con precisione da varie osservazioni posteriori.
Un'altra predizione della relatività generale è che in prossimità di un corpo
di massa relativamente grande come la Terra il tempo dovrebbe scorrere più
lentamente. Causa di questo fenomeno è la relazione esistente fra l'energia
della luce e la sua frequenza (ossia il numero delle onde di luce al secondo):
quanto maggiore è l'energia tanto più grande è la frequenza. Propagandosi
verso l'alto nel campo gravitazionale terrestre, la luce perde energia e quindi
la sua frequenza diminuisce. (Ciò significa che aumenta l'intervallo di tempo
fra una cresta d'onda e la successiva.) Chi si trovasse più in alto vedrebbe
tutti i fenomeni sulla superficie terrestre impiegare più tempo per verificarsi.
Questa predizione fu verificata nel 1962 usando un paio di orologi molto
esatti collocati sulla cima e alla base di un serbatoio d'acqua sopraelevato.
L'orologio alla base, che era più vicino alla superficie terrestre, risultò
funzionare più lentamente, in preciso accordo con la relatività generale. La
differenza nel funzionamento degli orologi ad altitudini diverse al di sopra
della Terra ha oggi un'importanza pratica considerevole, con l'avvento di
sistemi di navigazione molto esatti fondati su segnali emessi da satelliti. Se si
ignorassero le predizioni della relatività generale, le posizioni calcolate in
volo potrebbero essere sbagliate di vari chilometri.
Le leggi del moto di Newton misero fine all'idea di una posizione assoluta
nello spazio. La teoria della relatività si è liberata anche del tempo assoluto.
Consideriamo un paio di gemelli. Supponiamo che un gemello vada a vivere
sulla cima di una montagna, mentre l'altro rimane al livello del mare. Il
primo gemello invecchierà più rapidamente del secondo, cosicché, quando
essi torneranno a incontrarsi, uno dei due sarà più vecchio dell'altro. In
questo caso la differenza di età sarebbe molto piccola. Si avrebbe invece una
differenza di età molto maggiore — questa volta in conseguenza della
dilatazione relativistica del tempo alle alte velocità — se uno dei due gemelli
partisse per un lungo viaggio su un'astronave lanciata nello spazio
interstellare a una velocità prossima a quella della luce. Al suo ritorno,
l'astronauta sarebbe molto più giovane del suo gemello rimasto sulla Terra.
Questo caso è noto come il paradosso dei gemelli, ma è un paradosso solo
se in fondo alla propria mente non si riesce ad andare oltre l'idea di un
tempo assoluto. Nella teoria della relatività non esiste un tempo unico
assoluto, ma ogni individuo ha la sua propria misura personale del tempo,
che dipende da dove si trova e da come si sta muovendo.
Prima del 1915 si pensava allo spazio e al tempo come a una scena fissa in
cui avevano luogo degli eventi, ma che non risentiva di ciò che accadeva su
di essa. Ciò valeva persino per la teoria speciale della relatività. I corpi si
muovevano, le forze attraevano e respingevano, ma il tempo e lo spazio
continuavano semplicemente la loro esistenza, senza che nulla potesse
influire su di essi. Era naturale pensare che spazio e tempo sarebbero durati
per sempre.
La situazione è però del tutto diversa nella teoria generale della relatività.
Qui spazio e tempo sono quantità dinamiche: quando si muove un corpo, o
agisce una forza, essi incidono sulla curvatura dello spazio e del tempo: e a
loro volta la struttura dello spazio-tempo influisce sul modo in cui i corpi si
muovono e le forze agiscono. Spazio e tempo non solo influiscono su ciò che
accade nell'universo, ma risentono a loro volta di tutto ciò che accade
nell'universo. Come non si può parlare di eventi che accadono nell'universo
senza far ricorso alle nozioni di spazio e di tempo, così nella relatività
generale ha perso ogni significato parlare di spazio e tempo fuori dei limiti
dell'universo.
Nei decenni seguenti questa nuova comprensione dello spazio e del tempo
avrebbe rivoluzionato la nostra concezione dell'universo. La vecchia idea di
un universo essenzialmente immutabile che potrebbe esistere da sempre, e
che potrebbe continuare a esistere per sempre, fu sostituita dalla nozione di
un universo dinamico, in espansione, che sembrava avere avuto inizio in un
tempo finito in passato, e che potrebbe durare per un tempo finito in futuro.
Questa rivoluzione forma l'argomento del prossimo capitolo. E vari anni
dopo avrebbe fornito il punto di avvio al lavoro di fisica teorica in cui Roger
Penrose e io abbiamo mostrato che la teoria generale della relatività di
Einstein implicava che l'universo deve avere avuto un inizio e che dovrà
forse avere una fine.
3
L'UNIVERSO IN ESPANSIONE
Se si osserva il cielo in una notte limpida senza Luna, gli oggetti più luminosi
che attraggono il nostro sguardo sono di solito i pianeti Venere, Marte,
Giove e Saturno. Ci sarà anche un numero grandissimo di stelle, le quali
sono corpi celesti simili al nostro Sole, ma molto più lontani. Alcune di
queste stelle cosiddette «fisse» risultano mutare di pochissimo la loro
posizione l'una relativamente all'altra mentre la Terra orbita attorno al Sole:
esse non occupano quindi affatto una posizione fissa sulla sfera celeste! I
loro spostamenti sono dovuti al fatto che esse sono relativamente vicine a
noi. Nel corso della rivoluzione annua della Terra attorno al Sole, noi le
vediamo da posizioni diverse di contro allo scenario di fondo costituito da
stelle più lontane. Grazie a quest'opportunità, noi possiamo misurare
direttamente la loro distanza da noi: quanto più queste stelle sono vicine a
noi, tanto maggiore ci appare il loro spostamento (la loro parallasse). La
stella più vicina, la Proxima Centauri, risulta trovarsi a circa quattro anni-luce
di distanza (la sua luce impiega circa quattro anni a raggiungere la Terra),
ossia a circa 38 milioni di milioni di chilometri. La maggior parte delle altre
stelle visibili a occhio nudo si trovano entro qualche centinaio di anni-luce
da noi. Il Sole, per confronto, si trova a soli otto minuti-luce di distanza! Le
stelle visibili appaiono distribuite sull'intero cielo notturno, ma sono
particolarmente concentrate in una banda che chiamiamo la Via Lattea. Già
attorno alla metà del Settecento qualcuno (fra cui Thomas Wright, 1734)
aveva formulato l'ipotesi che si potesse spiegare l'aspetto della Via Lattea
supponendo che la maggior parte delle stelle visibili si trovino in una singola
configurazione in forma di disco, un esempio di quelle che noi oggi
chiamiamo galassie spirali. Solo qualche decennio dopo, il famoso
astronomo sir William Herschel confermò l'idea di Wright catalogando
minuziosamente posizioni e distanze di un gran numero di stelle.
Nonostante le sue fatiche, l'idea della forma discoidale della nostra galassia
acquistò piena accettazione solo all'inizio del nostro secolo.
La nostra immagine moderna dell'universo risale solo al 1924, quando
l'astronomo americano Edwin Hubble dimostrò che la nostra galassia non
era l'unica, ma che in realtà ne esistono molte, separate da estensioni
immense di spazio vuoto. Per poter dimostrare questo fatto, egli aveva
bisogno di determinare le distanze di queste altre galassie, le quali sono così
lontane che, a differenza delle stelle vicine, appaiono occupare realmente
posizioni fisse sulla sfera celeste. Hubble fu perciò costretto, per misurarne
le distanze, a far ricorso a metodi indiretti. Ora, la luminosità (o magnitudine)
apparente di una stella dipende da due fattori: dalla quantità di luce che
essa irraggia (la sua luminosità o magnitudine assoluta) e dalla sua distanza
da noi. Per le stelle vicine siamo in grado di misurare indipendentemente la
luminosità apparente e la distanza, cosicché possiamo calcolare la loro
luminosità assoluta. Inversamente, se conoscessimo la luminosità assoluta
di stelle appartenenti ad altre galassie, potremmo calcolare la loro distanza
misurandone la luminosità apparente. Hubble notò che certi tipi di stelle,
quando sono abbastanza vicine a noi da poterne determinare la distanza
con metodi trigonometrici, presentano sempre la stessa luminosità assoluta;
perciò, ragionò, se trovassimo tali tipi di stelle in un'altra galassia,
potremmo supporre che esse abbiano questa stessa luminosità assoluta, e
sulla base di quest'ipotesi potremmo calcolare la distanza di tale galassia. Se
potessimo applicare questo procedimento per un certo numero di stelle
appartenenti a una stessa galassia, e i nostri calcoli dessero sempre la stessa
distanza, potremmo avere una certa fiducia nella nostra stima.
In questo modo Hubble calcolò la distanza di nove galassie diverse. Noi oggi
sappiamo che la nostra galassia è solo una delle centinaia di milioni di
galassie che possiamo osservare con i moderni telescopi (contenenti
ciascuna qualche centinaio di milioni di stelle). La figura 3.1 presenta
un'immagine di una galassia spirale dall'aspetto simile a quello che
pensiamo dovrebbe avere la nostra per un osservatore che la contemplasse
da un'altra galassia. Noi viviamo in una galassia — che chiamiamo
semplicemente la Galassia — che ha un diametro di circa centomila
anni-luce e che è impegnata in un lento movimento di rotazione; le stelle
contenute nelle sue braccia di spirale orbitano attorno al suo centro, con un
periodo di varie centinaia di milioni di anni. Il Sole è soltanto una comune
stella gialla, di dimensioni medie, in prossimità del bordo interno di un
braccio di spirale. Noi abbiamo certamente percorso un bel tratto di strada
dal tempo di Aristotele e Tolomeo, quando si pensava che la Terra fosse il
centro dell'universo!
Le stelle sono così lontane da apparirci solo come puntini di luce. Noi non
riusciamo a scorgerne le dimensioni o la forma. Come possiamo dunque
suddividere le stelle in diverse categorie? Per la grande maggioranza delle
stelle c'è solo un carattere che possiamo osservare: il colore della loro luce.
Newton scoprì che, se facciamo passare la luce proveniente dal Sole
attraverso un pezzo di vetro di sezione triangolare, detto prisma, essa si
scompone nei suoi colori componenti (il suo spettro), i quali formano una
sorta di arcobaleno. Mettendo a fuoco l'immagine telescopica di una singola
stella o di una singola galassia, possiamo similmente scomporne la luce,
osservandone in tal modo lo spettro. Stelle diverse hanno spettri differenti,
ma la luminosità relativa dei singoli colori è sempre esattamente quella che
ci si attenderebbe di trovare nella luce emessa da un oggetto al calor rosso.
(Di fatto la luce emessa da un qualsiasi oggetto opaco al calor rosso ha uno
spettro caratteristico, che dipende solo dalla sua temperatura: uno spettro
termico. Ciò significa che possiamo determinare quale sia la temperatura di
una stella osservando lo spettro della sua luce.) Inoltre, troviamo che negli
spettri stellari mancano certi colori molto specifici, i quali possono variare
da una stella all'altra. Sapendo che ogni elemento chimico assorbe una serie
caratteristica di colori molto specifici, confrontando queste cosiddette righe
di assorbimento con quelle presenti nello spettro di una stella possiamo
determinare con precisione quali elementi siano presenti nella sua
atmosfera.
Negli anni Venti, quando gli astronomi cominciarono a osservare gli spettri
di stelle appartenenti ad altre galassie, trovarono qualcosa di estremamente
peculiare: essi presentavano gli stessi insiemi caratteristici di righe di
assorbimento che erano già stati osservati per stelle appartenenti alla
Galassia, ma con una differenza: che erano tutti spostati di una medesima
quantità relativa verso l'estremo rosso dello spettro. Per capire le
implicazioni di questo fatto, dobbiamo prima comprendere l'effetto Doppler.
Come abbiamo visto, la luce visibile consiste in fluttuazioni, o onde, in un
campo elettromagnetico. La frequenza (o numero di onde per secondo)
della luce è estremamente elevata, variando da quattrocento a settecento
milioni di milioni di onde al secondo. L'occhio umano vede le diverse
frequenze della luce come colori diversi, con le frequenze minori che si
collocano all'estremo rosso dello spettro e le frequenze maggiori all'estremo
blu. Immaginiamo ora una sorgente di luce che si trovi a una distanza
costante da noi, come una stella, e che emetta luce a una frequenza
costante. E chiaro che la frequenza delle onde che noi riceviamo sarà la
stessa alla quale la luce è stata emessa (il campo gravitazionale della galassia
non sarà abbastanza grande da esercitare un effetto significativo sulla
frequenza della luce). Supponiamo ora che la sorgente cominci a muoversi
verso di noi. Quando la sorgente emette la cresta d'onda successiva, si
troverà a una distanza minore da noi, cosicché il tempo che tale cresta
d'onda impiegherà a giungere fino a noi sarà minore di quello che avrebbe
impiegato se la stella fosse stata immobile. Ciò significa che l'intervallo di
tempo fra le due creste d'onda che riceviamo sarà minore, e quindi il
numero di onde che riceviamo ogni secondo (cioè la frequenza) sarà
maggiore di quando la stella era stazionaria. Corrispondentemente, se la
sorgente si allontana da noi, la frequenza delle onde che riceviamo sarà
minore. Nel caso della luce, perciò, questo significa che le stelle che si
allontanano da noi avranno il loro spettro spostato verso l'estremo rosso
dello spettro (spostamento verso il rosso) e quelle che si muovono verso di
noi avranno il loro spettro spostato verso il blu. Questo rapporto fra
frequenza e velocità, che è chiamato effetto Doppler, è un'esperienza
quotidiana. Ascoltiamo una macchina che passi accanto a noi su una strada
di grande comunicazione: quando la vettura viene verso di noi il suo motore
produce un suono più alto (corrispondente a una frequenza maggiore delle
onde sonore), mentre quando ci ha superati e si allontana il suono del suo
motore diventa più basso. Il comportamento delle onde luminose o delle
onde radio è simile. In effetti, la polizia si serve dell'effetto Doppler per
determinare la velocità di autovetture, misurando la frequenza degli impulsi
di onde radio riflessi ricevuti di ritorno dalle proprie apparecchiature.
Negli anni successivi alla sua dimostrazione dell'esistenza di altre galassie,
Hubble spese il suo tempo nel catalogare le loro distanze e nell'osservare i
loro spettri. A quel tempo la maggior parte delle persone si attendeva che le
galassie si muovessero in modi casuali, cosicché ci si aspettava di osservare
un ugual numero di spostamenti verso il rosso e verso il blu. Fu perciò una
sorpresa trovare che la luce della maggior parte delle galassie appariva
spostata verso il rosso: quasi tutte stavano allontanandosi da noi! Ancora
più sorprendente fu la scoperta che Hubble pubblicò nel 1929: l'entità dello
spostamento verso il rosso della luce di una galassia non era casuale, bensì
era direttamente proporzionale alla distanza della galassia da noi. O, in altri
termini, quanto più una galassia è lontana da noi, tanto più grande è la sua
velocità di recessione! Ciò significava che l'universo non poteva essere
statico, come si era sempre creduto in precedenza, ma che in realità si sta
espandendo: la distanza fra le diverse galassie sta crescendo di continuo.
La scoperta che l'universo è in espansione fu una delle grandi rivoluzioni
intellettuali del XX secolo. Col senno di poi è facile chiedersi perché nessuno
ci avesse mai pensato prima. Newton e altri avrebbero dovuto rendersi
conto che un universo statico avrebbe cominciato a contrarsi
immediatamente sotto l'influenza della gravità. Supponiamo invece che
l'universo sia in espansione: se l'espansione fosse abbastanza lenta, la forza
di gravità la farebbe rallentare sempre più fino a causarne a un certo punto
l'arresto, dando poi l'avvio a una fase successiva di contrazione. Se invece la
velocità di espansione dell'universo fosse superiore a una certa velocità
critica, la gravità non sarebbe mai abbastanza forte da metter fine
all'espansione e l'universo continuerebbe a espandersi per sempre. La
situazione è simile a quella di un razzo lanciato verso l'alto dalla superficie
della Terra. Se esso ha una velocità inferiore a una certa velocità critica (la
cosiddetta «velocità di fuga», di circa 11,2 km/sec), la gravità finirà col
mettere fine al movimento ascensionale del razzo, che ricadrà al suolo. Se
esso avrà invece una velocità superiore a tale valore critico, la gravità non
sarà sufficiente a farlo tornare indietro, cosicché esso continuerà ad
allontanarsi per sempre dalla Terra. Questo carattere dinamico dell'universo
avrebbe potuto essere predetto, sulla base della teoria della gravità di
Newton, in un qualsiasi periodo nell'Ottocento, nel Settecento o persino alla
fine del Seicento. Eppure la fede in un universo statico era così forte da
persistere addirittura sino al Novecento inoltrato. Persino Einstein, quando
formulò la teoria generale della relatività nel 1915, era così sicuro che
l'universo fosse stazionario, da modificare la sua teoria per adeguarla a
questa situazione, introducendo nelle sue equazioni la cosiddetta costante
cosmologica. Con questa costante Einstein introdusse una nuova forza
«antigravitazionale», la quale, a differenza di altre forze, non proveniva da
alcuna particolare sorgente, ma era incorporata nel tessuto stesso dello
spaziotempo. Einstein sostenne che lo spazio-tempo aveva una tendenza
intrinseca a espandersi, e che questa tendenza poteva essere tale da
controbilanciare esattamente l'attrazione di tutta la materia nell'universo, in
modo da ottenere un universo statico. Soltanto un uomo, a quanto pare, fu
disposto a considerare la relatività generale nel suo valore nominale, e
mentre Einstein e altri fisici stavano cercando modi per evitare la predizione
in essa implicita di un universo non statico, il fisico e matematico russo
Aleksandr Aleksandrovic Fridman cercò invece di spiegarla.
Fridman fece due assunti molto semplici sull'universo: che esso appaia
uguale in qualsiasi direzione lo si osservi, e che ciò varrebbe anche se noi lo
osservassimo da qualsiasi altra posizione. Sulla base di queste due sole idee,
Fridman mostrò che non dovremmo attenderci che l'universo sia statico. In
verità nel 1922, vari anni prima della scoperta di Edwin Hubble, Fridman
predisse esattamente ciò che sarebbe stato trovato dall'astronomo
americano!
L'assunto che l'universo appaia uguale in qualsiasi direzione lo si osservi è in
chiaro contrasto con la realtà. Per esempio, come abbiamo visto, le altre
stelle presenti nella nostra galassia formano una banda di luce ben definita
che attraversa il cielo notturno, la Via Lattea. Se però osserviamo le galassie
lontane, esse sembrano essere distribuite in modo più o meno uniforme
sull'intera sfera celeste. L'universo sembrerebbe essere quindi più o meno
uniforme in qualsiasi direzione, purché lo si consideri a una scala abbastanza
grande rispetto alla distanza fra le galassie e purché si ignorino le differenze
su scale minori. Per molto tempo questa fu una giustificazione sufficiente
per l'assunto di Fridman, come rozza approssimazione all'universo reale.
Più recentemente, però, un caso fortunato permise di rendersi conto che
l'assunto di Fridman è in realtà una descrizione notevolmente esatta del
nostro universo.
Nel 1965 due fisici americani che lavoravano nei Bell Telephone Laboratories
nel New Jersey, Arno Penzias e Robert Wilson, stavano provando un
rivelatore di microonde molto sensibile. (Le microonde sono molto simili alle
onde luminose, con la sola differenza che hanno una frequenza molto
minore, dell'ordine di solo dieci miliardi di onde al secondo.) Penzias e
Wilson, quando si accorsero che il loro rivelatore stava raccogliendo più
rumore di quanto avrebbe dovuto, si preoccuparono. Il rumore non
sembrava provenire da una direzione particolare. In principio scoprirono nel
rivelatore degli escrementi di uccello e cercarono di verificare altri possibili
difetti di funzionamento, ma ben presto giunsero a escludere queste
eventualità. Essi sapevano che qualsiasi rumore che avesse avuto origine
nell'atmosfera sarebbe stato più forte quando il rivelatore non fosse stato
puntato direttamente verso l'alto, perché il rumore avrebbe dovuto
presentare un'intensità proporzionale alla profondità dell'atmosfera nella
direzione in cui esso era puntato. Il rumore extra risultò essere lo stesso in
qualsiasi direzione il rivelatore venisse puntato, cosicché doveva provenire
dall’esterno dell'atmosfera. Esso era inoltre sempre uguale, giorno e notte e
nel corso di tutto l'anno, anche se la Terra ha un movimento di rotazione sul
suo asse e un movimento di rivoluzione attorno al Sole. Ciò dimostrava che
la radiazione doveva provenire da fuori del sistema solare, e persino da fuori
della Galassia, giacché in questo caso avrebbe presentato variazioni a
seconda delle direzioni in cui il ricevitore veniva puntato. Noi sappiamo in
effetti che la radiazione dev'essere giunta fino a noi percorrendo la maggior
parte dell'universo osservabile e che, apparendoci essa uguale in direzioni
diverse, anche l'universo dev'essere omogeneo, anche se solo a una scala
molto grande. Oggi sappiamo che, in qualsiasi direzione osserviamo, questo
rumore non varia mai di più di una parte su diecimila: Penzias e Wilson si
erano quindi imbattuti senza rendersene conto in una conferma abbastanza
esatta del primo assunto di Fridman.
Press'a poco nello stesso tempo stavano prendendo interesse alle
microonde anche due fisici americani della vicina Princeton University, cioè
Bob Dicke e Jim Peebles. Essi stavano lavorando a un suggerimento fatto da
George Gamow (già allievo di Aleksandr Fridman), che l'universo nelle sue
fasi iniziali dovesse essere stato molto caldo e denso, emanando una luce
assai intensa. Dicke e Peebles sostennero che noi dovremmo essere ancora
in grado di vedere lo splendore dell'universo primitivo perché la radiazione
emessa in parti molto lontane di esso dovrebbe raggiungerci solo ora. In
conseguenza dell'espansione dell'universo, però, questa luce dovrebbe
essere così spostata verso il rosso da pervenirci nella forma di una
radiazione a microonde. Dicke e Peebles stavano accingendosi a cercare
questa radiazione quando Penzias e Wilson sentirono parlare della loro
ricerca e si resero conto di averla già trovata. Per questo risultato Penzias e
Wilson ricevettero nel 1978 il Premio Nobel (cosa che sembra un po'
ingiusta nei confronti di Dicke e Peebles, per non parlare di Gamow!).
Ora, a prima vista, tutte queste prove del fatto che l'universo ha lo stesso
aspetto in qualsiasi direzione possiamo osservarlo, sembra suggerire che nel
nostro posto nell'universo ci sia qualcosa di speciale. In particolare può
sembrare che, se vediamo tutte le altre galassie allontanarsi da noi,
dobbiamo trovarci al centro dell'universo. Esiste, però, una spiegazione
alternativa: l'universo potrebbe sembrare uguale in tutte le direzioni anche
visto da qualsiasi altra galassia. Questo, come abbiamo visto, fu il secondo
assunto di Fridman. Noi non abbiamo alcuna prova scientifica prò, o contro,
questo assunto. Lo accettiamo solo per ragioni di modestia: sarebbe
stranissimo se l'universo avesse lo stesso aspetto in ogni direzione attorno a
noi, e non attorno ad altri punti nell'universo stesso! Nel modello di Fridman
tutte le galassie si allontanano direttamente l'una dall'altra. La situazione
assomiglia un po' a quella di un palloncino di gomma su cui siano dipinti dei
pallini, il quale venga gonfiato costantemente. Quando il palloncino si dilata,
la distanza fra due pallini scelti a piacere aumenta, ma non c'è alcun pallino
che possa essere considerato al centro dell'espansione. Inoltre, quanto più i
pallini sono lontani fra loro, tanto maggiore sarà la loro velocità di
allontanamento reciproca. Similmente, nel modello di Fridman la velocità a
cui due galassie quali si vogliano si stanno allontanando è proporzionale alla
distanza esistente fra loro. Esso prediceva perciò che lo spostamento verso il
rosso della luce di una galassia doveva essere direttamente proporzionale
alla sua distanza da noi, esattamente come trovò Hubble. Nonostante la
validità del suo modello, e il fatto che esso predicesse i risultati poi trovati
da Hubble, l'opera di Fridman rimase in gran parte ignorata in Occidente
fino a quando modelli simili non furono scoperti nel 1935 dal fisico
americano Howard Robertson e dal matematico britannico Arthur Walker in
risposta alla scoperta dell'espansione uniforme dell'universo per opera di
Hubble.
Benché Fridman ne abbia trovato uno solo, ci sono in realtà tre tipi diversi di
modello che obbediscono ai suoi due assunti fondamentali. Nel primo tipo
(quello trovato da Fridman) l'espansione dell'universo è abbastanza lenta
perché l'attrazione gravitazionale fra le diverse galassie possa causare un
rallentamento e infine l'arresto dell'espansione. Poi le galassie
cominceranno a muoversi l'una verso l'altra e l'universo entrerà in una fase
di contrazione. La figura 3.2 mostra come la distanza fra due galassie vicine
muti al passare del tempo. In principio la distanza fra loro è zero, poi cresce
fino a un massimo e infine torna a diminuire fino a zero. Nel secondo tipo di
soluzione l'universo si espande così rapidamente che l'attrazione
gravitazionale non riuscirà mai ad arrestare l'espansione, anche se riesce in
qualche misura a rallentarla. La figura 3.3 illustra la separazione fra galassie
vicine in questo modello. In principio la distanza è zero e infine le galassie si
separano a una velocità costante. C'è poi un terzo tipo di soluzione, in cui
l'universo si espande alla velocità esattamente richiesta per evitare la
successiva ricontrazione. In questo caso la separazione, illustrata nella figura
3.4, comincia come negli altri casi a zero e aumenta per sempre. Le velocità
a cui le galassie si allontanano diventano in questo caso sempre più piccole,
anche se non giungono mai a zero.
Un carattere notevole del primo tipo di modello di Fridman è che in esso
l'universo non è infinito nello spazio, ma che ciò nonostante lo spazio non ha
alcun limite. La gravità è così forte che lo spazio si incurva su se stesso,
venendo ad assomigliare in qualche misura alla superficie della Terra.
Se si continua a viaggiare lungo una certa direzione sulla superficie della
Terra, non ci si imbatte mai in una barriera invalicabile né si cade giù da un
margine, ma si finisce poi al punto di partenza. Nel primo modello di
Fridman lo spazio è esattamente così, ma con tre dimensioni in luogo delle
due della superficie terrestre. Anche la quarta dimensione, il tempo, ha
un'estensione finita, ma è come una linea con due estremi o due limiti, un
inizio e una fine. Vedremo in seguito che, quando si combini la relatività
generale col principio di indeterminazione della meccanica quantistica,
tanto lo spazio quanto il tempo possono essere finiti ma illimitati.
L'idea che si potrebbe percorrere in linea retta l'intero universo e ritrovarsi
al punto di partenza è corretta dal punto di vista scientifico ma non ha molta
importanza pratica, potendosi dimostrare che l'universo si sarà ricontratto
in un punto di dimensioni zero prima che se ne possa fare il giro. Per potersi
ritrovare al punto di partenza prima della fine dell'universo si dovrebbe
viaggiare a una velocità superiore a quella della luce, cosa che non è
permessa!
Nel primo tipo di modello di Fridman, in cui la fase di espansione sarà
seguita da una fase di collasso, lo spazio è richiuso su se stesso, come la
superficie della Terra. Esso ha perciò un'estensione finita. Nel secondo tipo
di modello, in cui l'espansione dura per sempre, lo spazio è incurvato nel
modo opposto, come la superficie di una sella. In questo caso, quindi lo
spazio è infinito. Infine, nel terzo tipo di modello di Fridman, in cui
l'espansione ha esattamente la velocità minima che si richiede per evitare il
collasso, lo spazio è piatto (e perciò anche in questo caso infinito).
Ma quale dei modelli di Fridman descrive il nostro universo? L'universo
smetterà infine di espandersi e comincerà a contrarsi, oppure si espanderà
per sempre? Per rispondere a questa domanda abbiamo bisogno di
conoscere l'attuale velocità di espansione dell'universo e la sua attuale
densità media. Se la densità è inferiore a un certo valore critico, che è
determinato dalla velocità di espansione, l'attrazione gravitazionale sarà
troppo debole per arrestare l'espansione. Se la densità è superiore al valore
critico, verrà un momento in futuro in cui la gravità arresterà l'espansione e
causerà il successivo collasso dell'universo nella sua condizione di
concentrazione iniziale.
Noi possiamo determinare la presente rapidità di espansione misurando,
per mezzo dell'effetto Doppler, le velocità con cui le altre galassie stanno
allontanandosi da noi. Questa misurazione può essere eseguita in modo
molto accurato. Le distanze delle galassie non sono però molto ben note,
giacché noi possiamo misurarle solo indirettamente. Così tutto ciò che
sappiamo è che l'universo sta espandendosi di una quantità compresa fra il
5 e il 10 per cento ogni miliardo di anni. La nostra incertezza circa la
presente densità media dell'universo è ancora maggiore. Se sommiamo la
massa di tutte le stelle che possiamo vedere nella nostra Galassia e in altre
galassie, il totale che otteniamo è di meno di un centesimo della quantità
che si richiede per arrestare l'espansione dell'universo, persino adottando la
stima più bassa della rapidità dell'espansione. La nostra galassia e le altre
galassie, però, devono contenere una grande quantità di «materia oscura»
che noi non riusciamo a vedere direttamente, come dimostrano le influenze
gravitazionali osservate della materia oscura sulle orbite di stelle e gas nelle
galassie. Inoltre la maggior parte delle galassie fanno parte di ammassi, e noi
possiamo similmente inferire la presenza di altra materia oscura negli spazi
intergalattici all'interno di tali ammassi dall'effetto che essa esercita sul
moto delle galassie. Anche una volta sommata tutta questa materia oscura,
però, otteniamo solo un decimo circa della quantità di materia che si
richiederebbe per arrestare l'espansione. Non possiamo però escludere la
possibilità che possa esserci una qualche altra forma di materia, distribuita
in modo quasi uniforme in tutto l'universo, che noi non abbiamo ancora
scoperto e che potrebbe far salire la densità media dell'universo sino al
valore critico che si richiede per arrestare l'espansione. I dati attualmente
disponibili suggeriscono perciò che probabilmente l'universo si espanderà
per sempre, ma tutto ciò di cui possiamo essere veramente sicuri è che,
quand'anche dovesse tornare a contrarsi, non lo farà per almeno altri dieci
miliardi di anni, dal momento che l'espansione dell'universo è già durata
almeno per altrettanto tempo. Questa prospettiva non dovrebbe
preoccuparci eccessivamente: a quel tempo, se la nostra civiltà non sarà già
andata a colonizzare regioni esterne al sistema solare, l'umanità sarà già
scomparsa da molto tempo, estinta assieme al nostro Sole!
Tutte le soluzioni di Fridman hanno in comune il carattere che in qualche
periodo in passato (fra dieci e venti miliardi di anni fa) la distanza fra galassie
vicine dev'essere stata nulla. A quel tempo, che noi chiamiamo il big bang, la
densità dell'universo e la curvatura dello spazio-tempo devono essere state
infinite. Poiché la matematica non può trattare in realtà numeri infiniti, ciò
significa che la teoria generale della relatività (su cui si fondano le soluzioni
di Fridman) predice che nella storia dell'universo c'è un punto in cui la teoria
stessa viene meno. Un tale punto è un esempio di quella che i matematici
chiamano una singolarità. In verità tutte le nostre teorie scientifiche sono
formulate sulla base dell'assunto che lo spazio-tempo sia regolare e quasi
piatto, cosicché esse cessano di essere valide in presenza della singolarità
del big bang, dove la curvatura dello spaziotempo è infinita. Ciò significa che,
quand'anche ci fossero stati degli eventi prima del big bang, non li si
potrebbe usare per determinare che cosa sarebbe accaduto dopo, poiché la
predicibilità verrebbe meno proprio in corrispondenza del big bang.
Analogamente, se — come si dà il caso — noi conoscessimo solo ciò che è
accaduto dopo il big bang, non potremmo determinare che cosa è accaduto
prima. Per quanto ci riguarda, gli eventi anteriori al big bang non possono
avere conseguenze, cosicché non dovrebbero formare parte di un modello
scientifico dell'universo. Noi dovremmo perciò escluderli dal modello, e dire
che il tempo ebbe un inizio col big bang.
A molte persone l'idea che il tempo abbia avuto un inizio non piace,
probabilmente perché questa nozione sa un po' di intervento divino. (La
Chiesa cattolica, d'altra parte, si impadronì del modello del big bang e nel
1951 dichiarò ufficialmente che esso è in accordo con la Bibbia.) Ci furono
perciò vari tentativi di evitare la conclusione che c'era stato un big bang. La
proposta che godette di maggior favore fu la cosiddetta teoria dello stato
stazionario. Essa fu avanzata nel 1948 in Inghilterra da due profughi
dall'Austria occupata dai nazisti, Hermann Bondi e Thomas Gold, assieme a
un britannico, Fred Hoyle, che durante la guerra aveva lavorato con loro allo
sviluppo del radar. L'idea era che, man mano che le galassie andavano
allontanandosi l'una dall'altra, nuove galassie si formassero di continuo negli
spazi intergalattici, da nuova materia che vi veniva creata costantemente.
L'universo doveva perciò apparire grosso modo sempre uguale, in qualsiasi
tempo e da qualsiasi punto nello spazio lo si osservasse.
La teoria dello stato stazionario richiedeva una modificazione della relatività
generale per spiegare la creazione continua di materia, ma il ritmo a cui tale
creazione doveva aver luogo era così basso (circa una particella per
chilometro cubico per anno) che essa non era in conflitto con l'osservazione.
Questa teoria era una buona teoria scientifica, nel senso descritto nel
capitolo 1 : essa era semplice e faceva predizioni ben precise che potevano
essere verificate per mezzo dell'osservazione. Una di queste predizioni era
che il numero di galassie o di oggetti simili in ogni volume dato di spazio
doveva essere lo stesso dovunque e in qualsiasi tempo noi avessimo
compiuto osservazioni nell'universo. Verso la fine degli anni Cinquanta e
all'inizio degli anni Sessanta una rassegna delle sorgenti di onde radio nello
spazio cosmico fu eseguita a Cambridge da un gruppo di astronomi diretti da
Martin Ryle (che aveva lavorato anche lui con Bondi, Gold e Hoyle allo
sviluppo del radar durante la guerra). Il gruppo di Cambridge dimostrò che la
maggior parte di queste radiosorgenti dovevano trovarsi fuori della nostra
galassia (molte di esse poterono in effetti essere identificate con altre
galassie) e anche che il numero delle sorgenti deboli era molto maggiore di
quello delle sorgenti intense. Essi interpretarono le sorgenti deboli come
quelle più lontane e quelle più intense come quelle più vicine. Risultò allora
che, per volume unitario di spazio, il numero delle sorgenti vicine è minore
di quello delle sorgenti lontane. Ciò poteva significare che noi ci troviamo al
centro di una grande regione nell'universo in cui le sorgenti sono presenti in
minor numero che altrove. Oppure poteva significare che le sorgenti erano
più numerose in passato, al tempo in cui le onde radio iniziarono il loro
viaggio verso di noi, di quanto non lo siano oggi. Ognuna delle due
spiegazioni contraddiceva in ogni caso le predizioni della teoria dello stato
stazionario. Inoltre, anche la scoperta della radiazione a microonde di
Penzias e di Wilson nel 1965 indicava che l'universo doveva essere stato
molto più denso in passato. Perciò la teoria dello stato stazionario dovette
essere abbandonata.
Un altro tentativo per evitare la conclusione che doveva esserci stato un big
bang, e perciò un inizio del tempo, fu compiuto da due scienziati russi,
Evgenij Lifsitz e Isaac Khalatnikov, nel 1963. Essi suggerirono che il big bang
poteva essere una peculiarità dei soli modelli di Fridman, i quali, dopo tutto,
erano solo approssimazioni all'universo reale. Forse, di tutti i modelli che
erano grosso modo simili all'universo reale, solo quelli di Fridman
contenevano una singolarità del big bang. Nei modelli di Fridman le galassie
si allontanavano tutte direttamente l'una dall'altra, cosicché non sorprende
che in qualche tempo in passato esse si trovassero tutte riunite assieme in
uno stesso posto. Nell'universo reale, però, le galassie non si allontanano
solo l'una dall'altra, ma hanno anche piccole velocità laterali. In realtà,
perciò, esse non devono mai essersi trovate esattamente nello stesso posto,
ma solo molto vicine. Forse l'attuale universo in espansione potrebbe essere
derivato, quindi, non da una singolarità del big bang, bensì da una fase di
contrazione anteriore; nella fase di massimo collasso, le particelle presenti
nell'universo potrebbero non essere entrate tutte in collisione, ma alcune
potrebbero essere volate via senza scontrarsi, producendo la presente
espansione dell'universo. Come potremmo quindi dire se l'universo reale
abbia avuto veramente origine da un big bangi Ciò che fecero Lifsitz e
Khalatnikov fu di studiare modelli dell'universo che erano grosso modo simili
ai modelli di Fridman, tenendo però conto delle irregolarità e delle velocità
casuali delle galassie nell'universo reale. Essi dimostrarono che tali modelli
potevano cominciare con un big bang anche se le galassie non si
allontanavano più direttamente l'una dall'altra, ma sostenevano che ciò era
possibile solo in certi modelli eccezionali in cui le galassie si muovessero
tutte nel modo giusto. Essi sostennero che, poiché i modelli simili a quelli di
Fridman ma senza una singolarità del big bang sembravano essere in
numero infinitamente maggiore di quelli con tale singolarità, dovremmo
concludere che in realtà non c'era stato un big bang. Essi si resero però
conto, in seguito, che esiste una classe molto più generale di modelli simili a
quelli di Fridman che presentava delle singolarità, e in cui le galassie non
dovevano muoversi in alcun modo speciale. Essi ritirarono perciò la loro
proposta nel 1970.
L'opera di Lifsitz e di Khalatnikov fu preziosa perché dimostrò che, se la
teoria generale della relatività era giusta, l'universo poteva avere avuto una
singolarità, un big bang. Essa non risolse però il problema cruciale: la
relatività generale predice che il nostro universo dovrebbe avere avuto un
big bang, un inizio del tempo? La risposta venne da un approccio
completamente diverso introdotto da un matematico e fisico britannico,
Roger Penrose, nel 1965. Servendosi del modo in cui i coni di luce si
comportano nella relatività generale, e del fatto che la gravità è sempre
attrattiva, egli dimostrò che una stella soggetta al collasso gravitazionale
viene intrappolata in una regione la cui superficie si contrae infine a
dimensioni nulle. E, se la superficie di tale regione si contrae a zero, lo stesso
deve valere anche per il suo volume. Tutta la materia presente nella stella
sarà compressa in una regione di volume zero, cosicché la densità della
materia e la curvatura dello spazio-tempo diventano infinite. In altri termini,
si ha una singolarità contenuta in una regione di spazio-tempo nota come un
buco nero.
A prima vista il risultato di Penrose si applicava solo a stelle; esso non aveva
nulla da dire sul problema se l'intero universo avesse o no avuto una
singolarità di big bang nel suo passato. All'epoca in cui Penrose elaborò il
suo teorema, io ero studente ricercatore e avevo un bisogno disperato di un
tema con cui completare la mia tesi (Ph. D.). Due anni prima mi era stato
diagnosticato il morbo di Lou Gehrig, una malattia dei motoneuroni, e mi si
era lasciato intendere che mi restavano solo uno o due anni di vita. In
queste circostanze apparentemente non aveva senso che lavorassi alla mia
tesi per il Ph. D.: non mi aspettavo di sopravvivere così a lungo. Erano però
passati due anni e non sembrava che io stessi molto peggio. In effetti le cose
andavano abbastanza bene per me, tanto che mi ero addirittura fidanzato
con una ragazza molto carina, Jane Wilde. Per sposarmi, però, avevo
bisogno di un lavoro, e per trovare un lavoro mi serviva il diploma.
Nel 1965 venni a conoscenza del teorema di Penrose che ogni corpo che
avesse subito il collasso gravitazionale avrebbe infine formato una
singolarità. Mi resi conto ben presto che, se si fosse rovesciata la direzione
del tempo nel teorema di Penrose, così che il collasso fosse diventato
un'espansione, le condizioni del suo teorema sarebbero rimaste ancora
valide, purché l'universo fosse stato grosso modo simile a un modello di
Fridman su grandi scale al tempo presente. Il teorema di Penrose aveva
dimostrato che ogni stella soggetta al collasso doveva terminare in una
singolarità; il ragionamento con la direzione del tempo rovesciata
dimostrava che ogni universo in espansione simile ai modelli di Fridman
doveva essere cominciato con una singolarità. Per ragioni tecniche, il
teorema di Penrose richiedeva che l'universo fosse infinito nello spazio. Così
io potei in effetti servirmene per dimostrare che una singolarità era
inevitabile solo se l'universo stava espandendosi con una velocità sufficiente
a evitare un nuovo collasso (giacché solo i modelli di Fridman che
prevedevano un'espansione non seguita da un collasso erano infiniti nello
spazio).
Negli anni seguenti sviluppai nuove tecniche matematiche per eliminare
questa e altre condizioni tecniche dai teoremi da cui risultava che dovevano
aver luogo delle singolarità. Il risultato finale fu un articolo congiunto di
Penrose e del sottoscritto, uscito nel 1970, in cui si dimostrava infine che
doveva esserci stata una singolarità del big bang, a condizione che la
relatività generale sia corretta e che l'universo contenga quanta materia ne
osserviamo. Ci furono molte opposizioni al nostro lavoro, sia da parte dei
russi in conseguenza della loro fede marxista nel determinismo scientifico,
sia da parte di persone che pensavano che l'idea di singolarità fosse
ripugnante e che deturpasse la bellezza della teoria di Einstein. In realtà,
però, non è possibile opporsi veramente a un teorema matematico, cosicché
infine il nostro lavoro fu generalmente accettato e oggi quasi tutti
ammettono l'ipotesi che l'universo abbia avuto inizio con la singolarità del
big bang. È forse un'ironia che, avendo cambiato parere, io cerchi ora di
convincere altri fisici che in realtà non ci fu alcuna singolarità all'inizio
dell'universo: come vedremo tale singolarità potrà sparire qualora si tenga
conto di effetti quantistici.
In questo capitolo abbiamo visto come si sia trasformata, in meno di mezzo
secolo, la concezione che l'uomo ha dell'universo, formatasi nel corso di
millenni. La scoperta di Hubble che l'universo si sta espandendo, e la presa
di coscienza dell'insignificanza del nostro pianeta nella vastità dell'universo,
furono solo il punto di partenza. All'aumentare delle prove sperimentali e
teoriche, divenne sempre più chiaro che l'universo doveva avere avuto un
inizio nel tempo, fino a quando questa tesi fu finalmente dimostrata, nel
1970, da Penrose e da me sulla base della teoria generale della relatività di
Einstein. Tale dimostrazione mostrò che la relatività generale è solo una
teoria incompleta: essa non è in grado di dirci in che modo l'universo ebbe
inizio, in quanto predice che ogni teoria fisica, compresa se stessa, fallisca
nel tentativo di spiegazione dell'inizio dell'universo. La relatività generale
afferma però di essere solo una teoria parziale, cosicché ciò che i teoremi
della singolarità realmente ci mostrano è che dev'esserci stato un tempo,
nella fase iniziale della vita dell'universo, in cui l'universo era così piccolo
che in relazione ad esso non si possono più ignorare gli effetti su piccola
scala dell'altra grande teoria parziale del XX secolo, la meccanica quantistica.
All'inizio degli anni Settanta, quindi, noi fummo costretti a spostare la nostra
ricerca per una comprensione dell'universo dalla nostra teoria dello
straordinariamente grande alla nostra teoria dello straordinariamente
piccolo. Alla descrizione di questa teoria, la meccanica quantistica,
passeremo nel capitolo seguente, prima di volgerci agli sforzi per combinare
le due teorie parziali in una singola teoria quantistica della gravità.
4
IL PRINCIPIO DI INDETERMINAZIONE
Il successo delle teorie scientifiche, in particolare della teoria della gravità di
Newton, indusse lo scienziato francese Pierre-Simon de Laplace, all'inizio
dell'Ottocento, a sostenere che l'universo è completamente deterministico.
Laplace suggerì che doveva esserci un insieme di leggi scientifiche tale da
consentirci di predire qualsiasi accadimento futuro nell'universo purché
avessimo conosciuto compiutamente lo stato dell'universo in un tempo dato.
Per esempio, conoscendo le posizioni e le velocità del Sole e dei pianeti in
un tempo dato, sarebbe stato possibile usare le leggi di Newton per
calcolare lo stato del sistema solare in un qualsiasi altro tempo. Il
determinismo sembra in questo caso abbastanza ovvio, ma Laplace si spinse
oltre postulando l'esistenza di altre leggi simili che dovevano governare
qualsiasi altra cosa, compreso il comportamento umano.
La dottrina del determinismo scientifico suscitò forti resistenze in molte
persone, le quali pensavano che esso violasse la libertà di Dio di intervenire
nel mondo, ma essa rimase l'assunto standard della scienza sino ai primi
anni di questo secolo. Una delle prime indicazioni che questa convinzione
sarebbe stata abbandonata venne quando calcoli eseguiti dagli scienziati
britannici lord Rayleigh e sir James Jeans suggerirono che un oggetto, o un
corpo, caldissimo, come una stella, avrebbe dovuto irraggiare energia a un
ritmo infinito. Secondo le leggi in cui si credeva a quel tempo, un corpo
caldo doveva emettere onde elettromagnetiche (come onde radio, luce
visibile o raggi X) con una distribuzione uguale in tutte le frequenze. Per
esempio, un corpo caldissimo doveva irraggiare la stessa quantità di energia
in onde con frequenze comprese fra uno e due milioni di cicli al secondo e in
onde con frequenze comprese fra due e tre milioni di cicli al secondo. Ora,
poiché il numero di onde per secondo è illimitato, ciò significava che
l'energia totale irradiata doveva essere infinita.
Per evitare questo risultato chiaramente ridicolo, il fisico tedesco Max
Planck suggerì nel 1900 che la luce, i raggi X e altre onde non potessero
essere emessi a un ritmo arbitrario, ma solo sotto forma di certi pacchetti di
onde, da lui chiamati quanti. Ogni quanto possedeva inoltre una certa
quantità di energia, la quale era tanto maggiore quanto più elevata era la
frequenza delle onde, cosicché a una frequenza sufficientemente alta
l'emissione di un singolo quanto avrebbe richiesto una quantità di energia
più grande di quella disponibile. Perciò ad alte frequenze la radiazione si
sarebbe ridotta e quindi il corpo avrebbe perso energia a uri ritmo finito.
L'ipotesi quantistica spiegava molto bene il ritmo di emissione osservato
nella radiazione di corpi caldi, ma non ci si rese conto di quali fossero le sue
implicazioni per il determinismo fino al 1926, quando un altro fisico tedesco,
Werner Heisenberg, formulò il suo famoso principio di indeterminazione.
Per poter predire posizione e velocità di una particella in un certo tempo
futuro, si doveva essere in grado di misurarne con esattezza posizione e
velocità presenti. Il modo ovvio per conseguire questo risultato è quello di
proiettare un fascio di luce sulla particella. Una parte delle onde di luce
saranno diffuse dalla particella, e questo fenomeno ci consentirà di
conoscerne la posizione. Questa non potrà però essere determinata con una
precisione migliore della distanza compresa fra due creste d'onda successive,
cosicché, per misurare con esattezza la posizione della particella, si dovrà
usare luce della lunghezza d'onda più piccola possibile. Ora, per l'ipotesi
quantistica di Planck, non si può usare una quantità di luce piccola a piacere,
ma se ne deve usare almeno un quanto. Questo quanto perturberà la
particella e ne modificherà la velocità in un modo che non può essere
predetto. Inoltre, quanto più esattamente si misura la posizione, tanto più
piccola dev'essere la lunghezza d'onda della luce usata e quindi tanto
maggiore l'energia di un singolo quanto. La velocità della particella ne risulta
quindi perturbata di una quantità considerevole. In altri termini, con quanta
maggior precisione si tenta di misurare la posizione di una particella, tanto
meno esattamente se ne potrà misurare la velocità, e viceversa. Heisenberg
dimostrò che il prodotto dell'incertezza nella posizione della particella per
l'incertezza nella sua velocità per la massa della particella non può mai
essere inferiore a una certa quantità, che è nota come «costante di Planck».
Questo limite, inoltre, non dipende dal modo in cui si cerca di misurare la
posizione o la velocità della particella, o dal tipo di particella: il principio di
indeterminazione di Heisenberg è una proprietà fondamentale, ineliminabile,
del mondo.
Il principio di indeterminazione ebbe implicazioni profonde per il modo in
cui vediamo il mondo. Ancora a distanza di più di cinquant'anni queste non
sono state apprezzate appieno da molti filosofi e sono tutt'ora oggetto di
molte controversie. Il principio di indeterminazione segnò la fine del sogno
di Laplace di una certa teoria della scienza, di un modello dell'universo
completamente deterministico: non si possono certamente predire con
esattezza gli eventi futuri se non si può misurare con precisione neppure lo
stato presente dell'universo! Potremmo immaginare nondimeno che ci sia
un insieme di leggi che determinano in modo completo gli eventi per un
qualche essere soprannaturale che fosse in grado di osservare lo stato
presente dell'universo senza perturbarlo. Modelli del genere non
potrebbero in ogni caso rivestire un grande interesse per noi comuni mortali.
Sembra meglio usare il principio di economia noto come il rasoio di Occam
ed eliminare tutti gli elementi della teoria non verificabili per mezzo
dell'osservazione. Questo approccio condusse negli anni Venti Heisenberg,
Erwin Schrödinger e Paul Dirac a riformulare la meccanica in una nuova
teoria detta meccanica quantistica, fondata sul principio di
indeterminazione. In questa teoria le particelle non avevano più posizioni e
velocità separate, ben definite, che non potevano essere osservate. Esse
venivano invece ad avere uno stato quantico, che era una combinazione di
posizione e velocità.
In generale, la meccanica quantistica non predice un singolo risultato ben
definito per l'osservazione. Essa predice invece vari esiti diversi possibili e ci
dice quanto probabile sia ciascuno di essi. In altri termini, se si eseguisse la
stessa misurazione su un gran numero di sistemi simili, cominciati tutti nello
stesso modo, si troverebbe che il risultato della misurazione sarebbe A in un
certo numero di casi, B in un diverso numero di casi e via dicendo. Si
potrebbe predire il numero approssimato di volte in cui il risultato sarebbe A
o B, ma non si potrebbe predire il risultato specifico di una singola
misurazione. La meccanica quantistica introduce perciò un elemento
ineliminabile di impredicibilità o di casualità nella scienza. Einstein obiettò
molto vigorosamente contro queste conclusioni, nonostante il ruolo
importante svolto da lui stesso nello sviluppo di queste idee, tanto da
meritarsi un Premio Nobel proprio per il suo contributo alla teoria
quantistica. Egli non accettò però mai che l'universo fosse governato dal
caso e compendiò il suo pensiero in proposito nella famosa asserzione: «Dio
non gioca a dadi». La maggior parte degli altri scienziati accettarono invece
di buon grado la meccanica quantistica, in quanto si accordava
perfettamente con l'esperimento. In effetti la teoria ha avuto un successo
straordinario ed è alla base di quasi tutta la scienza e tecnologia moderne.
Essa governa il comportamento di transistor e circuiti integrati, che sono
componenti essenziali di dispositivi elettronici come televisori e computer,
ed è anche a fondamento della chimica e della biologia moderne. Le uniche
aree della scienza fisica in cui la meccanica quantistica non è stata ancora
incorporata in modo appropriato sono la gravità e la struttura su vasta scala
dell'universo.
Benché la luce sia composta da onde, l'ipotesi quantistica di Planck ci dice
che, sotto qualche aspetto essa si comporta come se fosse composta da
particelle: essa può infatti essere emessa o assorbita solo in pacchetti o
quanti. Il principio di indeterminazione di Heisenberg implica inoltre che le
particelle si comportino sotto certi aspetti come onde: esse non hanno una
posizione definita ma si «spandono» con una certa distribuzione
probabilistica. La teoria della meccanica quantistica si fonda su un tipo del
tutto nuovo di matematica che non descrive più il mondo reale nei termini
di particelle e di onde; sono solo le osservazioni del mondo a poter essere
descritte in quei termini. Nella meccanica quantistica c'è quindi una dualità
fra onde e particelle: a qualche scopo è utile pensare le particelle come
onde, mentre ad altri fini è utile pensare alle onde come particelle. Una
conseguenza importante di questo stato di cose è la possibilità di osservare
quella che è nota come interferenza fra due insiemi di onde o di particelle.
In altri termini, le creste di un treno di onde possono coincidere con i ventri
dell'altro treno d'onde. I due treni d'onde allora si cancellano anziché
sommarsi a formare un'onda più intensa come ci si potrebbe aspettare (fig.
4.1). Un esempio familiare di interferenza nel caso della luce sono i colori
che si osservano spesso in bolle di sapone. Essi sono causati dalla riflessione
della luce dalle due superfici della sottile pellicola d'acqua che forma la bolla.
La luce bianca è formata da onde luminose di varie lunghezze d'onda, o da
vari colori diversi. Per certe lunghezze d'onda le creste delle onde riflesse da
un lato della pellicola di sapone coincidono con i ventri riflessi dall'altro lato.
I colori corrispondenti a queste lunghezze d'onda sono assenti dalla luce
riflessa, che perciò appare colorata.
L'interferenza può verificarsi anche per particelle, a causa della dualità
introdotta dalla meccanica quantistica. Un esempio famoso è il cosiddetto
esperimento delle due fenditure (fig. 4.2). Consideriamo una parete divisoria
in cui siano state praticate due strette fenditure parallele. Da un lato del
divisorio si dispone una sorgente di luce di un particolare colore (ossia di
una particolare lunghezza d'onda). La maggior parte della luce colpirà il
divisorio, ma solo una piccola parte passerà attraverso le fenditure.
Supponiamo ora di sistemare uno schermo oltre la parte divisoria. Ogni
punto sullo schermo riceverà onde dalle due fenditure. In generale, però, la
distanza che la luce dovrà percorrere dalla sorgente allo schermo, passando
attraverso le due fenditure, sarà diversa. Una conseguenza di questo stato di
cose è che, quando le onde provenienti dalle fenditure colpiranno lo
schermo, non saranno in fase fra loro: in alcuni, punti le onde si
cancelleranno reciprocamente, mentre in altri si rinforzeranno. Ne risulterà
una configurazione caratteristica di frange chiare e scure.
La cosa notevole è che si ottiene esattamente lo stesso tipo di frange
sostituendo la sorgente di luce con una sorgente di particelle come elettroni,
dotati di una velocità ben definita (ciò significa che le onde corrispondenti
hanno una lunghezza definita). Questa cosa sembra tanto più peculiare in
quanto, se si ha una sola fenditura, non si ottengono frange, ma solo una
distribuzione uniforme di elettroni sullo schermo. Si potrebbe pensare
perciò che l'apertura di un'altra fenditura non faccia altro che aumentare il
numero degli elettroni che colpiscono ogni punto dello schermo, ma che, a
causa dell'interferenza, in qualche punto tale numero in realtà diminuisca.
Se si fanno passare degli elettroni attraverso le fenditure uno per volta, ci si
attenderebbe che ogni elettrone passasse per l'una o per l'altra fenditura, e
si comportasse quindi come se fosse presente ogni volta una sola fenditura,
dando una distribuzione uniforme sullo schermo. In realtà, invece, persino
quando gli elettroni vengono emessi uno per volta, appaiono ancora frange
di interferenza. Ogni elettrone, perciò, deve passare attraverso entrambe le
fenditure nello stesso tempo!
Il fenomeno dell'interferenza fra particelle è stato cruciale per la nostra
comprensione della struttura degli atomi, le unità basilari della chimica e
della biologia, che sono anche i componenti da cui siamo formati noi e da
cui è formato tutto ciò che ci circonda. All'inizio di questo secolo si pensava
che gli atomi fossero simili al sistema solare, con gli elettroni orbitanti
attorno a un nucleo centrale come i pianeti che orbitano attorno al Sole. Si
supponeva che l'elettricità di segno diverso — negativa quella degli elettroni
e positiva quella del nucleo — fornisse un'attrazione simile all'attrazione
gravitazionale che mantiene i pianeti nelle loro orbite attorno al Sole. La
difficoltà consisteva nel fatto che, prima della nascita della meccanica
quantistica, le leggi della meccanica e dell'elettricità predicevano che gli
elettroni avrebbero perso energia e sarebbero quindi scesi a spirale verso il
nucleo fino a entrare in collisione con esso. Ciò significava che l'atomo, e in
effetti tutta la materia, avrebbe finito col subire un collasso fino a trovarsi
ben presto in uno stato di densità elevatissima. Una soluzione parziale di
questo problema fu trovata nel 1913 dal fisico danese Niels Bohr. Egli
suggerì che forse gli elettroni non orbitano a distanze indifferenti dal nucleo
centrale, ma solo a certe distanze specificate. Quand'anche si fosse
supposto che solo uno o due elettroni potessero orbitare a ciascuna di
queste distanze, si sarebbe evitato il problema del collasso dell'atomo,
perché gli elettroni non avrebbero più potuto scendere a spirale se non sino
a riempire le orbite di distanza ed energia minime e non oltre.
Questo modello spiegava abbastanza bene la struttura dell'atomo più
semplice, quello dell'idrogeno, che aveva un solo elettrone orbitante
attorno al nucleo. Non era chiaro però in che modo si potesse estendere
questo modello ad atomi più complicati. Inoltre, l'idea di un insieme limitato
di orbite consentite sembrava molto arbitrario. La nuova teoria della
meccanica quantistica risolse questa difficoltà. Essa rivelò che un elettrone
orbitante attorno al nucleo poteva essere concepito come un'onda, con una
lunghezza d'onda dipendente dalla sua velocità. Per certe orbite, la
lunghezza dell'orbita corrispondeva a un numero intero (in contrapposizione
a un numero frazionario) di lunghezze d'onda dell'elettrone. Per queste
orbite la cresta dell'onda veniva a trovarsi nella stessa posizione a ogni
rotazione, cosicché le onde si sommavano: queste orbite corrispondevano
alle orbite consentite di Bohr. Nel caso di orbite la cui lunghezza non era un
multiplo intero della lunghezza d'onda, durante le successive rotazioni
dell'elettrone ogni cresta d'onda finiva invece con l'essere cancellata da un
ventre; queste orbite non erano permesse.
Un bel modo per visualizzare la dualità onda-particella è quello escogitato
dal fisico americano Richard Feynman. Anziché supporre che la particella
abbia una singola storia o una singola traiettoria nello spazio-tempo, come
nella teoria classica, non quantistica, si suppone che essa vada da A a B
percorrendo ogni traiettoria possibile. A ogni traiettoria è associata una
coppia di numeri: uno rappresenta le dimensioni di un'onda e l'altro la
posizione nel ciclo (ossia se essa si trovi in una cresta o in un ventre). La
probabilità di passare da A a B si trova sommando le onde per tutte le
traiettorie. In generale, se si confronta un insieme di traiettorie vicine, le fasi
o posizioni nel ciclo differiranno grandemente fra loro. Ciò significa che le
onde associate a queste traiettorie si cancelleranno quasi esattamente fra
loro. Per qualche insieme di traiettorie vicine, la fase non varierà molto fra
una traiettoria e l'altra. Le onde per queste traiettorie non si cancelleranno.
Tali traiettorie corrispondono alle orbite permesse di Bohr.
Con queste idee, in concreta forma matematica, era relativamente facile
calcolare le orbite permesse in atomi più complicati e persino in molecole, le
quali sono composte da un certo numero di atomi tenuti assieme da
elettroni in orbite che corrono attorno a più di un nucleo. Poiché la struttura
di molecole e le loro reazioni reciproche determinano tutta la chimica e la
biologia," la meccanica quantistica ci consente, in linea di principio, di
predire quasi tutto ciò che vediamo attorno a noi, entro i limiti fissati dal
principio di indeterminazione. (In pratica, però, i calcoli richiesti per sistemi
contenenti più di qualche elettrone sono così complicati che noi non siamo
in grado di eseguirli.)
La teoria della relatività generale di Einstein sembra governare la struttura
su vasta scala dell'universo. Essa è una cosiddetta teoria classica; ciò
significa che non tiene conto del principio di indeterminazione della
meccanica quantistica, come dovrebbe per coerenza con altre teorie. La
ragione per cui questo fatto non conduce ad alcuna discrepanza con
l'osservazione è che tutti i campi gravitazionali da noi sperimentati
abitualmente sono molto deboli. I teoremi della singolarità di cui ci siamo
occupati in precedenza indicano però che il campo gravitazionale dovrebbe
raggiungere livelli di grande intensità in almeno due situazioni, i buchi neri e
il big bang. In campi di tale intensità gli effetti della meccanica quantistica
dovrebbero essere considerevoli. Così, in un certo senso, la relatività
generale classica, predicendo punti di densità infinita, predisse al tempo
stesso il proprio crollo, esattamente come prediceva il proprio crollo la
meccanica classica (cioè non quantistica) suggerendo che gli atomi
dovessero subire il collasso fino a raggiungere una densità infinita. Noi non
possediamo ancora una teoria coerente completa che unifichi la relatività
generale e la meccanica quantistica, ma conosciamo un certo numero di
caratteri che essa dovrebbe possedere. Delle conseguenze che questi
caratteri dovrebbero avere per i buchi neri e per il big bang ci occuperemo
in altri capitoli. Per il momento, però, passeremo a considerare i tentativi
compiuti recentemente per raccogliere la nostra comprensione delle altre
forze della natura in una singola teoria quantistica unificata.
5
LE PARTICELLE ELEMENTARI
E LE FORZE DELLA NATURA
Aristotele credeva che tutta la materia contenuta nell'universo fosse
composta da quattro elementi fondamentali: terra, acqua, aria e fuoco. Su
questi elementi agivano due forze: la gravità, ossia la tendenza della terra e
dell'acqua a muoversi verso il basso, e la leggerezza, ossia la tendenza
dell'aria e del fuoco a muoversi verso l'alto. Questa divisione del contenuto
fisico dell'universo in materia e forze viene usata ancor oggi.
Egli pensava che la materia fosse continua, ossia che fosse possibile
suddividere indefinitamente un pezzo di materia in particelle sempre più
piccole, senza che si giungesse mai a un granello di materia che non potesse
essere suddiviso ulteriormente. Qualche altro filosofo greco, però, come
Democrito, ritenne che la materia fosse intrinsecamente discontinua e che
ogni cosa fosse composta da un gran numero di vari tipi diversi di atomi. (In
greco, la parola atomo significa «indivisibile».) Per secoli la discussione
continuò senza che venisse addotta alcuna prova reale per nessuna delle
due parti; infine, nel 1803 il chimico e fisico britannico John Dalton
sottolineò che il fatto che i composti chimici si combinino sempre in certe
proporzioni poteva essere spiegato per mezzo del raggruppamento di atomi
a formare unità chiamate molecole. La controversia fra le due scuole di
pensiero non fu però definitivamente risolta a favore degli atomisti sino ai
primi anni del nostro secolo. Una delle prove più importanti fu fornita da
Einstein. In un articolo scritto nel 1905, alcune settimane prima del famoso
articolo sulla relatività speciale, Einstein sottolineò che il cosiddetto moto
browniano — il moto irregolare, casuale, di piccole particelle di polvere
sospese in un liquido — poteva essere spiegato come l'effetto delle collisioni
di atomi del liquido con particelle di polvere.
A quell'epoca qualcuno sospettava già che questi atomi non fossero, dopo
tutto, indivisibili. Vari anni prima un professore del Trinity College a
Cambridge, J.J. Thomson, aveva dimostrato l'esistenza di una particella
materiale, detta elettrone, di massa inferiore a un millesimo di quella
dell'atomo più leggero. Thomson usò un dispositivo simile al moderno tubo
catodico della televisione: un filamento di metallo portato al calor rosso
emetteva elettroni, e poiché questi hanno carica elettrica negativa, si poteva
usare un campo elettrico per accelerarli verso uno schermo rivestito di
fosforo. Quando essi colpivano lo schermo, si generavano lampi di luce. Ben
presto ci si rese conto che questi elettroni dovevano provenire dagli atomi
stessi, e nel 1911 il fisico britannico di origine neozelandese Ernest
Rutherford mostrò infine che gli atomi hanno una struttura interna: essi
sono composti da un nucleo estremamente piccolo, dotato di carica elettrica
positiva, attorno al quale orbitano un certo numero di elettroni: egli
dedusse questo fatto dal modo in cui particelle a, che sono particelle di
carica positiva emesse da atomi radioattivi, vengono deflesse quando
entrano in collisione con atomi.
Dapprima si pensò che il nucleo dell'atomo fosse composto da elettroni e da
un numero diverso di particelle di carica positiva chiamate protoni, da una
parola greca che significa «primo», in quanto si credeva che essa fosse
l'unità fondamentale di cui si compone la materia. Nel 1932, però, un
collega di Rutherford a Cambridge, James Chadwick, scoprì che il nucleo
conteneva un'altra particella, chiamata neutrone, che aveva quasi la stessa
massa del protone ma che era priva di carica elettrica. Per questa scoperta,
Chadwick ricevette il Premio Nobel e fu eletto master al Gonville and Caius
College, a Cambridge (il college di cui io sono ora fellow). In seguito egli si
dimise da master a causa di divergenze d'opinione con i fellows. Nel college
c'era stata un'aspra controversia quando un gruppo di giovani fellows,
tornati dopo la guerra, aveva deciso con i propri voti l'esclusione di molti
fellows anziani dalle mansioni che avevano svolto per molto tempo nel
college. Questi fatti erano avvenuti nel college prima del mio tempo;
quando vi arrivai io nel 1965, queste vicende erano ormai pressoché
concluse, anche se disaccordi simili stavano costringendo proprio in quel
periodo a dimettersi un altro master, il Premio Nobel sir Neville Mott.
Fino a una ventina di anni fa circa si pensava che protoni e neutroni fossero
particelle «elementari», ma esperimenti condotti con i grandi acceleratori di
particelle, nel corso dei quali furono prodotte collisioni ad alte velocità fra
protoni e altri protoni o fra protoni ed elettroni, indicarono che essi sono in
realtà composti da altre particelle più piccole. Queste particelle furono
chiamate quark dal fisico del California Institute of Technology (Caltech)
Murray Geli-Mann, che nel 1969 vinse il Premio Nobel proprio per la sua
ricerca su di essi. L'origine del nome si trova in un brano enigmatico di
Finnegans Wake di James Joyce: «Three quarks for Muster Mark!». La parola
quark dovrebbe essere pronunciata come quart (quo.t), con una k in fondo
invece di una t, ma di solito è pronunciata in modo da rimare con lark (la:k).
Esistono un certo numero di varietà diverse di quark: si pensa che ce ne
siano almeno sei «sapori», che chiamiamo su, giù, strano, incantato, fondo e
cima. Ogni sapore può presentare tre diversi «colori»: rosso, verde e blu. (E
opportuno sottolineare che questi termini non sono altro che etichette di
comodo; i quark sono molto più piccoli della lunghezza d'onda della luce
visibile e non hanno quindi alcun colore nel senso normale del termine.
Quest'uso linguistico dipende solo dal fatto che i fisici moderni sembrano
avere un'immaginazione più ricca di quella dei loro colleghi anteriori nel
trovare nomi per nuove particelle e nuovi fenomeni: non si limitano più a
cercare i nomi nella lingua greca!) Un protone o un neutrone è composto da
tre quark, uno di ciascun colore. Un protone contiene due quark su e un
quark giù; un neutrone contiene due quark giù e un quark su. Possiamo
creare particelle composte con gli altri quark (strani, incantati, fondo e cima),
ma questi hanno una massa molto maggiore e decadono molto rapidamente
in protoni e neutroni.
Oggi sappiamo che né gli atomi né i protoni e i neutroni nel loro nucleo sono
indivisibili. La domanda è quindi: quali sono le particelle veramente
elementari, i mattoni fondamentali da cui è composta ogni cosa? Poiché la
lunghezza d'onda della luce è molto maggiore delle dimensioni dell'atomo,
non è lecito sperare di poter «vedere» le parti di un atomo nel senso
comune della parola «vedere». Abbiamo bisogno di usare qualcosa di
lunghezza d'onda molto minore. Come abbiamo visto nel capitolo
precedente, la meccanica quantistica ci dice che tutte le particelle sono in
realtà onde e che, quanto maggiore è l'energia di una particella, tanto
minore è la lunghezza d'onda dell'onda corrispondente. Così la risposta
migliore che possiamo dare alla nostra domanda dipende dal livello
dell'energia delle particelle a nostra disposizione, giacché è questa a
determinare a quale scala di grandezza possiamo osservare (quanto
maggiore è l'energia, o la frequenza, tanto minore sarà la scala di grandezza
a cui potremo estendere la nostra osservazione). Queste energie delle
particelle vengono misurate di solito in unità chiamate elettronvolt. (Negli
esperimenti di Thomson con elettroni, abbiamo visto che per accelerare gli
elettroni Thomson si servì di un campo elettrico. L'energia che un elettrone
riceve da un campo elettrico di un volt è di un elettronvolt.) Nell'Ottocento,
quando le uniche energie di particelle che si sapevano usare erano le basse
energie di pochi elettronvolt generate da reazioni chimiche come la
combustione, si pensava che gli atomi fossero l'unità più piccola.
Nell'esperimento di Rutherford, le particelle a avevano energie di milioni di
elettronvolt. Più recentemente abbiamo imparato a usare campi
elettromagnetici per impartire alle particelle energie dapprima di milioni e
poi di miliardi di elettronvolt. Così sappiamo che particelle che venti anni fa
venivano considerate «elementari» sono composte in realtà da particelle
più piccole. E possibile che, passando in futuro a energie ancora maggiori,
anche queste possano risultare composte da particelle ancora più piccole?
Una tale evenienza è senza dubbio possibile, ma abbiamo qualche ragione
teorica per pensare di possedere oggi — o di essere molto vicini a
possedere — una conoscenza dei mattoni ultimi della natura.
Usando la dualità onda-particella di cui abbiamo parlato nel capitolo
precedente, è possibile descrivere nei termini di particelle tutto ciò che
esiste nell'universo, comprese la luce e la gravità. Queste particelle hanno
una proprietà chiamata spin. Un modo per pensare allo spin consiste
nell'immaginare le particelle come piccole trottole che ruotano attorno a un
asse. Quest'immagine può però essere sviante poiché la meccanica
quantistica ci dice che le particelle non hanno un asse ben definito. Che cosa
ci dice realmente lo spin di una particella è quale aspetto essa abbia vista da
direzioni diverse. Una particella di spin 0 è come un punto: essa appare
sempre uguale da qualsiasi direzione la si guardi (fig. 5.la). Una particella di
spin 1 è invece come una freccia: essa ci presenta aspetti diversi se guardata
da direzioni diverse (fig. 5.1 è). La particella riprenderà lo stesso aspetto solo
dopo una rivoluzione completa (di 360 gradi). Una particella di spin 2 è
come una freccia con due punte, una a ciascuna estremità (fig. 5. le): essa
riprenderà lo stesso aspetto solo dopo aver compiuto una semirivoluzione
(180 gradi). Similmente, particelle di spin maggiore riprenderanno lo stesso
aspetto dopo una frazione minore di una rivoluzione completa. Tutto questo
sembra abbastanza semplice, ma il fatto notevole è che ci sono particelle
che non tornano ad avere lo stesso aspetto dopo una rivoluzione completa,
bensì solo dopo due rivoluzioni complete. Queste particelle si dice che
hanno uno spin di 1/2 (o spin semintero). ,
Tutte le particelle note nell'universo possono essere suddivise in due gruppi:
particelle di spin 1/2, che compongono tutta la materia nell'universo, e
particelle di spin 0, 1 e 2, che, come vedremo, danno origine alle forze che si
esercitano fra le particelle di materia. Le particelle di materia obbediscono al
cosiddetto principio di esclusione di Pauli. Questo principio fu scoperto nel
1925 dal fisico austriaco Wolfgang Pauli, che per questa scoperta ricevette il
Premio Nobel nel 1945. Pauli fu l'archetipo del fisico teorico: di lui si
racconta che persino la sua presenza in una città era sufficiente per far
fallire gli esperimenti! Il principio di esclusione di Pauli dice che due
particelle simili non possono esistere nello stesso stato, ossia che non
possono avere entrambe la stessa posizione e la stessa velocità, entro i limiti
dati dal principio di indeterminazione. Il principio di esclusione è cruciale
perché spiega per quale motivo le particelle non si contraggano in uno stato
di densità elevatissima sotto l'influenza delle forze prodotte dalle particelle
di spin 0, 1 e 2: se le particelle di materia hanno una posizione quasi identica,
devono avere velocità diverse, cosa che significa che non rimarranno molto
a lungo nella stessa posizione. Se il mondo fosse stato creato senza il
principio di esclusione, i quark non formerebbero protoni e neutroni
separati, ben definiti. Né questi, assieme agli elettroni, formerebbero atomi
separati, ben definiti. Tutte queste particelle si contrarrebbero tutte a
formare un «brodo» denso, grosso modo uniforme.
Una comprensione adeguata dell'elettrone e di altre particelle di spin 1/2
non venne fino al 1928, quando una teoria fu proposta da Paul Dirac, al
quale sarebbe stata in seguito assegnata la cattedra lucasiana di matematica
a Cambridge (la stessa che fu un tempo occupata da Newton e che è
occupata oggi dal sottoscritto). La teoria di Dirac fu la prima del suo genere
in accordo sia con la meccanica quantistica sia con la teoria speciale della
relatività. Essa spiegava matematicamente perché l'elettrone avesse spin
1/2, ossia perché esso non riprendesse lo stesso aspetto dopo una
rivoluzione completa ma solo dopo due. Essa prediceva anche che
l'elettrone doveva avere un partner, ossia un antielettrone o positone. La
scoperta del positone, avvenuta nel 1932, confermò la teoria di Dirac e
condusse ad assegnargli — in compartecipazione con Schrödinger — il
Premio Nobel per la fisica nel 1933. Oggi sappiamo che ogni particella ha
un'antiparticella, nell'incontro con la quale può annichilarsi. (Nel caso delle
particelle portatrici di forze, le antiparticelle sono identiche con le particelle
stesse.) Potrebbero esistere interi antimondi e antipersone composti da
antiparticelle. Se però incontri il tuo antiio non stringergli la mano!
Svanireste infatti entrambi in un grande lampo di luce. Il problema del
perché attorno a noi il numero delle particelle sembri immensamente
maggiore di quello delle antiparticelle è estremamente importante, e io
tornerò su di esso più avanti nel corso di questo stesso capitolo.
Nella meccanica quantistica le forze o interazioni fra particelle materiali
dovrebbero essere trasportate da particelle di spin intero: 0, 1 o 2. Quel che
accade in un caso del genere è che una particella materiale, come un
elettrone o un quark, emette una particella che trasporta una forza. Il
rinculo dovuto a quest'emissione modifica la velocità della particella di
materia. La particella portatrice della forza entra allora in collisione con
un'altra particella materiale e ne viene assorbita. Questa collisione modifica
la velocità della seconda particella, come se fra le due particelle di materia si
fosse esercitata una forza.
Una proprietà importante delle particelle portatrici di forza è che esse non
obbediscono al principio di esclusione. Ciò significa che non c'è limite al
numero che ne può essere scambiato, cosicché esse possono dare origine a
una forza forte. Se però le particelle portatrici di forza hanno una massa
elevata, sarà difficile produrle e scambiarle su una grande distanza. Perciò le
forze da loro trasportate avranno solo un breve raggio d'azione. Se invece le
particelle portatrici di forza non hanno una massa propria, le forze potranno
esercitarsi su grandi distanze. Le particelle portatrici di forze scambiate fra
particelle materiali vengono dette particelle virtuali in quanto, a differenza
delle particelle «reali», non possono essere scoperte direttamente da un
rivelatore di particelle. Sappiamo però che esistono, avendo esse un effetto
misurabile: esse danno origine a forze fra particelle materiali. Particelle di
spin 0,1 o 2 esistono in alcune circostanze anche come particelle reali, in cui
possono essere rivelate direttamente. Esse ci appaiono allora nella forma di
quelle che i fisici classici chiamerebbero onde, come onde di luce o onde
gravitazionali. Esse possono essere emesse talvolta mentre particelle di
materia interagiscono fra loro scambiandosi particelle virtuali portatrici di
forze. (Per esempio, la forza elettrica repulsiva fra due elettroni è dovuta
allo scambio di fotoni virtuali, i quali non possono mai essere scoperti
direttamente; ma se un elettrone passa accanto a un altro, possono essere
emessi fotoni reali, da noi percepibili come onde luminose.)
Le particelle portatrici di forze possono essere raggruppate in quattro
categorie a seconda dell'intensità della forza che trasportano e delle
particelle con cui interagiscono. Si dovrebbe sottolineare che la divisione in
quattro classi è frutto di una decisione arbitraria; essa risulta comoda per la
costruzione di teorie parziali, ma potrebbe non corrispondere a niente di più
profondo. In definitiva, la maggior parte dei fisici sperano di trovare una
teoria unificata che spieghi tutt'e quattro le forze come aspetti diversi di una
singola forza. Molti direbbero addirittura che questo sia il primo obiettivo
della fisica di oggi. Recentemente sono stati compiuti tentativi riusciti di
unificare tre delle quattro categorie di forza, tentativi che descriverò in
questo capitolo. Rimanderemo invece a più avanti il tentativo
dell'unificazione della categoria restante, la gravità.
La prima categoria è la forza gravitazionale. Questa forza è universale: in
altri termini, ogni particella risente della forza di gravità, secondo la sua
massa o energia. La gravità è di gran lunga la più debole fra le quattro forze;
essa è così debole che non la percepiremmo affatto se non fosse per due
proprietà speciali che possiede: la capacità di agire su grandi distanze e il
fatto di manifestarsi sempre sotto forma di un'attrazione. Ciò significa che le
debolissime forze gravitazionali che si esercitano fra le singole particelle in
due corpi di grande massa, come la Terra e il Sole, possono sommarsi sino a
produrre una forza significativa. Le altre tre forze o hanno un breve raggio
d'azione, o sono a volte attrattive e altre volte repulsive, così che tendono a
cancellarsi. Nel modo proprio della meccanica quantistica di considerare il
campo gravitazionale, si dice che la forza che si esercita fra due particelle di
materia viene trasportata da una particella spin 2 detta gravitone. Questa
particella non è dotata di massa, cosicché la forza che essa trasporta ha un
grande raggio d'azione. La forza gravitazionale che si esercita fra il Sole e la
Terra viene attribuita allo scambio di gravitoni fra le particelle che
compongono questi due corpi. Benché le particelle scambiate siano virtuali,
producono senza dubbio un effetto misurabile: si deve infatti ad esse la
rivoluzione orbitale della Terra attorno al Sole! I gravitoni reali formano
quelle che i fisici classici chiamerebbero onde gravitazionali, le quali sono
molto deboli, e così difficili da rivelare che non sono ancora mai state
osservate.
La categoria successiva è quella della forza elettromagnetica, la quale
interagisce con particelle dotate di carica elettrica come elettroni e quark,
ma non con particelle prive di carica come i gravitoni. Essa è molto più
intensa della forza gravitazionale: la forza elettromagnetica che si esercita
fra due elettroni è di circa un milione di milioni di milioni di milioni di milioni
di milioni di milioni (1 seguito da quarantadue zeri) di volte maggiore della
forza gravitazionale. Esistono però due tipi di carica elettrica: positiva e
negativa. La forza che si esercita fra due cariche positive è repulsiva, così
come quella che si esercita fra due cariche negative, mentre è attrattiva la
forza fra una carica positiva e una negativa. Un corpo di dimensioni molto
grandi, come la Terra o il Sole, contiene un numero quasi uguale di cariche
positive e negative. Perciò le forze attrattive e repulsive che si esercitano fra
le singole particelle si cancellano quasi per intero, e rimane ben poca forza
elettromagnetica netta. Alle piccole scale degli atomi e delle molecole, però,
le forze elettromagnetiche dominano. L'attrazione elettromagnetica fra
elettroni, di carica negativa, e protoni, di carica positiva nel nucleo
determina il moto orbitale degli elettroni attorno al nucleo dell'atomo,
esattamente come l'attrazione gravitazionale determina il moto di
rivoluzione della Terra attorno al Sole. L'attrazione elettromagnetica viene
attribuita allo scambio di un gran numero di particelle virtuali prive di massa
di spin 1, chiamate fotoni. Di nuovo, i fotoni che vengono scambiati sono
particelle virtuali. Quando però un elettrone passa da un'orbita permessa a
un'altra orbita più vicina al nucleo, si libera energia e viene emesso un vero
fotone, che può essere osservato come luce visibile dall'occhio umano, se ha
la lunghezza d'onda giusta, o da un rivelatore di fotoni, come una pellicola
fotografica. Analogamente, se un fotone reale entra in collisione con un
atomo, può fare spostare un elettrone da un'orbita più vicina al nucleo a
una più lontana. Questo spostamento utilizza l'energia del fotone, che viene
perciò assorbito.
La terza categoria è chiamata la forza nucleare debole, la quale è
responsabile della radioattività e agisce su tutte le particelle di materia di
spin 1/2, ma non su particelle di spin 0, 1 o 2, come fotoni o gravitoni. La
forza nucleare debole non fu ben compresa sino al 1967, quando Abdus
Salam all'Imperial College di Londra e Steven Weinberg a Harvard proposero
due teorie che unificavano quest'interazione con la forza elettromagnetica,
esattamente come Maxwell aveva unificato elettricità e magnetismo un
centinaio di anni prima. Essi suggerirono che, oltre al fotone, dovevano
esistere altre tre particelle di spin 1, note collettivamente come bosoni
vettoriali dotati di massa, portatrici della forza debole. Questi furono
chiamati W + , W- e Z° e ciascuno di loro ha una massa di circa 100 GeV (GeV
sta per gigaelettronvolt, ossia un miliardo di elettronvolt). La teoria di
Weinberg-Salam presenta una proprietà nota come rottura spontanea della
simmetria. Ciò significa che quelle che alle basse energie sembrano varie
particelle completamente diverse, risultano essere invece lo stesso tipo di
particelle, solo in stati diversi. Alle alte energie tutte queste particelle si
comportano in modo simile. L'effetto assomiglia al comportamento di una
pallina da roulette mentre la ruota gira. Ad alte energie (quando la ruota
viene fatta ruotare velocemente) la pallina si comporta essenzialmente in un
unico modo: corre di continuo alla periferia della ruota. Quando però la
ruota rallenta, l'energia della pallina diminuisce ed essa va infine a cadere in
uno dei trentasette scomparti della ruota. In altri termini, a basse energie ci
sono trentasette stati diversi in cui la pallina può esistere. Se, per qualche
ragione, noi potessimo osservare la pallina solo alle basse energie,
penseremmo che esistono trentasette tipi diversi di pallina!
Nella teoria di Weinberg e Salam, a energie molto superiori a 100 GeV, le tre
nuove particelle e il fotone si comporterebbero tutte in un modo simile. Ma
alle energie più basse che si presentano nella maggior parte delle situazioni
normali, questa simmetria fra le particelle sarebbe distrutta. I bosoni W + ,
W- e Z° acquisterebbero una grande massa, cosicché le forze da loro
trasportate verrebbero ad avere un raggio d'azione piccolissimo. Al tempo in
cui Salam e Weinberg proposero la loro teoria, poche persone gli credettero,
e gli acceleratori di particelle non erano abbastanza potenti per raggiungere
le energie di 100 GeV che si richiedevano per produrre particelle reali W + ,
W- e Z°. In capo a una decina d'anni, però, le altre predizioni fatte dalla
teoria per energie inferiori erano venute a concordare così bene con
l'esperimento che, nel 1979, Salam e Weinberg ricevettero il Premio Nobel
per la fisica, assieme a Sheldon Lee Glashow, anche lui a Harvard, che aveva
suggerito teorie unificate simili per le forze elettromagnetica e nucleare
debole. Al comitato del Nobel fu risparmiato il possibile imbarazzo di aver
compiuto un errore grazie alla scoperta, nel 1983 al CERN (Organizzazione
Europea per la Ricerca Nucleare), dei tre compagni del fotone dotati di
massa, le cui masse e altre proprietà erano state predette correttamente.
Carlo Rubbia, che diresse Véquipe di varie centinaia di fisici che fecero la
scoperta, ricevette il Premio Nobel nel 1984, unitamente a Simon Van der
Meer, l'ingegnere del CERN che sviluppò il dispositivo di raccolta e
raffreddamento dell'antimateria usato. (Di questi tempi è molto difficile
compiere un progresso importante in fisica sperimentale se non ci si trova
già al vertice!)
La quarta categoria è la forza nucleare forte, che tiene assieme i quark nel
protone e nel neutrone, e che lega assieme i protoni e i neutroni nel nucleo
dell'atomo. Si ritiene che questa forza sia trasportata da un'altra particella di
spin 1, chiamata gluone, la quale interagisce solo con se stessa e con i quark.
La forza nucleare forte ha una curiosa proprietà chiamata confinamento:
essa lega sempre assieme delle particelle in combinazioni che non hanno
alcun colore. Non si può avere un singolo quark isolato perché esso avrebbe
un colore (rosso, verde o blu). Invece, un quark rosso dev'essere unito a un
quark verde e a un quark blu da una sequenza di gluoni (rosso + verde + blu
= bianco). Una tale tripletta costituisce un protone o un neutrone. Un'altra
possibilità è una coppia formata da un quark e da un antiquark (rosso +
antirosso, o verde + antiverde o blu + antiblu = bianco). Tali combinazioni
compongono le particelle note come mesoni, le quali sono instabili perché
quark e antiquark possono annichilarsi fra loro, producendo elettroni e altre
particelle. Similmente, il confinamento impedisce che si possa avere un
singolo gluone a sé, perché anche i gluoni hanno un colore. Si deve avere
invece una collezione di gluoni i cui colori si sommino a dare il bianco. Una
tale collezione forma una particella instabile detta gluepalla.
Il fatto che il confinamento impedisca di osservare un quark o un gluone
isolati può dare l'impressione che l'intera nozione dei quark e gluoni come
particelle sia un po' metafisica. C'è però un'altra proprietà della forza
nucleare forte, chiamata libertà asintotica, la quale rende ben definito il
concetto di quark e gluoni. A energie normali, la forza nucleare forte è
davvero forte, e lega strettamente assieme i quark. Esperimenti compiuti
con i grandi acceleratori di particelle indicano però che ad alte energie la
forza forte diventa molto più debole, e che i quark e i gluoni finiscono col
comportarsi quasi come particelle libere. La figura 5.2 presenta una
fotografia di una collisione fra un protone e un antiprotone ad alta energia.
Nella collisione si produssero vari quark quasi liberi, i quali diedero origine ai
«getti» di tracce visibili nella figura.
Il successo dell'unificazione della forza elettromagnetica con la forza
nucleare debole condusse a vari tentativi di combinare queste due forze con
la forza nucleare forte in una cosiddetta grande teoria unificata (o GTU, GUT
in inglese). In realtà queste teorie non sono del tutto unificate e non
comprendono la gravità, né sono veramente complete, in quanto includono
un certo numero di parametri i cui valori non possono essere predetti dalla
teoria, ma devono essere scelti appositamente in modo tale da ottenere una
corrispondenza con l'esperimento. Esse potrebbero rappresentare
purtuttavia un passo avanti verso una teoria completa, pienamente unificata.
L'idea fondamentale di una GTU è la seguente: come abbiamo menzionato
in precedenza, ad alte energie la forza nucleare forte diventa più debole. In
tale ambito energetico la forza elettromagnetica e la forza debole, che non
hanno la libertà asintotica, diventano invece più forti. Accade così che, in
corrispondenza di una qualche energia molto elevata, chiamata l'energia
della grande unificazione, queste tre forze verrebbero ad avere tutt'e tre la
stessa intensità, e potrebbero quindi essere solo aspetti diversi di una
singola forza. La GTU predice anche che, a questa energia, pure le diverse
particelle di materia con spin 1/2, come i quark e gli elettroni, sarebbero
essenzialmente uguali, conseguendo in tal modo un'altra unificazione.
Il valore dell'energia della grande unificazione non è noto molto bene, ma
dovrebbe essere con ogni probabilità di almeno di un miliardo di milioni di
GeV. La presente generazione di acceleratori di particelle può far collidere
particelle a energie di circa un centinaio di GeV, e si stanno progettando
macchine in grado di portare quest'energia a qualche migliaio di GeV. Ma
una macchina abbastanza potente per accelerare particelle sino all'energia
della grande unificazione dovrebbe essere grande quanto il sistema solare, e
sarebbe difficile trovare finanziamenti adeguati nel clima economico
presente. E quindi impossibile verificare grandi teorie unificate direttamente
in laboratorio. Ma, proprio come nel caso della teoria unificata
elettromagnetica e debole, esistono conseguenze della teoria a energia
minore che possono essere verificate.
La più interessante fra queste conseguenze è la predizione che i protoni, i
quali costituiscono gran parte della massa della materia comune, possono
decadere spontaneamente in particelle più leggere come gli antielettroni. La
ragione di questa possibilità consiste nel fatto che, all'energia della grande
unificazione, non c'è alcuna differenza essenziale fra un quark e un
antielettrone. I tre quark presenti all'interno di un protone non hanno
normalmente abbastanza energia per trasformarsi in antielettroni, ma
molto occasionalmente uno di loro può acquistare abbastanza energia per
compiere la transizione, poiché il principio di indeterminazione comporta
che l'energia dei quark all'interno del protone non possa essere fissata
esattamente. Il protone quindi decadrebbe. La probabilità che un quark
acquisti energia sufficiente è così piccola che in media si dovrebbe
presumibilmente attendere almeno un milione di milioni di milioni di milioni
di milioni di anni (1 seguito da trenta zeri). Questo periodo è molto più lungo
del tempo trascorso dopo il big bang, che è di soli dieci miliardi di anni circa
(1 seguito da dieci zeri). Si potrebbe quindi pensare che non esista la
possibilità di verificare sperimentalmente la decadenza del protone. Si
possono però accrescere le proprie probabilità di scoprire un tale
decadimento osservando una grande quantità di materia contenente un
numero grandissimo di protoni. (Se, per esempio, si osservasse un numero
di protoni pari a 1 seguito da trentuno zeri per un periodo di un anno, ci si
attenderebbe, secondo la GTU più semplice, di osservare più di un
decadimento di un protone.)
Sono stati eseguiti un certo numero di tali esperimenti, ma nessuno di essi
ha fornito prove certe del decadimento del protone o del neutrone. In un
esperimento, compiuto nella miniera di sale della società Morton, nell'Ohio,
furono usate ottomila tonnellate d'acqua (per evitare che venissero
registrati altri eventi, causati da raggi cosmici, che potessero essere confusi
col decadimento del protone). Poiché nel corso dell'esperimento non fu
osservato alcun decadimento spontaneo di protoni, si può calcolare che la
vita probabile del protone debba essere di più di dieci milioni di milioni di
milioni di milioni di milioni di anni (1 seguito da trentuno zeri). Questo
periodo di tempo è più lungo della vita predetta dalla più semplice fra le
grandi teorie unificate, ma ci sono teorie più complesse in cui la durata di
vita predetta del protone è più lunga. Per verificarla occorreranno
esperimenti ancor più sensibili implicanti quantità di materia ancora
maggiori.
Benché sia molto difficile osservare il decadimento spontaneo del protone,
può anche darsi che la nostra stessa esistenza sia una conseguenza del
processo inverso, la produzione di protoni, o più semplicemente di quark, da
una situazione iniziale in cui non c'erano più quark di antiquark, che è il
modo più naturale per immaginare l'inizio dell'universo. La materia sulla
Terra è composta principalmente da protoni e neutroni, i quali sono
composti a loro volta da quark. Non esistono antiprotoni o antineutroni,
composti da antiquark, eccezion fatta per i pochi che i fisici producono nei
grandi acceleratori di particelle. Abbiamo prove, dai raggi cosmici, che lo
stesso vale per tutta la materia nella nostra galassia: non vi esistono
antiprotoni o anti-neutroni se si prescinde dai pochissimi che vengono
prodotti sotto forma di coppie di particelle-antiparticelle in collisioni ad alte
energie. Se nella nostra galassia ci fossero regioni estese di antimateria,
dovremmo attenderci di osservare grandi quantità di radiazione dai confini
fra le regioni di materia e di antimateria, dove le collisioni fra particelle e
antiparticelle produrrebbero, in conseguenza della loro reciproca
annichilazione, emissioni di radiazione ad alta energia.
Non abbiamo prove dirette del fatto che la materia in altre galassie sia
composta da protoni e neutroni o da antiprotoni e antineutroni, ma in ogni
caso dev'essere composta o dagli uni o dagli altri: in una singola galassia non
può esserci un misto di materia e antimateria, giacché in tal caso dovremmo
osservare una grande quantità di radiazione prodotta da annichilazioni. Noi
crediamo perciò che tutte le galassie siano composte da quark piuttosto che
da antiquark; pare infatti assai poco plausibile che alcune galassie debbano
essere composte da materia e altre da antimateria.
Perché mai i quark dovrebbero essere in numero maggiore rispetto agli
antiquark? Perché non sono in numero eguale? E senza dubbio una fortuna
per noi che essi siano in numero molto diseguale poiché, se così non fosse,
quasi tutti i quark e gli antiquark si sarebbero annichilati a vicenda
nell'universo primordiale e sarebbe rimasto un universo ricco di radiazione
ma assai povero di materia. Non ci sarebbero stati galassie, stelle o pianeti
su cui potesse svilupparsi la vita umana. Per fortuna le grandi teorie
unificate possono fornire una spiegazione del perché l'universo dovrebbe
oggi contenere più quark che antiquark, anche ammesso che avesse avuto
inizio con un numero uguale degli uni e degli altri. Come abbiamo visto, le
GTU consentono ai quark, a energie elevate, di trasmutarsi in antielettroni.
Esse permettono anche i processi inversi, la trasformazione di antiquark in
elettroni, e di elettroni e antielettroni in antiquark e quark. Ci fu un tempo,
nella primissima fase della vita dell'universo, in cui questo fu così caldo che
l'energia delle particelle sarebbe stata abbastanza alta per consentire il
verificarsi di queste trasformazioni. Ma perché mai questa situazione
avrebbe dovuto condurre a un numero maggiore di quark che di antiquark?
La ragione è che le leggi della fisica non sono del tutto uguali per particelle e
antiparticelle.
Fino al 1956 si credette che le leggi della fisica obbedissero a ciascuna di tre
simmetrie separate chiamate C, P e T. La simmetria C significa che le leggi
sono uguali per particelle e antiparticelle. La simmetria P significa che le
leggi sono uguali per ogni situazione e per la sua immagine speculare
(l'immagine speculare di una particella con spin destrorso è una particella
con spin sinistrorso). La simmetria T significa che, se si inverte la direzione
del moto di tutte le particelle e antiparticelle, il sistema dovrebbe tornare a
ciò che era ai primordi dell'universo; in altri termini, che le leggi sono le
stesse nelle direzioni in avanti e ali'indietro del tempo.
Nel 1956 due fisici americani di origine cinese, Tsung-Dao Lee e Chen Ning
Yang, suggerirono che la forza debole non obbedisca in realtà alla simmetria
P. In altri termini, la forza debole farebbe sviluppare l'universo in un modo
diverso da quello in cui si svilupperebbe la sua immagine speculare. Lo
stesso anno una loro collega, Chien-Shiung Wu, dimostrò che la loro
predizione era corretta. Essa ottenne questo risultato allineando i nuclei di
atomi radioattivi in un campo magnetico, così che avessero tutti lo spin
orientato in una certa direzione, e mostrò che gli elettroni venivano emessi
più in una direzione che in un'altra. L'anno seguente Lee e Yang ricevettero
per la loro idea il Premio Nobel. Si trovò inoltre che la forza debole non
obbediva alla simmetria C. In conseguenza di questo fatto un universo
composto da antiparticelle si comporterebbe in modo differente dal nostro
universo. Nondimeno, sembrava che la forza debole obbedisse alla
simmetria combinata CP. In altri termini, l'universo si sarebbe sviluppato
nello stesso modo della sua immagine speculare se, inoltre, ogni particella
fosse stata scambiata con la sua antiparticella! Nel 1964, però, altri due
americani J.W. Cronin e Val Fitch, scoprirono che persino la simmetria CP
veniva violata nel decadimento di certe particelle chiamate mesoni K. Cronin
e Fitch ricevettero infine il Premio Nobel per le loro ricerche nel 1980. (Una
quantità di premi sono stati assegnati ai fisici che hanno dimostrato che
l'universo non è così semplice come si sarebbe potuto pensare!)
C'è un teorema matematico il quale dice che qualsiasi teoria che obbedisca
alla meccanica quantistica e alla gravità deve sempre obbedire anche alla
simmetria combinata CPT. In altri termini, l'universo si comporterebbe nello
stesso modo se si sostituissero le particelle con antiparticelle, se si
prendesse l'immagine speculare e si rovesciasse inoltre la direzione del
tempo. Cronin e Fitch dimostrarono però che, se si sostituiscono le particelle
con antiparticelle e si prende l'immagine speculare, senza però rovesciare la
direzione del tempo, l'universo non si comporta nello stesso modo. Le leggi
della fisica, perciò, devono mutare se si rovescia la direzione del tempo: esse
non obbediscono alla simmetria T.
Senza dubbio l'universo primordiale non obbedì alla simmetria T: al passare
del tempo esso si espanse: se il tempo andasse all'indietro, l'universo si
contrarrebbe. E poiché ci sono forze che non obbediscono alla simmetria T,
ne segue che, mentre l'universo si espande, tali forze potrebbero causare la
trasformazione di più antielettroni in quark che di elettroni in antiquark.
Quindi, nel corso dell'espansione e del raffreddamento dell'universo, gli
antiquark dovettero annichilarsi con i quark, ma poiché c'erano più quark di
antiquark rimase un piccolo eccesso dei primi. Sono i quark a comporre la
materia che noi vediamo oggi e dalla quale siamo composti noi stessi. Così la
nostra stessa esistenza potrebbe essere considerata una conferma delle
grandi teorie unificate, anche se una conferma solo qualitativa; le incertezze
sono tali che non si può predire il numero di quark che rimarrà dopo
l'annichilazione, e neppure se le particelle che rimarranno saranno quark o
antiquark. (Se ci fosse stato un eccesso di antiquark anziché di quark, noi
avremmo semplicemente chiamato gli antiquark quark, e i quark antiquark.)
Le grandi teorie unificate non comprendono la forza di gravità. Questo fatto
non ha molta importanza, poiché la gravità è una forza così debole da poter
essere in effetti di solito trascurata quando ci occupiamo di particelle
elementari o atomi. Il fatto però che essa abbia un grande raggio d'azione e
che sia sempre attrattiva comporta che tutti i suoi effetti si sommino. Così,
in presenza di un numero abbastanza grande di particelle di materia, le forze
gravitazionali possono dominare su tutte le altre forze. Ecco perché è la
gravità a determinare l'evoluzione dell'universo. Persino nel caso di oggetti
di dimensioni stellari, la forza attrattiva della gravità può sopraffare tutte le
altre forze e causare il collasso gravitazionale. Le mie ricerche, negli anni
Settanta, si concentrarono sui buchi neri che possono avere origine da un
tale collasso stellare e sugli intensi campi gravitazionali attorno ad essi. Da
qui emersero i primi indizi sul modo in cui le teorie della meccanica
quantistica e la relatività generale possono influire l'una sull'altra: un
barlume della forma di una futura teoria quantistica della gravità.
6
I BUCHI NERI
Il termine buco nero (black hole) è di origine molto recente. Esso fu coniato
nel 1969 dal fisico americano John Wheeler come descrizione efficace di
un'idea risalente ad almeno due secoli prima, epoca in cui c'erano due
teorie della luce: una — quella preferita da Newton — diceva che la luce era
composta da particelle, mentre secondo l'altra essa era costituita da onde.
Noi oggi sappiamo che in realtà entrambe le teorie sono corrette. In virtù
della dualità onda-particella della meccanica quantistica, la luce può essere
considerata come formata sia da onde sia da particelle. Nella teoria
ondulatoria non era chiaro in che modo la luce rispondesse alla gravità. Se
però la luce è composta da particelle, ci si poteva attendere che essa
risentisse della gravità nello stesso modo in cui ne risentono palle di
cannone, razzi e pianeti. Dapprima si ritenne che la luce avesse una velocità
di propagazione infinitamente grande, cosicché la gravità non fosse in grado
di rallentarla, ma la scoperta, per opera di Römer, che la luce si propaga a
velocità finita comportava che la gravità potesse avere un effetto
importante.
Sulla base di questo assunto, un docente di Cambridge, John Michell,
pubblicò nel 1783 nelle «Philosophical Transactions of the Royal Society of
London» un saggio in cui sottolineava che una stella di massa e densità
sufficientemente grandi avrebbe avuto un campo gravitazionale così forte
che la luce non avrebbe potuto sfuggirne; qualsiasi raggio di luce emesso
dalla superficie della stella sarebbe stato trascinato all'indietro
dall'attrazione gravitazionale della stella prima di potersi spingere molto
lontano. Michell suggerì che poteva esistere un gran numero di stelle con
tali caratteristiche. Pur non essendo in grado di vederle, poiché la luce che
ne emana non potrebbe giungere fino a noi, potremmo però ancora
percepirne l'attrazione gravitazionale. Noi chiamiamo oggi tali oggetti celesti
buchi neri, poiché proprio questo essi sono: vuoti neri nello spazio. Un
suggerimento simile fu fatto qualche anno dopo dallo scienziato francese
Pierre-Simon de Laplace, a quanto pare indipendentemente da Michell.
Fatto abbastanza interessante, Laplace lo incluse solo nella prima e nella
seconda edizione della Exposition du système du monde, lasciandolo fuori
dalle edizioni successive, forse per essersi convinto che era un'idea assurda.
(Si deve aggiungere che nel corso dell'Ottocento la teoria corpuscolare della
luce cadde in discredito; sembrava che la teoria ondulatoria potesse
spiegare tutto, e nella teoria ondulatoria non era affatto chiaro che la luce
dovesse risentire dell'azione della forza di gravità.)
In realtà nella teoria della gravità di Newton è un po' contraddittorio
trattare la luce a somiglianza di palle di cannone, poiché la velocità della
luce è fissa. (Una palla di cannone sparata dalla Terra verso l'alto sarà
rallentata dalla gravità e infine si arresterà e invertirà il suo moto, mentre un
fotone continuerebbe a muoversi verso l'alto a velocità costante. In che
modo, quindi, la gravità newtoniana potrebbe incidere sulla luce?) Una
teoria coerente del modo in cui la gravità incide sulla luce si ebbe solo
quando Einstein propose la relatività generale nel 1915. E anche dopo di
allora dovette passare molto tempo prima che si comprendessero le
implicazioni della teoria per le stelle di grande massa.
Per capire in che modo potrebbe formarsi un buco nero, dobbiamo
innanzitutto capire il ciclo di vita di una stella. Una stella si forma quando
una grande quantità di gas (per lo più idrogeno) comincia a contrarsi in
conseguenza della sua attrazione gravitazionale. Nel corso del collasso gli
atomi di gas entrano in collisione fra loro sempre più frequentemente e a
velocità sempre maggiori: il gas si riscalda. Infine, la temperatura sarà così
elevata che quando gli atomi di idrogeno si urtano non rimbalzano più ma si
fondono assieme a formare elio. Al calore liberato in questa reazione, che è
simile a un'esplosione di una bomba a idrogeno controllata, si deve lo
splendore della stella. Anche questo calore aggiuntivo aumenta la pressione
del gas finché questa è sufficiente a controbilanciare l'attrazione
gravitazionale, e il gas smette di contrarsi. E un po' come nel caso di un
palloncino: c'è un equilibrio fra la pressione dell'aria al suo interno, la quale
cerca di farlo espandere, e la tensione nella gomma, la quale cerca di
rimpicciolirlo. Grazie a un meccanismo simile a questo, le stelle rimangono
stabili per molto tempo, ossia fino a quando il calore generato dalle reazioni
nucleari al loro interno controbilanciano l'attrazione gravitazionale. Infine,
però, la stella esaurirà la sua riserva di idrogeno e di altri combustibili
nucleari. Paradossalmente, quanto maggiore è la scorta di combustibile con
cui una stella comincia la sua evoluzione, tanto prima lo esaurirà. Questo
perché quanto maggiore è la massa di una stella tanto più elevata
dev'essere la sua temperatura per controbilanciare la sua attrazione
gravitazionale. E quanto più calda è una stella tanto più rapidamente
consumerà il suo combustibile. Il Sole ha probabilmente abbastanza
combustibile per alimentare le sue reazioni nucleari per altri cinque miliardi
di anni circa, ma stelle di massa maggiore possono dar fondo a tutto il loro
combustibile in soli cento milioni di anni, un periodo molto minore dell'età
attuale dell'universo. Quando una stella esaurisce il suo combustibile,
comincia a raffreddarsi e a contrarsi. Si cominciò a capire che cosa potrebbe
accaderle solo alla fine degli anni Venti.
Nel 1928 uno studente universitario indiano, Subrahmanyan Chandrasekhar,
partì per l'Inghilterra per andare a studiare a Cambridge con l'astronomo
britannico sir Arthur Eddington, un esperto sulla relatività generale.
(Secondo una testimonianza, all'inizio degli anni Venti un giornalista disse a
Eddington di aver sentito dire che al mondo c'erano solo tre persone che
capivano la relatività generale. Eddington rimase un istante sovrappensiero,
e poi rispose: «Sto cercando di immaginare chi possa essere la terza».)
Durante il viaggio dall'India alla Gran Bretagna, Chandrasekhar calcolò quale
massa avrebbe dovuto avere una stella per poter resistere al collasso
gravitazionale dopo aver consumato tutto il suo combustibile. L'idea era
questa: quando la stella si contrae, le particelle di materia vengono a
trovarsi molto vicine 1' una all'altra; perciò, secondo il principio di
esclusione di Pauli, devono avere velocità diverse. In conseguenza di questo
fatto esse si allontanano l'una dall'altra, cosicché la stella tende a espandersi.
Una stella può perciò mantenersi a un raggio costante in virtù di un
equilibrio fra l'attrazione gravitazionale e la repulsione derivante dal
principio di esclusione, esattamente come, nella prima parte della sua vita,
la gravità era controbilanciata dal calore.
Chandrasekhar si rese conto però che c'è un limite alla repulsione prevista
dal principio di esclusione." La teoria della relatività limita la differenza
massima nelle velocità delle particelle materiali nella stella alla velocità della
luce. Ciò significa che, quando la stella diventa abbastanza densa, la
repulsione causata dal principio di esclusione sarebbe meno intensa
dell'attrazione gravitazionale. Chandrasekhar calcolò che una stella fredda di
massa superiore a circa una volta e mezza la massa del Sole non sarebbe in
grado di sostenersi contro la propria gravità. (Questa massa è nota oggi
come il limite di Chandrasekhar.) Una scoperta simile fu compiuta press'a
poco nello stesso tempo dallo scienziato russo Lev Davidovič Landau.
Questo fatto aveva gravi implicazioni per la sorte ultima di stelle di grande
massa. Se la massa di una stella è inferiore al limite di Chandrasekhar, la
stella può infine cessare di contrarsi e stabilizzarsi in un possibile stato finale
sotto forma di una «nana bianca» con un raggio di alcune migliaia di
chilometri e una densità di centinaia di tonnellate per centimetro cubico.
Una nana bianca è sostenuta contro il collasso gravitazionale dalla
repulsione prevista dal principio di esclusione fra gli elettroni nella sua
materia. Noi osserviamo un gran numero di queste nane bianche. Una delle
prime a essere scoperta fu una nana bianca che orbita attorno a Sirio, la
stella più luminosa nel cielo notturno.
Landau sottolineò che c'era un altro stato finale possibile per una stella con
una massa limite di circa una o due masse solari, contratta però sino a
dimensioni molto più piccole di quelle di una nana bianca. Anche queste
stelle sarebbero state sostenute dalla repulsione prevista dal principio di
esclusione di Pauli, in questo caso operante però fra neutroni e protoni
anziché fra elettroni. Queste stelle furono chiamate perciò stelle di neutroni.
Esse dovevano avere un raggio di soli quindici chilometri circa e una densità
di centinaia di milioni di tonnellate per centimetro cubico. All'epoca in cui fu
predetta per la prima volta la loro esistenza non c'era alcun modo per
osservarle. Esse furono in effetti scoperte solo molto tempo dopo.
Le stelle con massa superiore al limite di Chandrasekhar, d'altra parte,
quando pervengono a esaurire il loro combustibile si trovano ad affrontare
un grave problema. In alcuni casi esse possono esplodere, o riuscire a
proiettare all'intorno una quantità di materia bastante a ridurre la loro
massa al di sotto di quel limite — evitando in tal modo un collasso
gravitazionale catastrofico —, ma sarebbe difficile credere che ciò possa
accadere sempre per quanto grande sia la stella. In che modo, del resto, la
stella potrebbe sapere di dover perdere peso? E quand'anche ogni stella
riuscisse a perdere abbastanza massa da evitare il collasso, che cosa
accadrebbe se si aggiungesse altra massa a una nana bianca o a una stella di
neutroni, in modo da far loro superare il limite? Si contrarrebbero fino a
raggiungere una densità infinita? Eddington fu impressionato da questa
implicazione e si rifiutò di credere al risultato di Chandrasekhar. Egli pensava
semplicemente che una stella non potesse contrarsi fino a un punto privo di
dimensioni. Questa era l'opinione della maggior parte degli scienziati: lo
stesso Einstein scrisse un articolo in cui sostenne che una stella non si
sarebbe contratta sino a dimensioni zero. L'ostilità di altri scienziati, e in
particolare di Eddington, suo ex-maestro e principale autorità sulla struttura
delle stelle, convinse Chandrasekhar ad abbandonare questa linea di ricerca
e a rivolgersi invece allo studio di altri problemi in astronomia, come il moto
degli ammassi stellari. Quando però ricevette il Premio Nobel, nel 1983, fu,
almeno in parte, per le sue prime ricerche sulla massa limite delle stelle
fredde.
Chandrasekhar aveva mostrato che il principio di esclusione non poteva
arrestare il collasso gravitazionale di una stella di massa superiore al limite
da lui calcolato, ma il problema di capire che cosa sarebbe accaduto a una
stella del genere, secondo la relatività generale, fu risolto per la prima volta
da un giovane americano, Robert Oppenheimer, nel 1939. Il suo risultato
suggeriva, però, che non ci sarebbero state conseguenze d'osservazione
accessibili ai telescopi del tempo. Scoppiata la seconda guerra mondiale, lo
stesso Oppenheimer fu strettamente coinvolto nel progetto della bomba
atomica. Dopo la guerra il problema del collasso gravitazionale fu in gran
parte dimenticato poiché l'interesse della maggior parte degli scienziati fu
assorbito da ciò che accade alla scala dell'atomo e del suo nucleo. Negli anni
Sessanta, però, problemi di grande scala di astronomia e di cosmologia
tornarono al centro dell'attenzione in conseguenza di un grande aumento
del numero e della varietà delle osservazioni astronomiche determinato
dall'applicazione della moderna tecnologia. Il contributo di Oppenheimer fu
allora riscoperto ed esteso da vari scienziati.
Il quadro fornitoci dalla ricerca di Oppenheimer è il seguente: il campo
gravitazionale della stella modifica la traiettoria dei raggi di luce nello
spazio-tempo rispetto a quella che sarebbe stata in assenza della stella. I
coni di luce, che indicano le traiettorie seguite nello spazio e nel tempo dai
lampi di luce emessi dal loro vertice, passando in prossimità della superficie
della stella vengono deflessi leggermente verso l'interno. Questo fenomeno
della deflessione della luce proveniente da stelle lontane può essere
osservato durante un'eclisse di Sole. Man mano che la stella si contrae, il
campo gravitazionale alla sua superficie diventa più intenso e i coni di luce si
incurvano sempre più verso l'interno. Ciò rende più difficile alla luce della
stella di allontanarsene, e la sua radiazione appare quindi sempre più debole
e rossa a un osservatore lontano. Infine, quando la stella si è contratta sino a
un certo raggio critico, il campo gravitazionale alla sua superficie diventa
così intenso che i coni di luce vengono piegati verso l'interno a tal punto che
la luce non può più evadere nello spazio (fig. 6.1). Secondo la teoria della
relatività, nulla può viaggiare a una velocità superiore a quella della luce. Se
quindi la luce non può sottrarsi a un buco nero, non ci riuscirà alcun'altra
cosa; tutto viene trascinato all'indietro dal possente campo gravitazionale. Si
ha dunque un insieme di eventi, una regione dello spazio-tempo, da cui non
è possibile sfuggire per raggiungere un osservatore lontano. Questa regione
è ciò che noi oggi chiamiamo un buco nero. Il suo confine è noto come
l'orizzonte degli eventi e coincide con le traiettorie di raggi di luce che sono
quasi sul punto di riuscire a fuggire dal buco nero.
Per capire che cosa vedremmo se potessimo osservare il collasso di una
stella avviata a diventare un buco nero, dobbiamo ricordare che nella teoria
della relatività non esiste un tempo assoluto. Ogni osservatore ha la sua
propria misura del tempo. Il tempo, per chi si trovasse su una stella, sarebbe
diverso che per un osservatore lontano, a causa del campo gravitazionale
della stella stessa. Supponiamo che un intrepido astronauta sulla superficie
della stella che sta subendo il collasso gravitazionale, precipitando
all'interno con i materiali dell'astro in contrazione, inviasse un segnale ogni
secondo, misurando il tempo col suo orologio, alla sua nave spaziale
orbitante attorno alla stella. A una certa ora sul suo orologio, diciamo alle
11:00, la stella si contrae al di sotto del raggio critico in corrispondenza del
quale il campo gravitazionale diventa così intenso che nulla può sfuggirne, e
i suoi segnali non riescono più a lasciare la stella e raggiungere l'astronave.
All'approssimarsi delle 11:00 i suoi compagni sull' astronave troverebbero
che gli intervalli di tempo fra i singoli segnali diventano sempre più lunghi,
ma quest'effetto sarebbe ancora molto piccolo prima delle 10:59:59. Essi
dovrebbero attendere solo poco più di un secondo fra il segnale delle
10:59:58 e quello inviato dall'astronauta quando il suo orologio segnava le
10:59:59, ma dovrebbero attendere per tutta l'eternità per ricevere il
segnale delle 11:00. Le onde luminose emesse dalla superficie della stella fra
le 10:59:59 e le 11:00, secondo l'orologio dell'astronauta, si
disperderebbero su un periodo di tempo infinito, secondo il punto
d'osservazione dell'astronave. L'intervallo di tempo fra l'arrivo all'astronave
di onde successive crescerebbe sempre più cosicché la luce proveniente
dalla stella apparirebbe sempre più rossa e sempre più debole. Infine la
stella sarebbe così debole da non essere più osservabile dall'astronave: tutto
ciò che resterebbe sarebbe un buco nero nello spazio. La stella
continuerebbe però a esercitare la stessa attrazione gravitazionale sulla
nave spaziale, la quale continuerebbe a orbitare attorno al buco nero.
Questo modo di presentare le cose non è però del tutto realistico a causa
del problema seguente. La gravità si indebolisce sempre più quanto più ci si
allontana dalla stella, cosicché la forza gravitazionale che si esercita sui piedi
del nostro intrepido astronauta sarebbe sempre maggiore di quella che si
esercita sulla sua testa. La differenza fra le forze è tale da stirare il nostro
astronauta come una fettuccina o da strapparlo in due o più parti prima che
la stella si sia contratta fino al raggio critico a cui si forma l'orizzonte degli
eventi! Noi crediamo però che nell'universo ci siano oggetti molto più grandi,
come le regioni centrali di galassie, che possono subire anch'essi il collasso
gravitazionale per produrre buchi neri; un astronauta che si trovasse in una
di queste regioni non sarebbe lacerato prima della formazione del buco nero.
Egli non sentirebbe in effetti niente di speciale nel raggiungere il raggio
critico, e potrebbe superare il punto di non ritorno senza neppure
accorgersene. In capo a poche ore, però, al continuare del collasso
gravitazionale della regione, la differenza nelle forze gravitazionali che si
esercitano sulla sua testa e sui suoi piedi diventerebbe così grande da farlo
di nuovo a pezzi.
Le ricerche compiute fra il 1965 e il 1970 da Roger Penrose e da me
dimostrarono che, secondo la relatività generale, in un buco nero
dev'esserci una singolarità di densità e di curvatura dello spazio-tempo
infinite. Un buco nero è un po' come il big bang all'inizio del tempo, solo che
sarebbe una fine del tempo per il corpo che subisce il collasso e per
l'astronauta. In questa singolarità le leggi della scienza e la nostra capacità di
predire il futuro verrebbero meno. Un osservatore che si trovasse fuori del
buco nero non risentirebbe però di questo venir meno della predicibilità,
poiché dalla singolarità non potrebbero giungergli né la luce né alcun altro
segnale. Questo fatto notevole condusse Roger Penrose a proporre l'ipotesi
della censura cosmica, che potrebbe essere parafrasata con la frase
seguente: «Dio aborre una singolarità nuda». In altri termini, le singolarità
prodotte dal collasso gravitazionale si verificano solo in luoghi — come i
buchi neri — dove sono pudicamente nascoste a ogni osservatore esterno
da un orizzonte degli eventi. A rigore, questa teoria è nota come ipotesi
debole della censura cosmica: essa protegge gli osservatori che rimangono
all'esterno del buco nero dalle conseguenze del venir meno della
predicibilità che si verifica nella singolarità, ma non comporta nessun
beneficio del genere per lo sventurato astronauta che cade dentro il buco.
Ci sono alcune soluzioni delle equazioni della relatività generale in cui per il
nostro astronauta è possibile vedere una singolarità nuda: potrebbe
accadere che egli riuscisse a evitare di colpire la singolarità e precipitasse
invece in un «cunicolo» (wormhole) per andare a uscire in un'altra regione
dell'universo. Questo fatto offrirebbe grandi possibilità per i viaggi nello
spazio e nel tempo, ma purtroppo pare che debba trattarsi in ogni caso di
soluzioni altamente instabili; il minimo disturbo, come la presenza di un
astronauta, potrebbe modificarle, così che l'astronauta potrebbe non
vedere la singolarità finché non fosse in contatto con essa, nel qual caso il
suo tempo finirebbe. In altri termini la singolarità sarebbe sempre nel suo
futuro e mai nel suo passato. La versione forte dell'ipotesi della censura
cosmica afferma che, in una soluzione realistica, le singolarità si
troverebbero sempre o interamente nel futuro (come le singolarità del
collasso gravitazionale) o interamente nel passato (come il big bang). Si deve
sperare che una qualche versione dell'ipotesi della censura si riveli valida
perché vicino a singolarità nude potrebbe essere possibile compiere viaggi
nel passato. Anche se questa potrebbe essere una bella cosa per gli scrittori
di fantascienza, significherebbe però anche che non sarebbe mai sicura la
vita di nessuno: qualcuno potrebbe infatti andare nel passato e uccidere tuo
padre o tua madre prima che tu fossi concepito!
L'orizzonte degli eventi, la regione di confine dello spazio-tempo da cui non
è possibile evadere, agisce un po' come una membrana unidirezionale
attorno al buco nero: qualche oggetto, come astronauti imprudenti,
potrebbe cadere attraverso l'orizzonte degli eventi nel buco nero, ma nulla
potrebbe mai valicare lo stesso confine in uscita dal buco nero. (Si ricordi
che l'orizzonte degli eventi è il percorso nello spazio-tempo di luce che cerca
invano di evadere dal buco nero, e nulla può viaggiare più veloce della luce.)
Si potrebbero ben dire dell'orizzonte degli eventi le parole che Dante vide
scritte sopra la porta dell'Inferno: «Lasciate ogni speranza, voi ch'entrate» [I,
3:3]. Qualunque cosa o chiunque cadesse attraverso l'orizzonte degli eventi
raggiungerebbe ben presto la regione di densità infinita e la fine del tempo.
La relatività generale predice che oggetti pesanti in movimento causeranno
l'emissione di onde gravitazionali, increspature nella curvatura dello spazio
che viaggiano alla velocità della luce. Queste onde sono simili alle onde
luminose, le quali sono increspature del campo elettromagnetico, ma sono
molto più difficili da scoprire. Come la luce, le onde gravitazionali
trasportano via energia dagli oggetti che le emettono. Ci si attenderebbe
perciò che un sistema di oggetti dotati di massa venisse infine a stabilizzarsi
in uno stato stazionario, perché in ogni momento verrebbe trasportata via
energia attraverso l'emissione di onde gravitazionali. (E un po' come quando
si lascia cadere in acqua un turacciolo: dapprima esso oscilla su e giù per un
po' di tempo, ma poiché le onde trasportano via la sua energia, esso si
fermerà infine in uno stato stazionario.) Per esempio, il movimento della
Terra nella sua orbita attorno al Sole produce onde gravitazionali. La perdita
continua di energia avrà l'effetto di modificare l'orbita della Terra così che
gradualmente essa si avvicinerà sempre più al Sole, fino a entrare in
collisione con esso e stabilizzarsi in uno stato stazionario. Il ritmo della
perdita di energia nel caso della Terra e del Sole è molto basso: grosso modo
sufficiente ad alimentare un piccolo scaldino elettrico. Ciò significa che la
Terra impiegherà circa mille milioni di milioni di milioni di milioni di anni per
precipitare nel Sole, cosicché non c'è alcuna ragione immediata di
preoccuparsi! Il mutamento nell'orbita della Terra in conseguenza di questa
perdita di energia gravitazionale è troppo piccolo per essere osservabile, ma
nel corso degli ultimi anni questo stesso effetto è stato osservato nel
sistema chiamato PSR 1913 + 16 (qui PSR sta per «pulsar», un tipo speciale
di stella di neutroni che emette impulsi regolari di radioonde). Questo
sistema contiene due stelle di neutroni che orbitano l'una attorno all'altra, e
l'energia che esse perdono per mezzo dell'emissione di onde gravitazionali
determina il movimento a spirale di avvicinamento l'una all'altra che esse
presentano.
Durante il collasso gravitazionale di una stella avviata a formare un buco
nero, i movimenti sarebbero molto più rapidi, cosicché il ritmo di perdita di
energia sarebbe molto maggiore. La stella impiegherebbe perciò un tempo
non molto lungo prima di stabilizzarsi in uno stato stazionario. Come
sarebbe questo stadio finale? Si potrebbe supporre che esso dipenda da
tutti i caratteri complessi della stella che gli hanno dato origine: non solo la
sua massa e la sua rapidità di rotazione, ma anche le diverse densità delle
sue varie parti, e i complicati movimenti dei gas al suo interno. E se i buchi
neri fossero così diversi fra loro come gli oggetti dal cui collasso traggono
origine, potrebbe essere molto difficile fare predizioni sui buchi neri in
generale.
Nel 1967, però, lo studio dei buchi neri fu rivoluzionato da Werner Israel,
uno scienziato canadese (che, nato a Berlino, era stato allevato in Sudafrica
e aveva preso la laurea in Irlanda). Israel mostrò che, secondo la relatività
generale, i buchi neri non rotanti dovrebbero essere molto semplici,
perfettamente sferici e le loro dimensioni dovrebbero dipendere solo dalla
loro massa, tanto che due buchi neri non rotanti con la stessa massa
sarebbero identici. Essi potrebbero essere descritti in effetti da una
particolare soluzione delle equazioni di Einstein che era stata nota sin dal
1917, essendo stata trovata da Karl Schwarzschild poco tempo dopo la
scoperta della relatività generale. Dapprima molte persone, fra cui lo stesso
Israel, sostennero che, dato che i buchi neri dovevano essere perfettamente
sferici, un buco nero poteva formarsi solo dal collasso di un oggetto
perfettamente sferico. Poiché nessuna stella sarebbe mai perfettamente
sferica, qualsiasi stella reale potrebbe contrarsi solo a formare una
singolarità nuda.
Ci fu però un'interpretazione diversa del risultato di Israel, propugnata in
particolare da Roger Penrose e da John Wheeler. Essi sostennero che, in
conseguenza dei rapidi movimenti associati al collasso di una stella, le onde
gravitazionali da essa emesse tenderebbero a conferirle una forma sempre
più sferica e che, una volta che essa si fosse stabilizzata nello stato
stazionario, sarebbe esattamente sferica. Secondo quest'opinione qualsiasi
stella non rotante, per quanto complicate potessero essere la sua forma e la
sua struttura interna, diventerebbero infine, dopo il collasso gravitazionale,
un buco nero perfettamente sferico, le cui dimensioni dipenderebbero solo
dalla sua massa. Altri calcoli corroborarono quest'opinione che fu ben
presto adottata universalmente.
Il risultato di Israel concerneva il caso di buchi neri formati esclusivamente
da corpi non rotanti. Nel 1963 il neozelandese Roy Kerr trovò un insieme di
soluzioni delle equazioni della relatività generale che descrivevano buchi
neri rotanti. Questi buchi neri «di Kerr» ruotano a una velocità costante, e le
loro dimensioni e forma dipendono solo dalla loro massa e velocità di
rotazione. Se la rotazione è zero, il buco nero è perfettamente sferico e la
soluzione è identica a quella di Schwarzschild. Se la rotazione è diversa da
zero, il buco nero presenta un rigonfiamento equatoriale (proprio come la
Terra e il Sole in conseguenza della loro rotazione), e quanto più veloce è la
sua rotazione tanto più pronunciato è il suo rigonfiamento. Così, per
estendere il risultato di Israel a comprendere i corpi rotanti, si congetturò
che qualsiasi corpo rotante che si fosse contratto a formare un buco nero si
sarebbe infine stabilizzato in uno stato stazionario descritto dalla soluzione
di Kerr.
Nel 1970 un mio collega e allievo a Cambridge, Brandon Carter, fece il primo
passo verso la dimostrazione di questa congettura. Egli mostrò che, purché
un buco nero stazionario rotante avesse avuto un asse di simmetria, come
per esempio una trottola, le sue dimensioni e la sua forma sarebbero dipese
solo dalla sua massa e dalla sua velocità di rotazione. Poi, nel 1971, io
dimostrai che qualsiasi corpo nero stazionario rotante avrebbe posseduto in
effetti un tale asse di simmetria. Nel 1973, infine, David Robinson al Kings
College a Londra usò i risultati di Carter e i miei per mostrare che la
congettura era corretta: un tale buco nero doveva essere in effetti la
soluzione di Kerr. Così, dopo il collasso gravitazionale un buco nero doveva
stabilizzarsi in uno stato in cui poteva ruotare ma non pulsare. Inoltre, le sue
dimensioni e la sua forma sarebbero dipese solo dalla sua massa e dalla sua
velocità di rotazione e non dalla natura del corpo dal cui collasso
gravitazionale aveva avuto origine. Questo risultato ha una grande
importanza pratica in quanto limita grandemente i tipi possibili di buchi neri.
E perciò possibile costruire modelli dettagliati di oggetti che potrebbero
contenere buchi neri e confrontare le predizioni dei modelli con le
osservazioni. Ciò significa anche che, quando si forma un buco nero, una
grandissima quantità di informazioni sul corpo che ha subito il collasso deve
andare inevitabilmente perduta, poiché tutto ciò che da quel momento in
poi potremo misurare sul corpo saranno la sua massa e la sua velocità di
rotazione. Vedremo il significato di tutto nel capitolo seguente.
I buchi neri sono uno dei casi piuttosto rari nella storia della scienza in cui
una teoria fu sviluppata con una certa minuziosità come modello
matematico prima che le osservazioni potessero offrire qualche prova della
sua correttezza. Proprio questo fu, in effetti, il principale argomento degli
oppositori dei buchi neri: come si poteva credere nell'esistenza di oggetti a
favore dei quali c'erano solo calcoli fondati sulla dubbia teoria della
relatività generale? Nel 1963, però, Maarten Schmidt, astronomo
all'osservatorio di Palomar, in California, misurò lo spostamento verso il
rosso di un debole oggetto di aspetto stellare, in direzione della
radiosorgente 3C273 (ossia della sorgente elencata al numero 273 del terzo
catalogo di radiosorgenti di Cambridge). Egli trovò che lo spostamento verso
il rosso era troppo grande per poter essere causato da un campo
gravitazionale: se si fosse trattato di un red shift di origine gravitazionale,
l'oggetto avrebbe dovuto avere una massa così grande, e trovarsi a una
distanza da noi così piccola, da perturbare le orbite dei pianeti del sistema
solare. Era ovvio concluderne che, nel caso in questione, lo spostamento
verso il rosso fosse causato invece dall'espansione dell'universo, cosa che
comportava, a sua volta, che l'oggetto dovesse essere molto, molto lontano.
E, per essere visibile a una distanza tanto grande, doveva essere molto
luminoso, ossia, in altri termini, doveva emettere una quantità enorme di
energia. L'unico meccanismo concepibile in grado di produrre quantità di
energia tanto grandi sembrava essere il collasso gravitazionale non solo di
una stella bensì di un'intera regione centrale di una galassia. Vari altri
oggetti simili, «quasi stellari», o quasar, sono stati scoperti nel frattempo, e
le loro emissioni presentavano invariabilmente grandi spostamenti verso il
rosso. Essi sono però tutti troppo lontani, e perciò troppo difficili da
osservare, per poter fornire prove conclusive dell'esistenza dei buchi neri.
Altri indizi a sostegno dell'esistenza dei buchi neri vennero nel 1967 con la
scoperta — per opera di una studentessa ricercatrice a Cambridge, Jocelyn
Bell — di oggetti celesti che emettevano impulsi regolari di onde radio. In un
primo tempo Bell e il suo supervisore, il professor Antony Hewish,
pensarono addirittura alla possibilità di avere stabilito un contatto con una
civiltà extraterrestre nella Galassia! Ricordo in effetti che, al seminario in cui
annunciarono la loro scoperta, essi chiamarono le prime quattro sorgenti
scoperte LGM 1-4, dove LGM stava per «Little Green Men», «omini verdi».
Infine però gli scopritori, come tutti gli altri, vennero alla conclusione meno
romantica che tali oggetti, cui venne dato il nome di pulsar, erano in realtà
stelle di neutroni in rapidissima rotazione, i quali emettevano impulsi in
frequenze radio in conseguenza di una complicata interazione fra i loro
campi magnetici e la materia circostante. Queste erano cattive notizie per
gli autori di western dello spazio, ma suscitarono grandi speranze nel piccolo
numero di coloro che a quel tempo credevano nei buchi neri: quella era
infatti la prima prova concreta dell'esistenza di stelle di neutroni. Una stella
di neutroni ha un raggio di circa 15 chilometri, ossia solo di poco superiore al
raggio critico in corrispondenza del quale una stella diventa un buco nero.
Se una stella, in seguito al collasso gravitazionale, aveva potuto contrarsi
sino a raggiungere dimensioni così piccole, non era irragionevole attendersi
che altre stelle potessero contrarsi sino a dimensioni ancora più piccole e
diventare buchi neri.
Come potevamo sperare di scoprire un buco nero se questi oggetti, per
definizione, non emettono luce? Potrebbe sembrare un'impresa simile a
quella di cercare un gatto nero in una carbonaia. Per fortuna c'è un modo.
Come sottolineò nel 1783 John Michell in un articolo pionieristico, un buco
nero esercita ancora una forza gravitazionale sugli oggetti vicini. Gli
astronomi hanno osservato molti sistemi in cui due stelle orbitano attorno a
un baricentro comune, attratte l'una dalla forza di gravità dell'altra. Essi
hanno osservato anche sistemi in cui c'è una sola stella visibile che orbita
attorno a una compagna invisibile. Non si può, ovviamente, saltare subito
alla conclusione che la compagna è un buco nero; potrebbe essere infatti
una stella troppo debole per risultare visibile. Alcuni di questi sistemi, come
quello chiamato Cygnus X-l (fig. 6.2), sono però anche intense sorgenti di
raggi X. La spiegazione migliore di questo fenomeno è che dalla superficie
della stella visibile sia stata soffiata via della materia. Cadendo verso la
compagna invisibile, questa materia sviluppa un movimento a spirale (simile
a quello dell'acqua di una vasca da bagno quando si sta svuotando) e
diventa molto calda, emettendo raggi X (fig. 6.3). Perché questo
meccanismo funzioni, l'oggetto invisibile dev'essere molto piccolo, come
una nana bianca, una stella di neutroni o un buco nero. Sulla base dell'orbita
osservata della stella visibile si può determinare la massa minima possibile
dell'oggetto che si sottrae all'osservazione. Nel caso di Cygnus X-l questa
massa è circa sei volte maggiore della massa del Sole; si tratta dunque di
una massa troppo grande, secondo i valori fissati da Chandrasekhar, perché
l'oggetto invisibile possa essere una nana bianca. Essa è troppo grande
anche perché possa trattarsi di una stella di neutroni. Pare, perciò, che ci
troviamo veramente in presenza di un buco nero.
Ci sono altri modelli che spiegano la sorgente Cygnus X-1 senza far ricorso ai
buchi neri, ma sono tutti piuttosto forzati. Pare dunque che un buco nero sia
l'unica spiegazione veramente naturale delle osservazioni. Nonostante ciò
ho scommesso con Kip Thorne, del California Institute of Technology, che in
realtà il sistema Cygnus X-1 non contiene un buco nero! Questa è per me
una sorta di polizza di assicurazione. Io ho lavorato molto sui buchi neri e
sarebbe tutto tempo sprecato se risultasse che i buchi neri non esistono. In
tal caso avrei però la consolazione di aver vinto la scommessa, cosa che mi
porterebbe quattro anni di abbonamento alla rivista «Private Eye». Se i
buchi neri esistono, Kip avrà invece un abbonamento per un anno a
«Penthouse». Quando facemmo la scommessa, nel 1975, eravamo certi
all'80 per cento che Cygnus X-l fosse un buco nero. Oggi direi che siamo
sicuri al 95 per cento, ma la scommessa non si può ancora dire decisa.
Al presente abbiamo prove anche dell'esistenza di vari altri buchi neri in
sistemi simili a Cygnus X-l nella nostra galassia e in due galassie vicine, le
Nubi di Magellano. Il numero dei buchi neri è però quasi certamente molto
più elevato; nella lunga storia dell'universo molte stelle devono avere
esaurito tutto il loro combustibile nucleare ed essere quindi andate incontro
all'inevitabile collasso. Il numero dei buchi neri potrebbe benissimo essere
maggiore di quello delle stelle visibili, cosa che significherebbe un totale di
cento miliardi di buchi neri nella sola Galassia. L'attrazione gravitazionale
extra di un numero così grande di buchi neri potrebbe spiegare perché la
nostra galassia abbia proprio la velocità di rotazione che ha. La massa delle
stelle visibili è infatti insufficiente a renderne ragione. Possediamo anche
qualche prova del fatto che al centro della nostra galassia c'è un buco nero
molto maggiore, con una massa circa centomila volte maggiore di quella del
Sole. Le stelle della Galassia che si avvicinano troppo a questo buco nero
vengono lacerate dalla differenza fra le forze gravitazionali che sì esercitano
sulla loro faccia vicina e su quella lontana. I resti di queste stelle, e i gas
emessi da altre stelle, cadranno verso il buco nero. Come nel caso di Cygnus
X-l, il gas scenderà spiraleggiando e si riscalderà, anche se in misura molto
minore. Esso non si riscalderà infatti quanto basta per emettere raggi X, ma
potrebbe spiegare la sorgente molto compatta di onde radio e di raggi
infrarossi che si osserva nel centro galattico.
Si pensa che buchi neri simili ma ancora più grandi, con massa cento milioni
di volte maggiore della massa del Sole, si trovino al centro dei quasar. Solo la
materia che cade in un buco nero di massa così enorme può fornire energia
a sufficienza per spiegare la straordinaria intensità dell'emissione di questi
oggetti. Scendendo a spirale nel buco nero, la materia determinerebbe
anche la rotazione del buco nero nella stessa direzione, con lo sviluppo di un
campo magnetico in qualche misura simile a quello della Terra. Particelle di
energia elevatissima verrebbero generate in prossimità del buco nero dalla
materia che cade in esso. Il campo magnetico sarebbe così forte da poter
concentrare queste particelle in getti espulsi verso l'esterno lungo l'asse di
rotazione del buco nero, ossia nella direzione dei suoi poli nord e sud. Getti
con queste caratteristiche vengono effettivamente osservati in varie galassie
e quasar.
Si può considerare anche la possibilità che esistano buchi neri di massa
molto minore di quella del Sole. Buchi neri di questo genere non potrebbero
essersi formati in conseguenza del collasso gravitazionale, poiché la loro
massa è inferiore alla massa critica di Chandrasekhar: stelle di massa così
modesta potrebbero resistere contro l'azione della forza di gravità anche
dopo avere esaurito il loro combustibile nucleare. Buchi neri di piccola
massa potrebbero formarsi solo se della materia fosse compressa in densità
enormi da pressioni esterne molto grandi. Condizioni del genere possono
darsi in una bomba a idrogeno molto grande: il fisico John Wheeler calcolò
una volta che, se si estraesse tutta l'acqua pesante da tutti gli oceani del
mondo, si potrebbe costruire una bomba a idrogeno in grado di comprimere
la materia al suo centro in misura tale da creare un buco nero. (In tal caso,
ovviamente, non resterebbe nessuno a osservarlo!) Una possibilità più
pratica è che buchi neri di massa così piccola si siano formati nelle condizioni
di temperatura e pressione elevatissime della primissima fase della vita
dell'universo. In una tale situazione avrebbero potuto formarsi buchi neri
solo se l'universo non fosse stato perfettamente omogeneo e uniforme,
poiché solo una piccola regione più densa della media avrebbe potuto
comprimersi in questo modo a formare un buco nero. Sappiamo però che
deve esserci stata qualche irregolarità, poiché altrimenti la materia
nell'universo dovrebbe essere distribuita ancor oggi in modo perfettamente
uniforme, anziché essere aggregata in stelle e galassie.
Se le irregolarità che si richiedono per spiegare la formazione di stelle e
galassie possano aver condotto alla formazione di un numero significativo di
buchi neri «primordiali» dipende dalle particolari condizioni vigenti nella
fase iniziale dell'universo. Così, se fossimo in grado di determinare quanti
buchi neri primordiali esistono oggi, potremmo apprendere moltissimo sui
primi minuti della vita dell'universo. Buchi neri primordiali di massa pari a
più di un miliardo di tonnellate (la massa di una grande montagna)
potrebbero venire scoperti solo attraverso la loro influenza gravitazionale su
altra materia, ossia su oggetti visibili, o sull'espansione dell'universo. Come
apprenderemo però nel capitolo seguente, i buchi neri non sono dopo tutto
così neri: essi risplendono come un corpo caldissimo, e quanto più piccoli
sono tanto più risplendono. Così, paradossalmente, i buchi neri più piccoli
potrebbero risultare in realtà più facili da scoprire di quelli più grandi!
7
I BUCHI NERI NON SONO POI COSÌ NERI
Prima del 1970 la mia ricerca sulla relatività generale si era concentrata
principalmente sul problema se ci fosse stata o no una singolarità del big
bang. Una sera di novembre di quell'anno, poco tempo dopo la nascita di
mia figlia Lucy, cominciai però a riflettere sui buchi neri mentre mi
preparavo per andare a letto. La mia invalidità rende le operazioni relative
piuttosto lente, cosicché avevo molto tempo per pensare. A quell'epoca non
c'era una definizione precisa di quali punti nello spazio-tempo siano
all'interno di un buco nero e di quali si trovino invece all'esterno. Io avevo
già discusso con Roger Penrose l'idea di definire un buco nero come
l'insieme di eventi da cui non è possibile sfuggire sino a una grande distanza,
che è la definizione oggi generalmente accettata. Essa significava che il
confine del buco nero, l'orizzonte degli eventi, è formato dalle traiettorie
nello spazio-tempo di raggi di luce che non riescono per un nonnulla a
evadere dal buco nero, rimanendo per sempre per così dire sospesi
esattamente al suo margine (fig. 7.1). È un po' come il caso di un borsaiolo
che, correndo a perdifiato nel tentativo di sfuggire ai poliziotti, riesce a
mantenere un distacco di pochi metri ma non ad allontanarsi e a far perdere
le proprie tracce!
D'improvviso mi resi conto che le traiettorie di questi raggi di luce non
avrebbero mai potuto avvicinarsi l'una all'altra. Se lo avessero fatto, si
sarebbero infine scontrate frontalmente. E un po' come se il nostro
ladruncolo si imbattesse in un altro che tentasse di sfuggire alla polizia
correndo in direzione opposta: sarebbero catturati entrambi! (O, in questo
caso, i raggi di luce cadrebbero nel buco nero.) Ma se questi raggi di luce
venissero inghiottiti dal buco nero, non potrebbero essere stati sul confine
del buco nero. Perciò i raggi di luce nell'orizzonte degli eventi dovrebbero
sempre muoversi paralleli fra loro, oppure dovrebbero allontanarsi fra loro.
Un altro modo di considerare questa situazione consiste nel vedere
l'orizzonte degli eventi — il confine del buco nero — come il margine di
un'ombra, il margine del destino incombente. Se si guarda l'ombra
proiettata da una sorgente lontana, come per esempio il Sole, si vedrà che i
raggi al bordo non si avvicinano l'uno all'altro.
Se i raggi di luce che formano l'orizzonte degli eventi non possono mai
avvicinarsi l'uno all'altro, l'area dell'orizzonte degli eventi può rimanere la
stessa o aumentare col tempo, ma mai diminuire, poiché ciò significherebbe
che almeno una parte dei raggi di luce nel confine dovrebbero avvicinarsi
l'uno all'altro. In effetti, tale area dovrebbe aumentare ogni volta che
cadessero nel buco nero materia o energia (fig. 7.2). Inoltre, se due buchi
neri entrassero in collisione e si fondessero a formare un singolo buco nero,
l'area dell'orizzonte degli eventi del buco nero finale sarebbe maggiore o
uguale alla somma delle aree degli orizzonti degli eventi dei buchi neri
originari (fig. 7.3). Questa proprietà dell'area dell'orizzonte degli eventi di
non diminuire mai pose una restrizione importante al possibile
comportamento dei buchi neri. Io ero così eccitato per questa scoperta che
quella notte non dormii molto. Il giorno seguente chiamai al telefono Roger
Penrose, che fu subito d'accordo con me. Penso, in effetti, che egli fosse già
consapevole di questa proprietà dell'area, solo che aveva usato una
definizione leggermente diversa di buco nero. Egli non si era reso conto che i
confini del buco nero secondo le due definizioni sarebbero stati gli stessi, e
quindi anche la loro area, purché il buco nero si fosse stabilizzato in uno
stato in cui fosse destinato a restare immutato nel tempo.
La proprietà dell'area di un buco nero di non diminuire mai ricordava molto
da vicino il comportamento di una proprietà fisica chiamata entropia, la
quale misura il grado di disordine di un sistema. E un dato di comune
esperienza che, se si lasciano le cose a se stesse, il disordine tende ad
aumentare. (Per rendersene conto, è sufficiente smettere di fare riparazioni
in casa!) Si può creare ordine dal disordine (per esempio si può dipingere la
casa), ma ciò richiede un dispendio di fatiche e di energia, cosa che conduce
a una diminuzione dell'energia ordinata disponibile.
Una formulazione precisa di quest'idea è nota come seconda legge della
termodinamica. Essa afferma che l'entropia di un sistema isolato aumenta
sempre e che, quando si uniscono assieme due sistemi, l'entropia del
sistema combinato è maggiore della somma delle entropie dei singoli
sistemi. Consideriamo, per esempio, un sistema di molecole di gas in un
recipiente. Le molecole possono essere immaginate come piccole palle da
biliardo che si urtano continuamente e che rimbalzano sulle pareti del
recipiente. Quanto maggiore è la temperatura del gas, tanto più veloce è il
movimento delle molecole, e tanto più frequenti e forti sono gli urti con le
pareti del recipiente, e quindi la pressione verso l'esterno esercitata dal gas
su tali pareti. Supponiamo che all'inizio le molecole siano confinate tutte
nella parte sinistra del recipiente per mezzo di un divisorio. Se, a un certo
punto, si toglie il divisorio, le molecole tenderanno a diffondersi e a
occupare entrambe le metà del recipiente. Trascorso un po' di tempo, in un
istante dato esse potrebbero trovarsi per caso tutte nella metà destra del
recipiente, o nella metà sinistra, ma c'è una probabilità immensamente
maggiore che si trovino in numero press'a poco uguale nelle due metà. Un
tale stato è meno ordinato, o più disordinato, dello stato originario in cui
tutte le molecole si trovavano in una sola metà del recipiente. Si può dire
perciò che il gas ha perduto la sua entropia. Similmente, supponiamo di
avere all'inizio due recipienti, uno contenente molecole di ossigeno e l'altro
contenente molecole di azoto. Se si uniscono i due recipienti e si elimina la
separazione, le molecole di ossigeno e quelle di azoto cominceranno a
mescolarsi. Dopo un certo tempo lo stato più probabile sarà un miscuglio
abbastanza uniforme di molecole di ossigeno e di azoto nei due recipienti.
Questo stato sarebbe meno ordinato, e quindi avrebbe più entropia,
rispetto allo stato iniziale dei due recipienti separati.
La seconda legge della termodinamica ha uno status alquanto diverso
rispetto ad altre leggi della scienza — come per esempio la legge della
gravitazione di Newton — in quanto non vale sempre ma solo nella grande
maggioranza dei casi. La probabilità che tutte le molecole di gas contenute
nel nostro primo recipiente vengano a trovarsi in seguito in un momento
qualsiasi in una sola metà del recipiente è di uno a molti milioni di milioni,
ma questo non è comunque un fatto fisicamente impossibile. Se però
abbiamo a portata di mano un buco nero, pare ci sia un modo piuttosto
semplice di violare la seconda legge: basta gettare nel buco nero della
materia con una quantità di entropia, come un recipiente pieno di gas.
L'entropia totale della materia fuori del buco nero diminuirebbe. Si
potrebbe, ovviamente, dire ancora che l'entropia totale, compresa
l'entropia all'interno del buco nero, non è diminuita, ma poiché non c'è
alcun modo di guardare dentro il buco nero, non possiamo vedere quanta
entropia abbia la materia al suo interno. Sarebbe bello, quindi, se i buchi
neri avessero un qualche carattere per mezzo del quale un osservatore
esterno potesse determinare l'entropia, la quale sarebbe destinata a
crescere ogni volta che materia portatrice di entropia cadesse dentro di essi.
Dopo la scoperta, descritta sopra, che l'area dell'orizzonte degli eventi
aumenterebbe ogni volta che della materia cadesse in un buco nero, uno
studente ricercatore a Princeton, Jacob Bekenstein, suggerì che l'area
dell'orizzonte degli eventi fosse una misura dell'entropia del buco nero. Ogni
volta che materia portatrice di entropia fosse caduta nel buco nero, l'area
dell'orizzonte degli eventi sarebbe aumentata, cosicché la somma
dell'entropia della materia fuori dei buchi neri e l'area degli orizzonti degli
eventi non sarebbe mai diminuita.
Questo suggerimento sembrava impedire che, nella maggior parte delle
situazioni, venisse violata la seconda legge della termodinamica. C'era però
in esso una pecca fatale. Se un buco nero ha un'entropia, dovrebbe avere
anche una temperatura. Ma un corpo con una particolare temperatura deve
emettere radiazione a un certo ritmo. E un dato di esperienza comune che,
se si riscalda un attizzatoio alla fiamma, esso diventa rovente ed emette
radiazione, ma anche corpi a temperature inferiori emettono radiazione;
normalmente non ce ne rendiamo conto solo perché la quantità di
radiazione è troppo piccola. Questa radiazione è richiesta per impedire la
violazione della seconda legge. Anche i buchi neri dovrebbero quindi
emettere radiazione. I buchi neri sono però, per definizione, oggetti che non
dovrebbero emettere niente. Sembrava perciò che l'area dell'orizzonte degli
eventi di un buco nero non potesse essere considerata alla stregua della sua
entropia. Nel 1972 scrissi un articolo assieme a Brandon Carter e a un
collega americano, Jim Bardeen; in esso sottolineammo che, per quante
somiglianze ci fossero fra l'entropia e l'area dell'orizzonte degli eventi, c'era
anche questa difficoltà apparentemente fatale. Devo ammettere che,
scrivendo tale articolo, ero motivato in parte da irritazione nei confronti di
Bekenstein, che secondo me aveva fatto cattivo uso della mia scoperta
dell'aumento dell'area dell'orizzonte degli eventi. Alla fine risultò però che
Bekenstein aveva fondamentalmente ragione anche se in un modo che
certamente non si attendeva.
Nel settembre 1973, mentre ero in visita a Mosca, discussi sui buchi neri con
due fra i principali esperti sovietici, Yakov Zel'dovic e Aleksandr Starobinskij.
Essi mi convinsero che, secondo il principio di indeterminazione della
meccanica quantistica, i buchi neri rotanti dovevano creare ed emettere
particelle. Io credetti alle loro argomentazioni sulla base di ragioni fisiche,
ma non mi piacque il modo matematico in cui avevano calcolato l'emissione.
Cominciai perciò a pensare a un trattamento matematico migliore, che
descrissi a un seminario informale a Oxford alla fine del novembre 1973. A
quel tempo non avevo fatto i calcoli per trovare quanta radiazione sarebbe
stata realmente emessa. Mi attendevo di trovare esattamente la radiazione
predetta da Zel'dovic e da Starobinskij per il caso di buchi neri rotanti.
Quando eseguii il calcolo, trovai però, con mia sorpresa e irritazione, che
anche buchi neri non rotanti dovevano a quanto pare creare ed emettere
particelle a un ritmo costante. Dapprima pensai che quest'emissione
indicasse che una delle approssimazioni da me usate non fosse valida.
Temevo che, se Bekenstein ne fosse venuto a conoscenza, potesse usarla
come un ulteriore argomento a sostegno delle sue idee sull'entropia dei
buchi neri, che io ancora non accettavo. Quanto più ci riflettevo, però, tanto
più mi sembrava che quelle approssimazioni dovessero essere valide. Ciò
che infine mi convinse della realtà dell'emissione fu che lo spettro delle
particelle emesse era esattamente quello che sarebbe stato emesso da un
corpo caldo, e che il buco nero stava emettendo particelle esattamente al
ritmo giusto per impedire violazioni della seconda legge. Da allora i calcoli
sono stati ripetuti in varie forme diverse da altre persone e hanno sempre
confermato che un buco nero dovrebbe emettere particelle e radiazioni
esattamente come se fosse un corpo caldissimo, con una temperatura
dipendente solo dalla sua massa: quanto maggiore è la massa tanto minore
è la temperatura.
Com'è possibile che un buco nero sembri emettere particelle quando
sappiamo che nulla può evadere dall'interno del suo orizzonte degli eventi?
La risposta, ci dice la teoria quantistica, è che le particelle non provengono
dall'interno del buco nero, bensì dallo spazio «vuoto» che si trova subito
fuori dell'orizzonte degli eventi del buco nero! Possiamo comprendere
questa nozione nel modo seguente: quello che noi concepiamo come uno
spazio «vuoto» non può essere completamente vuoto perché ciò
significherebbe che tutti i campi, compresi il campo gravitazionale e quello
elettromagnetico, dovrebbero essere esattamente zero. Il valore di un
campo e la sua rapidità di variazione col tempo sono però come la posizione
e la velocità di una particella: il principio di indeterminazione implica che,
quanto maggiore è la precisione con cui si conosce una di queste due
quantità, tanto meno esattamente si può conoscere l'altra. Così nello spazio
vuoto il campo non può essere fissato esattamente a zero, giacché in questo
caso esso avrebbe sia un valore preciso (zero) sia una precisa rapidità di
mutamento (zero anche in questo caso). Nel valore del campo dev'esserci
una certa quantità minima di incertezza (indeterminazione), o di fluttuazioni
quantiche. Possiamo concepire queste fluttuazioni come coppie di particelle
di luce o di gravità che appaiono assieme in un qualche tempo, si separano e
poi tornano a congiungersi e si annichilano reciprocamente. Queste
particelle sono particelle virtuali come quelle che trasportano la forza
gravitazionale del Sole: a differenza delle particelle reali, non possono
essere osservate direttamente per mezzo di un "rivelatore di particelle. E
però possibile misurare i loro effetti indiretti, come piccoli mutamenti
nell'energia delle orbite degli elettroni negli atomi, e tali effetti sono in
accordo, con un grado di precisione considerevole, con le predizioni teoriche.
Il principio di indeterminazione predice anche che ci saranno coppie virtuali
simili di particelle di materia, come elettroni o quark. In questo caso, però,
un membro della coppia sarà una particella e l'altro un'antiparticella (le
antiparticelle della luce e della gravità sono identiche alle particelle).
Poiché non si può creare energia dal nulla, uno dei membri della coppia
particella-antiparticella avrà energia positiva e l'altro energia negativa.
Quello con energia negativa è condannato a essere una particella virtuale di
breve vita perché in situazioni normali le particelle reali hanno sempre
energia positiva. Esso dovrà quindi cercare il suo partner e annichilarsi con
esso. Una particella reale in prossimità di un corpo di grande massa ha però
meno energia che se si trovasse a grande distanza, in quanto per innalzarsi a
una grande distanza contro l'attrazione gravitazionale del corpo dovrebbe
consumare energia. Normalmente l'energia della particella è ancora positiva,
ma il campo gravitazionale all'interno di un buco nero è così intenso che
persino una particella reale può avervi energia negativa. E perciò possibile,
in presenza di un buco nero, che la particella virtuale con energia negativa
cada nel buco nero e diventi una particella o antiparticella reale. In questo
caso essa non deve più annichilarsi col proprio partner. Anche il membro
abbandonato potrebbe cadere nel buco nero. Oppure, possedendo energia
positiva, potrebbe fuggire dalla regione in prossimità del buco nero sotto
forma di una particella o antiparticella reale (fig. 7.4). Un osservatore
esterno lontano avrà l'impressione che essa sia stata emessa dal buco nero.
Quanto più piccolo è il buco nero, tanto minore sarà la distanza che la
particella con energia negativa dovrà percorrere prima di diventare una
particella reale, e quindi tanto maggiori saranno la frequenza di emissione, e
la temperatura apparente, del buco nero.
L'energia positiva della radiazione in uscita sarebbe controbilanciata da un
flusso di particelle di energia negativa che cadono nel buco nero. Per
l'equazione di Einstein E = mc2 (dove E è l'energia, m la massa e c la velocità
della luce), l'energia è proporzionale alla massa. Un flusso di energia
negativa nel buco nero ne riduce perciò la massa. Man mano che il buco
nero perde massa, l'area dell'orizzonte degli eventi si rimpicciolisce, ma
questa diminuzione dell'entropia del buco nero è più che compensata
dall'entropia della radiazione emessa, così che la seconda legge non è mai
violata.
Inoltre, quanto minore è la massa del buco nero, tanto più elevata è la sua
temperatura. Così, man mano che il buco nero perde massa, la sua
temperatura e il ritmo della sua emissione aumentano, con la conseguenza
che esso perde massa ancor più rapidamente. Quel che accade quando la
massa del buco nero diventa infine estremamente piccola non è del tutto
chiaro, ma la congettura più ragionevole è che esso sia destinato a sparire
completamente in un tremendo impulso di emissione finale, equivalente
all'esplosione di milioni di bombe H.
Un buco nero con una massa alcune volte maggiore di quella del Sole
avrebbe una temperatura di solo un decimilionesimo di grado superiore allo
zero assoluto. Questa è una temperatura molto inferiore a quella della
radiazione di microonde che riempie l'universo (circa 2,7 gradi al di sopra
dello zero assoluto), cosicché i buchi neri emetterebbero ancor meno di
quanto assorbano. Se l'universo è destinato a continuare a espandersi per
sempre, la temperatura della radiazione a microonde finirà col diminuire al
di sotto di quella di un tale buco nero, che comincerà quindi a perdere
massa. Persino allora, però, grazie alla sua temperatura così bassa, esso
impiegherebbe, per evaporare completamente, circa un milione di milioni di
milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni
di milioni di anni (1 seguito da sessantasei zeri). Questo è un periodo molto
più lungo dell'età attuale dell'universo, che è di soli dieci o venti miliardi di
anni circa (1 o 2 seguito da dieci zeri). D'altra parte, come abbiamo già
menzionato nel capitolo 6, potrebbero esistere buchi neri primordiali con
una massa molto più piccola, prodotti dal collasso di irregolarità nelle
primissime fasi dell'universo. Questi buchi neri avrebbero una temperatura
molto più elevata ed emetterebbero radiazione a un ritmo molto maggiore.
Un buco nero primordiale con una massa iniziale di un miliardo di tonnellate
avrebbe una durata di vita press'a poco uguale all'età attuale dell'universo.
Buchi neri primordiali di massa iniziale inferiore sarebbero già evaporati
completamente, mentre quelli con massa leggermente maggiore starebbero
ancora emettendo radiazione nella forma di raggi X e di raggi gamma. Questi
raggi X e gamma sono come le onde luminose, con la differenza che hanno
una frequenza molto maggiore. Buchi neri come questi non meritano certo
l'epiteto di neri: essi sono in realtà al calor bianco ed emettono energia
dell'ordine di circa diecimila megawatt.
Uno di tali buchi neri potrebbe alimentare dieci grandi centrali elettriche, se
solo fossimo in grado di imbrigliarne l'energia. Questo compito sarebbe però
piuttosto difficile: il buco nero avrebbe la massa di una montagna
compressa in meno di un bilionesimo di centimetro, le dimensioni del
nucleo di un atomo! Se avessimo uno di questi buchi neri sulla superficie
della Terra, non avremmo alcun modo per impedirgli di cadere attraverso il
suolo fino a raggiungere il centro del nostro pianeta. Esso oscillerebbe
avanti e indietro attraverso la Terra sino a fermarsi poi immobile al centro.
Perciò l'unico luogo in cui sistemare un tale buco nero per poterne usare
l'emissione di energia sarebbe in orbita attorno alla Terra, e l'unico modo in
cui immetterlo in una tale orbita sarebbe quello di attrarvelo trascinando
dinanzi ad esso una grande massa, un po' come una carota dinanzi a un
asino. Questa non sembra però una proposta molto pratica, almeno per
l'immediato futuro.
Ma anche se non riusciamo a imbrigliare l'emissione di questi buchi neri
primordiali, quali probabilità abbiamo di osservare questi oggetti?
Potremmo cercare i raggi gamma che i buchi neri primordiali emettono
durante la maggior parte della loro vita. Anche se la radiazione proveniente
dalla maggior parte di questi buchi neri sarebbe molto debole a causa della
loro grande distanza, potrebbe essere rivelabile la somma della radiazione
emessa da tutti questi corpi. Noi osserviamo in effetti un fondo di raggi
gamma: la figura 7.5 mostra come l'intensità osservata differisca a
frequenze diverse (la frequenza è il numero di cicli o oscillazioni di un'onda
al secondo). Questo fondo potrebbe però essere stato generato, e
probabilmente lo fu, da processi diversi da quello dei buchi neri primordiali.
La linea punteggiata nella figura 7.5 mostra come l'intensità dovrebbe
variare con la frequenza per raggi gamma emessi da buchi neri primordiali,
se ce ne fossero in media 300 per ogni anno-luce cubico. Si può dire perciò
che le osservazioni del fondo di raggi gamma non forniscono alcuna prova
sicura a favore dei buchi neri primordiali; esse ci dicono però che non
possono esistere in media più di 300 di tali buchi neri per anno-luce cubico
nell'universo. Questo limite significa che i buchi neri primordiali potrebbero
costituire al massimo un milionesimo della materia presente nell'universo.
Se i buchi neri primordiali sono una merce così rara, può sembrare
improbabile che possa essercene uno abbastanza vicino a noi perché noi
possiamo osservarlo come una sorgente discreta di raggi gamma. Poiché
però la gravità attrarrebbe i buchi neri primordiali verso ogni concentrazione
di materia, essi dovrebbero essere molto più comuni nelle galassie e attorno
alle galassie. Così, benché il fondo di raggi gamma ci dica che non possono
esserci in media più di 300 buchi neri primordiali per anno-luce cubico, non
ci rivela nulla sulla densità che potrebbero avere nella nostra galassia. Se
essi fossero, diciamo, un milione di volte più comuni rispetto alla media
generale, il buco nero più vicino potrebbe trovarsi a una distanza di circa un
miliardo di chilometri, pari press'a poco a quella di Plutone, il più lontano da
noi fra i pianeti noti. A questa distanza sarebbe ancora difficile scoprire
l'emissione costante di un buco nero, quand'anche avesse la potenza di
diecimila megawatt. Per poter osservare un buco nero primordiale si
dovrebbero scoprire vari quanti di raggi gamma provenienti da una stessa
direzione nell'arco di un intervallo di tempo ragionevole, come una
settimana. I raggi gamma che non rispondessero a questi requisiti
potrebbero far parte semplicemente del fondo di radiazione. Ma il principio
quantistico di Planck ci dice che ciascun quanto di raggi gamma ha
un'energia molto grande poiché i raggi gamma hanno una frequenza
elevatissima, cosicché non occorrerebbero molti quanti per irradiare persino
diecimila megawatt. E per osservare un numero così scarso di quanti di raggi
gamma provenienti dalla distanza di Plutone si richiederebbe un rivelatore
di raggi gamma più grande di tutti quelli che sono stati costruiti finora. Tale
rivelatore dovrebbe inoltre trovarsi in orbita nello spazio, poiché i raggi
gamma non possono penetrare nell'atmosfera.
Ovviamente, se un buco nero alla distanza di Plutone dovesse giungere alla
fine della sua vita ed esplodere, sarebbe molto facile scoprire l'impulso di
emissione finale. Ma se il buco nero ha emesso energia per gli ultimi dieci o
venti miliardi di anni, la probabilità che esso giunga alla fine della sua vita
nei prossimi anni, piuttosto che fra vari milioni di anni, è davvero molto
piccola! Così, per avere una probabilità ragionevole di osservare
un'esplosione prima di esaurire una borsa di studio per una ricerca sui buchi
neri, si dovrebbe trovare un modo per rivelare tali esplosioni entro una
distanza di un anno-luce circa. Ci sarebbe inoltre bisogno di un grande
rivelatore di raggi gamma per poter osservare vari quanti di raggi gamma
liberati dall'esplosione. In questo caso, però, non sarebbe necessario
determinare che tutti i quanti provengano dalla stessa direzione: per essere
certi che hanno avuto origine in una stessa esplosione basterebbe osservare
che sono arrivati tutti entro un intervallo di tempo relativamente breve.
Un rivelatore di raggi gamma che potrebbe essere in grado di localizzare i
buchi neri primordiali è l'intera atmosfera terrestre. (In ogni caso, è
improbabile che noi possiamo mai essere in grado di costruire un rivelatore
più grande!) Un quanto di raggi gamma ad alta energia, urtando atomi nella
nostra atmosfera, crea coppie di elettroni e positoni (antielettroni). Quando
queste particelle colpiscono altri atomi, producono a loro volta altre coppie
di elettroni e positoni, cosicché si finisce con l'ottenere un cosiddetto sciame
di elettroni. Ne risulta una forma di luce detta radiazione Cerenkov. E perciò
possibile scoprire impulsi di raggi gamma cercando lampi di luce nel cielo
notturno. Ovviamente esistono vari altri fenomeni, come fulmini e riflessi
della luce del Sole su satelliti e su detriti orbitali in caduta, che possono
produrre lampi di luce in cielo. Gli impulsi di raggi gamma potrebbero essere
distinti da tali effetti osservando i lampi simultaneamente da due o più
località molto lontane fra loro. Una ricerca come questa è stata compiuta da
due scienziati di Dublino, Neil Porter e Trevor Weekes, usando telescopi in
Arizona. Essi osservarono vari lampi nel cielo notturno, ma nessuno che
potesse essere attribuito con sicurezza a impulsi di raggi gamma emessi da
buchi neri primordiali.
Quand'anche la ricerca di buchi neri primordiali si rivelasse negativa, come
sembra probabile, essa ci fornirebbe ciò nonostante informazioni importanti
sulle primissime fasi dell'universo. Se l'universo primordiale fosse stato
caotico o irregolare, o se la pressione di materia fosse stata bassa, ci si
attenderebbe che fosse stato prodotto un numero di buchi neri primordiali
molto superiore al limite già fissato dalle nostre osservazioni del fondo di
raggi gamma. Solo se l'universo primordiale fu molto omogeneo e uniforme,
e con una grande pressione di materia, diventa possibile spiegare l'assenza
di un numero osservabile di buchi neri primordiali.
L'idea di una radiazione dei buchi neri fu il primo esempio di una predizione
dipendente in modo essenziale da entrambe le grandi teorie di questo
secolo, la relatività generale e la meccanica quantistica. In principio
quest'idea suscitò molte opposizioni, in quanto sconvolgeva il punto di vista
esistente: «Com'è possibile che un buco nero emetta qualcosa?». Quando io
annunciai per la prima volta i risultati dei miei calcoli a un convegno al
Rutherford-Appleton Laboratory nei pressi di Oxford, le mie parole
suscitarono una generale incredulità. Alla fine della mia conferenza il
presidente della sessione, John G. Taylor, del Kings College di Londra,
sostenne che erano tutte assurdità. Egli scrisse poi addirittura un articolo
per ribadire quel punto di vista. Alla fine però la maggior parte delle persone,
compreso lo stesso John Taylor, pervennero alla conclusione che i buchi neri
devono irradiare come corpi caldissimi se le nostre idee sulla relatività
generale e sulla meccanica quantistica sono corrette. Così, anche se non
siamo ancora riusciti a trovare un buco nero primordiale, c'è un consenso
abbastanza generale sul fatto che, se ci fossimo riusciti, esso dovrebbe
emettere una grande quantità di raggi gamma e di raggi X.
L'esistenza di una radiazione dei buchi neri sembra implicare che il collasso
gravitazionale non sia così finale e irreversibile come pensavamo un tempo.
Se un astronauta cade in un buco nero, la massa del buco nero aumenterà,
ma infine l'equivalente in energia di quella massa extra sarà restituito
all'universo sotto forma di radiazione. Così, in un certo senso, l'astronauta
sarà «riciclato». Questo sarebbe però un tipo molto modesto di immortalità,
giacché per l'astronauta qualsiasi concetto personale del tempo verrebbe
quasi certamente a finire nel momento stesso in cui egli venisse fatto a pezzi
dall'attrazione differenziale agente sulle varie parti del suo corpo all'interno
del buco nero! Persino i tipi di particelle emessi infine dal buco nero
sarebbero in generale diversi rispetto alle particelle che formavano
l'astronauta: l'unico carattere dell'astronauta destinato a sopravvivere
sarebbe la sua massa o energia.
Le approssimazioni da me usate per derivare l'emissione dei buchi neri
dovrebbero funzionare bene quando il buco nero ha una massa di più di una
frazione di grammo. Esse perderebbero invece la loro validità alla fine della
vita di un buco nero, quando la sua massa diventa molto piccola. L'esito più
probabile sembra essere che il buco nero sia destinato semplicemente a
svanire, almeno dalla nostra regione dell'universo, portando con sé
l'astronauta e la singolarità eventualmente contenuta al suo interno, se
effettivamente c'è. Questa fu la prima indicazione del fatto che la meccanica
quantistica poteva eliminare le singolarità pre-dette dalla relatività generale.
La relatività è però una teoria classica (cioè non quantistica). I metodi usati
da me e da altre persone nel 1974 non ci permisero di rispondere a
interrogativi come quello se nella gravità quantistica potrebbero presentarsi
delle singolarità. Dal 1975 in poi io cominciai perciò a sviluppare un
approccio più efficace alla gravità quantistica fondandomi sull'idea di
Richard Feynman di una somma sulle storie. Le risposte che questa
impostazione suggerisce per l'origine e il destino dell'universo e dei suoi
contenuti, come gli astronauti, saranno descritte nei prossimi due capitoli.
Vedremo che, benché il principio di indeterminazione fissi dei limiti alla
precisione di tutte le nostre predizioni, esso potrebbe al tempo stesso
eliminare l'impredicibilità fondamentale che si ha in una singolarità dello
spazio-tempo.
8
L'ORIGINE E IL DESTINO DELL'UNIVERSO
La teoria generale della relatività di Einstein, considerata a sé, prediceva che
lo spazio-tempo ebbe inizio nella singolarità del big bang e che finirà o nella
singolarità della grande compressione (big crunch) se l'universo, giunto al
termine dell'espansione, invertirà il suo moto avviandosi a un collasso
universale, o in una singolarità all'interno di un buco nero (se a subire il
collasso gravitazionale sarà solo una regione locale, come una stella).
Qualunque oggetto materiale cadesse in un buco nero sarebbe distrutto
nella singolarità, e solo l'effetto gravitazionale della sua massa
continuerebbe a essere avvertibile all'esterno. D'altra parte, qualora si
tenesse conto di effetti quantistici, sembrerebbe che la massa o energia
dell'oggetto materiale dovrebbero essere infine restituite al resto
dell'universo, e che il buco nero, assieme a ogni singolarità eventualmente
contenuta in esso, dovrebbe evaporare e infine sparire completamente. La
meccanica quantistica potrebbe avere un effetto altrettanto vistoso sulle
singolarità del big bang e del big crunch? Che cosa accadde realmente
durante i primissimi istanti della vita dell'universo e che cosa accadrà nella
sua parte finale, in presenza di campi gravitazionali così forti da non potersi
più ignorare gli effetti quantistici? L'universo ha veramente un principio e
una fine? E in tal caso, come sono?
Nel corso degli anni Settanta mi sono occupato principalmente dei buchi
neri, ma nel 1981 il mio interesse per gli interrogativi sull'origine e il destino
dell'universo furono richiamati in vita mentre partecipavo a un convegno
sulla cosmologia organizzato dai gesuiti in Vaticano. La Chiesa cattolica
aveva compiuto un grave errore nella vicenda di Galileo quando aveva
tentato di dettar legge su una questione scientifica, dichiarando che era il
Sole a orbitare attorno alla Terra e non viceversa. Ora, a qualche secolo di
distanza, aveva deciso di invitare un certo numero di esperti per farsi dare
consigli sulla cosmologia. Al termine del convegno i partecipanti furono
ammessi alla presenza del santo padre. Il papa ci disse che era giustissimo
studiare l'evoluzione dell'universo dopo il big bang, ma che non dovevamo
cercare di penetrare i segreti del big bang stesso perché quello era il
momento della Creazione e quindi l'opera stessa di Dio. Fui lieto che il papa
non sapesse quale argomento avessi trattato poco prima nella mia
conferenza al convegno: la possibilità che lo spazio-tempo fosse finito ma
illimitato, ossia che non avesse alcun inizio, che non ci fosse alcun momento
della Creazione. Io non provavo certamente il desiderio di condividere la
sorte di Galileo, pur essendo legato a lui da un forte senso di identità,
dovuto in parte alla coincidenza di essere nato esattamente 300 anni dopo
la sua morte!
Per spiegare le idee concepite da me e da altre persone sul modo in cui la
meccanica quantistica può intervenire sull'origine e il destino dell'universo,
è necessario in primo luogo comprendere la storia dell'universo
generalmente accettata, secondo quello che è noto come il «modello del big
bang caldissimo». Questo modello suppone che l'universo sia descritto da
un modello di Fridman, a partire dal momento del big bang. In tali modelli si
trova che, all'espandersi dell'universo, la materia o radiazione in esso
contenuta diventa sempre più fredda. (Quando l'universo raddoppia di
volume, la sua temperatura si riduce di metà.) Poiché la temperatura è
semplicemente una misura dell'energia media — o della velocità media —
delle particelle, questo raffreddamento dell'universo deve avere un effetto
importante sulla materia in esso contenuta. A temperature molto elevate le
particelle si muovevano così velocemente da potersi sottrarre
all'attrazione — dovuta a forze nucleari o elettromagnetiche — di
ciascun'altra, ma al diminuire della temperatura ci si attenderebbe che le
particelle cominciassero a raggrupparsi assieme in virtù della loro reciproca
attrazione. Inoltre, persino i tipi di particelle esistenti nell'universo
dipendevano dalla temperatura. A temperature abbastanza elevate, le
particelle hanno tanta energia che, ogni volta che entrano in collisione fra
loro, dovrebbero prodursi molte coppie diverse particella-antiparticella, e
quand'anche alcune di queste particelle si annichilassero urtando contro
antiparticelle, esse si produrrebbero più rapidamente di quanto potessero
annichilarsi. A temperature più basse, però, quando le particelle che
entrano in collisione fra loro hanno meno energia, le coppie
particella-antiparticella si produrrebbero meno rapidamente e
l'annichilazione finirebbe col diventare più rapida della produzione.
Nell'istante del big bang, si pensa che l'universo avesse dimensioni zero, e
che fosse quindi infinitamente caldo. Ma all'espandersi dell'universo la
temperatura della radiazione diminuì. Un secondo dopo il big bang la
temperatura era scesa a circa dieci miliardi di gradi. Questa è una
temperatura un migliaio di volte maggiore di quella vigente al centro del
Sole, ma temperature elevate come questa si raggiungono in esplosioni di
bombe H. A quest'epoca l'universo deve aver contenuto soprattutto fotoni,
elettroni e neutrini (particelle estremamente leggere che risentono solo
della forza debole e della gravità) e le loro antiparticelle, unitamente a pochi
protoni e neutroni. Al proseguire dell'espansione dell'universo e del calo
della sua temperatura, il ritmo con cui si producevano coppie
elettrone-antielettrone nelle collisioni dovette scendere al di sotto del ritmo
con cui esse venivano distrutte per annichilazione. Così la maggior parte
degli elettroni e dei positoni devono essere annichilati fra loro per produrre
altri fotoni, lasciando solo un numero relativamente piccolo di elettroni
residui. I neutrini e gli antineutrini non dovettero invece annichilarsi fra loro
perché queste particelle interagiscono solo molto debolmente fra loro e con
altre particelle. Essi dovrebbero dunque esistere ancor oggi. Se potessimo
osservarli, ci fornirebbero una buona verifica di questo quadro di una fase
iniziale caldissima dell'universo. Purtroppo la loro energia è oggi troppo
bassa perché noi possiamo osservarli direttamente. Però, se i neutrini non
sono privi di massa ma hanno una massa per quanto piccola, come fu
suggerito in un esperimento russo non confermato eseguito nel 1981, noi
potremmo essere in grado di scoprirli in modo indiretto: essi potrebbero
essere una forma di «materia oscura» come quella menzionata in
precedenza; con un'attrazione gravitazionale sufficiente ad arrestare
l'espansione dell'universo e a dare l'avvio al successivo collasso.
Circa cento secondi dopo il big bang la temperatura era scesa a un miliardo
di gradi, la temperatura vigente all'interno delle stelle più calde. A questa
temperatura protoni e neutroni non avevano più energia sufficiente a
sottrarsi all'attrazione della forza nucleare forte, e avevano cominciato a
combinarsi assieme e a produrre i nuclei di atomi di deuterio (idrogeno
pesante), che contengono un protone e un neutrone. I nuclei di deuterio
dovettero poi combinarsi con altri protoni e neutroni a formare nuclei di elio,
che contengono due protoni e due neutroni, e anche piccole quantità di un
paio di elementi più pesanti, il litio e il berillio. Si può calcolare che, nel
modello del big bang caldo, circa un quarto dei protoni e dei neutroni
dovettero convertirsi in nuclei di elio, mentre una piccola quantità
formavano idrogeno pesante e altri elementi. I neutroni restanti dovettero
decadere in protoni, che formano il nucleo degli atomi del comune
idrogeno.
Questa immagine di una prima fase caldissima dell'universo fu proposta per
la prima volta dallo scienziato George Gamow in un articolo famoso scritto
nel 1948 in collaborazione con un suo allievo, Ralph Alpher. Gamow aveva
un notevole senso dell'umorismo, e persuase il fisico nucleare Hans Bethe a
partecipare alla stesura dell'articolo per dare l'elenco di autori «Alpher,
Bethe, Gamow», come le tre lettere dell'alfabeto greco: una trovata
particolarmente azzeccata per un articolo sull'inizio dell'universo! In tale
articolo gli autori fecero la predizione degna di nota che la radiazione (sotto
forma di fotoni) emessa nelle primissime fasi calde dell'universo doveva
essere ancora esistente, ma con una temperatura ridotta a soli pochi gradi al
di sopra dello zero assoluto (-273 °C). Fu questa radiazione che Penzias e
Wilson trovarono nel 1965. Al tempo in cui Alpher, Bethe e Gamow
scrivevano il loro articolo, non si sapeva molto sulle reazioni nucleari di
protoni e neutroni. Le predizioni fatte per le proporzioni di vari elementi
all'inizio dell'universo erano perciò piuttosto imprecise, ma i calcoli sono
stati ripetuti alla luce di conoscenze migliori e i risultati ottenuti concordano
molto bene con le osservazioni. Inoltre, è molto difficile spiegare in qualsiasi
altro modo perché nell'universo dovrebbe esserci una quantità di elio così
grande come quella che osserviamo. Noi siamo perciò abbastanza fiduciosi
di possedere il quadro giusto, almeno a partire da un secondo circa dopo il
big bang.
A solo poche ore di distanza dal big bang, la produzione di elio e di altri
elementi si arrestò. E da quel momento in poi, per il successivo milione di
anni circa, l'universo continuò solo a espandersi, senza che accadesse molto
di nuovo. Infine, una volta che la temperatura fu scesa ad alcune migliaia di
gradi, gli elettroni e i nuclei non ebbero più energia a sufficienza per venire a
capo dell'attrazione elettromagnetica fra loro e dovettero cominciare a
formare atomi. L'universo nel suo complesso deve aver continuato a
espandersi e a raffreddarsi, ma in regioni leggermente più dense della media
l'espansione dev'essere stata rallentata da un'attrazione gravitazionale extra.
Questo fatto deve avere infine arrestato l'espansione in alcune regioni,
avviando in esse la ricontrazione. Nel corso di questo collasso, l'attrazione
gravitazionale di materia esterna a queste regioni potrebbe aver dato l'avvio
a un lento moto rotatorio. Man mano che si accentuava la contrazione, la
rotazione doveva diventare sempre più veloce, esattamente come accade ai
pattinatori sul ghiaccio quando, dopo aver cominciato a ruotare con le
braccia aperte, le ritirano lungo il corpo. Infine, quando la regione in
contrazione, ridotte considerevolmente le sue dimensioni, aveva acquistato
una rotazione abbastanza veloce per controbilanciare l'attrazione centripeta
della gravità, il raggiungimento di quest'equilibrio segnava l'origine di una
galassia rotante di forma discoidale. Altre regioni, che non erano riuscite a
conseguire un moto rotatorio, diventavano oggetti di forma ovale, noti
come galassie ellittiche. In queste galassie la contrazione generale si
arrestava in conseguenza dell'inizio di rivoluzioni orbitali di singole parti
della galassia attorno al suo centro, senza che la galassia avesse una
rotazione complessiva.
Al passare del tempo, i gas idrogeno ed elio presenti nelle galassie si
frazionarono in nubi minori che cominciarono a collassare sotto l'azione
della propria gravità. Al contrarsi di queste nubi, e all'aumentare del numero
di collisioni fra gli atomi che le componevano, la temperatura del gas saliva,
diventando infine abbastanza alta per innescare l'inizio di reazioni di fusione
nucleare. Queste determinavano la conversione di idrogeno in altro elio, e il
calore liberato in queste reazioni nucleari faceva aumentare la pressione,
cosa che impediva alle nubi di contrarsi oltre. Le nubi rimanevano allora
stabili per molto tempo in questo stato sotto forma di stelle simili al Sole,
bruciando idrogeno in elio e liberando l'energia risultante sotto forma di
calore e di luce. Le stelle di massa maggiore dovevano essere più calde per
poter controbilanciare la maggiore attrazione gravitazionale; le loro reazioni
nucleari procedevano perciò con una rapidità tanto maggiore da condurre
all'esaurimento del loro idrogeno in poche centinaia di milioni di anni. A
questo punto queste stelle si contraevano leggermente, e quando la loro
temperatura era aumentata a sufficienza cominciavano a convertire l'elio in
elementi più pesanti, come il carbonio e l'ossigeno. Questo processo non
conduce però alla liberazione di una quantità di energia molto maggiore,
cosicché si produce una crisi, che abbiamo già descritto nel capitolo sui
buchi neri. Quel che accade poi non è del tutto chiaro, ma pare probabile
che le regioni centrali della stella si contraggano fino a raggiungere uno
stato densissimo, come quello di una stella di neutroni o di un buco nero. Le
regioni più esterne della stella possono talvolta essere soffiate via nel corso
di una tremenda deflagrazione, detta esplosione di supernova, che supera di
gran lunga in luminosità lo splendore di tutte le altre stelle della galassia di
appartenenza. Alcuni fra gli elementi più pesanti prodotti verso la parte
finale della vita della stella vanno a finire nel gas della galassia e possono
fornire una parte della materia prima per la successiva generazione di stelle.
Il nostro Sole contiene il 2 per cento circa di questi elementi più pesanti,
essendo una stella di seconda o terza generazione, formatasi circa cinque
miliardi di anni fa da una nube di gas contenente i detriti di supernove
anteriori. La maggior parte del gas di tale nube andò a formare il Sole o si
disperse, mentre una piccola quantità degli elementi più pesanti si raccolse
assieme a formare i pianeti, fra cui la Terra, che orbitano attualmente
attorno al Sole.
In principio la Terra era molto calda e priva di atmosfera. Nel corso del
tempo si raffreddò e acquistò un'atmosfera in conseguenza della liberazione
di gas contenuti in precedenza nelle rocce. Quest'antica atmosfera non era
certo adatta alla sopravvivenza degli organismi che vivono oggi sulla Terra
(fra cui noi stessi). Essa non conteneva ossigeno, bensì una quantità di gas
che sono tossici per noi, come il solfuro di idrogeno (il gas a cui si deve la
tipica puzza delle uova marce). Ci sono, però, forme di vita primitive che
sono in grado di prosperare in tali condizioni. Si pensa che esse si siano
sviluppate negli oceani, forse in conseguenza di combinazioni casuali di
atomi in strutture più grandi, chiamate macromolecole, le quali erano
dotate della capacità di organizzare altri atomi presenti in mare in strutture
simili. Esse cominciarono in tal modo a riprodursi e moltiplicarsi. In alcuni
casi dovettero verificarsi degli errori nella riproduzione. La maggior parte di
questi errori dovettero essere tali da togliere alle nuove macromolecole la
capacità di riprodursi e quindi di sopravvivere in altri esemplari. Alcuni errori
dovettero invece produrre macromolecole ancora più efficaci nel riprodursi.
Queste devono perciò avere avuto un vantaggio e devono aver presentato la
tendenza a sostituire le macromolecole originarie. In questo modo ebbe
inizio un processo evolutivo che condusse allo sviluppo di organismi sempre
più complicati, capaci di autoriprodursi. Le prime forme di vita, organismi
alquanto primitivi, consumavano vari materiali, fra cui il solfuro di idrogeno,
e liberavano ossigeno. In conseguenza di ciò l'atmosfera andò gradualmente
modificandosi fino a conseguire la sua composizione attuale, e
parallelamente divenne possibile lo sviluppo di forme di vita superiori, come
i pesci, i rettili, i mammiferi e infine la specie umana.
Questo quadro dell'universo in principio caldissimo, che è andato via via
raffreddandosi nel corso della sua espansione, è in accordo con tutti i dati di
osservazione che possediamo oggi. Esso lascia nondimeno senza risposta un
certo numero di domande importanti:
1)
Perché l'universo primordiale era così caldo?
2) Perché l'universo è così uniforme su vasta scala? Perché ci appare
uguale in ogni punto dello spazio e in ogni direzione? In particolare, perché
la temperatura della radiazione di fondo a microonde è così simile quando
osserviamo in direzioni diverse? È un po' come rivolgere a un certo numero
di studenti una domanda d'esame. Se rispondono tutti esattamente nello
stesso modo, si può essere abbastanza sicuri che hanno comunicato fra loro.
Eppure, nel modello che ho descritto sopra, dopo il big bang la luce non
avrebbe avuto il tempo di propagarsi da una regione remota a un'altra,
anche se nell'universo primordiale quelle regioni erano vicinissime l'una
all'altra. Secondo la teoria della relatività, se da una regione all'altra
dell'universo non può passare la luce, non può neppure alcun altro tipo di
informazione. Non ci sarebbe quindi alcuna spiegazione del modo in cui
regioni diverse nell'universo primordiale possono essere pervenute ad avere
la stessa temperatura, a meno che, per qualche ragione inspiegata, non
avessero avuto la stessa temperatura già all'inizio.
3) Perché l'universo ebbe inizio con una velocità di espansione così vicina
al valore critico fra i modelli che si ricontraggono e quelli destinati a
espandersi per sempre che persino oggi, dopo dieci miliardi di anni, la
velocità di espansione è ancora vicinissima a quella critica? Se la velocità
dell'espansione, un secondo dopo il big bang, fosse stata minore anche solo
di una parte su centomila milioni di milioni, l'universo avrebbe esaurito la
sua espansione e sarebbe tornato a contrarsi prima di aver mai raggiunto il
suo stato presente.
4) Pur essendo così uniforme e omogeneo su vasta scala, l'universo
contiene irregolarità locali, come stelle e galassie. Si pensa che queste si
siano sviluppate a partire da piccole differenze nella densità dell'universo
primordiale da una regione all'altra. Quale fu l'origine di queste fluttuazioni
di densità?
La teoria generale della relatività non è in grado da sola di spiegare questi
caratteri o di rispondere a queste domande, a causa della sua predizione che
l'universo ebbe inizio con una densità infinita nella singolarità del big bang.
Dinanzi alla singolarità, la relatività generale e tutte le altre leggi fisiche
potrebbero rivelarsi inadeguate: non si può predire che cosa verrà fuori
dalla singolarità. Come abbiamo spiegato in precedenza, ciò significa che si
potrebbero anche escludere dalla teoria il big bang e qualsiasi evento
anteriore, perché essi non possono avere alcun effetto su ciò che
osserviamo. Lo spazio-tempo avrebbe un confine: un inizio nel big bang.
La scienza sembra avere scoperto un insieme di leggi che, nei limiti posti dal
principio di indeterminazione, ci dicono in che modo l'universo si svilupperà
col tempo, purché ne conosciamo lo stato in un tempo qualsiasi. Queste
leggi potrebbero essere state decretate in origine da Dio, ma pare che da
allora egli abbia lasciato l'universo libero di evolversi nel rispetto di tali leggi
e che si astenga dall'intervenire direttamente in esso. Ma in che modo egli
scelse lo stato o configurazione iniziale dell'universo? Quali sono le
«condizioni al contorno» all'inizio del tempo?
Una risposta possibile consiste nel dire che Dio scelse la configurazione
iniziale dell'universo per ragioni che noi non possiamo sperare di capire. Una
decisione del genere sarebbe stata certamente alla portata di un essere
onnipotente, ma se egli diede inizio all'universo in un modo tanto
incomprensibile, perché decise di lasciarlo evolvere secondo leggi che
possiamo capire? L'intera storia della scienza è stata una graduale presa di
coscienza del fatto che gli eventi non accadono in un modo arbitrario, ma
che riflettono un certo ordine sottostante, che potrebbe essere o non essere
divinamente ispirato. Sarebbe naturale supporre che quest'ordine dovesse
applicarsi non solo alle leggi, ma anche alle condizioni al contorno dello
spazio-tempo che specificano lo stato iniziale dell'universo. Potrebbe esserci
un gran numero di modelli dell'universo, con condizioni iniziali diverse, ma
nondimeno soggetti tutti alle leggi. Dovrebbe esserci un qualche principio
per scegliere il nostro stato iniziale, e quindi per indicarci un modello che
potesse rappresentare il nostro universo.
Una tale possibilità sono le cosiddette condizioni al contorno caotiche.
Queste suppongono implicitamente o che l'universo sia spazialmente
infinito o che ci sia un numero infinito di universi. In condizioni al contorno
caotiche, la probabilità di trovare una qualsiasi regione di spazio particolare
in una qualsiasi configurazione data subito dopo il big bang è uguale, in un
certo senso, alla probabilità di trovarla in qualsiasi altra configurazione: lo
stato iniziale dell'universo viene scelto in modo puramente casuale. Ciò
significherebbe che l'universo primordiale dovette essere con ogni
probabilità molto caotico e irregolare perché per l'universo ci sono molte
più configurazioni caotiche e disordinate di quante non siano quelle
omogenee e ordinate. (Se ogni configurazione è ugualmente probabile, può
darsi che l'universo abbia avuto inizio in un modo caotico e disordinato,
semplicemente perché le configurazioni disordinate sono molto più
numerose.) E difficile rendersi conto di come condizioni iniziali tanto
caotiche possano aver dato origine a un universo così omogeneo e regolare,
su una scala tanto grande quanto quella del nostro universo attuale. Ci si
attenderebbe anche che le fluttuazioni di densità in un modello del genere
avrebbero dovuto condurre alla formazione di un numero di buchi neri
primordiali molto maggiore rispetto al limite superiore che è stato fissato
dalle osservazioni del fondo di raggi gamma.
Se l'universo è infinito nello spazio, o se esiste un numero infinito di universi,
in qualche luogo dovrebbero esserci delle regioni che ebbero inizio in un
modo regolare e uniforme. E una situazione in qualche misura simile a
quella della famosa orda di scimmie dattilografe, le quali battono a caso sui
tasti di macchine per scrivere: la maggior parte degli «elaborati» saranno
privi di alcun valore, ma di tanto in tanto (molto di rado!) una delle nostre
scimmie scriverà per puro caso uno dei sonetti di Shakespeare. Similmente,
nel caso dell'universo, non può darsi che noi viviamo in una regione solo per
caso omogenea e uniforme? A prima vista una cosa del genere sembra
molto improbabile, perché le regioni regolari dovrebbero essere molto
poche a fronte di una grandissima maggioranza di regioni caotiche e
irregolari. Supponiamo però che solo nelle regioni omogenee si siano
formate galassie e stelle e che solo in esse fossero presenti le condizioni
appropriate per lo sviluppo di complessi organismi autoreplicantisi simili a
noi stessi e capaci di formulare la domanda: perché l'universo è così
regolare? Questo è un esempio dell'applicazione del cosiddetto principio
antropico, il quale può essere parafrasato nel modo seguente: «Noi vediamo
l'universo come lo vediamo perché esistiamo».
Ci sono due versioni del principio antropico: quella debole e quella forte. Il
principio antropico debole dice che, in un universo che è grande o infinito
nello spazio e/o nel tempo, le condizioni necessarie per lo sviluppo della vita
intelligente si troveranno solo in certe regioni che sono limitate nello spazio
e nel tempo. Gli esseri intelligenti presenti in queste regioni non dovrebbero
perciò sorprendersi nel constatare che la regione in cui essi vivono
nell'univèrso soddisfa le condizioni che sono necessarie per la loro esistenza.
E un po' come il caso di un ricco che, vivendo in un quartiere ricco, non vede
alcun segno di povertà.
Un esempio dell'uso del principio antropico debole è quello consistente
nello «spiegare» perché il big bang abbia avuto luogo circa dieci miliardi di
anni fa: è questo press'a poco il tempo che si richiede per l'evoluzione di
esseri intelligenti. Come abbiamo spiegato sopra, doveva formarsi
innanzitutto una prima generazione di stelle. Queste convertirono una parte
dell'idrogeno e dell'elio originari in elementi come il carbonio e l'ossigeno,
da cui siamo formati noi stessi. Queste stelle esplosero poi come supernove
e i loro detriti andarono a formare altre stelle e pianeti, fra cui quelli del
nostro sistema solare, che ha un'età di circa cinque miliardi di anni. Nei
primi uno o due miliardi di anni della sua esistenza, la nostra Terra fu troppo
calda perché vi si potesse sviluppare qualcosa di complicato. Nei circa tre
miliardi di anni restanti ha avuto luogo il lento processo dell'evoluzione
biologica, la quale ha condotto dagli organismi più semplici ad esseri capaci
di misurare il tempo a ritroso da oggi al big bang.
Ben poche persone contesterebbero la validità o l'utilità del principio
antropico debole. Alcuni si spingono però molto oltre proponendo una
versione forte dello stesso principio. Secondo questa teoria, esistono o molti
universi differenti o molte regioni differenti di un singolo universo, ciascuno
dei quali ha la sua propria configurazione iniziale e, forse, un suo proprio
insieme peculiare di leggi scientifiche. Nella maggior parte di questi universi
le condizioni non sarebbero idonee allo sviluppo di organismi complicati;
solo nei pochi universi simili al nostro si svilupperebbero degli esseri
intelligenti, capaci di porre la domanda: «Perché l'universo è come lo
vediamo?». La risposta è quindi semplice: «Se l'universo fosse stato
differente, noi non saremmo qui!».
Le leggi della scienza, quali le conosciamo oggi, contengono molti numeri
fondamentali, come la grandezza della carica elettrica dell'elettrone e il
rapporto della massa del protone a quella dell'elettrone. Noi non possiamo,
almeno per il momento, predire il valore di questi numeri dalla teoria, ma
dobbiamo trovarlo attraverso l'osservazione. Forse un giorno scopriremo
una teoria unificata completa in grado di predirli tutti, ma può anche darsi
che alcuni o tutti varino da un universo all'altro o all'interno di un singolo
universo. Il fatto degno di nota è che i valori di questi numeri sembrano
essere stati esattamente coordinati per rendere possibile lo sviluppo della
vita. Per esempio, se la carica elettrica dell'elettrone fosse stata solo
lievemente diversa, le stelle o sarebbero incapaci di bruciare idrogeno ed
elio o non potrebbero esplodere. Ovviamente potrebbero esserci forme
diverse di vita intelligente, non sognate neppure dagli scrittori di
fantascienza, che non richiedano la luce di una stella come il Sole o gli
elementi chimici più pesanti dell'idrogeno e dell'elio che si formano
all'interno delle stelle e che vengono disseminati nello spazio interstellare
dalle esplosioni di supernove. Pare comunque chiaro che gli ambiti di
variazione per i numeri cui abbiamo accennato che siano compatibili con lo
sviluppo di qualsiasi forma di vita intelligente devono essere molto modesti.
La maggior parte degli insiemi di valori darebbero origine a universi che, pur
potendo essere bellissimi, non conterrebbero alcun essere in grado di
contemplarne la bellezza. Possiamo considerare la nostra posizione
privilegiata o come la prova di un disegno divino nella Creazione e nella
scelta delle leggi della scienza, o come un sostegno al principio antropico
forte.
Ci sono varie obiezioni che si possono sollevare contro il principio antropico
forte come spiegazione dello stato osservato dell'universo. Innanzitutto, in
che senso si può dire che esistano tutti questi differenti universi? Se essi
sono davvero separati l'uno dall'altro, ciò che accade in un altro universo
non può avere conseguenze osservabili nel nostro. Dovremmo perciò
invocare il principio di economia ed escluderli da ogni considerazione
teorica. Se, invece, essi sono solo regioni diverse di un unico universo, le
leggi della scienza dovrebbero applicarsi ugualmente in ogni regione,
giacché altrimenti non si potrebbe passare in modo continuo da una regione
a un'altra. In questo caso l'unica differenza fra le varie regioni risiederebbe
nella loro configurazione iniziale, cosicché il principio antropico forte si
ridurrebbe a quello debole.
Una seconda obiezione al principio antropico forte è che esso si muove in
senso contrario al corso dell'intera storia della scienza. Noi siamo passati
dalle cosmologie geocentriche di Tolomeo e dei suoi predecessori,
attraverso la cosmologia eliocentrica di Copernico e di Galileo, alla moderna
immagine dell'universo, in cui la Terra è un pianeta di dimensioni medie che
orbita attorno a una stella media nella periferia esterna di una comune
galassia spirale, la quale non è altro che una del miliardo circa di galassie
esistenti nell'universo osservabile. Eppure il principio antropico forte
sosterrebbe che quest'intera vasta costruzione esisterebbe in funzione della
nostra esistenza. Questa è un'affermazione molto difficile da accettare. Il
nostro sistema solare è senza dubbio una condizione indispensabile per la
nostra esistenza, e potremmo anche estendere questa nozione all'intera
nostra galassia per tener conto della necessità di una generazione anteriore
di stelle alle quali si deve la creazione degli elementi pesanti. Pare però che
non ci sia alcun bisogno di tutte quelle altre galassie, né del fatto che
l'universo sia così uniforme e simile in ogni direzione su una grande scala.
Si potrebbe accettare più a cuor leggero il principio antropico, almeno nella
sua versione più debole, se si potesse dimostrare che un certo numero di
condizioni iniziali diverse avrebbero potuto evolversi a produrre un universo
simile a quello che osserviamo. In questo caso, un universo sviluppatosi da
una qualche sorta di condizioni iniziali casuali dovrebbe contenere un certo
numero di regioni omogenee e uniformi e adatte per l'evoluzione della vita
intelligente. Nell'ipotesi, invece, che lo stato iniziale dell'universo avesse
dovuto essere scelto con cura per poter condurre a qualcosa di simile a ciò
che noi vediamo attorno a noi, sarebbe molto improbabile che l'universo
avesse mai contenuto una qualche regione capace di dare origine alla vita.
Nel modello del big bang caldo descritto sopra, nell'universo primordiale
non ci fu abbastanza tempo perché il calore potesse fluire da una regione a
un'altra. Ciò significa che lo stato iniziale dell'universo avrebbe dovuto avere
dappertutto esattamente la stessa temperatura per spiegare come mai il
fondo a microonde abbia la stessa temperatura in qualsiasi direzione verso
cui possiamo puntare i nostri strumenti. Anche la velocità di espansione
iniziale avrebbe dovuto essere scelta con grande precisione perché la
velocità di espansione attuale fosse così vicina al valore critico necessario
per evitare l'arresto dell'espansione e l'inversione del movimento. Ciò
significa che lo stato iniziale dell'universo dev'essere stato scelto davvero
con grande cura se il modello del big bang caldo è corretto, a ritroso, fino
all'inizio del tempo. Sarebbe in effetti molto difficile spiegare perché mai
l'universo dovrebbe essere cominciato proprio in questo modo, a meno che
non si veda nell'origine dell'universo l'atto di un Dio che intendesse creare
esseri simili a noi.
Nel tentativo di trovare un modello dell'universo in cui molte configurazioni
iniziali diverse potessero evolversi in qualcosa di simile all'universo presente,
uno scienziato del Massachusetts Institute of Technology (MIT), Alan Guth,
suggerì che l'universo dev'essere passato nella sua fase iniziale per un
periodo di espansione rapidissima. Questa espansione viene detta
«inflazionaria» (inflationary), nel senso che dev'essersi svolta un tempo a
una velocità crescente, anziché decrescente come oggi. Secondo Guth, il
raggio dell'universo dev'essere aumentato in una minuscola frazione di
secondo di un milione di milioni di milioni di milioni di milioni (1 seguito da
trenta zeri) di volte.
Guth suggerì che l'universo emerse dal big bang in uno stato molto caldo,
ma piuttosto caotico. In conseguenza delle elevatissime temperature iniziali,
le particelle nell'universo dovevano muoversi molto velocemente e avere
energie elevate. Come abbiamo visto in precedenza, ci si attende che a
temperature così alte le forze nucleari forte e debole e la forza
elettromagnetica fossero tutte unificate in una singola forza. All'espandersi
dell'universo la temperatura scese, e diminuì l'energia delle particelle. Infine
dovette esserci una cosiddetta transizione di fase e la simmetria fra le forze
dovette rompersi: la forza forte si differenziò dalla forza debole e dalla forza
elettromagnetica. Un esempio comune di una transizione di fase è la
trasformazione dell'acqua in ghiaccio quando la si raffredda al di sotto di
zero gradi centigradi. L'acqua liquida è simmetrica, uguale in ogni punto e in
ogni direzione. .Quando però si formano i cristalli di ghiaccio, essi avranno
posizioni definite e saranno allineati in qualche direzione. Questo fenomeno
rompe la simmetria dell'acqua.
Operando con cura, è possibile «sottoraffreddare» l'acqua: in altri termini, si
può ridurre la temperatura al di sotto del punto di congelamento (0 °C)
senza che si formi ghiaccio. Guth suggerì che l'universo potrebbe essersi
comportato in un modo simile: la temperatura potrebbe essere scesa al di
sotto del valore critico senza che si avesse una rottura della simmetria fra le
forze. Se ciò accadde, l'universo dovrebbe trovarsi oggi in uno stato instabile,
con più energia che se ci fosse stata la rottura della simmetria. Si può
dimostrare che questa energia extra speciale ha un effetto
antigravitazionale: essa avrebbe agito esattamente nello stesso modo della
costante cosmologica introdotta da Einstein nella relatività generale nel
tentativo di costruire un modello statico dell'universo. Poiché l'universo era
già in espansione di per sé come nel modello del big bang caldo, l'azione
repulsiva di questa costante cosmologica avrebbe avuto l'effetto di far
espandere l'universo a una velocità sempre crescente. Persino in regioni in
cui fosse stata presente una quantità di particelle materiali superiore alla
media, l'attrazione gravitazionale della materia sarebbe stata sopraffatta
dalla repulsione della costante cosmologica efficace. Anche queste regioni si
sarebbero perciò espanse in una maniera inflazionaria accelerata. Col
procedere dell'espansione, e col sempre maggiore allontanamento delle
particelle materiali fra loro, si dovette avere ben presto un universo che
conteneva una quantità di particelle piccolissima e che era ancora in uno
stato sottoraffreddato. Qualsiasi irregolarità fosse stata allora presente
nell'universo sarebbe stata semplicemente spianata dall'espansione, nello
stesso modo in cui le grinze presenti in un palloncino vengono distese
quando lo si gonfia. Lo stato omogeneo e uniforme dell'universo attuale
potrebbe quindi essersi evoluto a partire da molti stati iniziali non uniformi
diversi.
In un tale universo, in cui l'espansione fu accelerata da una costante
cosmologica piuttosto che essere rallentata dall'attrazione gravitazionale
della materia, la luce avrebbe avuto abbastanza tempo per viaggiare da un
capo all'altro dell'universo iniziale. Questa impostazione potrebbe fornire
una soluzione al problema, sollevato in precedenza, del perché diverse
regioni nell'universo iniziale avessero le stesse proprietà. Inoltre la velocità
di espansione dell'universo diventerebbe in questo modo automaticamente
molto vicina alla velocità critica determinata dalla densità di energia
dell'universo. Questo fatto potrebbe quindi spiegare perché la velocità
dell'espansione sia ancora così vicina alla velocità critica, senza dover
supporre che la velocità di espansione iniziale sia stata scelta
appositamente.
L'idea dell'inflazione potrebbe spiegare anche perché nell'universo ci sia
tanta materia. Nella regione di universo che noi possiamo osservare ci sono
qualcosa come cento milioni di milioni di milioni di milioni di milioni di
milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni
(1 seguito da ottanta zeri) di particelle. Da dove hanno avuto origine? La
risposta è che, come insegna la teoria quantistica, dall'energia possono
formarsi particelle nella forma di coppie particella-antiparticella. A questo
punto il problema, però, è da dove abbia avuto origine tutta quell'energia.
La risposta è che l'energia totale dell'universo è esattamente zero. La
materia nell'universo è formata da energia positiva. Essa è però di continuo
impegnata ad attrarre se stessa per mezzo della gravità. Due pezzi di
materia che si trovino l'uno vicino all'altro hanno meno energia degli stessi
due pezzi di materia separati da una distanza maggiore, perché si è dovuto
spendere dell'energia per separarli contro la forza gravitazionale che tende
ad avvicinarli fra loro. Così, in un certo senso, il campo gravitazionale ha
un'energia negativa. Nel caso di un universo che sia approssimativamente
uniforme nello spazio, si può mostrare che quest'energia gravitazionale
negativa cancella esattamente l'energia positiva rappresentata dalla materia.
Così l'energia totale dell'universo è zero.
Ora, il doppio di zero è sempre zero. Così l'universo può raddoppiare la
quantità di energia positiva della materia e raddoppiare anche l'energia
negativa della gravitazione senza violare la conservazione dell'energia. Ciò
non accade nella normale espansione dell'universo, in cui la densità di
energia della materia diminuisce man mano che l'universo aumenta di
volume. Accade, invece, nell'espansione inflazionaria, perché, mentre
l'universo si espande, la densità di energia dello stato sottoraffreddato
rimane costante: quando l'universo raddoppia le sue dimensioni, tanto
l'energia positiva della materia quanto l'energia negativa della gravitazione
si raddoppiano, cosicché l'energia totale rimane zero. Durante la fase
inflazionaria l'universo aumenta le sue dimensioni di una quantità
grandissima. Così la quantità totale di energia disponibile per la produzione
di particelle diventa grandissima. Come ha osservato Guth: «Si dice che non
esistano pasti gratis. Ma l'universo, in definitiva, è un pasto gratis».
Oggi l'universo non sta espandendosi in modo inflazionano. Dev'esserci
perciò un qualche meccanismo che ha eliminato la grandissima costante
cosmologica efficace, modificando quindi la velocità dell'espansione da una
fase accelerata a una rallentata dalla gravità, qual è quella che osserviamo
oggi. Nell'espansione inflazionaria ci si potrebbe attendere che infine la
simmetria fra le forze si rompesse, nello stesso modo in cui l'acqua
sottoraffreddata finisce sempre per trasformarsi in ghiaccio. L'energia extra
dello stato di simmetria non rotto verrebbe quindi liberata e scalderebbe
nuovamente l'universo sino a una temperatura appena inferiore alla
temperatura critica per ristabilire la simmetria fra le forze. L'universo
continuerebbe allora a espandersi e a raffreddarsi, esattamente come nel
modello del big bang caldissimo, ma ora ci sarebbe una spiegazione del
perché la sua espansione abbia proceduto esattamente alla velocità critica e
del perché diverse regioni avessero la stessa temperatura.
Nella proposta originaria di Guth, la transizione di fase doveva avere luogo
d'un tratto, nello stesso modo in cui i cristalli di ghiaccio si formano
d'improvviso in acqua molto fredda. L'idea era che «bolle» della nuova fase
di simmetria rotta si formassero nella vecchia fase, come bolle di vapore
circondate dall'acqua bollente. Si supponeva che le bolle, espandendosi ed
entrando via via in contatto fra loro, si fondessero l'una con l'altra finché
l'intero universo non venisse a trovarsi nella nuova fase. La difficoltà, come
indicammo io e vari altri, consisteva nella rapidità dell'espansione
dell'universo; questa era tanto grande che, quand'anche le bolle fossero
cresciute alla velocità della luce, si sarebbero purtuttavia allontanate l'una
dall'altra, e non avrebbero quindi mai potuto unirsi. L'universo sarebbe
rimasto perciò in uno stato molto eterogeneo, e in alcune regioni avrebbe
continuato a sussistere la simmetria fra le varie forze. Un tale modello
dell'universo non corrisponderebbe a ciò che vediamo.
Nell'ottobre 1981 mi recai a Mosca per partecipare a un congresso sulla
gravità quantistica. Dopo il congresso tenni un seminario sul modello
inflazionario e sui suoi problemi all'Istituto Astronomico Sternberg. In
precedenza facevo pronunciare le mie lezioni da qualcun altro, perché la
maggior parte del pubblico non riusciva a percepire la mia voce. Ma non ci
fu il tempo di preparare questo seminario, e lo tenni personalmente, con
uno dei miei studenti che ripeteva quanto dicevo. Funzionò bene, e mi
consentì un rapporto molto più stretto con il pubblico.
Fra il pubblico c'era un giovane, Andrej Linde, dell'Istituto Lebedev di Mosca,
il quale disse che la difficoltà concernente l'incontro e la fusione delle bolle
fra loro poteva essere evitata supponendo che le bolle fossero tanto grandi
che la nostra regione dell'universo potesse essere contenuta tutta
all'interno di una singola bolla. Perché ciò potesse funzionare, si richiedeva
che il passaggio dalla simmetria alla rottura della simmetria avesse luogo
molto lentamente all'interno della bolla, ma questa è una cosa
possibilissima secondo le grandi teorie unificate. L'idea di Linde di una
rottura lenta della simmetria era molto buona, ma in seguito mi resi conto
che le sue bolle avrebbero dovuto essere più grandi delle dimensioni
dell'universo stesso! Io mostrai che invece la simmetria si sarebbe rotta
dappertutto nello stesso tempo anziché solo all'interno delle bolle. Si
sarebbe in tal modo pervenuti a un universo uniforme, come quello che
osserviamo oggi. Quest'idea mi eccitò molto e la discussi con uno dei miei
allievi, Ian Moss. Essendo amico di Linde, mi trovai in una situazione di
grande imbarazzo quando un periodico scientifico mi inviò il suo articolo
chiedendomi se lo ritenessi idoneo per la pubblicazione. Io risposi che
nell'articolo c'era questa pecca, secondo cui le bolle avrebbero dovuto
essere più grandi dell'universo, ma che l'idea di fondo di una rottura lenta
della simmetria era molto buona. Raccomandai la pubblicazione dell'articolo
così com'era poiché in caso contrario sarebbero trascorsi vari mesi prima
che si potesse riavere l'articolo corretto, giacché tutto ciò che Linde
mandava in Occidente doveva essere prima approvato dalla censura
sovietica, la quale non era né molto competente né molto veloce nel caso di
articoli scientifici. Scrissi invece assieme a Ian Moss, per lo stesso periodico,
un articolo in cui richiamavamo l'attenzione su questo problema
concernente la bolla, e indicavamo in che modo lo si potesse risolvere.
Il giorno dopo il mio ritorno da Mosca, partii per Filadelfia, dove avrei
dovuto ricevere una medaglia dal Franklin Institute. La mia segretaria, Judy
Fella, aveva usato il suo non trascurabile fascino per convincere le British
Airways a concedere a lei e a me un posto gratis su un Concorde a fini
pubblicitari. Una pioggia torrenziale mi impedì però di arrivare a tempo
all'aeroporto cosicché persi l'aereo. Infine riuscii nondimeno a partire per
Filadelfia, dove mi fu consegnata la medaglia. Mi fu poi chiesto di tenere un
seminario sull'universo inflazionario presso la Drexel University di Filadelfia.
Tenni lo stesso seminario sui problemi dell'universo inflazionario che avevo
svolto a Mosca.
Un'idea molto simile a quella di Linde venne avanzata autonomamente
pochi mesi dopo da Paul Steinhardt e Andreas Albrecht dell'Università di
Pennsylvania. Ad essi viene oggi riconosciuto, assieme a Linde, il merito del
cosiddetto «nuovo modello inflazionario», fondato sull'idea di una rottura
lenta della simmetria. (Il vecchio modello inflazionario era la proposta
originaria di Guth di una rottura rapida della simmetria attraverso la
formazione di bolle.)
Il nuovo modello inflazionario fu un buon tentativo di spiegare perché
l'universo sia oggi così com'è. Almeno nella sua forma originaria, però, come
mostrammo io e varie altre persone, esso prediceva variazioni nella
temperatura della radiazione di fondo a microonde molto maggiori di quelle
effettivamente osservate. Anche ricerche posteriori hanno sollevato dubbi
sulla possibilità che nel primissimo universo possa esserci stata una
transizione di fase del tipo richiesto. Secondo la mia opinione personale, il
nuovo modello inflazionario è oggi morto come teoria scientifica, anche se
una quantità di persone non sembrano essersi accorte della sua dipartita e
stanno ancora scrivendo articoli come se fosse vivo e vegeto. Un modello
migliore, chiamato il modello inflazionario caotico, fu proposto da Linde nel
1983. In questo modello non c'è una fase di transizione o di
sottoraffreddamento. C'è invece un campo di spin 0, il quale, a causa di
fluttuazioni quantistiche, avrebbe in alcune regioni dell'universo primordiale
valori più elevati. L'energia del campo in quelle regioni si comporterebbe
come una costante cosmologica. Essa dovrebbe avere un effetto
gravitazionale repulsivo, e dovrebbe quindi far espandere quelle regioni in
un modo inflazionario. Nel corso dell'espansione di tali regioni, l'energia del
campo in esse diminuirebbe lentamente fino a trasformare l'espansione
inflazionaria in un'espansione simile a quella che si ha nel modello del big
bang caldo. Una di queste regioni sarebbe diventata il nostro attuale
universo osservabile. Questo modello presenta tutti i vantaggi degli anteriori
modelli inflazionari senza dipendere da una dubbia fase di transizione, e può
inoltre fornire dimensioni ragionevoli, che concordano con l'osservazione,
per le fluttuazioni nella temperatura del fondo a microonde.
Queste ricerche sui modelli inflazionari dimostrarono che lo stato presente
dell'universo avrebbe potuto avere origine da un numero abbastanza
grande di configurazioni iniziali diverse. Questo fatto è importante perché
mostra che lo stato iniziale della parte di universo in cui viviamo non dovette
essere scelto appositamente con grande cura. Possiamo dunque, se
vogliamo, usare il principio antropico debole per spiegare perché l'universo
sia così com'è. Non si può però sostenere che qualsiasi condizione iniziale
avrebbe condotto a un universo simile a quello che osserviamo oggi. È
sufficiente, per rendersene conto, considerare uno stato molto diverso per
l'universo attuale, ossia un universo molto eterogeneo e irregolare. Si
potrebbero usare le leggi della scienza per studiare l'evoluzione
dell'universo a ritroso sino a determinare la sua configurazione in tempi
anteriori. Secondo i teoremi della singolarità della relatività generale classica,
si sarebbe pervenuti anche in questo caso a una singolarità del big bang. Se
si fa evolvere un tale universo in avanti nel tempo secondo le leggi della
scienza, si finirà con l'avere lo stato eterogeneo e irregolare da cui si era
preso l'avvio. Devono dunque esserci state configurazioni iniziali che non
avrebbero dato origine a un universo simile a quello che noi vediamo oggi.
Così, neppure il modello inflazionano ci dice perché la configurazione iniziale
non sia stata tale da produrre qualcosa di molto diverso da ciò che
osserviamo. Dobbiamo dunque cercare una spiegazione nel principio
antropico? Tutto quanto fu dunque il prodotto solo di un caso fortuito?
Questa sembra una conclusione del tutto insoddisfacente, una negazione di
tutte le nostre speranze di comprendere l'ordine sottostante all'universo.
Per predire in che modo l'universo possa aver preso l'avvio, ci occorrono
leggi che potessero essere valide all'inizio del tempo. Se la teoria classica
della relatività generale era corretta, i teoremi della singolarità dimostrati da
Roger Penrose e da me mostrano che l'inizio del tempo dovrebbe essere
stato un punto di densità infinita e di infinita curvatura dello spazio-tempo.
In tale punto tutte le leggi note della fisica verrebbero meno. Si potrebbe
supporre che ci fossero nuove leggi applicabili alle singolarità, ma sarebbe
molto difficile persino formulare leggi valide in tali punti, in quanto non
avremmo alcuna guida derivabile da osservazioni su come tali leggi
dovrebbero essere. Quel che i teoremi sulla singolarità realmente ci
indicano è che il campo gravitazionale è a quel punto così intenso che
diventano importanti effetti gravitazionali quantici: la teoria classica non è
più una buona descrizione dell'universo. Per esaminare le primissime fasi
dell'universo si deve dunque usare una teoria quantistica della gravità.
Come vedremo, nella teoria quantistica le leggi ordinarie della scienza
potrebbero essere valide dappertutto, anche all'inizio del tempo: non è
necessario postulare nuove leggi per le singolarità, perché nella teoria
quantistica non c'è bisogno di alcuna singolarità.A tutt'oggi non possediamo
ancora una teoria completa e consistente che combini la meccanica
quantistica e la gravità. Siamo però abbastanza sicuri di alcuni caratteri che
una tale teoria unificata dovrebbe avere. Uno è che dovrebbe incorporare la
proposta di Feynman di formulare la teoria quantistica nei termini di una
somma sulle storie. In questa impostazione, una particella non ha una
singola storia, come nella teoria classica. Essa dovrebbe invece seguire ogni
possibile traiettoria nello spazio-tempo, e a ciascuna di queste storie è
associata una coppia di numeri, uno dei quali rappresenta le dimensioni di
un'onda e l'altro la sua posizione nel ciclo (la sua fase). La probabilità che la
particella, diciamo, passi per un qualche punto particolare si trova
sommando le onde associate a ogni possibile storia che passi per quel punto.
Quando si tenta di eseguire effettivamente queste somme ci si imbatte però
in difficili problemi tecnici. L'unico modo per aggirarli è la seguente strana
prescrizione: Si devono sommare le onde per storie di particelle che non si
trovano nel tempo «reale» sperimentato da voi e da me, ma che hanno
luogo in quello che viene chiamato tempo immaginario. L'espressione
«tempo immaginario» potrebbe far pensare a qualcosa di fantascientifico,
ma si tratta in realtà di un concetto matematico ben definito. Se prendiamo
un qualsiasi numero ordinario (o «reale») e lo moltiplichiamo per se stesso,
il risultato è un numero positivo. (Per esempio, 2 per 2 dà 4, ma 4 è anche il
prodotto di -2 per -2.) Ci sono però numeri speciali (chiamati immaginari)
che, moltiplicati per se stessi, danno numeri negativi. (Quello chiamato i,
moltiplicato per se stesso dà -1; 2 z moltiplicato per se stesso dà -4, e via
dicendo.) Per evitare le difficoltà tecniche implicite nelle somme per storie
di Feynman, si deve usare il tempo immaginario. In altri termini, ai fini del
calcolo si deve misurare il tempo usando numeri immaginari, piuttosto che
numeri reali. Questo fatto ha un effetto interessante sullo spazio-tempo: la
distinzione fra tempo e spazio scompare completamente.
Uno spazio-tempo in cui gli eventi hanno valori immaginari della coordinata
del tempo si dice euclideo, dal geometra dell'antica Grecia Euclide, che
fondò lo studio della geometria delle superfici bidimensionali. Quello che
noi chiamiamo spazio-tempo euclideo è molto simile alle superfici
bidimensionali di Euclide, con la differenza di avere quattro dimensioni
anziché due. Nello spazio-tempo euclideo non c'è alcuna differenza fra la
direzione del tempo e le direzioni nello spazio. Nello spazio-tempo reale, in
cui gli eventi sono etichettati per mezzo di valori ordinari, reali, della
coordinata del tempo, è invece facile mostrare la differenza: la direzione del
tempo si trova in tutti i punti all'interno del cono di luce, mentre le direzioni
nello spazio si trovano all'esterno. In ogni caso, per quanto concerne la
meccanica quantistica quotidiana, noi possiamo considerare il nostro uso
del tempo immaginario e dello spazio-tempo euclideo come un semplice
espediente (o stratagemma) matematico, utile per calcolare risposte
concernenti lo spaziotempo reale.
Un secondo carattere che riteniamo debba essere posseduto da ogni teoria
definitiva è l'idea di Einstein che il campo gravitazionale sia rappresentato
da spazio-tempo curvo: le particelle tentano di seguire la via più simile a una
traiettoria rettilinea in uno spazio curvo, ma poiché lo spaziotempo non è
piano le loro traiettorie appaiono incurvate, come per opera di un campo
gravitazionale. Quando applichiamo la somma sulle storie di Feynman alla
concezione einsteiniana della gravità, l'analogo della storia di una particella
è ora uno spazio-tempo curvo completo che rappresenta la storia dell'intero
universo. Per evitare le difficoltà tecniche implicite neh'eseguire realmente
la somma sulle storie, si deve supporre che questi spazi-tempi curvi siano
euclidei. In altri termini, il tempo è immaginario ed è indistinguibile da
direzioni nello spazio. Per calcolare la probabilità di trovare uno
spazio-tempo reale con qualche proprietà certa, come il fatto di apparire
uguale in ogni punto e in ogni direzione, si sommano le onde associate a
tutte le storie che hanno tale proprietà.
Nella teoria classica della relatività generale ci sono molti spazi-tempi curvi
possibili, l'uno diverso dall'altro, ciascuno dei quali corrisponde a un diverso
stato iniziale dell'universo. Se noi conoscessimo lo stato iniziale del nostro
universo, ne conosceremmo tutta la storia. Similmente, nella teoria
quantistica della gravità ci sono molti possibili stati quantici per l'universo.
Di nuovo, se sapessimo come lo spazio-tempo euclideo nella somma sulle
storie si comportò nei primissimi istanti dell'universo, conosceremmo lo
stato quantico dell'universo.
Nella teoria classica della gravità, che si fonda sullo spazio-tempo reale, ci
sono solo due modi possibili in cui l'universo può comportarsi: o esso esiste
da un tempo infinito oppure ha avuto inizio in una singolarità in un qualche
tempo finito nel passato. Nella teoria quantistica della gravità, invece,
emerge una terza possibilità. Usandosi spazi-tempi euclidei, in cui la
direzione del tempo è sullo stesso piano delle direzioni nello spazio, c'è la
possibilità che lo spazio-tempo sia finito e che nondimeno non abbia alcuna
singolarità che ne formi un confine o un bordo. Lo spaziotempo sarebbe
allora come la superficie della Terra, con l'unica differenza di avere quattro
dimensioni anziché due. La superficie della Terra è finita, ma non ha un
confine o un bordo. Se si parte per mare diretti verso ponente, non si cade
giù dal bordo della Terra né ci si imbatte in una singolarità. (Io lo so perché
ho fatto il giro del mondo.)
Sia che lo spazio-tempo euclideo si estenda a ritroso per un tempo infinito
immaginario, sia che abbia inizio in una singolarità nel tempo immaginario,
ci troviamo di fronte allo stesso problema di specificare lo stato iniziale
dell'universo che esiste nella teoria classica: può darsi che Dio sappia come
ha avuto inizio l'universo, ma noi non possiamo fornire alcuna particolare
ragione per pensare che esso abbia avuto inizio in un modo piuttosto che in
un altro. D'altra parte, la teoria quantistica ci ha dischiuso una possibilità
nuova, in cui non ci sarebbe alcun confine allo spazio-tempo e quindi non ci
sarebbe alcun bisogno di specificare il comportamento a tale confine. Non ci
sarebbe alcuna singolarità sottratta all'applicazione delle leggi della scienza
e nessun margine estremo dello spazio-tempo in corrispondenza del quale ci
si debba appellare a Dio o a qualche nuova legge per fissare le condizioni al
contorno per lo spaziotempo. Si potrebbe dire: «La condizione al contorno
dell'universo è che esso non ha contorno (o confini)». L'universo sarebbe
quindi completamente autonomo e non risentirebbe di alcuna influenza
dall'esterno. Esso non sarebbe mai stato creato e non verrebbe mai
distrutto. Di esso si potrebbe dire solo che È.
Fu al convegno in Vaticano menzionato in precedenza che io proposi per la
prima volta l'ipotesi che forse tempo e spazio formano congiuntamente una
superficie di dimensioni finite ma priva di alcun confine o margine. Il mio
contributo fu però piuttosto matematico cosicché le sue implicazioni per il
ruolo di Dio nella Creazione dell'universo non furono generalmente
riconosciute a quel tempo (questo vale anche per me). Al tempo del
convegno in Vaticano non sapevo come usare l'idea dell'assenza di confini
per fare predizioni sull'universo. Trascorsi l'estate seguente all'Università di
California a Santa Barbara. Ivi un amico e collega, Jim Hartle, sviluppò con
me le condizioni che l'universo deve soddisfare perché lo spazio-tempo non
abbia confini. Quando tornai a Cambridge, continuai questa ricerca con due
miei studenti ricercatori, Julian Luttrel e Jonathan Halliwell.
Vorrei sottolineare che quest'idea che il tempo e lo spazio siano finiti ma
illimitati è solo una proposta: essa non può essere dedotta da alcun altro
principio. Come ogni altra teoria scientifica, essa può essere proposta
inizialmente per ragioni estetiche o metafisiche, ma il vero test è se faccia
predizioni che siano in accordo con l'osservazione. Questa è però una cosa
difficile da determinare nel caso della gravità quantistica, per due ragioni.
Innanzitutto, come spiegheremo nel capitolo seguente, non siamo ancora
sicuri al cento per cento di quale teoria combini con successo la relatività
generale e la meccanica quantistica, anche se sappiamo molto sulla forma
che una tale teoria deve avere. In secondo luogo, qualsiasi modello che
descrivesse nei particolari l'intero universo sarebbe matematicamente
troppo complicato per consentirci di calcolare predizioni esatte. E perciò
necessario fare assunti semplificanti e approssimazioni: e anche in tal caso il
problema di formulare predizioni rimane un problema di grandissima
difficoltà.
Ogni storia nella somma sulle storie descriverà non solo lo spazio-tempo ma
anche ogni cosa in esso presente, compreso ogni organismo complesso
come gli esseri umani, capace di osservare la storia dell'universo. Potremmo
trovare qui un'ulteriore giustificazione del principio antropico: se infatti
tutte le storie sono possibili, finché noi esisteremo in una delle storie
potremo usare il principio antropico per spiegare perché l'universo risulti
essere così com'è. Non è chiaro invece esattamente quale significato possa
essere attribuito alle altre storie, nelle quali noi non esistiamo. Questa
concezione di una teoria quantistica della gravità sarebbe però molto più
soddisfacente se si potesse mostrare che, usando la somma sulle storie, il
nostro universo non è solo una delle storie possibili, ma anche una delle più
probabili. A questo scopo dovremmo eseguire la somma sulle storie per tutti
i possibili spazi-tempi euclidei che non abbiano alcun confine.
Nella proposta che l'universo non abbia alcun confine si apprende che la
probabilità che l'universo si trovi a seguire la maggior parte delle storie
possibili è trascurabile, ma c'è una particolare famiglia di storie che sono
molto più probabili delle altre. Queste storie possono essere descritte come
simili alla superficie della Terra, con la distanza dal Polo Nord che
rappresenta il tempo immaginario e con le dimensioni di un cerchio di
distanza costante dal Polo Nord (un parallelo) che rappresentano le
dimensioni spaziali dell'universo. L'universo comincia al Polo Nord sotto
forma di un singolo punto. Man mano che si procede verso sud, i paralleli
diventano più grandi, corrispondendo all'espansione dell'universo col tempo
immaginario (fig. 8.1). L'universo raggiungerebbe una grandezza massima
all'equatore dopo di che comincerebbe a contrarsi al crescere del tempo
immaginario sino alle dimensioni nulle di un singolo punto al Polo Sud.
Benché ai poli Nord e Sud l'universo abbia dimensioni nulle, questi punti non
sarebbero singolarità, non più di quanto siano singolari i poli Nord e Sud
sulla Terra. Le leggi della scienza conserveranno quindi la loro validità in
corrispondenza di quei due punti, così come la conservano ai poli Nord e
Sud del nostro pianeta.
La storia dell'universo nel tempo reale ci apparirebbe però molto diversa.
Dieci o venti miliardi di anni fa esso aveva dimensioni minime, uguali al
raggio massimo della storia nel tempo immaginario. In tempi reali successivi,
però, l'universo si espanse come il modello inflazionario caotico proposto da
Linde (con la differenza che ora non si dovrebbe supporre che l'universo sia
stato creato in qualche modo nel tipo di stato giusto). L'universo si
espanderebbe poi fino a raggiungere dimensioni molto grandi e infine,
invertendo il proprio movimento, tornerebbe a contrarsi fino a riprecipitare
in quella che sembra una singolarità nel tempo reale. Così, in un certo senso,
noi siamo ancora condannati, anche se riusciamo a tenerci alla larga dai
buchi neri. Soltanto se riuscissimo a raffigurarci l'universo nei termini del
tempo immaginario, potremmo evitare le singolarità.
Se l'universo è realmente in un tale stato quantico, nella storia dell'universo
nel tempo immaginario non dovrebbero esserci singolarità. Il lettore
potrebbe avere perciò l'impressione che le mie ricerche più recenti abbiano
vanificato completamente i risultati delle mie ricerche anteriori sulle
singolarità. Ma, come ho indicato sopra, la vera importanza dei teoremi
della singolarità consistette nell'aver mostrato che il campo gravitazionale
doveva diventare così intenso da non potersi più ignorare gli effetti
gravitazionali quantistici. Questa nozione condusse a sua volta all'idea che
l'universo poteva essere finito nel tempo immaginario ma senza avere
confini o singolarità. Quando ripercorriamo a ritroso il tempo reale in cui
viviamo, però, ci troviamo ancora di fronte a singolarità. Il povero
astronauta che cade in un buco nero verrà ancora a trovarsi in una
situazione estrema; solo se vivesse nel tempo immaginario non si
imbatterebbe in singolarità.
Questo fatto potrebbe suggerire che il cosiddetto tempo immaginario è in
realtà il tempo reale, e che quello che chiamiamo tempo reale è solo un
parto della nostra immaginazione. Nel tempo reale, l'universo ha un
principio e una fine in singolarità che formano un confine dello
spazio-tempo e in corrispondenza delle quali le leggi della scienza vengono
meno. Nel tempo immaginario, invece, non ci sono singolarità o confini. Può
darsi perciò che quello che chiamiamo tempo immaginario sia in realtà più
fondamentale, e che quello che chiamiamo reale sia solo un'idea inventata
da noi come ausilio nella descrizione dell'universo quale pensiamo che sia.
Secondo l'impostazione da me descritta nel capitolo 1, però, una teoria
scientifica è solo un modello matematico da noi costruito per descrivere le
nostre osservazioni: essa esiste solo nella nostra mente. Non ha quindi alcun
significato chiedersi: qual è reale, il tempo «reale» o il tempo
«immaginario»? Si tratta semplicemente di vedere quale delle due
descrizioni sia quella più utile.
Per trovare quali proprietà dell'universo possano probabilmente presentarsi
assieme si può usare anche la somma sulle storie, assieme alla proposta che
nell'universo non esista alcun confine. Per esempio, si può calcolare la
probabilità che l'universo si stia espandendo press'a poco con la stessa
rapidità in tutte le diverse direzioni in un tempo in cui la densità
dell'universo ha il suo valore presente. Nei modelli semplificati che sono
stati esaminati finora questa probabilità risulta essere elevata: ossia, la
condizione proposta dell'assenza di confini conduce alla predizione che la
presente velocità di espansione dell'universo sia con ogni probabilità quasi
la stessa in ogni direzione. Questa predizione è in accordo con le
osservazioni della radiazione di fondo a microonde, la quale risulta avere
quasi esattamente la stessa intensità in ogni direzione. Se l'universo stesse
espandendosi più velocemente in qualche direzione che in altre, l'intensità
della radiazione in quelle direzioni sarebbe ridotta di un addizionale
spostamento verso il rosso.
Su altre predizioni della condizione dell'assenza di confini si sta lavorando
correntemente. Un problema particolarmente interessante è costituito
dall'entità delle piccole deviazioni dalla densità uniforme nell'universo
iniziale che causarono la formazione prima delle galassie, poi delle stelle, e
infine di noi. Il principio di indeterminazione implica che l'universo
primordiale non possa essere stato completamente uniforme, dovendo
essere presenti in esso incertezze o fluttuazioni nelle posizioni e velocità
delle particelle. Usando la condizione dell'assenza di confini, noi troviamo
che l'universo dev'essere cominciato esattamente col minimo di
disuniformità possibile consentito dal principio di indeterminazione.
L'universo dovrebbe essere passato poi per un periodo di rapida espansione,
come nei modelli inflazionari. Durante questo periodo, le disuniformità
iniziali dovrebbero essersi amplificate sino a diventare abbastanza grandi
per spiegare l'origine delle strutture che osserviamo attorno a noi. In un
universo in espansione in cui la densità della materia presentasse lievi
variazioni da un luogo all'altro, le regioni più dense, in conseguenza della
gravità, avrebbero rallentato la loro espansione e avrebbero cominciato a
contrarsi. Questa contrazione avrebbe condotto infine alla formazione di
galassie, di stelle e infine persino di creature insignificanti come noi stessi.
Così tutte le strutture complicate dell'universo potrebbero essere spiegate
dalla condizione dell'assenza di confini nell'universo congiuntamente con il
principio di indeterminazione della meccanica quantistica.
L'idea che lo spazio e il tempo possano formare una superficie chiusa senza
confini ha profonde implicazioni anche per il ruolo di Dio nelle vicende
dell'universo. Col successo delle teorie scientifiche nella descrizione degli
eventi, la maggior parte delle persone sono giunte a convincersi che Dio
permetta all'universo di evolversi secondo un insieme di leggi e che non
intervenga nell'universo per sospendere tali leggi. Le leggi non ci dicono
però come debba essere stato l'universo nel primissimo periodo della sua
vita: solo a Dio competeva caricare il meccanismo a orologeria e decidere
come metterlo in movimento. Finché l'universo ha avuto un inizio, noi
possiamo sempre supporre che abbia avuto un creatore. Ma se l'universo è
davvero autosufficiente e tutto racchiuso in se stesso, senza un confine o un
margine, non dovrebbe avere né un principio né una fine: esso,
semplicemente, sarebbe. Ci sarebbe ancora posto, in tal caso, per un
creatore?
9
LA FRECCIA DEL TEMPO
In capitoli precedenti abbiamo visto come siano andate mutando le nostre
concezioni sulla natura del tempo. Sino all'inizio di questo secolo si credette
in un tempo assoluto. In altri termini, ogni evento poteva essere etichettato
da un numero chiamato «tempo» ad esso associato in un modo unico, e
ogni buon orologio avrebbe concordato con ogni altro nel misurare
l'intervallo di tempo compreso fra due eventi. La scoperta che la velocità
della luce appare la stessa a ogni osservatore, in qualsiasi modo si stia
muovendo, condusse però alla teoria della relatività, nella quale si dovette
abbandonare l'idea che esista un tempo unico assoluto. Ogni osservatore
avrebbe invece la sua propria misura del tempo quale viene misurato da un
orologio che egli porta con sé: orologi portati da differenti osservatori non
concorderebbero necessariamente fra loro. Il tempo diventò così un
concetto più personale, relativo all'osservatore che lo misurava.
Quando si tentò di unificare la gravità con la meccanica quantistica, si
dovette introdurre l'idea del tempo «immaginario». Il tempo immaginario è
indistinguibile dalle direzioni nello spazio. Se si può andare verso nord, si
può fare dietro-front e dirigersi verso sud; nello stesso modo, se si può
procedere in avanti nel tempo immaginario, si dovrebbe poter fare
dietro-front e procedere a ritroso. Ciò significa che non può esserci alcuna
differenza importante fra le direzioni in avanti e all'indietro del tempo
immaginario. D'altra parte, quando si considera il tempo «reale», si trova
una differenza grandissima fra le direzioni in avanti e all'indietro, come
ognuno di noi sa anche troppo bene. Da dove ha avuto origine questa
differenza fra il passato e il futuro? Perché ricordiamo il passato ma non il
futuro?
Le leggi della scienza non distinguono fra passato e futuro. Più precisamente,
come ho spiegato in precedenza, le leggi della scienza sono invariate sotto la
combinazione di operazioni (o simmetrie) note come C, P e T. (C significa lo
scambio fra particelle e antiparticelle; P significa l'assunzione dell'immagine
speculare, con inversione di destra e sinistra; T significa, infine, l'inversione
del moto di tutte le particelle, ossia l'esecuzione del moto all'indietro.) Le
leggi della scienza che governano" il comportamento della materia in tutte
le situazioni normali rimangono immutate sotto la combinazione delle due
operazioni C e P prese a sé. In altri termini, la vita sarebbe esattamente
identica alla nostra per gli abitanti di un altro pianeta che fossero una nostra
immagine speculare e che fossero composti di antimateria anziché di
materia.
Se le leggi della scienza rimangono immutate sotto la combinazione delle
operazioni C e P, e anche sotto la combinazione C, P e T, devono rimanere
immutate anche sotto la sola operazione T. Eppure c'è una grande
differenza fra le operazioni in avanti e all'indietro del tempo reale nella vita
comune. Immaginiamo una tazza d'acqua che cada da un tavolo e vada a
frantumarsi sul pavimento. Se filmiamo questo fatto, potremo dire
facilmente, osservandone la proiezione, se la scena che vediamo si stia
svolgendo in avanti o all'indietro. Se la scena è proiettata all'indietro,
vedremo i cocci riunirsi rapidamente e ricomporsi in una tazza intera che
balza sul tavolo. Possiamo dire che la scena che vediamo è proiettata
all'indietro perché questo tipo di comportamento non viene mai osservato
nella vita comune. Se lo fosse, i produttori di stoviglie farebbero fallimento.
La spiegazione che si dà di solito del perché non vediamo mai i cocci di una
tazza riunirsi assieme a ricostituire l'oggetto integro è che questo fatto è
proibito dalla seconda legge della termodinamica. Questa dice che in ogni
sistema chiuso il disordine, o l'entropia, aumenta sempre col tempo. In altri
termini, questa è una forma della legge di Murphy: le cose tendono sempre
ad andare storte! Una tazza integra sul tavolo è in uno stato di alto ordine,
mentre una tazza rotta sul pavimento è in uno stato di disordine. Si può
passare facilmente dalla tazza sul tavolo nel passato alla tazza rotta sul
pavimento nel futuro, ma non viceversa.
L'aumento col tempo del disordine o dell'entropia è un esempio della
cosiddetta freccia del tempo, qualcosa che distingue il passato dal futuro,
dando al tempo una direzione ben precisa. Esistono almeno tre frecce del
tempo diverse. Innanzitutto c'è la freccia del tempo termodinamica: la
direzione del tempo in cui aumenta il disordine o l'entropia. Poi c'è la freccia
del tempo psicologica: la direzione in cui noi sentiamo che passa il tempo, la
direzione in cui ricordiamo il passato ma non il futuro. Infine c'è la freccia
del tempo cosmologica: la direzione del tempo in cui l'universo si sta
espandendo anziché contraendo.
In questo capitolo sosterrò che nessuna condizione al contorno per
l'universo, congiuntamente al principio antropico debole, può spiegare
perché tutt'e tre le frecce puntino nella stessa direzione, e inoltre perché
debba esistere in generale una freccia del tempo ben definita. Sosterrò che
la freccia psicologica è determinata dalla freccia termodinamica, e che
queste due frecce puntano sempre necessariamente nella stessa direzione.
Se si suppone la condizione dell'inesistenza di confini per l'universo,
vedremo che devono esistere una freccia del tempo termodinamica e una
cosmologica ben definite, ma che esse non punteranno nella stessa
direzione per l'intera storia dell'universo. Sosterrò però che solo quando
esse puntano nella stessa direzione le condizioni sono idonee allo sviluppo
di esseri intelligenti in grado di porsi la domanda: «Perché il disordine
aumenta nella stessa direzione del tempo in cui l'universo si espande?».
Esaminerò dapprima la freccia del tempo termodinamica. La seconda legge
della termodinamica risulta dal fatto che gli stati disordinati sono sempre
molti di più di quelli ordinati. Per esempio, consideriamo i pezzi di un puzzle
in una scatola. Esiste uno, e un solo, ordinamento in cui tutti i pezzi formano
una figura completa. Di contro esiste un numero grandissimo di disposizioni
in cui i pezzi sono disordinati e non compongono un'immagine.
Supponiamo che un sistema prenda l'avvio in uno del piccolo numero di stati
ordinati. Al passare del tempo il sistema si evolverà secondo le leggi della
scienza e il suo stato si modificherà. In seguito è più probabile che il sistema
si trovi in uno stato disordinato piuttosto che in uno ordinato, dato che gli
stati disordinati sono in numero molto maggiore. Il disordine aumenterà
quindi probabilmente col tempo se il sistema obbedisce alla condizione
iniziale di grande ordine.
Supponiamo che nello stato iniziale i pezzi siano raccolti nella scatola nella
disposizione ordinata in cui formano un'immagine. Se scuotiamo la scatola i
pezzi assumeranno un'altra disposizione. Questa sarà probabilmente una
disposizione disordinata in cui i pezzi non formeranno un'immagine
appropriata, semplicemente perché le disposizioni disordinate sono in
numero molto maggiore di quelle ordinate. Alcuni gruppi di pezzi potranno
formare ancora parti della figura, ma quanto più scuotiamo la scatola tanto
più aumenta la probabilità che anche questi gruppi si rompano e che i pezzi
vengano a trovarsi in uno stato completamente mischiato, nel quale non
formeranno più alcuna sorta di immagine. Così il disordine dei pezzi
aumenterà probabilmente col tempo se i pezzi obbediscono alla condizione
iniziale che si prenda l'avvio da uno stato altamente ordinato.
Supponiamo, però, che Dio abbia deciso che l'universo debba finire in uno
stato di alto ordine, ma che non abbia alcuna importanza in quale stato sia
iniziato. In principio l'universo sarebbe probabilmente in uno stato molto
disordinato. Ciò significherebbe che il disordine è destinato a diminuire col
tempo. Vedremmo allora i cocci di tazze rotte riunirsi assieme e le tazze
intere saltare dal pavimento sul tavolo. Gli esseri umani che si trovassero a
osservare queste scene vivrebbero però in un universo in cui il disordine
diminuisce col tempo. Io sosterrò che tali esseri avrebbero una freccia del
tempo psicologica orientata all'indietro. In altri termini, essi ricorderebbero
gli eventi del futuro e non del passato. Quando la tazza è rotta, essi
ricorderebbero di averla vista integra sul tavolo, ma vedendola sul tavolo
non ricorderebbero di averla vista in pezzi sul pavimento.
E piuttosto difficile parlare della memoria umana perché non sappiamo nei
particolari in che modo funzioni il cervello. Però sappiamo tutto su come
funzionano le memorie dei computer. Esaminerò perciò la freccia del tempo
psicologica per i computer. Io penso che sia ragionevole supporre che la
freccia del tempo psicologica per i computer sia la stessa che per gli esseri
umani. Se così non fosse, si potrebbe fare una strage sul mercato azionario
avendo un computer che ricordasse le quotazioni di domani!
Una memoria di un computer è fondamentalmente un dispositivo
contenente elementi che possono esistere in uno di due stati diversi. Un
esempio semplice è un abaco. Nella sua forma più semplice, esso consiste in
un certo numero di bacchette su ciascuna delle quali può scorrere una
pallina forata, che può essere messa in una di due posizioni. Prima che
un'informazione venga registrata in una memoria di computer, la memoria
si trova in uno stato disordinato, con probabilità uguali per ciascuno dei due
stati possibili. (Le palline dell'abaco sono distribuite in modo casuale sulle
bacchette.) Dopo avere interagito col sistema che dev'essere ricordato, la
memoria si troverà decisamente nell'uno o nell'altro stato, a seconda dello
stato del sistema. (Ogni pallina dell'abaco si troverà o nella parte destra o
nella parte sinistra di ogni bacchetta.) La memoria sarà quindi passata da
uno stato disordinato a uno stato ordinato. Per essere certi, però, che la
memoria si trovi nello stato giusto, è necessario usare una certa quantità di
energia (per spostare le palline o per fornire energia al computer, per
esempio). Quest'energia viene dissipata sotto forma di calore, e contribuisce
ad aumentare la quantità di disordine nell'universo. Si può mostrare che
quest'aumento del disordine è sempre maggiore dell'aumento dell'ordine
nella memoria stessa. Così, il calore espulso dal ventilatore del computer
significa che, quando un computer registra un'informazione nella sua
memoria, la quantità totale di disordine nell'universo aumenta ancora. La
direzione del tempo in cui un computer ricorda il passato è la stessa in cui
aumenta il disordine.
Il nostro senso soggettivo della direzione del tempo, la freccia del tempo
psicologica, è perciò determinato nel nostro cervello dalla freccia del tempo
termodinamica. Esattamente come un computer, anche noi dobbiamo
ricordare le cose nell'ordine in cui aumenta l'entropia. Questo fatto rende la
seconda legge della termodinamica quasi banale. Il disordine aumenta col
tempo perché noi misuriamo il tempo nella direzione in cui il disordine
aumenta. Non c'è una cosa di cui possiamo essere più sicuri di questa!
Ma per quale ragione deve esistere la freccia del tempo termodinamica? O,
in altri termini, perché l'universo dovrebbe essere in uno stato di grande
ordine a un estremo del tempo, l'estremo che chiamiamo passato? Perché
non si trova sempre in uno stato di completo disordine? Dopo tutto, questa
cosa potrebbe sembrare più probabile. E perché la direzione del tempo in
cui aumenta il disordine è la stessa in cui l'universo si espande?
Nella teoria classica della relatività generale non si può predire in che modo
l'universo,sia cominciato perché tutte le leggi note della scienza verrebbero
meno in presenza della singolarità del big bang. L'universo potrebbe avere
avuto inizio in un modo molto omogeneo e ordinato. Questo fatto avrebbe
condotto a frecce del tempo termodinamica e cosmologica ben definite,
come quelle che osserviamo. Esso avrebbe però potuto avere origine
altrettanto bene in uno stato molto grumoso e disordinato. In questo caso
l'universo si sarebbe trovato già in uno stato di completo disordine, cosicché
il disordine non avrebbe potuto aumentare col tempo. Esso sarebbe stato
destinato o a restare costante, nel qual caso non ci sarebbe stata una freccia
del tempo termodinamica ben definita, o a diminuire, nel qual caso la
freccia del tempo termodinamica avrebbe puntato nella direzione opposta a
quella della freccia cosmologica. Nessuna di queste due possibilità è in
accordo con ciò che osserviamo. Ma la teoria classica della relatività
generale, come abbiamo visto, predice il suo stesso venir meno. Quando la
curvatura dello spazio-tempo diventa molto pronunciata, gli effetti
gravitazionali quantistici diventeranno importanti e la teoria classica cesserà
di essere una buona descrizione dell'universo. Si deve usare una teoria
quantistica della gravità per capire in che modo abbia avuto inizio l'universo.
In una teoria quantistica della gravità, come abbiamo visto nell'ultimo
capitolo, per specificare lo stato dell'universo si dovrebbe ancora dire in che
modo le possibili storie dell'universo si comporterebbero all'estremo
confine dello spazio-tempo in passato. Si potrebbe evitare questa difficoltà
di dover descrivere quel che non sappiamo e non possiamo sapere solo se le
storie soddisfano la condizione dell'inesistenza di ogni confine: se hanno
un'estensione finita, ma non hanno confini, margini o singolarità. In questo
caso l'inizio del mondo sarebbe un punto regolare, omogeneo, dello
spazio-tempo e l'universo avrebbe cominciato la sua espansione in un modo
molto regolare e ordinato. Esso non potrebbe essere stato completamente
uniforme, poiché in tal caso avrebbe violato il principio di indeterminazione
della teoria quantistica. Dovettero esserci piccole fluttuazioni nella densità e
nelle velocità delle particelle. La condizione dell'assenza di confine implicava
però che queste fluttuazioni fossero il più possibile piccole, in accordo col
principio di indeterminazione di Heisenberg.
L'universo avrebbe avuto inizio con un periodo di espansione esponenziale o
«inflazionaria» in cui le sue dimensioni sarebbero aumentate di un fattore
molto grande. Nel corso di tale espansione le fluttuazioni di densità
sarebbero rimaste dapprima piccole, ma in seguito avrebbero cominciato a
crescere. Nelle regioni in cui la densità era leggermente maggiore della
media si sarebbe avuto un rallentamento dell'espansione per opera
dell'attrazione gravitazionale della massa extra. Infine, tali regioni avrebbero
cessato di espandersi e si sarebbero contratte a formare galassie, stelle ed
esseri come noi. L'universo sarebbe iniziato in uno stato omogeneo e
ordinato e sarebbe diventato grumoso e disordinato al passare del tempo.
Ciò spiegherebbe l'esistenza della freccia del tempo termodinamica.
Ma che cosa accadrebbe se l'universo cessasse di espandersi e cominciasse
a contrarsi? La freccia del tempo termodinamica si rovescerebbe e il
disordine comincerebbe a diminuire col tempo? Questo fatto condurrebbe a
ogni sorta di possibilità fantascientifiche per coloro che fossero riusciti a
sopravvivere dalla fase di espansione a quella di contrazione. Quei nostri
lontani pronipoti vedrebbero i cocci di tazze ridotte in frammenti ricomporsi
in tazze integre, e vedrebbero queste volare dal pavimento sul tavolo?
Sarebbero in grado di ricordare le quotazioni di domani e guadagnare una
fortuna sul mercato azionario? Potrebbe sembrare un po' accademico
preoccuparsi di che cosa accadrebbe se l'universo tornasse a contrarsi,
giacché questa contrazione non avrà inizio in ogni caso se non fra altri dieci
miliardi di anni almeno. C'è però un modo più rapido per sapere che cosa
accadrebbe: saltare in un buco nero. Il collasso di una stella a formare un
buco nero è molto simile alle ultime fasi del collasso dell'intero universo. Se
nella fase di contrazione dell'universo il disordine dovesse diminuire,
potremmo quindi attenderci che esso diminuisca anche all'interno di un
buco nero. Così, un astronauta che cadesse in un buco nero sarebbe forse in
grado di vincere alla roulette ricordando in quale scomparto si trovava la
pallina prima della sua puntata. (Purtroppo, però, non potrebbe giocare a
lungo prima di essere trasformato in una fettuccina. Né sarebbe in grado di
fornirci informazioni sull'inversione della freccia del tempo termodinamica,
o neppure di versare in banca i suoi guadagni, giacché sarebbe intrappolato
dietro l'orizzonte degli eventi del buco nero.)
In principio credevo che nella fase di collasso dell'universo il disordine
sarebbe diminuito. Questo perché pensavo che nel corso della contrazione
l'universo dovesse tornare a uno stato omogeneo e ordinato. Ciò avrebbe
significato che la fase di contrazione sarebbe stata simile all'inversione
temporale della fase di espansione. Le persone nella fase di contrazione
avrebbero vissuto la loro vita a ritroso: sarebbero morte prima di nascere e
sarebbero diventate più giovani al procedere della contrazione dell'universo.
Quest'idea è attraente perché comporterebbe una bella simmetria fra le fasi
di espansione e di contrazione. Non è però possibile adottarla a sé,
indipendentemente da altre idee sull'universo. La domanda è: essa è
implicita nella condizione che l'universo sia illimitato o è in contraddizione
con tale condizione? Come ho già detto, in principio pensavo che la
condizione che l'universo non avesse alcun limite implicasse effettivamente
che nella fase di contrazione il disordine sarebbe diminuito. Fui sviato in
parte dall'analogia con la superficie terrestre. Se si supponeva che l'inizio
dell'universo corrispondesse al Polo Nord, la fine dell'universo doveva
essere simile al principio, esattamente come il Polo Sud è simile al Polo Nord.
I poli Nord e Sud corrispondono però all'inizio e alla fine dell'universo nel
tempo immaginario. L'inizio e la fine nel tempo reale possono essere molto
diversi l'uno dall'altro. Fui tratto in inganno anche da una ricerca che avevo
fatto su un modello semplice dell'universo in cui la fase di contrazione
assomigliava all'inversione del tempo della fase di espansione. Un mio
collega, Don Page, della Penn State University, sottolineò però che la
condizione dell'assenza di ogni confine non richiedeva che la fase di
contrazione dovesse essere necessariamente l'inversione temporale della
fase di espansione. Inoltre un mio allievo, Raymond Laflamme, trovò che, in
un modello leggermente più complicato, il collasso dell'universo era molto
diverso dall'espansione. Mi resi conto di aver commesso un errore: la
condizione dell'assenza di ogni limite implicava che il disordine sarebbe in
effetti continuato ad aumentare anche durante la contrazione. Le frecce del
tempo termodinamica e psicologica non si sarebbero rovesciate quando
l'universo avesse cominciato a contrarsi, e neppure all'interno dei buchi
neri.
Che cosa si deve fare quando si scopre di aver commesso un errore come
questo? Alcuni non ammettono mai di avere sbagliato e continuano a
trovare argomenti nuovi, a volte contraddittori fra loro, per sostenere la loro
causa, come fece Eddington nella sua opposizione alla teoria dei buchi neri.
Altri affermano di non avere mai sostenuto realmente la teoria sbagliata o,
se lo hanno fatto, pretendono di averlo fatto solo per dimostrare che era
contraddittoria. A me pare molto meglio e molto più chiaro ammettere in
una pubblicazione di avere sbagliato. Un buon esempio in proposito fu
quello di Einstein, che definì la costante cosmologica, da lui introdotta nel
tentativo di costruire un modello statico dell'universo, l'errore più grave di
tutta la sua vita.
Per tornare alla freccia del tempo, rimane l'interrogativo: perché osserviamo
che le frecce termodinamica e cosmologica puntano nella stessa direzione?
O, ih altri termini, perché il disordine aumenta nella stessa direzione del
tempo in cui si espande l'universo? Se si crede che l'universo passi prima per
una fase di espansione per tornare poi a contrarsi, come sembra implicare la
proposta dell'inesistenza di confini, la domanda si trasforma nell'altra del
perché dovremmo trovarci nella fase di espansione e non in quella della
contrazione.
Si può rispondere a questa domanda sulla base del principio antropico
debole. Le condizioni nella fase di contrazione non sarebbero idonee
all'esistenza di esseri intelligenti in grado di porsi la domanda: perché il
disordine cresce nella stessa direzione del tempo in cui si sta espandendo
l'universo? L'inflazione nel primissimo periodo di esistenza dell'universo,
predetta dalla condizione dell'inesistenza di alcun confine, significa che
l'universo deve espandersi con una velocità molto vicina al valore critico in
corrispondenza del quale riuscirebbe a evitare di strettissima misura il
collasso, e quindi che non invertirà comunque la direzione del suo
movimento per moltissimo tempo. A quell'epoca tutte le stelle avranno
esaurito il loro combustibile, e i protoni e i neutroni in esse contenuti
saranno probabilmente decaduti in particelle di luce e radiazione. L'universo
si troverebbe allora in uno stato di disordine quasi completo. Non ci sarebbe
una freccia del tempo termodinamica forte. Il disordine non potrebbe
aumentare di molto perché l'universo sarebbe già in uno stato di disordine
quasi completo. Una freccia del tempo termodinamica forte è però
necessaria per l'operare della vita intelligente. Per sopravvivere, gli esseri
umani devono consumare cibo, che è una forma ordinata di energia, e
convertirlo in calore, che è una forma di energia disordinata. Perciò nella
fase di contrazione dell'universo non potrebbero esistere forme di vita
intelligente. Questa è la spiegazione del perché osserviamo che le frecce del
tempo termodinamica e cosmologica sono puntate nella stessa direzione.
Non che l'espansione dell'universo causi un aumento del disordine. A
causare l'aumento del disordine, e a far sì che le condizioni siano favorevoli
alla vita intelligente soltanto nella fase di espansione, è piuttosto la
condizione dell'assenza di confini dell'universo.
Per compendiare, le leggi della scienza non distinguono fra le direzioni del
tempo in avanti e all'indietro. Ci sono però almeno tre frecce del tempo che
distinguono il passato dal futuro. Esse sono la freccia termodinamica: la
direzione del tempo in cui aumenta il disordine; la freccia psicologica: la
direzione del tempo in cui ricordiamo il passato e non il futuro; e la freccia
cosmologica: la direzione del tempo in cui l'universo si espande anziché
contrarsi. Ho mostrato che la freccia psicologica è essenzialmente identica
con la freccia termodinamica, cosicché le due puntano sempre nella stessa
direzione. La proposta dell'assenza di un confine per l'universo predice
l'esistenza di una freccia del tempo termodinamica ben definita perché
l'universo deve cominciare in uno stato omogeneo e ordinato. E la ragione
per cui noi vediamo questa freccia termodinamica accordarsi con la freccia
cosmologica è che forme di vita intelligente possono esistere soltanto nella
fase dell'espansione. La fase della contrazione non sarà adatta perché non
ha una freccia del tempo termodinamica forte.
Il progresso del genere umano nella comprensione dell'universo ha stabilito
un cantuccio d'ordine in un universo sempre più disordinato. Se il lettore
ricordasse ogni parola di questo libro, la sua memoria avrebbe registrato
circa due milioni di elementi di informazione: l'ordine nel suo cervello
sarebbe aumentato di circa due milioni di unità. Leggendo il libro, però, egli
avrà convertito almeno un migliaio di calorie di energia ordinata, sotto
forma di cibo, in energia disordinata sotto forma di calore, che viene
dissipato nell'aria per convezione e sotto forma di sudore. Il disordine
dell'universo risulterà in tal modo accresciuto di circa venti milioni di milioni
di milioni di milioni di unità — ossia di quasi dieci milioni di milioni di milioni
di volte più dell'aumento dell'ordine nel suo cervello — e questo nell'ipotesi
che ricordasse perfettamente l'intero contenuto di questo libro. Nel capitolo
seguente cercherò di accrescere un pochino l'ordine in questa plaga
dell'universo spiegando come alcuni studiosi tentino di combinare le teorie
parziali da me descritte nello sforzo di pervenire a una teoria unificata
completa che copra ogni cosa nell'universo.
10
L'UNIFICAZIONE DELLA FISICA
Come abbiamo spiegato nel primo capitolo, sarebbe molto difficile costruire
di getto una teoria unificata completa di tutto ciò che è presente
nell'universo. Perciò abbiamo via via progredito trovando teorie parziali che
descrivono una gamma limitata di fenomeni e trascurando altri effetti o
accontentandoci di soluzioni approssimate per mezzo di certi numeri. (La
chimica, per esempio, ci permette di calcolare le interazioni di atomi senza
bisogno di conoscere la struttura interna del nucleo dell'atomo.) Si spera
però che un giorno sia possibile pervenire a trovare una teoria completa,
coerente, unificata che includa tutte queste teorie parziali come
approssimazioni e che si concili con i fatti senza che ci sia bisogno a tal fine
di definire appositamente i valori di certi numeri arbitrari nella teoria. La
ricerca di una tale teoria è nota come «l'unificazione della fisica», Einstein
spese la maggior parte degli anni della maturità nella vana ricerca di una
teoria unificata, ma il tempo non era ancora maturo: esistevano teorie
parziali per la gravità e per la forza elettromagnetica, ma si sapeva ben poco
sulle forze nucleari. Inoltre, Einstein si rifiutava di credere nella realtà della
meccanica quantistica, nonostante il ruolo importante da lui svolto agli inizi
nel suo sviluppo. Pare però che il principio di indeterminazione sia un
ingrediente fondamentale dell'universo in cui viviamo. Una teoria unificata,
per avere successo, dovrà perciò incorporare necessariamente questo
principio.
Come vedremo, le prospettive di trovare una tale teoria sembrano oggi
molto migliori, poiché oggi sappiamo molto di più sull'universo. Dobbiamo
però guardarci da un eccesso di fiducia: abbiamo già cullato false illusioni in
passato! All'inizio di questo secolo, per esempio, si pensava di poter
spiegare tutto nei termini delle proprietà di una materia continua, come
l'elasticità e la conduzione del calore. La scoperta della struttura dell'atomo
e del principio di indeterminazione mise fine a tutto questo. Poi, di nuovo,
nel 1928 il fisico e Premio Nobel Max Born disse a un gruppo di persone in
visita all'Università di Gòttingen: «La fisica, quale la conosciamo, sarà
completata in sei mesi». La sua fiducia si fondava sulla recente scoperta, per
opera di Dirac, dell'equazione che governava l'elettrone. Si pensava che
un'equazione simile governasse anche il protone, che era l'unica altra
particella nota a quel tempo, e che la risoluzione di tale problema avrebbe
messo fine alla fisica teorica. La scoperta del neutrone e delle forze nucleari
vanificò però anche questa prospettiva. Detto questo, io credo nondimeno
che ci siano motivi di cauto ottimismo per supporre che oggi si possa essere
vicini alla fine della ricerca delle leggi ultime della natura.
Nei capitoli precedenti ho descritto la relatività generale, la teoria parziale
della gravità e le teorie parziali che governano le interazioni debole, forte ed
elettromagnetica. Le ultime tre possono essere combinate nelle cosiddette
grandi teorie unificate, o GTU, che non sono ancora molto soddisfacenti
perché non includono la gravità e perché contengono un certo numero di
quantità, come la massa relativa di varie particelle, che non possono essere
predette sulla base della teoria, ma che devono essere scelte ad hoc per
concordare con le osservazioni. La difficoltà principale per trovare una teoria
che unifichi la gravità con le altre forze è che la relatività generale è una
teoria «classica», ossia che non include il principio di indeterminazione della
meccanica quantistica. D'altro canto, le altre teorie parziali dipendono dalla
meccanica quantistica in un modo essenziale. Un primo passo necessario è
perciò quello di combinare la relatività generale col principio di
indeterminazione. Come abbiamo visto, questo fatto può produrre
conseguenze notevoli, per esempio che i buchi neri non siano neri, e che
l'universo non abbia alcuna singolarità ma sia completamente racchiuso in
se stesso e privo di un limite. Il guaio, come abbiamo visto nel capitolo 7, è
che, in conseguenza del principio di indeterminazione, persino lo spazio
«vuoto» può essere pieno di coppie di particelle e antiparticelle virtuali.
Queste coppie avrebbero una quantità di energia infinita e perciò, per la
famosa equazione di Einstein E = mc2, avrebbero una quantità infinita di
massa. La loro attrazione gravitazionale incurverebbe allora l'universo
racchiudendolo in uno spazio infinitamente piccolo.
In modo piuttosto simile, quantità infinite apparentemente assurde
compaiono in altre teorie parziali, ma in tutti questi casi gli infiniti possono
essere cancellati per mezzo di un procedimento chiamato rinormalizzazione.
Questo procedimento implica la cancellazione degli infiniti per mezzo
dell'introduzione di altri infiniti. Benché questa tecnica sia
matematicamente piuttosto dubbia, pare che in pratica funzioni, ed è stata
usata con queste teorie per fare delle predizioni che si accordano con le
osservazioni con un grado di precisione straordinario. La rinormalizzazione
ha però un grave inconveniente dal punto di vista del tentativo di trovare
una teoria completa, in quanto significa che i valori reali delle masse e
l'intensità delle forze non possono essere predetti dalla teoria, ma devono
essere scelti in modo da conciliarsi con le osservazioni.
Nel tentativo di incorporare nella relatività generale il principio di
indeterminazione, ci sono solo due quantità che possono essere adattate: la
grandezza della gravità e il valore della costante cosmologica. Ma
l'adattamento di questi valori non è sufficiente a eliminare tutti gli infiniti. Si
ha perciò una teoria la quale sembra predire che certe quantità, come la
curvatura dello spazio-tempo, sono realmente infinite; eppure queste
quantità possono essere osservate e misurate e risultano essere
perfettamente finite! Che nel combinare la relatività generale e il principio
di indeterminazione si incorra in questo problema era stato sospettato da
qualche tempo, ma fu infine confermato da calcoli dettagliati nel 1972.
Quattro anni dopo fu suggerita una possibile soluzione, chiamata
«supergravità». L'idea era quella di combinare la particella di spin 2
chiamata gravitone, che porta la forza gravitazionale, con certe altre nuove
particelle di spin 3/2, 1, 1/2 e 0. In un certo senso, tutte queste particelle
potevano quindi essere considerate aspetti diversi di una medesima
«superparticella», unificando in tal modo le particelle di materia con spin
1/2 e 3/2 con le particelle portatrici di forza di spin 0,1 e 2. Le coppie virtuali
particella-antiparticella di spin 1/2 e 3/2 avrebbero energia negativa e
tenderebbero quindi a cancellare l'energia positiva delle particelle virtuali di
spin 2, 1 e 0. In conseguenza di ciò molti fra gli infiniti possibili si
cancellerebbero, ma si sospettò che qualche infinito potesse ancora restare.
I calcoli richiesti per trovare se restasse o no qualche infinito non cancellato
erano però così lunghi e difficili che nessuno era preparato a intraprenderli.
Si stimò che persino un computer avrebbe impiegato almeno quattro anni,
ed erano molto grandi le probabilità che si facesse almeno un errore, e
probabilmente più d'uno. Si sarebbe avuta la certezza di aver trovato la
risposta giusta solo se qualcun altro avesse ripetuto il calcolo e trovato la
stessa risposta, cosa che non sembrava molto probabile!
Nonostante questi problemi, e benché le particelle nelle teorie della
supergravità non sembrassero corrispondere in numero alle particelle
osservate, la maggior parte degli scienziati credeva che la supergravità fosse
probabilmente la risposta giusta al problema dell'unificazione della fisica.
Essa sembrava il modo migliore per unificare la gravità con le altre forze. Nel
1984, però, ci fu un notevole mutamento di opinione a favore delle
cosiddette teorie delle corde (string theories). In queste teorie gli oggetti
basilari non sono particelle, che occupano un singolo punto nello spazio,
bensì cose che hanno una lunghezza ma nessun'altra dimensione, come un
pezzo di filo infinitamente sottile. Queste «corde» possono avere dei capi (le
cosiddette corde aperte) oppure possono essere congiunte con se stesse in
cappi o anelli chiusi (corde chiuse; figg. 10.1 e 10.2). Una particella occupa in
ogni istante del tempo un punto dello spazio. La sua storia può essere quindi
rappresentata da una linea nello spaziotempo (la «linea d'universo»,
world-line). Una corda, d'altra parte, occupa una linea nello spazio in ogni
momento del tempo. Perciò la sua storia nello spazio-tempo è una
superficie bidimensionale chiamata il foglio d'universo {the world-sheet).
(Ogni punto su tale foglio d'universo può essere descritto da due numeri:
uno specifica il tempo e l'altro la posizione del punto sulla corda.) Il foglio
d'universo di una corda aperta è una striscia; i suoi margini rappresentano le
traiettorie attraverso lo spazio-tempo degli estremi della corda (fig. 10.1). Il
foglio d'universo di una corda chiusa è un cilindro o tubo (fig. 10.2); una
sezione del tubo è un cerchio, che rappresenta la posizione della corda in un
tempo particolare.
Due corde possono unirsi a formare una corda singola; nel caso di corde
aperte, esse si uniscono semplicemente a un capo (fig. 10.3), mentre nel
caso di corde chiuse si ha un tipo di sutura che ricorda il modo in cui si
uniscono le due gambe di un paio di pantaloni (fig. 10.4). Similmente, una
singola corda può dividersi in due corde. Nelle teorie delle corde, quelle che
in precedenza erano concepite come particelle sono raffigurate oggi come
onde che si propagano lungo la corda, come onde sul filo vibrante di un
aquilone. L'emissione o assorbimento di una particella da parte di un'altra
corrisponde alla divisione o alla congiunzione di corde. Per esempio, la forza
gravitazionale che il Sole esercita sulla Terra era descritta nelle teorie delle
particelle come causata dall'emissione di un gravitone da parte di una
particella nel Sole e dal suo assorbimento da parte di una particella sulla
Terra (fig. 10.5). Nella teoria delle corde, questo processo corrisponde
invece a un tubo in forma di H (fig. 10.6; la teoria delle corde assomiglia, in
un certo senso, all'idraulica). I due tratti verticali della H corrispondono alle
particelle nel Sole e nella Terra e il tratto orizzontale corrisponde al
gravitone che viaggia fra l'uno e l'altro.
La teoria delle corde ha una storia curiosa. Essa fu inventata in origine verso
la fine degli anni Sessanta nel tentativo di trovare una teoria che descrivesse
la forza forte. L'idea era che particelle simili al protone e al neutrone
potessero essere considerate come onde su una corda. Le forze forti fra le
particelle dovevano corrispondere a pezzi di corda che univano altri pezzi di
corda, con un intreccio simile al gioco di fili in una tela di ragno. Perché
questa teoria desse il valore osservato della forza forte fra particelle, le
corde dovevano essere simili a nastri di gomma con una trazione di circa
dieci tonnellate.
Nel 1974 Joél Scherk, di Parigi, e John Schwartz, del California Institute of
Technology, pubblicarono un articolo in cui dimostravano che la teoria delle
corde poteva descrivere la forza gravitazionale, ma solo se la tensione nella
corda fosse stata molto più elevata, di circa mille milioni di milioni di milioni
di milioni di milioni di milioni (1 seguito da trentanove zeri) di tonnellate. Le
predizioni della teoria delle corde erano esattamente identiche a quelle
della relatività generale su scale di lunghezza ordinarie, ma differivano a
distanze molto piccole, di meno di un millipentilionesimo di centimetro (un
centimetro diviso 1 seguito da trentatré zeri). La ricerca di Scherk e Schwartz
non fu però degnata di molta attenzione perché, press'a poco in quel
periodo, la maggior parte dei ricercatori abbandonarono la teoria originaria
delle corde a favore della teoria fondata su quark e gluoni, che sembrava
conciliarsi meglio con i risultati dell'osservazione. Scherk morì in circostanze
tragiche (soffriva di diabete e andò in coma quando non c'era nessuno
intorno a lui che potesse praticargli un'iniezione di insulina). Così Schwartz
rimase solo come quasi unico sostenitore della teoria delle corde, ma ora
con la proposta di un valore per la tensione delle corde molto più elevato.
Nel 1984 l'interesse per le corde fu richiamato in vita improvvisamente, a
quanto pare per due ragioni. Una era che non si stavano facendo in realtà
molti progressi verso una dimostrazione del fatto che la supergravità fosse
finita o che potesse spiegare i tipi di particelle che osserviamo. L'altra fu la
pubblicazione di un articolo di John Schwartz e di Mike Green del Queen
Mary College di Londra, in cui si dimostrava che la teoria delle corde poteva
spiegare l'esistenza di particelle con una chiralità sinistrorsa incorporata,
come alcune delle particelle che osserviamo nella realtà. Quali che fossero le
ragioni di questo mutato orientamento, un gran numero di ricercatori
cominciarono ben presto a lavorare sulla teoria delle corde e ne fu
sviluppata una nuova versione, la cosiddetta teoria eterotica, la quale
sembrava poter spiegare i tipi di particelle che osserviamo.
Anche le teorie delle corde conducono a quantità infinite, ma si pensa che
queste potranno essere cancellate completamente in versioni come quelle
delle corde eterotiche (anche se non lo sappiamo ancora con certezza). Le
teorie delle corde presentano però un problema maggiore: esse sembrano
consistenti solo se lo spazio-tempo ha dieci o venti dimensioni, in luogo
delle solite quattro! Ovviamente, dimensioni extra dello spazio-tempo sono
un luogo comune della fantascienza, dove in effetti esse sono quasi una
necessità; in caso contrario, infatti, l'impossibilità di viaggiare a una velocità
superiore a quella della luce — imposta dalla teoria della relatività —
comporterebbe dispendi di tempo eccessivi nei viaggi interstellari e
intergalattici. L'idea della fantascienza è che sia forse possibile prendere
scorciatoie passando per dimensioni superiori. Si può visualizzare quest'idea
nel modo seguente: immaginiamo che lo spazio in cui viviamo abbia solo
due dimensioni e che sia incurvato come la superficie interna di una
ciambella, dell'anello dell'ancora (cicala) o del solido geometrico noto come
toro (fig. 10.7). Se fossimo su un lato della superficie interna della ciambella
e volessimo andare in un punto di rimpetto, dovremmo percorrere la
superficie interna della ciambella stessa. Se, però, fossimo in grado di
muoverci nella terza dimensione, potremmo abbreviare il viaggio
attraversando direttamente il buco della ciambella.
Perché non percepiamo tutte queste dimensioni extra, se esistono
veramente? Perché vediamo solo tre dimensioni spaziali e una dimensione
temporale? Il suggerimento è che le altre dimensioni siano arrotolate in uno
spazio di dimensioni piccolissime, dell'ordine di un pentilione di centimetro.
Si tratta di uno spazio così piccolo che non abbiamo assolutamente alcuna
possibilità di percepirlo; noi vediamo solo le tre dimensioni spaziali e una
dimensione temporale, nella quale lo spazio-tempo è abbastanza piatto.
Esso assomiglia in qualche misura alla superficie di un'arancia; se la
osserviamo da vicino la vediamo incurvata e corrugata; vista da una certa
distanza, essa ci appare assolutamente liscia. Lo stesso vale per lo
spazio-tempo: su una scala molto piccola esso è decadimensionale e
altamente incurvato, mentre su una scala maggiore non percepiamo la
curvatura o le dimensioni extra. Se questo quadro è corretto, esso annuncia
cattive notizie per gli aspiranti viaggiatori spaziali: le dimensioni extra
sarebbero troppo piccole per poter essere utilizzate da un'astronave. Si
pone inoltre un altro problema importante: Perché alcune, ma non tutte, le
dimensioni dovrebbero essere arrotolate in una piccola palla? E presumibile
che nei primissimi istanti della vita dell'universo tutte le dimensioni fossero
molto incurvate. Perché tre dimensioni spaziali e una temporale si
spianarono mentre le altre rimangono compattamente arrotolate?
Una possibile risposta è il principio antropico. Due dimensioni spaziali non
sembrano sufficienti per consentire lo sviluppo di esseri complicati come noi.
Per esempio, animali bidimensionali che vivessero su una terra
unidimensionale dovrebbero spesso arrampicarsi l'uno sull'altro per
l'impossibilità di passare l'uno accanto all'altro. Se un essere bidimensionale
mangiasse qualcosa che non fosse in grado di digerire completamente,
dovrebbe espellere i residui per la stessa via attraverso cui li aveva ingeriti
perché, se ci fosse un canale digerente che attraversasse tutto il suo corpo,
esso dividerebbe l'organismo in due parti, separate: il nostro organismo
bidimensionale si dividerebbe in due (fig. 10.8). Similmente, è difficile
vedere come potrebbe esserci una circolazione del sangue in un essere
bidimensionale.
Ci sarebbero problemi anche nel caso che le dimensioni spaziali fossero più
di tre. La forza gravitazionale fra due corpi diminuirebbe con la distanza più
rapidamente di quanto non faccia nelle tre dimensioni. (Nelle tre dimensioni,
al raddoppiare della distanza la forza gravitazionale diminuisce a 1/4. Nelle
quattro dimensioni diminuirebbe a 1/8, nelle cinque dimensioni a 1/16 e via
dicendo.) In conseguenza di ciò le orbite dei pianeti che si muovono attorno
al Sole, come la Terra, sarebbero instabili: la minima deviazione da un'orbita
perfettamente circolare (come quelle causate dall'attrazione gravitazionale
di altri pianeti) avrebbe l'effetto di far immettere la Terra su una traiettoria
spiraleggiante che la porterebbe ad allontanarsi sempre più dal Sole o che la
condurrebbe a precipitare in esso. Noi saremmo o surgelati o inceneriti. In
realtà, in conseguenza di questo stesso comportamento della gravità con la
distanza il Sole stesso non potrebbe esistere in uno stato stabile in quanto
verrebbe meno l'equilibrio fra la pressione e la gravità: esso o andrebbe in
pezzi o si contrarrebbe a formare un buco nero. Nell'uno come nell'altro
caso, non potrebbe esserci di molto aiuto come fonte di calore e di luce per
la vita sulla Terra. Su una scala più piccola, le forze elettriche che causano il
movimento orbitale degli elettroni intorno al nucleo in un atomo si
comporterebbero nello stesso modo delle forze gravitazionali. Così gli
elettroni o sfuggirebbero del tutto alle forze attrattive dell'atomo o
cadrebbero spiraleggiando nel nucleo. In nessuno dei due casi potrebbero
esistere gli atomi quali li conosciamo.
Pare quindi chiaro che la vita, almeno quale la conosciamo, possa esistere
solo in regioni dello spazio-tempo in cui una dimensione temporale e le tre
dimensioni spaziali non siano arrotolate in una piccola palla bensì distese.
Ciò significa quindi che ci si potrebbe appellare al principio antropico debole,
purché si potesse mostrare che la teoria delle corde permetta che ci siano
tali regioni dell'universo, e pare che in effetti essa lo permetta. Potrebbero
ben esserci altre regioni dell'universo, o altri universi (qualsiasi cosa questo
possa significare), in cui tutte le dimensioni siano arrotolate molto in piccolo
o in cui siano quasi distese più di quattro dimensioni, ma in tali regioni non
ci sarebbero esseri intelligenti a osservare il diverso numero delle
dimensioni efficaci.
A prescindere dal problema del numero di dimensioni che lo spazio-tempo
sembra possedere, la teoria delle corde ha ancora vari altri problemi da
risolvere prima di poter essere acclamata come la definitiva teoria unificata
della fisica. Noi non sappiamo ancora se tutti gli infiniti si cancellino fra loro
o in che modo esattamente correlare le onde sulle corde ai particolari tipi di
particelle che osserviamo. E nondimeno probabile che le risposte a queste
domande vengano trovate nei prossimi anni, e che alla fine del secolo si
possa infine sapere se la teoria delle corde sia effettivamente la teoria
unificata della fisica ricercata da tanto tempo.
Ma una tale teoria unificata può esistere realmente? Oppure stiamo solo
inseguendo un miraggio? Pare ci siano tre possibilità:
1)
Esiste realmente una teoria unificata completa, che un giorno
scopriremo se saremo abbastanza bravi.
2) Non esiste una teoria definitiva dell'universo, ma solo una sequenza
infinita di teorie che descrivono l'universo in un modo sempre più esatto.
3) Non esiste alcuna teoria dell'universo; gli eventi non possono essere
predetti al di là di una certa misura, ma si verificano in modo casuale e
arbitrario.
Alcuni argomenterebbero a favore della terza possibilità, adducendo il
motivo che, se ci fosse un insieme completo di leggi, queste violerebbero la
libertà di Dio di cambiar parere e intervenire nel mondo. È un po' come il
vecchio paradosso: Dio può creare una pietra così pesante da non riuscire a
sollevarla? Ma l'idea che Dio possa aver voglia di cambiare idea è un
esempio dell'errore, additato da sant'Agostino, di immaginare Dio come un
essere esistente nel tempo: il tempo è infatti una proprietà solo
dell'universo creato da Dio. E presumibile che egli sapesse bene quel che
voleva quando lo creò!
Con l'avvento della meccanica quantistica siamo giunti a riconoscere che gli
eventi non possono essere predetti con una precisione assoluta, ma che
rimane sempre un certo grado di incertezza. Volendo, si potrebbe attribuire
questa casualità all'intervento di Dio, ma sarebbe un tipo di intervento
molto strano: non ci sono infatti prove che tale intervento sia diretto verso
un qualche fine. In effetti, se così fosse, esso non sarebbe più casuale per
definizione. In tempi moderni noi abbiamo eliminato efficacemente la terza
possibilità ridefinendo l'obiettivo della scienza: il nostro obiettivo è quello di
formulare un insieme di leggi che ci consenta di predire eventi solo fino al
limite fissato dal principio di indeterminazione.
La seconda possibilità, che ci sia una sequenza infinita di teorie sempre più
raffinate, è in accordo con tutta l'esperienza che abbiamo maturato finora.
In molte occasioni abbiamo accresciuto la sensibilità delle nostre
misurazioni o abbiamo eseguito una nuova classe di osservazioni, solo per
scoprire nuovi fenomeni che non erano predetti dalla teoria esistente, e per
poter spiegare questi nuovi fenomeni abbiamo dovuto sviluppare una teoria
più perfezionata. Non sarebbe perciò molto sorprendente se la presente
generazione di grandi teorie unificate fosse in errore nel sostenere che nulla
di essenzialmente nuovo accadrà fra l'energia dell'unificazione elettrodebole
a circa 100 GeV e l'energia della grande unificazione di circa mille milioni di
milioni di GeV. Noi potremmo attenderci, in effetti, di trovare vari nuovi
livelli di struttura più basilari dei quark e degli elettroni, che oggi
consideriamo particelle «elementari».
Pare però che la gravità possa fornire un limite a questa sequenza di
«scatole cinesi». Se avessimo una particella con un'energia superiore alla
cosiddetta energia di Planck, di dieci trilioni di GeV (1 seguito da diciannove
zeri), la sua massa sarebbe così concentrata che essa si separerebbe dal
resto dell'universo e formerebbe un piccolo buco nero. Pare quindi che la
sequenza di teorie sempre più raffinate dovrebbe avere un qualche limite
nel corso della transizione a energie sempre maggiori, così che dovrebbe
esserci una qualche teoria definitiva dell'universo. Ovviamente l'energia di
Planck è molto lontana dalle energie di un centinaio circa di GeV, che sono il
massimo che noi riusciamo a produrre attualmente in laboratorio. Non
riusciremo certo a valicare questo abisso con gli acceleratori di particelle nel
futuro prevedibile! I primissimi istanti di vita dell'universo, però, sono un
periodo in cui energie del genere devono essere occorse. Io penso che ci sia
una buona probabilità che lo studio dell'universo primordiale e le richieste
di consistenza matematica possano condurci a una teoria unificata completa
quando qualcuno di noi sarà ancora vivo, sempre presumendo che non
facciamo prima saltare in aria il nostro pianeta.
Che cosa significherebbe se noi scoprissimo veramente la teoria definitiva
dell'universo? Come abbiamo visto nel capitolo 1, non potremmo mai essere
del tutto sicuri di aver trovato in effetti la teoria corretta, poiché le teorie
non possono essere dimostrate. Se però la teoria fosse matematicamente
consistente e fornisse sempre predizioni in accordo con le osservazioni,
potremmo essere ragionevolmente fiduciosi di aver trovato la teoria giusta.
Essa metterebbe fine a un capitolo lungo e glorioso nella storia della lotta
intellettuale dell'umanità per comprendere l'universo. Essa rivoluzionerebbe
però anche la comprensione che la persona comune ha delle leggi che
governano l'universo. Al tempo di Newton una persona colta poteva
comprendere, almeno per sommi capi, l'intero sapere umano. Da allora a
oggi, però, il ritmo dello sviluppo della scienza ha reso un tale compito
impossibile. Poiché le teorie vengono modificate di continuo per tener conto
di nuove osservazioni, esse non vengono mai assimilate del tutto o
semplificate in modo che l'uomo della strada possa capirle. Occorre essere
specialisti per capirle, ma anche uno specialista può sperare di comprendere
in modo appropriato solo una piccola proporzione delle teorie scientifiche.
Inoltre, il ritmo del progresso è così rapido che ciò che si impara in una
scuola media superiore o all'università è sempre, poco o tanto, superato.
Solo poche persone riescono a tenere il passo con la rapida avanzata della
frontiera del sapere, e a tale scopo devono dedicare tutto il loro tempo a
questo compito e specializzarsi in una piccola area. Il resto della popolazione
ha ben poca idea dei progressi che vengono compiuti o dell'eccitazione che
essi stanno suscitando. Settant'anni fa, se si deve credere a Eddington,
soltanto due persone capivano la teoria generale della relatività. Oggi la
capiscono decine di migliaia di studenti universitari, e molti milioni di
persone hanno almeno una certa familiarità con l'idea. Se venisse scoperta
una teoria unificata completa, sarebbe solo questione di tempo prima che
essa venisse assimilata e semplificata nello stesso modo e insegnata nelle
scuole, almeno nelle sue grandi linee. Noi potremmo allora avere tutti una
qualche comprensione delle leggi che governano l'universo e alle quali
dobbiamo la nostra esistenza.
Quand'anche riuscissimo a scoprire una teoria unificata completa, ciò non
significherebbe che saremmo in grado di predire eventi in generale, per due
ragioni. La prima è la limitazione posta ai nostri poteri di predizione dal
principio di indeterminazione della meccanica quantistica. Non si può fare
niente per aggirare questa difficoltà. In pratica, però, questa prima
limitazione è meno restrittiva della seconda. Questa consegue
all'impossibilità di risolvere esattamente le equazioni della teoria, tranne
che in situazioni molto semplici. (Noi non riusciamo a risolvere esattamente
neppure le equazioni per il moto dei tre corpi nella teoria della gravitazione
di Newton, e la difficoltà aumenta col numero dei corpi e con la complessità
della teoria.) Noi conosciamo già le leggi che governano il comportamento
della materia in tutte le condizioni tranne quelle più estreme. In particolare
conosciamo le leggi fondamentali che sono alla base della chimica e della
biologia. Eppure non abbiamo certamente ridotto queste discipline allo
status di problemi risolti; finora abbiamo avuto ben poco successo nella
predizione del comportamento umano sulla base di equazioni matematiche!
Così, quand'anche trovassimo un insieme completo di leggi fondamentali,
negli anni a venire ci resterebbe ancora il compito intellettualmente molto
impegnativo di sviluppare metodi di approssimazione migliori, per poter fare
predizioni utili dei probabili esiti in situazioni complicate e realistiche. Una
teoria unificata completa, coerente, è solo il primo passo: il nostro obiettivo
è quello di una comprensione completa degli eventi attorno a noi, e della
nostra esistenza.
11
CONCLUSIONE
Viviamo in un mondo che ci disorienta con la sua complessità. Vogliamo
comprendere ciò che vediamo attorno a noi e chiederci: Qual è la natura
dell'universo? Qual è il nostro posto in esso? Da che cosa ha avuto origine
l'universo e da dove veniamo noi? Perché l'universo è così come lo
vediamo?
Per tentare di rispondere a queste domande adottiamo una qualche
«immagine del mondo». Come una torre infinita di tartarughe che poggiano
l'una sull'altra e che, tutte insieme, reggono la Terra piatta è un'immagine,
così lo è anche la teoria delle supercorde. Entrambe sono teorie
dell'universo, anche se la seconda è molto più matematica e molto più
precisa della prima. Nessuna delle due teorie è fondata su dati di
osservazione: nessuno ha mai visto una tartaruga gigante che reggesse la
Terra sul suo dorso, ma nessuno ha mai visto neppure una supercorda. La
teoria delle tartarughe non è però una buona teoria scientifica perché
predice la possibilità che, giunti al confine del mondo, si possa cadere dal
suo margine nello spazio. Questo fatto non è risultato in accordo con
l'esperienza, a meno che non si voglia trovare in esso la spiegazione della
sparizione di navi e aerei nel Triangolo delle Bermude!
I più antichi tentativi teorici di descrivere e spiegare l'universo implicarono
l'idea che eventi e fenomeni naturali fossero controllati da spiriti con
emozioni umane, i quali agivano in modo spesso capriccioso e imprevedibile.
Tali spiriti risiedevano in oggetti naturali come fiumi e montagne, fra cui
anche corpi celesti, come il Sole e la Luna. Si doveva cercare di placare tali
spiriti e di procurarsene i favori, allo scopo di assicurare la fertilità del suolo
e l'avvicendarsi delle stagioni. Gradualmente, però, l'uomo dovette notare
che esistevano certe regolarità: il Sole sorgeva sempre a levante e
tramontava a ponente, indipendentemente dal fatto che fossero o non
fossero stati offerti sacrifici al dio Sole. Inoltre il Sole, la Luna e i pianeti
seguivano precise traiettorie in cielo, le quali potevano essere predette in
anticipo con una precisione considerevole. Il Sole e la Luna potevano essere
ancora divinità, ma erano divinità che obbedivano a leggi rigorose,
apparentemente senza alcuna eccezione, se si fa la tara a storie come quelle
del Sole fermato in cielo su Gabaon per permettere a Giosuè di cogliere tutti
i frutti della sua vittoria sugli Amorei.
Dapprima queste regolarità e queste leggi furono chiare solo in astronomia
e in poche altre situazioni. Col progredire della civiltà, e in particolare negli
ultimi trecento anni, furono però scoperte un numero sempre maggiore di
regolarità e di leggi. Il successo di queste leggi condusse Laplace, all'inizio
dell'Ottocento, a postulare il determinismo scientifico, ossia la dottrina che
esistesse un insieme di leggi in grado di determinare esattamente
l'evoluzione dell'universo, data la sua configurazione in un tempo preciso.
Il determinismo di Laplace era incompleto sotto due aspetti. Esso non diceva
come potessero essere scelte le leggi e non specificava la configurazione
iniziale dell'universo, che venivano lasciate a Dio. Toccava a Dio scegliere in
che modo l'universo doveva cominciare e a quali leggi doveva obbedire, ma
egli non interveniva più nell'universo una volta che esso avesse avuto inizio.
Dio era in effetti confinato nelle aree che la scienza dell'Ottocento non
comprendeva.
Oggi noi sappiamo che le speranze deterministiche di Laplace non sono
realizzabili, almeno nei termini che egli aveva in mente. Il principio di
indeterminazione della meccanica quantistica implica che certe coppie di
quantità, come la posizione e la velocità di una particella, non possano
essere predette entrambe con una precisione completa.
La meccanica quantistica si occupa di questa situazione attraverso una
classe di teorie quantistiche in cui le particelle non hanno posizioni e
velocità ben definite ma sono rappresentate da un'onda. Queste teorie
quantistiche sono deterministiche nel senso che comprendono leggi per
l'evoluzione dell'onda nel tempo. Così, se si conosce l'onda in un tempo dato,
la si può calcolare per qualsiasi altro tempo. L'elemento impredicibile,
casuale, interviene solo quando tentiamo di interpretare l'onda nei termini
delle posizioni e velocità di particelle. Ma proprio questo è forse il nostro
errore: può darsi che non ci siano posizioni e velocità di particelle, ma
soltanto onde. E solo che noi tentiamo con ostinazione di adattare le onde
alle nostre idee preconcette di posizioni e velocità. Il cattivo assortimento
che ne risulta è la causa dell'apparente impredicibilità.
In effetti, noi abbiamo ridefinito il compito della scienza nella scoperta di
leggi che ci consentano di predire eventi sino al limite fissato dal principio di
indeterminazione. Rimane, però, la questione: Come o perché furono scelti
le leggi e lo stato iniziale dell'universo?
In questo libro ho attribuito uno speciale rilievo alle leggi che governano la
gravità, perché è la gravità a plasmare la struttura su grande scala
dell'universo, anche se essa è la più debole delle quattro categorie di forze.
Le leggi della gravità erano incompatibili con la concezione, accettata fino a
poco tempo fa, che l'universo sia immutabile nel tempo: il fatto che la
gravità sia sempre attrattiva implica che l'universo deve o espandersi o
contrarsi. Secondo la teoria generale della relatività, in passato dev'esserci
stata una condizione di densità infinita, il big bang, la quale deve aver
segnato un inizio effettivo del tempo. Similmente, se l'intero universo
dovesse tornare a contrarsi fino al collasso finale, in futuro dovrà esserci un
altro stato di densità infinita, il big crunch, che sarebbe una fine del tempo.
Ma quand'anche l'intero universo non fosse destinato a un grande collasso
finale, ci sarebbero singolarità nelle varie regioni localizzate che si fossero
contratte a formare buchi neri. Queste singolarità sarebbero una fine del
tempo per chiunque andasse a cadere nel buco nero. In corrispondenza del
big bang e di altre singolarità tutte le leggi verrebbero meno, cosicché Dio
avrebbe ancora una completa libertà per scegliere che cosa sia accaduto in
principio e in che modo l'universo abbia avuto origine.
Quando combiniamo la meccanica quantistica con la relatività generale,
pare ci sia una nuova possibilità che non si era mai affacciata prima: che
spazio e tempo assieme possano formare uno spazio-tempo finito
quadridimensionale, senza singolarità e senza confini, simile alla superficie
della Terra ma con un maggior numero di dimensioni. Pare che quest'idea
potrebbe spiegare molti dei caratteri osservati dell'universo, come la sua
uniformità su vasta scala e anche le deviazioni su piccola scala
dall'omogeneità, come galassie, stelle e persino esseri umani. Essa potrebbe
spiegare persino la freccia del tempo che osserviamo. Se però l'universo è
completamente contenuto in se stesso e autosufficiente, senza alcuna
singolarità o confine, e completamente descritto da una teoria unificata,
questo fatto ha implicazioni profonde per il ruolo di Dio come creatore.
Einstein si pose una volta la domanda: «Quanta scelta ebbe Dio nella
costruzione dell'universo?». Se l'ipotesi dell'assenza di ogni confine è
corretta, Dio non ha avuto alcuna libertà nella scelta delle condizioni iniziali.
Egli avrebbe avuto però ancora, ovviamente, la libertà di scegliere le leggi a
cui l'universo doveva obbedire. Questa non sarebbe stata probabilmente,
peraltro, una grande scelta; poteva infatti esserci una sola teoria unificata
completa, o al più un piccolo numero di tali teorie, come la teoria delle
corde eterotiche, che fossero consistenti e che permettessero l'evolversi di
strutture così complesse come gli esseri umani, capaci di investigare le leggi
dell'universo e porsi domande sulla natura di Dio.
Ma quand'anche ci fosse una sola teoria unificata possibile, essa sarebbe
solo un insieme di regole e di equazioni. Che cos'è che infonde vita nelle
equazioni e che costruisce un universo che possa essere descritto da esse?
L'approccio consueto della scienza, consistente nel costruire un modello
matematico, non può rispondere alle domande del perché dovrebbe esserci
un universo reale descrivibile da quel modello. Perché l'universo si dà la
pena di esistere? La teoria unificata è così cogente da determinare la sua
propria esistenza? Oppure ha bisogno di un creatore e, in tal caso, questi ha
un qualche altro effetto sull'universo? E chi ha creato il creatore?
Fino a oggi la maggior parte degli scienziati sono stati troppo occupati nello
sviluppo di nuove teorie che descrivono che cosa sia l'universo per porsi la
domanda perché? D'altra parte, gli individui professionalmente qualificati a
chiedersi sempre perché, essendo filosofi, non sono riusciti a tenere il passo
col progresso delle teorie scientifiche. Nel Settecento i filosofi
consideravano di propria competenza l'intero sapere umano, compresa la
scienza, e discutevano problemi come: l'universo ha avuto un inizio?
Nell'Ottocento e nel Novecento la scienza divenne però troppo tecnica e
matematica per i filosofi o per chiunque altro tranne pochi specialisti. I
filosofi ridussero a tal punto l'ambito delle loro investigazioni che
Wittgenstein, il filosofo più famoso di questo secolo, disse: «L'unico compito
restante per la filosofia è l'analisi del linguaggio». Quale caduta dalla grande
tradizione della filosofia da Aristotele a Kant!
Se però perverremo a scoprire una teoria completa, essa dovrebbe essere
col tempo comprensibile a tutti nei suoi principi generali, e non solo a pochi
scienziati. Noi tutti — filosofi, scienziati e gente comune — dovremmo allora
essere in grado di partecipare alla discussione del problema del perché noi e
l'universo esistiamo. Se riusciremo a trovare la risposta a questa domanda,
decreteremo il trionfo definitivo della ragione umana: giacché allora
conosceremmo la mente di Dio.
ALBERT EINSTEIN
La connessione di Einstein con gli aspetti politici dello sviluppo e dell'uso
della bomba nucleare è ben nota: prima egli firmò la famosa lettera al
presidente Franklin Delano Roosevelt che convinse gli Stati Uniti a
considerare seriamente l'idea, e poi si impegnò negli sforzi postbellici per
prevenire la guerra nucleare. Ma queste non furono solo azioni isolate di
uno scienziato trascinato nel mondo della politica. La vita di Einstein fu in
effetti, per usare le sue parole, «divisa fra politica ed equazioni».
Gli inizi dell'attività politica di Einstein si collocano durante la prima guerra
mondiale, quando era professore a Berlino. Disgustato da quello che gli
sembrava uno spreco di vite umane, si impegnò in dimostrazioni contro la
guerra. Il pubblico appoggio da lui dato alla disobbedienza civile e
l'incoraggiamento ai giovani a rifiutare la coscrizione non lo resero certo
benvoluto ai suoi colleghi. Poi, dopo la guerra, Einstein diresse i suoi sforzi
verso la riconciliazione e verso il miglioramento dei rapporti internazionali.
Anche questo comportamento non lo rese popolare, e ben presto la sua
politica gli rese difficile recarsi in visita negli Stati Uniti, anche per tenervi
conferenze.
La seconda grande causa di Einstein fu il sionismo. Pur essendo di origine
ebraica, Einstein rifiutava l'idea biblica di Dio. Una crescente consapevolezza
della marea montante dell'antisemitismo, sia prima sia durante la prima
guerra mondiale, lo condusse gradualmente a identificarsi con la comunità
ebraica, e in seguito a diventare un aperto sostenitore del sionismo. Ancora
una volta l'impopolarità non gli impedì di esprimere il suo pensiero. Le sue
idee furono attaccate; fu fondata addirittura un'organizzazione anti-Einstein.
Un uomo fu riconosciuto colpevole in tribunale di avere incitato altri a
uccidere Einstein (e condannato a pagare una multa di sei dollari). Ma
Einstein non si scomponeva tanto facilmente: quando fu pubblicato un libro
intitolato 100 Authors Agaìnst Einstein {Cento autori contro Einstein),
replicò: «Se io fossi in errore, ne sarebbe bastato uno solo!».
Nel 1933 salì al potere Hitler. Einstein, che si trovava allora in America,
dichiarò che non avrebbe fatto ritorno in Germania. Poi, mentre i nazisti
facevano un'incursione in casa sua e gli confiscavano il conto in banca, un
quotidiano berlinese usciva con questo titolo: «Buone notizie da Einstein:
non ritorna più». Dinanzi alla minaccia nazista, Einstein rinunciò al pacifismo
e infine, temendo che gli scienziati tedeschi riuscissero a costruire una
bomba atomica, consigliò agli Stati Uniti di svilupparla essi stessi. Ma prima
ancora che venisse fatta esplodere la prima bomba atomica, egli stava già
mettendo pubblicamente in guardia contro i pericoli della guerra nucleare e
proponendo un controllo internazionale sulle armi nucleari.
Per tutta la sua vita, gli sforzi di Einstein verso la pace conseguirono
probabilmente ben pochi risultati duraturi, e certamente gli procurarono
pochi amici. Il suo rumoroso sostegno alla causa sionista fu però
debitamente riconosciuto nel 1952, quando gli fu offerta la presidenza dello
Stato di Israele. Einstein declinò l'offerta, dicendo che pensava di essere
troppo ingenuo in politica. Ma forse la ragione vera era un'altra. Per citare
ancora le sue parole: «Per me le equazioni sono più importanti, perché la
politica è per il presente, ma un'equazione è per l'eternità».
GALILEO GALILEI
A Galileo, forse più che a qualsiasi altro singolo individuo, si deve la nascita
della scienza moderna. Il suo famoso conflitto con la Chiesa cattolica ebbe
un posto centrale nella sua filosofia, poiché egli fu uno fra i primi a
sostenere che si poteva sperare di capire come il mondo funzioni e, inoltre,'
che ciò sarebbe stato possibile attraverso l'osservazione del mondo reale.
Galileo aveva aderito molto presto all'ipotesi copernicana (che i pianeti
orbitino attorno al Sole), ma solo dopo aver trovato le prove necessarie a
sostenere l'idea cominciò a difenderla pubblicamente. Scrisse sulla teoria di
Copernico in volgare (anziché nella consueta lingua accademica, il latino), e
ben presto le sue idee trovarono un vasto sostegno fuori delle università.
Questo fatto irritò molto i professori aristotelici, che si coalizzarono contro
di lui cercando di convincere la Chiesa cattolica a proibire il
copernicanesimo.
Galileo, preoccupato dalla piega che stavano prendendo le cose, si recò a
Roma per parlare alle autorità ecclesiastiche. Egli sostenne che le Sacre
Scritture non intendevano insegnarci nulla su teorie scientifiche e che,
quando la lettera della Bibbia era in conflitto col senso comune, si doveva
supporre che essa si esprimesse in senso allegorico. Ma la Chiesa temeva
uno scandalo che potesse pregiudicare la sua lotta contro il Protestantesimo,
e quindi adottò misure repressive. Nel 1616 essa dichiarò la dottrina
copernicana «falsa ed erronea» e ammonì Galileo a non «difendere o
tenere» mai più tale dottrina. Galileo accondiscese.
Nel 1623 salì al soglio pontificio un vecchio amico di Galileo, Maffeo
Barberini, che assunse il nome di Urbano VIII. Galileo tentò immediatamente
di far revocare il decreto del 1616. Il suo tentativo non ebbe successo, ma
egli riuscì a procurarsi il permesso di scrivere un libro in cui si discutessero
sia la teoria aristotelica sia quella copernicana a due condizioni: di non
prendere partito e di venire alla conclusione che l'uomo non avrebbe potuto
in ogni caso determinare come funzionasse il mondo, perché Dio avrebbe
potuto ottenere gli stessi effetti in modi inescogitabili dall'uomo, che non
poteva certo porre restrizioni all'onnipotenza divina.
Il libro, il Dialogo sopra i due massimi sistemi del mondo tolemaico e
copernicano, fu completato e pubblicato nel 1632, col pieno consenso dei
censori, e fu immediatamente salutato in tutt'Europa come un capolavoro
letterario e filosofico. Ben presto Urbano Vili, rendendosi conto che la gente
vedeva nel libro un argomento convincente a favore del copernicanesimo, si
dolse di averne permesso la pubblicazione. Il papa sostenne che, benché il
Dialogo fosse corredato dall'approvazione ufficiale dei censori, Galileo non
aveva però ottemperato al decreto del 1616. Egli fu perciò convocato
dinanzi all'Inquisizione, la quale lo condannò agli arresti domiciliari a vita e
gli ordinò di rinunciare pubblicamente al copernicanesimo. Per la seconda
volta, Galileo accondiscese.
Galileo rimase un fedele cattolico, ma la sua fede nell'autonomia della
scienza non era stata soffocata. Quattro anni prima della sua morte,
avvenuta nel 1642, mentre si trovava ancora agli arresti domiciliari ad
Arcetri, il manoscritto del suo secondo grande libro fu fatto uscire
clandestinamente dall'Italia e consegnato a un prestigioso editore olandese.
Fu quest'opera, Discorsi e dimostrazioni matematiche, intorno a due nuove
scienze attenenti alla meccanica e i movimenti locali, a segnare, ancor più
che il suo sostegno al copernicanesimo, la genesi della fisica moderna.
ISAAC NEWTON
Isaac Newton non ebbe un carattere facile. I suoi rapporti con altri
accademici furono notoriamente turbolenti, e si può dire che la maggior
parte della sua vita fu caratterizzata da aspre controversie. Dopo la
pubblicazione dei Philosophiae naturalis principia matematica (Principi
matematici della filosofia naturale) — senza dubbio l'opera più influente che
sia mai stata scritta in fisica — Newton era asceso rapidamente nella
considerazione del pubblico. Nominato presidente della Royal Society, fu
anche il primo scienziato a essere fatto cavaliere.
Newton si trovò ben presto in urto con l'astronomo reale, John Flamsteed,
che in precedenza gli aveva fornito dati preziosi per i Principia ma che ora si
rifiutò di fornirgli le informazioni di cui egli aveva bisogno. Newton non era
uomo tale da accontentarsi di un no per risposta; si era fatto nominare
membro del consiglio di amministrazione del Royal Observatory e tentò di
imporre la pubblicazione immediata dei dati che gli stavano a cuore. Infine
riuscì a far sì che le opere di Flamsteed venissero preparate per la
pubblicazione dal mortale nemico dello stesso Flamsteed, Edmond Halley.
Flamsteed portò però il caso in tribunale e, appena in tempo, riuscì a
procurarsi un'ingiunzione della corte per impedire la distribuzione dell'opera
trafugata. Newton, esasperato da questa vicenda, si vendicò cancellando
sistematicamente tutti i riferimenti a Flamsteed nelle edizioni successive dei
Principia.
Una controversia più grave fu quella col filosofo tedesco Gottfried Wilhelm
Leibniz.
Tanto
Leibniz
quanto
Newton
avevano
sviluppato
indipendentemente una branca della matematica detta calcolo
infinitesimale, che sta alla base di gran parte della fisica moderna. Anche se
noi oggi sappiamo che Newton scoprì il calcolo infinitesimale vari anni prima
di Leibniz, lo pubblicò però molto tempo dopo. Ne seguì un'aspra disputa
sulla priorità, e vari scienziati vi presero energicamente parte a favore
dell'uno o dell'altro dei due contendenti. E però degno di nota che la
maggior parte degli articoli apparsi in difesa di Newton siano stati scritti in
origine di suo pugno, e solo pubblicati sotto il nome di amici! Al crescere
della controversia, Leibniz commise l'errore di appellarsi alla Royal Society
per risolverla. Newton, in quanto presidente della Royal Society, designò per
investigare sulla questione un comitato «imparziale» che, vedi caso, era
formato per intero da suoi amici! Ma non fu tutto: fu poi lo stesso Newton a
scrivere il rapporto del comitato e a farlo pubblicare dalla Royal Society,
accusando ufficialmente Leibniz di plagio. Non ancora soddisfatto, scrisse
una recensione anonima del rapporto, pubblicandola nel periodico della
Royal Society. Si dice che, dopo la morte di Leibniz, Newton avrebbe
dichiarato di aver provato una grande soddisfazione nello «spezzare il cuore
di Liebniz».
Durante il periodo di queste due dispute, Newton aveva già lasciato
Cambridge e il mondo accademico. Egli era stato attivo nella politica
anticattolica a Cambridge, e poi in parlamento, e infine fu ricompensato con
la munifica carica di direttore della Zecca reale. In questa funzione usò i suoi
talenti per la tortuosità e il sarcasmo in un modo socialmente più accettabile,
conducendo con successo una grande campagna contro i falsari, nel corso
della quale mandò molti uomini a morire sulla forca.
GLOSSARIO
acceleratore di particelle Una macchina che, usando elettromagneti, può
accelerare particelle cariche in movimento, conferendo loro una maggiore
energia.
accelerazione
II ritmo a cui varia la velocità di un oggetto.
anno-luce La distanza percorsa dalla luce in un anno (9,4605 x IO12 km).
Antiparticella Ogni tipo di particella materiale ha un'antiparticella
corrispondente. Quando una particella entra in collisione con la sua
antiparticella, esse si annichilano lasciando solo energia (p. 87).
antropico, principio Vediamo l'universo come lo vediamo perché, se esso
fosse diverso, non saremmo qui a contemplarlo (p. 175).
atomo L'unità di base della materia comune, composta da un minuscolo
nucleo (formato da protoni e neutroni) circondato da elettroni orbitanti (p.
82).
big bang
La singolarità all'origine dell'universo (p. 64).
big crunch
La singolarità alla fine dell'universo (p. 136).
buco nero
Una regione dello spazio-tempo da cui non può sfuggire nulla,
neppure la luce, a causa della gravità fortissima che vi domina (capp. 6, 7).
buco nero primordiale Un buco nero creato nei primissimi tempi
dell'universo (p. 119).
campo Qualcosa che ha un'estensione nello spazio e nel tempo,
diversamente da una particella, che esiste solo in un punto.
campo magnetico II campo responsabile delle forze magnetiche, ora
incorporato, assieme al campo elettrico, nel campo elettromagnetico.
carica elettrica Proprietà di una particella per mezzo della quale essa può
respingere (o attrarre) altre particelle aventi una carica di segno simile (o
opposto).
Chandrasekhar, limite di La massa più grande possibile di una stella
fredda stabile, al di sopra della quale la stella deve necessariamente
contrarsi per diventare un buco nero (p. 103).
confini, condizione dell'assenza di L'idea che l'universo sia finito ma
illimitato, che non abbia alcun confine (nel tempo immaginario) (p. 164).
conservazione dell'energia La legge della scienza la quale dice che
l'energia (o il suo equivalente in massa) non può essere né creata né
distrutta.
coordinate Numeri che specificano la posizione di un punto nello spazio e
nel tempo (p. 38).
cosmologia
Lo studio dell'universo nella sua totalità.
costante cosmologica Espediente matematico usato da Einstein per dare
allo spazio-tempo una tendenza intrinseca a espandersi (p. 174).
debole, forza
Vedi forza debole.
dualità onda-particella In meccanica quantistica, il concetto che non c'è
distinzione fra onde e particelle; le particelle possono comportarsi a volte
come onde, e le onde come particelle (p. 75).
elettrica, carica
Vedi carica elettrica.
elettrodebole, unificazione: energia dell' L'energia (di circa 100 GeV) al di
sopra della quale scompare la distinzione fra la forza elettromagnetica e la
forza debole (p. 91).
elettromagnetica, forza La forza che si genera fra particelle dotate di
carica elettrica, la seconda per intensità fra le quattro forze fondamentali (p.
89).
elettrone Particella di carica elettrica negativa che orbita attorno al nucleo
di un atomo (p. 82).
energia della grande unificazione Vedi grande unificazione, energia della.
esclusione, principio di Due particelle identiche di spin 1/2 non possono
avere (entro i limiti fissati dal principio di indeterminazione) sia la stessa
posizione sia la stessa velocità (p. 86).
eventi, orizzonte degli
Vedi orizzonte degli eventi.
evento
Un punto nello spazio-tempo, specificato dal suo tempo e luogo
(p. 38).
fase Per un'onda, la posizione nel suo ciclo in un tempo specificato: una
misura che ci dice che essa si trova in una cresta, in un ventre o in qualche
punto intermedio.
forza debole
Dopo la gravità, è la più debole della quattro forze
fondamentali, con un raggio d'azione brevissimo. Influisce su tutte le
particelle materiali, ma su nessuna delle particelle portatrici di forze (p. 90).
forza forte La più forte della quattro forze o interazioni, che è anche quella
che ha il raggio d'azione minimo. Essa tiene assieme i quark all'interno dei
protoni e dei neutroni, e tiene assieme protoni e neutroni a formare atomi
(p. 92).
fotone
Quanto di luce.
frequenza Per un'onda è il numero completo di cicli al secondo.
fusione nucleare
II processo in cui due nuclei, urtandosi, si fondono a
formare un singolo nucleo, più pesante.
gamma, raggi
Onde elettromagnetiche di frequenza molto grande,
prodotte nel decadimento radioattivo o da collisioni di particelle elementari,
geodetica
La via più breve (o più lunga) fra due punti (p. 45).
grande teoria unificata
(GTU) Teoria che unifica le forze
elettromagnetiche, forte e debole (p. 93).
grande unificazione, energia della
L'energia al di sopra della quale si
ritiene che la forza elettromagnetica, la forza debole e la forza forte
diventino indistinguibili l'una dall'altra (p. 94).
Heisenberg, principio di indeterminazione di Vedi indeterminazione,
principio di.
indeterminazione, principio di Non si può mai essere certi sia della
posizione sia della velocità di una particella; quanto maggiore è la precisione
con cui si conosce l'una, tanto meno esattamente si può conoscere l'altra (p.
71).
luce, cono di Una superficie nello spazio-tempo che delimita le possibili
direzioni per i raggi di luce che passano per un evento dato (p. 40).
massa La quantità di materia presente in un corpo; la sua inerzia, o
resistenza all'accelerazione.
meccanica quantistica La teoria sviluppata a partire dal principio
quantistico di Planck e dal principio di indeterminazione di Heisenberg (cap.
4).
microonde, radiazione e fondo a La radiazione residua dello splendore del
caldissimo universo primordiale; oggi è spostata a tal punto verso il rosso da
non apparirci più sotto forma di luce bensì di microonde (onde radio, con
una lunghezza d'onda di alcuni centimetri).
nana bianca Una stella fredda stabile, sostenuta contro il collasso
gravitazionale dalla repulsione fra elettroni prevista dal principio di
esclusione (p. 103).
neutrino Una particella materiale elementare estremamente leggera
(forse priva di massa) che è soggetta solo alla forza debole e alla gravità.
neutrone Particella priva di carica, molto simile al protone; nella maggior
parte degli atomi i neutroni formano una metà circa delle particelle presenti
nel nucleo (l'altra metà sono protoni) (p. 82).
neutroni, stella di Una stella fredda, sostenuta contro l'estremo collasso
gravitazionale dalla repulsione fra neuroni prevista dal principio di
esclusione (p. 114).
nucleare, fusione
Vedi fusione nucleare.
nucleo La parte centrale di un atomo, formata solo da protoni e neutroni
tenuti assieme dalla forza forte.
onda, lunghezza d' La distanza fra due creste o due ventri consecutivi di
un'onda.
onda-particella, dualità
Vedi dualità onda-particella.
orizzonte degli eventi
II confine di un buco nero (p. 120).
particella elementare Una particella che si ritiene non possa
ulteriormente suddividersi.
particelle, acceleratore di
Vedi acceleratore di particelle.
Pauli, principio di esclusione di
Vedi esclusione, principio di.
peso La forza esercitata su un corpo da un campo gravitazionale. E
proporzionale alla massa, ma non si identifica con essa.
Planck, principio quantistico di
L'idea che la luce (o qualsiasi altra onda
classica) possa essere emessa o assorbita solo in quanti discreti, la cui
energia è proporzionale alla frequenza (P- 72).
positone
L'antiparticella (di carica positiva) dell'elettrone (p. 87).
proporzionale
«X è proporzionale a Y» significa che quando X viene
moltiplicato per un qualsiasi numero, ciò accade anche a Y (quando X si
raddoppia anche Y raddoppia, ecc.). «X è inversamente proporzionale a Y»
significa che quando X viene moltiplicato per un numero, Y viene diviso per
quello stesso numero (quando X si raddoppia, Y si dimezza).
Protone Particella dotata di carica elettrica, di massa simile a quella del
neutrone; nella maggior parte degli atomi i protoni formano grosso modo
metà delle particelle presenti nel nucleo (l'altra metà sono neutroni) (p. 82).
quantistica, meccanica
Vedi meccanica quantistica.
quanto L'unità indivisibile in cui possono essere emesse o assorbite onde
(p. 72).
quark Particella elementare (carica) soggetta alla forza forte. Tanto il
protone quanto il neutrone sono composti ciascuno da tre quark (p. 83).
radar Sistema che usa impulsi di onde radio per scoprire la posizione di
oggetti misurando il tempo impiegato da un singolo impulso per raggiungere
l'oggetto e per tornare all'apparecchiatura dopo esserne stato riflesso.
radioattività II decadimento spontaneo di un tipo di nucleo atomico in un
altro.
red shift
Vedi spostamento verso il rosso.
relatività generale La teoria di Einstein fondata sull'idea che le leggi della
scienza dovrebbero essere le stesse per tutti gli osservatori, comunque
stiano muovendosi; essa si occupa in particolare della forza di gravità,
spiegandola nei termini della curvatura di uno spazio-tempo
quadridimensionale (p. 45).
relatività speciale La teoria di Einstein fondata sull'idea che le leggi della
scienza dovrebbero valere ugualmente per ogni osservatore in movimento,
quale che sia la sua velocità (p. 44).
secondo-luce La distanza percorsa dalla luce in un secondo (300.000 km).
singolarità
Un punto nello spazio-tempo in cui la curvatura
dello spazio-tempo diventa infinita (p. 64).
singolarità, teorema della
Teorema che dimostra che in certe circostanze
deve esistere una singolarità: in particolare che l'universo deve avere avuto
inizio con una singolarità (pp. 67-68).
singolarità nuda
Una singolarità dello spazio-tempo non circondata da un
buco nero (p. 109).
spaziale, dimensione
Ciascuna delle tre dimensioni dello spazio-tempo
che sono simili allo spazio, cioè tutte tranne la dimensione tempo.
spazio-tempo
Lo spazio quadridimensionale i cui punti sono eventi (p.
37).
spettro
La scomposizione, per esempio, di un'onda elettromagnetica
nelle sue frequenze componenti (p. 54).
spin
Proprietà intrinseca delle particelle elementari, connessa al
concetto quotidiano di rotazione, col quale però non si identifica (p. 85).
spostamento verso il rosso
L'arrossamento (ovvero la diminuzione di
frequenza) della luce di una stella in allontanamento da noi in conseguenza
dell'effetto Doppler (p. 55).
stato stazionario
Uno stato che non muta col tempo: una sfera che
ruota a una velocità costante è stazionaria perché appare identica in ogni
istante, anche se non è immobile.
tempo immaginario
II tempo misurato per mezzo di numeri immaginari
(p. 158).
virtuale, particella
Nella meccanica quantistica, è una particella la cui
esistenza non può mai essere scoperta, ma che esercita nondimeno effetti
misurabili (p. 88).
zero assoluto
La temperatura più bassa possibile, alla quale una
sostanza non contiene energia termica.
INDICE
Ringraziamenti
Introduzione di Carl Sagan
DAL BIG BANG AI BUCHI NERI
1.
La nostra immagine dell'universo
2.
Spazio e tempo
3.
L'universo in espansione
4.
Il principio di indeterminazione
5.
Le particelle elementari e le forze della natura
6.
I buchi neri
7.
I buchi neri non sono poi così neri
8.
L'origine e il destino dell'universo
9.
La freccia del tempo
10. L'unificazione della fisica
11. Conclusione
Albert Einstein
Galileo Galilei
Isaac Newton
Glossario
Indice analitico
Finito di stampare nel mese di ottobre 1989 dalla RCS Rizzoli Libri S.p.A. - Via
A. Scarsellini, 17 - 20161 Milano
Printed in Italy
Fly UP