...

1 Sulla funzione zeta di Riemann e connessioni con la

by user

on
Category: Documents
62

views

Report

Comments

Transcript

1 Sulla funzione zeta di Riemann e connessioni con la
Sulla funzione zeta di Riemann e connessioni con la teoria di superstringa (M.Nardelli) - 05:44,
5/2/2005
Nel suo recente libro "L'enigma dei numeri primi", il matematico dell'Università di Oxford Marcus
Du Sautoy, presenta con chiarezza esemplare le principali questioni risolte e irrisolte del mondo dei
numeri primi, spiegando quale sia la loro importanza attuale in svariati campi tra cui la fisica
quantistica. Tra di esse quelle che andremo ad analizzare in detettaglio è la famosa "Ipotesi di
Riemann", il più grande mistero della matematica- come viene definito dallo stesso Sautoy.
Il matematico Riemann scoprì una formula che esprimeva un collegamento diretto fra i numeri
primi e gli zeri: essa era intesa come un modo per comprendere i numeri primi attraverso l'analisi
degli zeri. Montgomery ribaltò la formula, usando le conoscenze sui numeri primi per dedurre il
comportamento degli zeri lungo la "retta di Riemann". La sua analisi sembrava indicare che quando
si procedeva verso nord lungo la retta di Riemann, gli zeri, a differenza dei numeri primi,
tendessero a respingersi. Montgomery si rese presto conto che, al contrario di quanto accadeva con i
numeri primi, ad uno zero non seguivano mai altri zeri in rapida successione. I risultati ottenuti da
Montgomery suggerivano la possibilità che gli zeri si distribuissero in maniera totalmente uniforme
lungo la retta di Riemann. Per rappresentare il campo di variazione teorico della distanza fra zeri
adiacenti, Montgomery costruì un diagramma che prende il nome di "grafico di correlazione di
coppia". In esso sull'asse orizzontale è riportata la distanza fra coppie di zeri, mentre l'asse verticale
misura il numero di coppie per ogni data distanza. Quando Montgomery espose quello che pensava
potesse essere il comportamento degli intervalli che separano coppie di zeri, menzionando il suo
grafico di distribuzione di quegli intervalli, il fisico Freeman Dyson gli riferì che era esattamente lo
stesso comportamento degli autovalori delle matrici casuali hermitiane. Queste sono entità
matematiche che vengono usate dai fisici quantistici per predire i livelli energetici nel nucleo di un
atomo pesante quando lo si bombarda con neutroni a bassa energia. Montgomery, prendendo una
sequenza degli zeri di Riemann e mettendola accanto a quei livelli energetici misurati per via
sperimentale, poteva vedere immediatamente una chiara somiglianza. Sia gli intervalli fra gli zeri,
sia quelli fra i livelli d'energia, si susseguivano in maniera molto più ordinata che se fossero stati
scelti a caso. Le configurazioni da lui previste nella distribuzione degli zeri erano identiche a quelle
che i fisici quantistici stavano scoprendo nei livelli energetici dei nuclei di atomi pesanti. Questo
poteva significare che la matematica insita nei livelli quantistici d'energia nei nuclei degli atomi
pesanti è la stessa matematica che determina la posizione degli zeri di Riemann. Negli anni '20 del
novecento i fisici compresero che la matematica che descrive le frequenze del suono emesso da un
tamburo poteva essere usata anche per calcolare i carateristici livelli energetici a cui vibrano gli
elettroni in un atomo. In questo senso, atomo e tamburo sono fisicamente equivalenti: forze presenti
nell'atomo controllano le vibrazioni delle particelle subatomiche. Nell'atomo gli elettroni vibrano
solo in modi ben definiti: quando un elettrone viene eccitato, comincia a vibrare ad una nuova
frequenza. Ciascun atomo della tavola periodica ha un proprio caratteristico insieme di frequenze a
cui i suoi elettroni prediligono vibrare. Finchè non lo si osserva, sembra che un elettrone possa
essere in due posti diversi allo stesso tempo, o che possa vibrare a molte frequenze diverse, a cui
corrispondono diversi livelli energetici. Prima che lo osserviamo, un elettrone vibrerà, come un
tamburo, in base ad una combinazione di frequenze diverse, ma all'atto dell'osservazione tutto
quello che percepiamo è l'elettrone che vibra ad una singola frequenza. Secondo Montgomery e
Odlyzko, gli zeri del paesaggio di Riemann avevano lo stesso aspetto delle frequenze di un tamburo
quantistico: gli zeri, cioè, derivavano dai colpi di un tamburo matematico casuale le cui frequenze si
comportano come i livelli energetici della fisica quantistica. Odlyzko tracciò il grafico relativo agli
zeri di Riemann e lo confrontò con il grafico corrispondente che si otteneva dall'analisi delle
frequenze di un tamburo quantistico casuale. Osservando l'andamento dei due grafici si accorse che,
se all'inizio c'era una corrispondenza molto buona, ad un certo punto i dati relativi agli zeri di
Riemann si discostavano bruscamente dal grafico delle frequenze teoriche dei tamburi quantistici
casuali. Il grafico non seguiva più l'andamento statistico delle distanze fra zeri successivi, così come
1
accadeva all'inizio, ma quello delle distanze fra l'n-esimo e l'(n+1000)-esimo zero. Odlyzko si era
imbattuto negli effetti prodotti sul paesaggio di Riemann dalla "teoria del caos".
Il termine "caos" si utilizza quando un sistema dinamico è molto sensibile alle condizioni iniziali.
Quando una minima variazione nel modo in cui si appronta un esperimento produce una drastica
differenza nei risultati che si ottengono, questa è la firma inconfondibile del caos. Una delle
manifestazioni della matematica del caos si ha nel gioco del biliardo. Su un normale tavolo da
biliardo rettangolare non si manifesta alcun comportamento caotico nella traiettoria seguita dalla
biglia. Essa è perfettamente prevedibile, ed un leggero cambiamento nella direzione iniziale del tiro
non la altera in maniera sensibile. Ma su un tavolo da biliardo di forma simile a quella di uno stadio
le traiettorie delle biglie assumono un aspetto completamente diverso: la fisica di un tavolo da
biliardo a forma di stadio è "caotica".
Quando i fisici analizzarono l'andamento statistico dei livelli energetici, scoprirono che esso variava
a seconda che il tavolo da biliardo producesse traiettorie caotiche oppure normali. Se gli elettroni
erano confinati in un'area rettangolare, in cui tracciavano traiettorie normali, non caotiche, allora i
loro livelli energetici si distribuivano in modo casuale. In particolare, i livelli energetici risultavano
spesso ravvicinati. Quando, invece, gli elettroni erano confinati in un'area a forma di stadio, in cui
le traiettorie sono caotiche, i livelli energetici non erano più casuali. Seguivano difatti un andamento
molto più uniforme, in cui non comparivano mai due livelli ravvicinati. I biliardi quantistici caotici
producevano lo stesso andamento regolare già osservato da Dyson nei livelli energetici dei nuclei di
atomi pesanti e da Montgomery e Odlyzko nell'ubicazione degli zeri di Riemann. Fu il
Prof.M.Berry il primo a comprendere che gli scostamenti notati da Odlyzko fra i grafici della
varianza degli zeri di Riemann e dei tamburi quantistici casuali indicavano che un sistema
quantistico caotico poteva offrire il migliore modello fisico per il comportamento dei numeri primi.
Se il segreto dei numeri primi è davvero un gioco di biliardo quantistico, allora i numeri primi sono
rappresentati da traiettorie molto speciali sul tavolo del biliardo. Alcune traiettorie fanno ritornare la
biglia al punto di partenza dopo un certo numero di passaggi sul tavolo, dopodichè si ripetono
uguali a sè stesse. Sembra che siano proprio queste traiettorie speciali a rappresentare i numeri
primi: ad ogni traiettoria corrisponde un numero primo, e tanto più una traiettoria si estende prima
di ripetersi, tanto più è grande il numero primo corrispondente. La nuova svolta impressa da Berry
potrebbe portare ad un'unificazione di tre grandi temi scientifici: la fisica quantistica, il caos e i
numeri primi. Forse l'ordine che Riemann aveva sperato di scoprire nei numeri primi è descritto dal
caos quantistico.
E la teoria di superstringa? E' possibile trovare delle correlazioni tra essa e ciò che abbiamo appena
menzionato?
Un elettrone è una particella con spin pari a metà di un numero dispari (1/2). Una tale particella
viene chiamata "fermione". I "bosoni", invece, sono particelle aventi spin intero (1,2). Un esempio
di bosone è il fotone, la particella mediatrice della forza elettromagnetica. Tutte le particelle
materiali hanno spin pari a quello dell'elettrone. Questo fatto si riassume affermando che le
particelle hanno spin 1/2, dove il valore 1/2 fornisce, più o meno, una misura di quanto veloce in
senso quantomeccanico la particella sta ruotando. Per essere più precisi, spin 1/2 significa che il
"momento angolare" dell'elettrone, dovuto alla rotazione, è pari a h/2.
Nel contesto della teoria delle stringhe, lo spin, così come la massa e la carica, è associato ad un
particolare modo di vibrazione di una stringa. L'elettrone è quindi rappresentabile da una stringa
fermionica il cui modo di vibrazione origina una particella avente spin 1/2.
Affermare quindi che la funzione zeta di Riemann correla il moto orbitale degli elettroni in un
atomo di numero atomico arbitrario, è come dire che la funzione zeta correla il modo di vibrazione
di una stringa fermionica in un atomo avente numero atomico arbitrario. La funzione zeta di
Riemann, e i teoremi ad essa correlati, sono quindi correlabili ad una stringa fermionica il cui modo
di vibrazione origina una particella avente spin 1/2, quale è appunto l'elettrone.
In un mio lavoro sono arrivato a nuovi sviluppi matematici inerenti la teoria delle superstringhe e la
funzione zeta di Riemann. Ho infatti ottenuto delle interessanti correlazioni, assumendo l'ipotesi di
2
Riemann, tra il lemma 3 del Teorema di Goldston-Montgomery, un teorema del valor medio
riguardante la funzione zeta di Riemann, ed alcune soluzioni solitoniche in teoria di campo di
stringa. La parte matematica che ho approfondito, riguardo l'ipotesi di Riemann, è trattata nel
lavoro: "La congettura di Goldbach" del Prof. A.Languasco e precisamente nella sezione intitolata
"Teorema di Goldston-Montgomery". Anche in alcune formule contenute nell'importantissimo
lavoro di Perelli e Pintz: "On the exceptional set for Goldbach's problem in short intervals", ho
trovato delle connessioni con le soluzioni solitoniche sopra citate. Per quanto concerne il teorema
del valor medio, esso è trattato nel capitolo 7 par.12 del volume di E.C.Titchmarsh "The Theory of
the Riemann Zeta-function". Riguardo, infine, alla teoria di stringa, il lavoro che ho consultato ed
approfondito è :"Soluzioni solitoniche in teoria di campo di stringa", e precisamente le appendici A
e D, una tesi pubblicata dalla Dott.ssa V. Puletti.
Andiamo ad analizzare più in dettaglio tale lavoro.
Già tra la fine degli anni '80 e l'inizio degli anni '90, si era visto che i vari modelli di teoria di
stringa ammettevano diversi tipi di "solitoni", che sono oggetti estesi: non semplicemente stringhe,
ma "membrane" di dimensioni spaziali p, comunemente dette p-brane. Verso la metà degli anni '90
Polchinski, associò agli estremi della stringa aperta ulteriori tipi di solitoni, le Dirichlet p-brane
(Dp-brane) sulle quali di fatto i capi sono confinati, identificando anche le cariche che garantiscono
la stabilità delle brane e rese possibile definire una teoria di stringa in presenza delle D-brane per
mezzo di un semplice cambiamento di condizioni al contorno agli estremi della stringa. Le brane
possono essere caratterizzate da una tensione, massa per unità di volume, e da una carica; il loro
spettro a bassa energia comprende anche campi di gauge. Sia i campi di gauge che i campi scalari
nascono dal fatto che le stringhe aperte terminano sulle brane e sono infatti associati alle
fluttuazioni della stringa rispettivamente trasversalmente o longitudinalmente alla brana stessa. La
loro dinamica è estremamente complessa, ma nel limite di accoppiamento debole, si comportano
proprio come dei muri rigidi. Poichè per un accoppiamento arbitrariamente grande questi oggetti
possono diventare arbitrariamente leggeri, più leggeri infatti delle stringhe stesse, il loro
comportamento domina la fisica delle basse energie, rendendole le vere protagoniste della teoria di
stringa. In generale la massa del solitone è inversamente proporzionale alla costante di struttura fine
tipica, così nella regione perturbativa è un oggetto classico, mentre nel limite di accoppiamento
forte è del tutto simile ad un ordinario quanto. Le più recenti comprensioni di effetti non
perturbativi nella teoria di stringa, quali l'instabilità della D-brana, ha permesso di dare un nuovo
senso fisico alla presenza dei tachioni, particelle di massa quadrata negativa, nello spettro della
stringa bosonica. Nel 1999 le congetture di Sen, legarono l'instabilità delle brane ed il fenomeno
della condensazione tachionica, indirizzando il loro studio alla "teoria di campo di stringa" (SFT).
L'esistenza del tachione di stringa aperta viene interpretata come l'instabilità della D-brana che
supporta la stringa aperta e tale instabilità scompare nel vuoto tachionico in cui la brana decade.
Inoltre il convincimento che le D-brane siano soluzioni solitoniche della teoria di stringa, trova
un ulteriore conferma: una teoria di campo tachionica su brane instabili inclinate nello spazio ha
brane di dimensioni più basse come soluzioni solitoniche.
Il lavoro della Puletti, affronta la problematica della condensazione tachionica nella "teoria di
campo di stringa al contorno" (BSFT) ma procedendo con una funzione beta "non lineare", l'unica
che permetta di trovare nuove soluzioni dell'equazione dei punti fissi del Gruppo di
Rinormalizzazione (RG), consentendo così uno studio alternativo della relazione sul disco tra
dinamica della stringa e flusso del RG. I punti fissi del RG, ottenuti dopo aver costruito funzioni
beta non lineari, valide nell'ipotesi di profili tachionici lentamente variabili al secondo e terzo
ordine dell'espansione in piccole derivate del campo tachionico, sono stati poi interpretati come
solitoni della SFT per la relazione di proporzionalità tra l'azione effettiva e la beta non singolare nel
caso di una metrica non degenere, rappresentando così una configurazione di D25-brana e di due Dbrane. Si è infatti voluto affrontare lo studio di possibili cambiamenti di background, che una volta
evidenziati, sosterrebbero l'indipendenza dal background della teoria di campo di stringa. Con
questa tesi la Puletti dimostra che è possibile andare da un vuoto con una D-brana ad un vuoto con
3
due D-brane così come andare da un vuoto con una D-brana al vuoto "vuoto". In particolare si è
trovato che certi backgrounds sono soluzioni della teoria di campo di stringa aperta, ottenendo un
background con brane multiple (una configurazione con due brane) partendo con un background
con una D-brana.
Poichè la teoria di stringa è una teoria quantistica relativistica che include la gravità, ed essendoci,
secondo il fisico Berry, alla base degli zeri di Riemann un sistema quantistico con un omologo
classico, moderatamente semplice ma caotico, è comprensibile la connessione trovata tra le formule
inerenti le soluzioni solitoniche in teoria di campo di stringa e le formule inerenti le congetture di
Montgomery e Goldbach contenute nei lavori di Languasco e Perelli.
A questo punto penso che sia possibile ampliare la mia ricerca, approfondendo le interessantissime
tesi sui sistemi dinamici caotici applicate all'evoluzione dell'universo, del Prof.A.Palumbo,
fisico dell'Università di Napoli, ed applicandole alla cosmologia di stringa. Brevemente, lo
scienziato napoletano ipotizza che gli insiemi Fi (insiemi di onde), nati dopo il Big Bang, erano già
presenti nella mente di Dio in quanto erano uniti ad F (insieme originario) sin da quando il Creatore
"eccitò" il punto (euclideo) nel quale era contenuto tutto l'universo.
Nel caso della cosmologia di stringa, le Fi rappresenterebbero gli spazi di Calabi-Yau che danno
origine alle proprietà fisiche dell'universo che ci circonda (essi sarebbero delle varietà in cui le
dimensioni extra sono compattificate, "arrotolate", come in un gomitolo di lana), mentre F il campo
unificato iniziale, in cui tutte le dimensioni sono completamente simmetriche ed arrotolate in un
granellino multidimensionale (il punto euclideo prima menzionato) delle dimensioni di Planck.
Quindi, le Fi costituirebbero l'insieme di stringhe che vibrando danno luogo ai vari tipi di particelle
(fermioni e bosoni, quindi stringhe fermioniche e bosoniche). La F è identificabile con il big bang,
quindi con l'esplosione del buco nero che ha dato origine all'universo (ricordiamo che, in teoria di
stringa, un buco nero si tramuta in una particella di massa nulla, ad esempio un gravitone, che
secondo la teoria delle stringhe altro non è che una stringa eccitata in un particolare modo di
vibrazione). La prima rottura di simmetria (casuale) si produsse, più o meno, al tempo di Planck
(10^-43 secondi dopo il Big Bang), quando le tre dimensioni spaziali iniziarono ad espandersi,
mentre le altre conservarono la loro estensione originaria. Queste tre dimensioni spaziali sono
identificate con quelle la cui evoluzione è descritta dal modello cosmologico inflazionario. Sarà
scopo di un prossimo articolo quello di descrivere in dettaglio tale applicazione, che certamente
avallerà entrambe le tesi, la mia, che ha trovato le su citate relazioni tra teoria di campo di stringa e
zeri di Riemann, quindi tra teoria di stringa e un sistema quantistico con un omologo classico,
moderatamente semplice ma caotico, e quella del Palumbo, sui sistemi dinamici caotici applicati al
sistema universo.
Michele Nardelli
Caos deterministico, criticità auto-organizzata e teoria di stringa (M. Nardelli) - 12:03, 11/1/2005
Evoluzione e caratteristiche dei sistemi dell’universo (Palumbo, 2005)
La via scelta dall’universo per la sua evoluzione, è quella dei grandi numeri. Tutti i componenti del
cosmo si presentano in numero infinito: esistono infiniti atomi di idrogeno, di ossigeno, etc, infiniti
granelli di sabbia, infiniti sistemi di stelle come quello solari, infinite galassie, infinite cellule,
infiniti individui e specie. Ciascuno di essi ha poi senso e svolge un ruolo significativo, soltanto
attraverso l’interazione con gli innumerevoli altri componenti presenti. L’enormità del numero di
ciascun elemento è indispensabile perché si verifichi la probabilità di incontro fra loro e quindi
l’interazione. Esso è anche indispensabile perché la natura possa sperimentare le innumerevoli
biforcazioni che un suo sistema incontra nella sua evoluzione. La disponibilità di una tale dovizia di
4
sistemi consente alla natura di realizzare, in tempo reale, ciò che un supercomputer otterrebbe in un
tempo praticamente infinito.
Il vero salto di velocità nell’evoluzione dei sistemi naturali avviene durante gli episodi storici e
catastrofici. In biologia, individui più progrediti sono nati da uova difettose, con una probabilità di
sopravvivenza estremamente bassa. D’altra parte, perché un tale individuo nasca e sopravviva,
occorre la concomitanza di un numero elevato di eventi, altamente improbabili, per cui la sua
affermazione richiede un tempo enormemente lungo.
Durante i 3.8 miliardi di anni dalla nascita della vita sulla Terra, la Natura ha eseguito innumerevoli
tentativi miranti ad attuare l’evoluzione delle specie, fino a quando, qualche milione di anni fa, a
seguito di un evento catastrofico, dallo zigote anomalo di un ominide, nasceva il primo uomo.
Questi, a seguito di un’evoluzione lenta e graduale, si trasformava, 30.000 anni fa, nell’homo
sapiens, il quale ha cominciato a porsi i primi quesiti sulla sua origine, sul suo futuro, e
principalmente sul perché e sul suo ruolo; domande che hanno assunto una espressione organica
durante gli ultimi due o tre millenni, ad opera della religione, della filosofia, della scienza e
principalmente dell’arte.
L'evoluzione è spesso governata dai piccoli eventi.
E' importante sottolineare l’influenza, nell’evoluzione di tutti i sistemi naturali, complessi e caotici,
delle debolissime perturbazioni, che, a prima vista sembrano del tutto insignificanti. Quasi tutti i
sistemi naturali, infatti, sono complessi, ossia sono costituiti da un numero di componenti, o
sottosistemi, intimamente interconnessi, in modo che una sia pur esigua perturbazione, agente su di
uno di essi è capace di generare una serie di reazioni positive e negative in grado di causare
modifiche talora radicali ed impreviste nell’intero sistema.
Gli stessi sistemi sono poi anche caotici, nel senso che la loro evoluzione è strettamente governata
dalle condizioni iniziali del tutto imprevedibili. Basti pensare all’imprecidibile traiettoria di una
pallina del flipper dipendente, in ogni istante dalle condizioni al contorno, oppure ricordare che
l’approssimazione dell’ennesimo termine di un numero, non più gestibile dal computer, è in grado
di determinare la catastrofe matematica, ossia l’imprevedibilità dell’evoluzione della funzione
matematica stessa.
Nei sistemi naturali, si può quindi scorgere l’importanza dei piccoli e deboli eventi, già annunziati
dal Nazareno, quando ringraziava il Padre per aver rivelato ai piccoli il Regno, e poco dopo da
Paolo di Tarso, che riconosceva, nella propria debolezza, la sua forza.
Tutti i sistemi naturali evolvono trasformandosi in altri più complessi e più caotici, perché
caratterizzati da un numero di gradi di libertà crescente nel tempo, ossia da un campo di interazione
sempre più esteso.
Il sistema uomo è il sistema naturale più recente, più fragile, più complesso e più progredito. Il suo
insieme, cioè l’umanità, al pari degli altri sistemi naturali, è costituito da un numero, crescente nel
tempo di uomini in continua evoluzione culturale.
Il cervello dell’uomo è il sistema più perfetto nella sua imperfezione evolutiva, perché è capace di
continue trasformazioni, a partire da quella iniziale, avvenuta catastroficamente a seguito
dell’aumento di volume avvenuto a spese della riduzione del sistema mandibolare. La sua
imperfezione è la conseguenza della sua incredibile instabilità, legata all’esiguità dei campi
elettromagnetici interni, capaci di reagire con i debolissimi campi elettromagnetici sincroni e
coerenti esterni.
Galileo ebbe, fra l’altro, il merito di aver scoperto l’importanza dell’osservazione dei piccoli
fenomeni semplici, come l’oscillazione di un sasso legato ad una cordicella, che lo condusse a
proporre il metodo sperimentale basato sul rigore e sulla riproducibilità della sperimentazione. Ogni
singolo fenomeno naturale segue, però, una propria specifica evoluzione imprevedibile, per cui gli
esperimenti del Padre della scienza sono lontani da quelli della Natura, o, almeno, hanno validità
limitata a quei pochi fenomeni deterministici, i quali, sono poi tali, soltanto all’interno di un ristretto
5
intervallo spazio-temporale.
Se la Natura è l’unica vera maestra, i fenomeni vanno riguardati nella luce della loro complessità e
caoticità, ed in chiave probabilistica, il che spiega, ancora, il perché della necessità di infiniti
elementi nell’universo, indispensabili perché si verifichi una loro interazione, la quale ha richiesto,
però, il tempo lunghissimo dell’evoluzione naturale.
In quest’ottica, iniziò lo studio dei fenomeni più complicati a partire dal moto browniano (il
movimento di un granello di polline immerso in un liquido ad una certa temperatura). Boltzmann
introdusse il concetto di caoticità dinamica per esprimere l’effetto di irregolarità nel moto causate
dall’esistenza di fenomeni probabilistici intrinsecamente ed imprescindibilmente legati alla legge
dinamica di evoluzione del sistema.
Nella Fisica di Newton a + b era sempre uguale a c. Lo studio dell’evoluzione di molti sistemi
naturali ha mostrato che ciò non è sempre vero; cosa che ha condotto ad affrontare la complessità,
insita in tutti quei sistemi dei quali non si conoscono in maniera completa ed analitica né la
struttura, né le funzioni. In generale un sistema è complesso quando i suoi costituenti interagiscono
in modo non semplice. In tali sistemi, l’insieme è qualcosa di più della somma delle parti, non in
senso metafisico, ma in quello pragmatico per il quale, anche se fossero conosciute le proprietà
delle parti e le leggi delle loro interazioni, non sarebbe semplice dedurre le proprietà del tutto.
(Simon, 1969)
Molti fenomeni naturali sembrano essere governati dall’ordine, altri dal disordine. In generale, si
possono distinguere due tipi di ordine: il primo detto “ordine della morte termica”, che si realizza
nei sistemi chiusi al tendere della temperatura al valore dello zero assoluto. In questa condizione le
interazioni statiche tra le particelle e le oscillazioni del punto zero prevalgono sulle fluttuazioni
termiche e danno origine ad una struttura spaziale macroscopica organizzata, che riflette le
simmetrie elementari.
Il secondo tipo di ordine è quello che si manifesta, in condizioni lontane dall’equilibrio termico, e
che nasce, in un sistema aperto in comunicazione ed interazione con l’ambiente circostante,
attraverso il contorno. Nel primo caso si parla di simmetria piuttosto che di ordine; nel secondo
invece il termine ordine sembra appropriato.
Indipendentemente dalle definizioni, il caos era così inquadrato in modo antitetico rispetto alla
formulazione classica, secondo la quale, le leggi che governano l’Universo sono deterministiche
(causa–effetto). Al posto dell’antica visione era proposta quella stocastica del fenomenico, secondo
la quale le leggi universali sarebbero intrinsecamente aleatorie ed il determinismo, che a volte si
osserva, non sarebbe stato altro che il risultato di un comportamento medio delle componenti
coinvolte.
La meccanica quantistica costrinse i ricercatori a riesaminare la dicotomia determinismo–
probabilismo. In meccanica quantistica il concetto di probabilità ha, infatti, un ruolo fondamentale.
Con l’introduzione del principio di indeterminazione di Heisenberg, ci si rese conto
dell’impossibilità di pervenire ad una conoscenza esatta dello stato di un sistema in un certo istante,
a causa della precisione finita degli strumenti di misura e della loro interazione con la preparazione
dell’esperimento in esame. Ciò costituì un’altra spallata al determinismo.
D’altra parte gli studi di Poincarè 3,4 sul comportamento dei sistemi dinamici dimostrarono la
possibilità di generare caos anche con dinamiche lineari e semplicissime, a causa dell’elevata
sensibilità e dipendenza delle traiettorie (curve che descrivono l’andamento di un sistema) dalle
condizioni iniziali. Era così introdotto il caos deterministico.
Chiunque abbia voglia di eseguire un esperimento di evoluzione caotica di un sistema semplice, può
divertirsi a seguire il moto di una piccola pallina sospesa ad un filo, o quello della pallina di un
flipper e potrà notare la sua imprevedibilità e la sua strettissima dipendenza dalle condizioni iniziali.
Molti sistemi naturali manifestano una proprietà dinamica particolare: la capacità di organizzarsi, o
meglio di auto-organizzarsi secondo relazioni funzionali reciproche descrivibili come processi di
reazione interna (feedback). Esempi di organizzazione e di auto-organizzazione si ritrovano non
solo in molti campi della fisica, ma anche in biologia, in chimica, etc., tanto che quello di
6
organizzazione può ritenersi un principio di validità generale, governante una classe molto vasta di
sistemi.
Haken 9 ha indagato sulle classi di equazioni in grado di rappresentare il principio di
organizzazione e quindi le relazioni tra cause ed effetti. La descrizione di un sistema autoorganizzato è basata sull’inserimento delle forze esterne, come parte dell’intero sistema; tuttavia,
non è possibile trattarle alla stregua di quantità fissate ed indipendenti, ma piuttosto come soggette
esse stesse ad un’equazione di moto.
Si è pervenuti alla conclusione che le soluzioni del sistema di equazioni proposto per questo tipo di
problema possano essere distinte in due gruppi, o modi, secondo la stabilità o instabilità del sistema.
In molte applicazioni pratiche, solo alcuni modi “parametri d’ordine” diventano instabili, mentre
tutti gli altri modi restano effettivamente stabili. Nel caso in cui, solo alcuni modi instabili
governano istantaneamente quelli stabili, (molto più numerosi) allora si può invocare una sorta di
principio di adiabaticità. Ciò porta ad un risultato di notevole interesse: per quanto complesso sia il
sistema di partenza, se esso è auto-organizzato, sarà controllato completamente dai soli pochi
parametri d’ordine (modi instabili). Da qui l’importanza di individuare nel sistema autorganizzato
uomo qui pochi parametri che presiedono all’attività del cervello.
Il concetto di auto-organizzazione può comprendersi meglio, partendo dall’esempio fornito
dall’evoluzione di un cumulo di granelli di sabbia 10, 11. Supponiamo di iniziarne la costruzione
aggiungendo un granello di sabbia alla volta, in una posizione casuale. Il cumulo di sabbia
aumenterà di volume, modificando di continuo la sua forma, fino a raggiungere uno stato di
equilibrio stazionario, in cui ogni ulteriore granello aggiunto provocherà l’allontanamento di un
altro già preposizionato. La previsione della risposta del cumulo, in questo stato di equilibrio critico
dinamico, al tentativo di aggiungere più di una particella, è del tutto impredicibile. Esse potrebbero
semplicemente essere “respinte” in massa, o provocare un riarrangiamento locale della forma e del
volume del cumulo, oppure ingenerare fenomeni di caduta a valanga di altre particelle. Il sistema è
criticamente organizzato, nel senso che si possono verificare cadute di tutte le grandezze disponibili
e da tutte le possibili posizioni dei granelli.
Ipotizziamo di costruire un cumulo, posizionando un quantitativo di granelli di sabbia, realizzando
una forma, oppure un volume con dimensione e pendenza maggiore di quella di equilibrio, il
sistema raggiungerebbe violentemente lo stato di equilibrio dinamico critico, sempre sensibile
all’effetto di piccole perturbazioni esterne.
Il principio di organizzazione è del tutto generale; esso governa una vasta classe di sistemi
dissipativi. Tali sistemi in natura evolvono spontaneamente verso uno stato stabile critico, non
caratterizzato da una scala temporale o spaziale intrinseca.
Fenomeni cooperativi di criticità s’incontrano nello studio delle transizioni di fase tendenti verso
l’equilibrio, nei sistemi meccanico-statistici. In tali sistemi, una volta realizzato lo stato d’equilibrio,
regolando finemente uno o più parametri, compare un’autosimilarità spaziale e, la funzione di
risposta dinamica ha il caratteristico andamento del rumore di tremolio.
Le relazioni analitiche, che descrivono l’evoluzione dei sistemi governati dalla criticità autoorganizzata, non richiedono la regolazione fine dei parametri perché, una volta raggiunto il punto
critico, si manifesta “naturalmente” un’autosimilarità spaziale. La funzione di risposta dinamica del
sistema ha il comportamento caratteristico della legge di potenza. Il nuovo stato dinamico, così
raggiunto, è auto-organizzato criticamente nel senso che, pur perturbato, esso è attratto verso lo
stato critico senza ulteriore specificazione dei parametri. I principi di conservazione dell’individuo e
della specie sono gli attrattori naturali che governano anche il sistema uomo, il quale, evolve il
proprio corpo ed eleva il suo spirito.
Solo le fluttuazioni sono in grado di spingere il sistema ad esplorare altri stati dinamici. Le
fluttuazioni possono agire direttamente sul valore iniziale della variabile o delle variabili che
descrivono complessivamente il sistema. Lo stato raggiunto può essere competitivo con quello
iniziale per un migliore adattamento alle condizioni ambientali e, quindi, ingenerare un processo di
selezione interna degli stati.
7
Le fluttuazioni possono anche causare mutazioni del paesaggio dell’energia o del potenziale, come
avviene nelle catastrofi, dove il sistema, al variare di un parametro, pur permanendo nello stesso
stato, caratterizzato dal medesimo valore della variabile di stato, assume una configurazione
dinamica completamente differente.
A volte le fluttuazioni esterne possono determinare una variazione qualitativa della dinamica del
sistema stesso, fino a causare l’impossibilità, da parte di esso, di ripercorrere gli stessi stati dinamici
tipici della sua evoluzione. Quest’effetto può assimilarsi alla perdita di memoria da parte del
sistema.
Questa “dimenticanza” può essere correlata all’esistenza di molti stati metastabili, cioè prossimi a
quello stabile, nel quale un sistema, regolato dal principio di criticità auto-organizzato, può
trascorrere un tempo anche molto lungo, ma sempre imprevedibile.
La ricerca si trova pertanto sempre di fronte all’imprevedibilità che caratterizza tutti i sistemi, da
quelli complessi a quelli apparentemente più semplici, come quelli auto-organizzati.
Ci si è soffermati su quest’argomento per enfatizzare il ruolo molto efficace delle perturbazioni
esterne sul sistema uomo, che si trova in uno stato di criticità auto-organizzata e risulta quindi
sensibile alle piccole e frequenti sollecitazioni esterne, le quali lasciano presagire una futura
evoluzione del sistema del tipo di quelle avvenute in passato.
Quindi, le dinamiche naturali sono caratterizzate dal ricorrere (i) di eventi eccezionali, più o meno
rari, cadenzati, in virtù di un’organizzazione interna tramite cicli di reazione (feedback) non
controllati da parametri indipendenti esterni e (ii) di fenomeni di piccola intensità, ma più frequenti,
indispensabili alla sopravvivenza dei sistemi. (Palumbo,2005)
Ma come sono correlati gli argomenti trattati con la teoria di stringa?
In un precedente lavoro ho dimostrato che esiste una correlazione matematica molto forte tra alcune
soluzioni di equazioni di teoria di campo di stringa ed alcune soluzioni di equazioni inerenti la
funzione zeta di Riemann, quest'ultima correlata ai numeri primi.
Ma qual'è il significato fisico di questa correlazione matematica?
Ho provato allora a paragonare le frequenze emesse da una stringa alle frequenze emesse dalle note
musicali. Ad ogni nota è cioè assegnata una ben determinata frequenza. Ogni frequenza è, a sua
volta, associata a dei ben determinati numeri primi. Le frequenze che vanno dal Do naturale al Si
naturale sono: 262 Hz, 294Hz, 330Hz, 349Hz, 392Hz, 440Hz e 494 Hz. I numeri primi che formano
tali frequenze sono: 2, 3, 5, 7, 11, 13, 19, 131 e 349. Anche questi numeri possono corrispondere a
delle determinate frequenze. Ora dividiamo tutte le frequenze che vanno dal Do naturale al Si
naturale ( 262, 277, 294, 311, 330, 349, 370, 392, 415, 440, 466, 494),quindi anche i semitoni, per
2, per 4 e per 8, ottenendo così tutte le frequenze corrispondenti alla tastiera di un pianoforte. La
serie dei numeri primi che formano tutte le frequenze così ricavate è: 2, 3, 5, 7, 11, 13, 19, 31, 37,
47, 59, 83, 131, 139 e 233. Di tali numeri il 2 si ripete trenta volte, il 3 undici volte, il 5 nove volte,
il 7 docici volte, l'11 otto volte, il 13 otto volte, il 31 tre volte ed il 37 tre volte. Mettendo in grafico
la serie dei numeri e il numero di volte che esso si ripete, otteniamo una curva che mostra la
casualità insita nelle forme frattali. D'altronde anche il Palumbo ha notato che la gradita ripetitività
dei temi di un brano musicale, riproposta in tonalità diverse, risiede nel rispetto dei principi della
geometria frattale. Quindi, le stringhe la cui vibrazione è dell'ordine di 10-100 Hz, quindi di energia
pari a 10 elevato alla meno 12-13 eV, hanno un andamento che rispecchia la casualità dei numeri
primi, quindi un andamento frattale. L'esempio stringhe->note può essere benissimo esteso alle altre
frequenze e quindi anche le stringhe di energia pari a quella corrispondente ad un bosone o ad un
fermione hanno un andamento frattale.
Anche il matematico Connes fu capace di scorgere le connessioni esistenti fra numeri primi e
geometria non commutativa. Le idee di Connes fornirono una descrizione matematica di una
geometria che i teorici delle stringhe ed i fisici quantistici cercavano di costruire. Connes comprese
che, pur non avendo una chiara immagine del lato fisico di questa geometria, poteva pur sempre
costruire il suo lato algebrico astratto. La geometria di Connes offre al mondo matematico la
possibilità di penetrare nella strana geometria dell'incredibilmente piccolo. Grazie ad essa, potremo
8
forse finalmente riuscire a decifrare la struttura elementare dello spazio. Hugh Montgomery e
Michael Berry avevano evidenziato la possibile connessione fra i numeri primi ed il caos
quantistico. Il fatto che il linguaggio di Connes fosse perfettamente adatto alla trattazione della
fisica quantistica (e quindi alla teoria di stringa, che ricordiamolo è una teoria in cui è insita anche
la meccanica quantistica) contribuì ad alimentare l'ottimismo sull'esito del suo lavoro sull'ipotesi di
Riemann. Ciò che Connes crede di aver identificato è uno spazio geometrico molto complesso,
chiamato lo spazio non commutativo delle classi degli adeles, costruito nel mondo dell'algebra. Per
costruire questo spazio si servì di alcuni numeri, scoperti al principio del XX secolo, i numeri padici. C'è una famiglia di numeri p-adici per ogni numero primo p. Connes ritiene che
congiungendo tutti questi numeri ed osservando come opera la moltiplicazione in questo spazio
estremamente singolare, gli zeri di Riemann dovrebbero apparire naturalmente come risonanze
all'interno di questo spazio. Michael Berry afferma: "se si ritiene che l'ipotesi di Riemann sia vera,
allora alla base degli zeri di Riemann non ci sarebbe semplicemente un sistema quantistico, ma un
sistema quantistico con un omologo classico, moderatamente semplice ma caotico". E vista la
relazione che sembra esistere tra soluzioni in teoria di campo di stringa e numeri primi, anche le
oscillazioni di stringa sono correlate all'andamento casuale dei numeri primi, quindi al meraviglioso
mondo della geometria frattale. (Nardelli, 2005)
Michele Nardelli
9
Fly UP