1 Sulla funzione zeta di Riemann e connessioni con la
by user
Comments
Transcript
1 Sulla funzione zeta di Riemann e connessioni con la
Sulla funzione zeta di Riemann e connessioni con la teoria di superstringa (M.Nardelli) - 05:44, 5/2/2005 Nel suo recente libro "L'enigma dei numeri primi", il matematico dell'Università di Oxford Marcus Du Sautoy, presenta con chiarezza esemplare le principali questioni risolte e irrisolte del mondo dei numeri primi, spiegando quale sia la loro importanza attuale in svariati campi tra cui la fisica quantistica. Tra di esse quelle che andremo ad analizzare in detettaglio è la famosa "Ipotesi di Riemann", il più grande mistero della matematica- come viene definito dallo stesso Sautoy. Il matematico Riemann scoprì una formula che esprimeva un collegamento diretto fra i numeri primi e gli zeri: essa era intesa come un modo per comprendere i numeri primi attraverso l'analisi degli zeri. Montgomery ribaltò la formula, usando le conoscenze sui numeri primi per dedurre il comportamento degli zeri lungo la "retta di Riemann". La sua analisi sembrava indicare che quando si procedeva verso nord lungo la retta di Riemann, gli zeri, a differenza dei numeri primi, tendessero a respingersi. Montgomery si rese presto conto che, al contrario di quanto accadeva con i numeri primi, ad uno zero non seguivano mai altri zeri in rapida successione. I risultati ottenuti da Montgomery suggerivano la possibilità che gli zeri si distribuissero in maniera totalmente uniforme lungo la retta di Riemann. Per rappresentare il campo di variazione teorico della distanza fra zeri adiacenti, Montgomery costruì un diagramma che prende il nome di "grafico di correlazione di coppia". In esso sull'asse orizzontale è riportata la distanza fra coppie di zeri, mentre l'asse verticale misura il numero di coppie per ogni data distanza. Quando Montgomery espose quello che pensava potesse essere il comportamento degli intervalli che separano coppie di zeri, menzionando il suo grafico di distribuzione di quegli intervalli, il fisico Freeman Dyson gli riferì che era esattamente lo stesso comportamento degli autovalori delle matrici casuali hermitiane. Queste sono entità matematiche che vengono usate dai fisici quantistici per predire i livelli energetici nel nucleo di un atomo pesante quando lo si bombarda con neutroni a bassa energia. Montgomery, prendendo una sequenza degli zeri di Riemann e mettendola accanto a quei livelli energetici misurati per via sperimentale, poteva vedere immediatamente una chiara somiglianza. Sia gli intervalli fra gli zeri, sia quelli fra i livelli d'energia, si susseguivano in maniera molto più ordinata che se fossero stati scelti a caso. Le configurazioni da lui previste nella distribuzione degli zeri erano identiche a quelle che i fisici quantistici stavano scoprendo nei livelli energetici dei nuclei di atomi pesanti. Questo poteva significare che la matematica insita nei livelli quantistici d'energia nei nuclei degli atomi pesanti è la stessa matematica che determina la posizione degli zeri di Riemann. Negli anni '20 del novecento i fisici compresero che la matematica che descrive le frequenze del suono emesso da un tamburo poteva essere usata anche per calcolare i carateristici livelli energetici a cui vibrano gli elettroni in un atomo. In questo senso, atomo e tamburo sono fisicamente equivalenti: forze presenti nell'atomo controllano le vibrazioni delle particelle subatomiche. Nell'atomo gli elettroni vibrano solo in modi ben definiti: quando un elettrone viene eccitato, comincia a vibrare ad una nuova frequenza. Ciascun atomo della tavola periodica ha un proprio caratteristico insieme di frequenze a cui i suoi elettroni prediligono vibrare. Finchè non lo si osserva, sembra che un elettrone possa essere in due posti diversi allo stesso tempo, o che possa vibrare a molte frequenze diverse, a cui corrispondono diversi livelli energetici. Prima che lo osserviamo, un elettrone vibrerà, come un tamburo, in base ad una combinazione di frequenze diverse, ma all'atto dell'osservazione tutto quello che percepiamo è l'elettrone che vibra ad una singola frequenza. Secondo Montgomery e Odlyzko, gli zeri del paesaggio di Riemann avevano lo stesso aspetto delle frequenze di un tamburo quantistico: gli zeri, cioè, derivavano dai colpi di un tamburo matematico casuale le cui frequenze si comportano come i livelli energetici della fisica quantistica. Odlyzko tracciò il grafico relativo agli zeri di Riemann e lo confrontò con il grafico corrispondente che si otteneva dall'analisi delle frequenze di un tamburo quantistico casuale. Osservando l'andamento dei due grafici si accorse che, se all'inizio c'era una corrispondenza molto buona, ad un certo punto i dati relativi agli zeri di Riemann si discostavano bruscamente dal grafico delle frequenze teoriche dei tamburi quantistici casuali. Il grafico non seguiva più l'andamento statistico delle distanze fra zeri successivi, così come 1 accadeva all'inizio, ma quello delle distanze fra l'n-esimo e l'(n+1000)-esimo zero. Odlyzko si era imbattuto negli effetti prodotti sul paesaggio di Riemann dalla "teoria del caos". Il termine "caos" si utilizza quando un sistema dinamico è molto sensibile alle condizioni iniziali. Quando una minima variazione nel modo in cui si appronta un esperimento produce una drastica differenza nei risultati che si ottengono, questa è la firma inconfondibile del caos. Una delle manifestazioni della matematica del caos si ha nel gioco del biliardo. Su un normale tavolo da biliardo rettangolare non si manifesta alcun comportamento caotico nella traiettoria seguita dalla biglia. Essa è perfettamente prevedibile, ed un leggero cambiamento nella direzione iniziale del tiro non la altera in maniera sensibile. Ma su un tavolo da biliardo di forma simile a quella di uno stadio le traiettorie delle biglie assumono un aspetto completamente diverso: la fisica di un tavolo da biliardo a forma di stadio è "caotica". Quando i fisici analizzarono l'andamento statistico dei livelli energetici, scoprirono che esso variava a seconda che il tavolo da biliardo producesse traiettorie caotiche oppure normali. Se gli elettroni erano confinati in un'area rettangolare, in cui tracciavano traiettorie normali, non caotiche, allora i loro livelli energetici si distribuivano in modo casuale. In particolare, i livelli energetici risultavano spesso ravvicinati. Quando, invece, gli elettroni erano confinati in un'area a forma di stadio, in cui le traiettorie sono caotiche, i livelli energetici non erano più casuali. Seguivano difatti un andamento molto più uniforme, in cui non comparivano mai due livelli ravvicinati. I biliardi quantistici caotici producevano lo stesso andamento regolare già osservato da Dyson nei livelli energetici dei nuclei di atomi pesanti e da Montgomery e Odlyzko nell'ubicazione degli zeri di Riemann. Fu il Prof.M.Berry il primo a comprendere che gli scostamenti notati da Odlyzko fra i grafici della varianza degli zeri di Riemann e dei tamburi quantistici casuali indicavano che un sistema quantistico caotico poteva offrire il migliore modello fisico per il comportamento dei numeri primi. Se il segreto dei numeri primi è davvero un gioco di biliardo quantistico, allora i numeri primi sono rappresentati da traiettorie molto speciali sul tavolo del biliardo. Alcune traiettorie fanno ritornare la biglia al punto di partenza dopo un certo numero di passaggi sul tavolo, dopodichè si ripetono uguali a sè stesse. Sembra che siano proprio queste traiettorie speciali a rappresentare i numeri primi: ad ogni traiettoria corrisponde un numero primo, e tanto più una traiettoria si estende prima di ripetersi, tanto più è grande il numero primo corrispondente. La nuova svolta impressa da Berry potrebbe portare ad un'unificazione di tre grandi temi scientifici: la fisica quantistica, il caos e i numeri primi. Forse l'ordine che Riemann aveva sperato di scoprire nei numeri primi è descritto dal caos quantistico. E la teoria di superstringa? E' possibile trovare delle correlazioni tra essa e ciò che abbiamo appena menzionato? Un elettrone è una particella con spin pari a metà di un numero dispari (1/2). Una tale particella viene chiamata "fermione". I "bosoni", invece, sono particelle aventi spin intero (1,2). Un esempio di bosone è il fotone, la particella mediatrice della forza elettromagnetica. Tutte le particelle materiali hanno spin pari a quello dell'elettrone. Questo fatto si riassume affermando che le particelle hanno spin 1/2, dove il valore 1/2 fornisce, più o meno, una misura di quanto veloce in senso quantomeccanico la particella sta ruotando. Per essere più precisi, spin 1/2 significa che il "momento angolare" dell'elettrone, dovuto alla rotazione, è pari a h/2. Nel contesto della teoria delle stringhe, lo spin, così come la massa e la carica, è associato ad un particolare modo di vibrazione di una stringa. L'elettrone è quindi rappresentabile da una stringa fermionica il cui modo di vibrazione origina una particella avente spin 1/2. Affermare quindi che la funzione zeta di Riemann correla il moto orbitale degli elettroni in un atomo di numero atomico arbitrario, è come dire che la funzione zeta correla il modo di vibrazione di una stringa fermionica in un atomo avente numero atomico arbitrario. La funzione zeta di Riemann, e i teoremi ad essa correlati, sono quindi correlabili ad una stringa fermionica il cui modo di vibrazione origina una particella avente spin 1/2, quale è appunto l'elettrone. In un mio lavoro sono arrivato a nuovi sviluppi matematici inerenti la teoria delle superstringhe e la funzione zeta di Riemann. Ho infatti ottenuto delle interessanti correlazioni, assumendo l'ipotesi di 2 Riemann, tra il lemma 3 del Teorema di Goldston-Montgomery, un teorema del valor medio riguardante la funzione zeta di Riemann, ed alcune soluzioni solitoniche in teoria di campo di stringa. La parte matematica che ho approfondito, riguardo l'ipotesi di Riemann, è trattata nel lavoro: "La congettura di Goldbach" del Prof. A.Languasco e precisamente nella sezione intitolata "Teorema di Goldston-Montgomery". Anche in alcune formule contenute nell'importantissimo lavoro di Perelli e Pintz: "On the exceptional set for Goldbach's problem in short intervals", ho trovato delle connessioni con le soluzioni solitoniche sopra citate. Per quanto concerne il teorema del valor medio, esso è trattato nel capitolo 7 par.12 del volume di E.C.Titchmarsh "The Theory of the Riemann Zeta-function". Riguardo, infine, alla teoria di stringa, il lavoro che ho consultato ed approfondito è :"Soluzioni solitoniche in teoria di campo di stringa", e precisamente le appendici A e D, una tesi pubblicata dalla Dott.ssa V. Puletti. Andiamo ad analizzare più in dettaglio tale lavoro. Già tra la fine degli anni '80 e l'inizio degli anni '90, si era visto che i vari modelli di teoria di stringa ammettevano diversi tipi di "solitoni", che sono oggetti estesi: non semplicemente stringhe, ma "membrane" di dimensioni spaziali p, comunemente dette p-brane. Verso la metà degli anni '90 Polchinski, associò agli estremi della stringa aperta ulteriori tipi di solitoni, le Dirichlet p-brane (Dp-brane) sulle quali di fatto i capi sono confinati, identificando anche le cariche che garantiscono la stabilità delle brane e rese possibile definire una teoria di stringa in presenza delle D-brane per mezzo di un semplice cambiamento di condizioni al contorno agli estremi della stringa. Le brane possono essere caratterizzate da una tensione, massa per unità di volume, e da una carica; il loro spettro a bassa energia comprende anche campi di gauge. Sia i campi di gauge che i campi scalari nascono dal fatto che le stringhe aperte terminano sulle brane e sono infatti associati alle fluttuazioni della stringa rispettivamente trasversalmente o longitudinalmente alla brana stessa. La loro dinamica è estremamente complessa, ma nel limite di accoppiamento debole, si comportano proprio come dei muri rigidi. Poichè per un accoppiamento arbitrariamente grande questi oggetti possono diventare arbitrariamente leggeri, più leggeri infatti delle stringhe stesse, il loro comportamento domina la fisica delle basse energie, rendendole le vere protagoniste della teoria di stringa. In generale la massa del solitone è inversamente proporzionale alla costante di struttura fine tipica, così nella regione perturbativa è un oggetto classico, mentre nel limite di accoppiamento forte è del tutto simile ad un ordinario quanto. Le più recenti comprensioni di effetti non perturbativi nella teoria di stringa, quali l'instabilità della D-brana, ha permesso di dare un nuovo senso fisico alla presenza dei tachioni, particelle di massa quadrata negativa, nello spettro della stringa bosonica. Nel 1999 le congetture di Sen, legarono l'instabilità delle brane ed il fenomeno della condensazione tachionica, indirizzando il loro studio alla "teoria di campo di stringa" (SFT). L'esistenza del tachione di stringa aperta viene interpretata come l'instabilità della D-brana che supporta la stringa aperta e tale instabilità scompare nel vuoto tachionico in cui la brana decade. Inoltre il convincimento che le D-brane siano soluzioni solitoniche della teoria di stringa, trova un ulteriore conferma: una teoria di campo tachionica su brane instabili inclinate nello spazio ha brane di dimensioni più basse come soluzioni solitoniche. Il lavoro della Puletti, affronta la problematica della condensazione tachionica nella "teoria di campo di stringa al contorno" (BSFT) ma procedendo con una funzione beta "non lineare", l'unica che permetta di trovare nuove soluzioni dell'equazione dei punti fissi del Gruppo di Rinormalizzazione (RG), consentendo così uno studio alternativo della relazione sul disco tra dinamica della stringa e flusso del RG. I punti fissi del RG, ottenuti dopo aver costruito funzioni beta non lineari, valide nell'ipotesi di profili tachionici lentamente variabili al secondo e terzo ordine dell'espansione in piccole derivate del campo tachionico, sono stati poi interpretati come solitoni della SFT per la relazione di proporzionalità tra l'azione effettiva e la beta non singolare nel caso di una metrica non degenere, rappresentando così una configurazione di D25-brana e di due Dbrane. Si è infatti voluto affrontare lo studio di possibili cambiamenti di background, che una volta evidenziati, sosterrebbero l'indipendenza dal background della teoria di campo di stringa. Con questa tesi la Puletti dimostra che è possibile andare da un vuoto con una D-brana ad un vuoto con 3 due D-brane così come andare da un vuoto con una D-brana al vuoto "vuoto". In particolare si è trovato che certi backgrounds sono soluzioni della teoria di campo di stringa aperta, ottenendo un background con brane multiple (una configurazione con due brane) partendo con un background con una D-brana. Poichè la teoria di stringa è una teoria quantistica relativistica che include la gravità, ed essendoci, secondo il fisico Berry, alla base degli zeri di Riemann un sistema quantistico con un omologo classico, moderatamente semplice ma caotico, è comprensibile la connessione trovata tra le formule inerenti le soluzioni solitoniche in teoria di campo di stringa e le formule inerenti le congetture di Montgomery e Goldbach contenute nei lavori di Languasco e Perelli. A questo punto penso che sia possibile ampliare la mia ricerca, approfondendo le interessantissime tesi sui sistemi dinamici caotici applicate all'evoluzione dell'universo, del Prof.A.Palumbo, fisico dell'Università di Napoli, ed applicandole alla cosmologia di stringa. Brevemente, lo scienziato napoletano ipotizza che gli insiemi Fi (insiemi di onde), nati dopo il Big Bang, erano già presenti nella mente di Dio in quanto erano uniti ad F (insieme originario) sin da quando il Creatore "eccitò" il punto (euclideo) nel quale era contenuto tutto l'universo. Nel caso della cosmologia di stringa, le Fi rappresenterebbero gli spazi di Calabi-Yau che danno origine alle proprietà fisiche dell'universo che ci circonda (essi sarebbero delle varietà in cui le dimensioni extra sono compattificate, "arrotolate", come in un gomitolo di lana), mentre F il campo unificato iniziale, in cui tutte le dimensioni sono completamente simmetriche ed arrotolate in un granellino multidimensionale (il punto euclideo prima menzionato) delle dimensioni di Planck. Quindi, le Fi costituirebbero l'insieme di stringhe che vibrando danno luogo ai vari tipi di particelle (fermioni e bosoni, quindi stringhe fermioniche e bosoniche). La F è identificabile con il big bang, quindi con l'esplosione del buco nero che ha dato origine all'universo (ricordiamo che, in teoria di stringa, un buco nero si tramuta in una particella di massa nulla, ad esempio un gravitone, che secondo la teoria delle stringhe altro non è che una stringa eccitata in un particolare modo di vibrazione). La prima rottura di simmetria (casuale) si produsse, più o meno, al tempo di Planck (10^-43 secondi dopo il Big Bang), quando le tre dimensioni spaziali iniziarono ad espandersi, mentre le altre conservarono la loro estensione originaria. Queste tre dimensioni spaziali sono identificate con quelle la cui evoluzione è descritta dal modello cosmologico inflazionario. Sarà scopo di un prossimo articolo quello di descrivere in dettaglio tale applicazione, che certamente avallerà entrambe le tesi, la mia, che ha trovato le su citate relazioni tra teoria di campo di stringa e zeri di Riemann, quindi tra teoria di stringa e un sistema quantistico con un omologo classico, moderatamente semplice ma caotico, e quella del Palumbo, sui sistemi dinamici caotici applicati al sistema universo. Michele Nardelli Caos deterministico, criticità auto-organizzata e teoria di stringa (M. Nardelli) - 12:03, 11/1/2005 Evoluzione e caratteristiche dei sistemi dell’universo (Palumbo, 2005) La via scelta dall’universo per la sua evoluzione, è quella dei grandi numeri. Tutti i componenti del cosmo si presentano in numero infinito: esistono infiniti atomi di idrogeno, di ossigeno, etc, infiniti granelli di sabbia, infiniti sistemi di stelle come quello solari, infinite galassie, infinite cellule, infiniti individui e specie. Ciascuno di essi ha poi senso e svolge un ruolo significativo, soltanto attraverso l’interazione con gli innumerevoli altri componenti presenti. L’enormità del numero di ciascun elemento è indispensabile perché si verifichi la probabilità di incontro fra loro e quindi l’interazione. Esso è anche indispensabile perché la natura possa sperimentare le innumerevoli biforcazioni che un suo sistema incontra nella sua evoluzione. La disponibilità di una tale dovizia di 4 sistemi consente alla natura di realizzare, in tempo reale, ciò che un supercomputer otterrebbe in un tempo praticamente infinito. Il vero salto di velocità nell’evoluzione dei sistemi naturali avviene durante gli episodi storici e catastrofici. In biologia, individui più progrediti sono nati da uova difettose, con una probabilità di sopravvivenza estremamente bassa. D’altra parte, perché un tale individuo nasca e sopravviva, occorre la concomitanza di un numero elevato di eventi, altamente improbabili, per cui la sua affermazione richiede un tempo enormemente lungo. Durante i 3.8 miliardi di anni dalla nascita della vita sulla Terra, la Natura ha eseguito innumerevoli tentativi miranti ad attuare l’evoluzione delle specie, fino a quando, qualche milione di anni fa, a seguito di un evento catastrofico, dallo zigote anomalo di un ominide, nasceva il primo uomo. Questi, a seguito di un’evoluzione lenta e graduale, si trasformava, 30.000 anni fa, nell’homo sapiens, il quale ha cominciato a porsi i primi quesiti sulla sua origine, sul suo futuro, e principalmente sul perché e sul suo ruolo; domande che hanno assunto una espressione organica durante gli ultimi due o tre millenni, ad opera della religione, della filosofia, della scienza e principalmente dell’arte. L'evoluzione è spesso governata dai piccoli eventi. E' importante sottolineare l’influenza, nell’evoluzione di tutti i sistemi naturali, complessi e caotici, delle debolissime perturbazioni, che, a prima vista sembrano del tutto insignificanti. Quasi tutti i sistemi naturali, infatti, sono complessi, ossia sono costituiti da un numero di componenti, o sottosistemi, intimamente interconnessi, in modo che una sia pur esigua perturbazione, agente su di uno di essi è capace di generare una serie di reazioni positive e negative in grado di causare modifiche talora radicali ed impreviste nell’intero sistema. Gli stessi sistemi sono poi anche caotici, nel senso che la loro evoluzione è strettamente governata dalle condizioni iniziali del tutto imprevedibili. Basti pensare all’imprecidibile traiettoria di una pallina del flipper dipendente, in ogni istante dalle condizioni al contorno, oppure ricordare che l’approssimazione dell’ennesimo termine di un numero, non più gestibile dal computer, è in grado di determinare la catastrofe matematica, ossia l’imprevedibilità dell’evoluzione della funzione matematica stessa. Nei sistemi naturali, si può quindi scorgere l’importanza dei piccoli e deboli eventi, già annunziati dal Nazareno, quando ringraziava il Padre per aver rivelato ai piccoli il Regno, e poco dopo da Paolo di Tarso, che riconosceva, nella propria debolezza, la sua forza. Tutti i sistemi naturali evolvono trasformandosi in altri più complessi e più caotici, perché caratterizzati da un numero di gradi di libertà crescente nel tempo, ossia da un campo di interazione sempre più esteso. Il sistema uomo è il sistema naturale più recente, più fragile, più complesso e più progredito. Il suo insieme, cioè l’umanità, al pari degli altri sistemi naturali, è costituito da un numero, crescente nel tempo di uomini in continua evoluzione culturale. Il cervello dell’uomo è il sistema più perfetto nella sua imperfezione evolutiva, perché è capace di continue trasformazioni, a partire da quella iniziale, avvenuta catastroficamente a seguito dell’aumento di volume avvenuto a spese della riduzione del sistema mandibolare. La sua imperfezione è la conseguenza della sua incredibile instabilità, legata all’esiguità dei campi elettromagnetici interni, capaci di reagire con i debolissimi campi elettromagnetici sincroni e coerenti esterni. Galileo ebbe, fra l’altro, il merito di aver scoperto l’importanza dell’osservazione dei piccoli fenomeni semplici, come l’oscillazione di un sasso legato ad una cordicella, che lo condusse a proporre il metodo sperimentale basato sul rigore e sulla riproducibilità della sperimentazione. Ogni singolo fenomeno naturale segue, però, una propria specifica evoluzione imprevedibile, per cui gli esperimenti del Padre della scienza sono lontani da quelli della Natura, o, almeno, hanno validità limitata a quei pochi fenomeni deterministici, i quali, sono poi tali, soltanto all’interno di un ristretto 5 intervallo spazio-temporale. Se la Natura è l’unica vera maestra, i fenomeni vanno riguardati nella luce della loro complessità e caoticità, ed in chiave probabilistica, il che spiega, ancora, il perché della necessità di infiniti elementi nell’universo, indispensabili perché si verifichi una loro interazione, la quale ha richiesto, però, il tempo lunghissimo dell’evoluzione naturale. In quest’ottica, iniziò lo studio dei fenomeni più complicati a partire dal moto browniano (il movimento di un granello di polline immerso in un liquido ad una certa temperatura). Boltzmann introdusse il concetto di caoticità dinamica per esprimere l’effetto di irregolarità nel moto causate dall’esistenza di fenomeni probabilistici intrinsecamente ed imprescindibilmente legati alla legge dinamica di evoluzione del sistema. Nella Fisica di Newton a + b era sempre uguale a c. Lo studio dell’evoluzione di molti sistemi naturali ha mostrato che ciò non è sempre vero; cosa che ha condotto ad affrontare la complessità, insita in tutti quei sistemi dei quali non si conoscono in maniera completa ed analitica né la struttura, né le funzioni. In generale un sistema è complesso quando i suoi costituenti interagiscono in modo non semplice. In tali sistemi, l’insieme è qualcosa di più della somma delle parti, non in senso metafisico, ma in quello pragmatico per il quale, anche se fossero conosciute le proprietà delle parti e le leggi delle loro interazioni, non sarebbe semplice dedurre le proprietà del tutto. (Simon, 1969) Molti fenomeni naturali sembrano essere governati dall’ordine, altri dal disordine. In generale, si possono distinguere due tipi di ordine: il primo detto “ordine della morte termica”, che si realizza nei sistemi chiusi al tendere della temperatura al valore dello zero assoluto. In questa condizione le interazioni statiche tra le particelle e le oscillazioni del punto zero prevalgono sulle fluttuazioni termiche e danno origine ad una struttura spaziale macroscopica organizzata, che riflette le simmetrie elementari. Il secondo tipo di ordine è quello che si manifesta, in condizioni lontane dall’equilibrio termico, e che nasce, in un sistema aperto in comunicazione ed interazione con l’ambiente circostante, attraverso il contorno. Nel primo caso si parla di simmetria piuttosto che di ordine; nel secondo invece il termine ordine sembra appropriato. Indipendentemente dalle definizioni, il caos era così inquadrato in modo antitetico rispetto alla formulazione classica, secondo la quale, le leggi che governano l’Universo sono deterministiche (causa–effetto). Al posto dell’antica visione era proposta quella stocastica del fenomenico, secondo la quale le leggi universali sarebbero intrinsecamente aleatorie ed il determinismo, che a volte si osserva, non sarebbe stato altro che il risultato di un comportamento medio delle componenti coinvolte. La meccanica quantistica costrinse i ricercatori a riesaminare la dicotomia determinismo– probabilismo. In meccanica quantistica il concetto di probabilità ha, infatti, un ruolo fondamentale. Con l’introduzione del principio di indeterminazione di Heisenberg, ci si rese conto dell’impossibilità di pervenire ad una conoscenza esatta dello stato di un sistema in un certo istante, a causa della precisione finita degli strumenti di misura e della loro interazione con la preparazione dell’esperimento in esame. Ciò costituì un’altra spallata al determinismo. D’altra parte gli studi di Poincarè 3,4 sul comportamento dei sistemi dinamici dimostrarono la possibilità di generare caos anche con dinamiche lineari e semplicissime, a causa dell’elevata sensibilità e dipendenza delle traiettorie (curve che descrivono l’andamento di un sistema) dalle condizioni iniziali. Era così introdotto il caos deterministico. Chiunque abbia voglia di eseguire un esperimento di evoluzione caotica di un sistema semplice, può divertirsi a seguire il moto di una piccola pallina sospesa ad un filo, o quello della pallina di un flipper e potrà notare la sua imprevedibilità e la sua strettissima dipendenza dalle condizioni iniziali. Molti sistemi naturali manifestano una proprietà dinamica particolare: la capacità di organizzarsi, o meglio di auto-organizzarsi secondo relazioni funzionali reciproche descrivibili come processi di reazione interna (feedback). Esempi di organizzazione e di auto-organizzazione si ritrovano non solo in molti campi della fisica, ma anche in biologia, in chimica, etc., tanto che quello di 6 organizzazione può ritenersi un principio di validità generale, governante una classe molto vasta di sistemi. Haken 9 ha indagato sulle classi di equazioni in grado di rappresentare il principio di organizzazione e quindi le relazioni tra cause ed effetti. La descrizione di un sistema autoorganizzato è basata sull’inserimento delle forze esterne, come parte dell’intero sistema; tuttavia, non è possibile trattarle alla stregua di quantità fissate ed indipendenti, ma piuttosto come soggette esse stesse ad un’equazione di moto. Si è pervenuti alla conclusione che le soluzioni del sistema di equazioni proposto per questo tipo di problema possano essere distinte in due gruppi, o modi, secondo la stabilità o instabilità del sistema. In molte applicazioni pratiche, solo alcuni modi “parametri d’ordine” diventano instabili, mentre tutti gli altri modi restano effettivamente stabili. Nel caso in cui, solo alcuni modi instabili governano istantaneamente quelli stabili, (molto più numerosi) allora si può invocare una sorta di principio di adiabaticità. Ciò porta ad un risultato di notevole interesse: per quanto complesso sia il sistema di partenza, se esso è auto-organizzato, sarà controllato completamente dai soli pochi parametri d’ordine (modi instabili). Da qui l’importanza di individuare nel sistema autorganizzato uomo qui pochi parametri che presiedono all’attività del cervello. Il concetto di auto-organizzazione può comprendersi meglio, partendo dall’esempio fornito dall’evoluzione di un cumulo di granelli di sabbia 10, 11. Supponiamo di iniziarne la costruzione aggiungendo un granello di sabbia alla volta, in una posizione casuale. Il cumulo di sabbia aumenterà di volume, modificando di continuo la sua forma, fino a raggiungere uno stato di equilibrio stazionario, in cui ogni ulteriore granello aggiunto provocherà l’allontanamento di un altro già preposizionato. La previsione della risposta del cumulo, in questo stato di equilibrio critico dinamico, al tentativo di aggiungere più di una particella, è del tutto impredicibile. Esse potrebbero semplicemente essere “respinte” in massa, o provocare un riarrangiamento locale della forma e del volume del cumulo, oppure ingenerare fenomeni di caduta a valanga di altre particelle. Il sistema è criticamente organizzato, nel senso che si possono verificare cadute di tutte le grandezze disponibili e da tutte le possibili posizioni dei granelli. Ipotizziamo di costruire un cumulo, posizionando un quantitativo di granelli di sabbia, realizzando una forma, oppure un volume con dimensione e pendenza maggiore di quella di equilibrio, il sistema raggiungerebbe violentemente lo stato di equilibrio dinamico critico, sempre sensibile all’effetto di piccole perturbazioni esterne. Il principio di organizzazione è del tutto generale; esso governa una vasta classe di sistemi dissipativi. Tali sistemi in natura evolvono spontaneamente verso uno stato stabile critico, non caratterizzato da una scala temporale o spaziale intrinseca. Fenomeni cooperativi di criticità s’incontrano nello studio delle transizioni di fase tendenti verso l’equilibrio, nei sistemi meccanico-statistici. In tali sistemi, una volta realizzato lo stato d’equilibrio, regolando finemente uno o più parametri, compare un’autosimilarità spaziale e, la funzione di risposta dinamica ha il caratteristico andamento del rumore di tremolio. Le relazioni analitiche, che descrivono l’evoluzione dei sistemi governati dalla criticità autoorganizzata, non richiedono la regolazione fine dei parametri perché, una volta raggiunto il punto critico, si manifesta “naturalmente” un’autosimilarità spaziale. La funzione di risposta dinamica del sistema ha il comportamento caratteristico della legge di potenza. Il nuovo stato dinamico, così raggiunto, è auto-organizzato criticamente nel senso che, pur perturbato, esso è attratto verso lo stato critico senza ulteriore specificazione dei parametri. I principi di conservazione dell’individuo e della specie sono gli attrattori naturali che governano anche il sistema uomo, il quale, evolve il proprio corpo ed eleva il suo spirito. Solo le fluttuazioni sono in grado di spingere il sistema ad esplorare altri stati dinamici. Le fluttuazioni possono agire direttamente sul valore iniziale della variabile o delle variabili che descrivono complessivamente il sistema. Lo stato raggiunto può essere competitivo con quello iniziale per un migliore adattamento alle condizioni ambientali e, quindi, ingenerare un processo di selezione interna degli stati. 7 Le fluttuazioni possono anche causare mutazioni del paesaggio dell’energia o del potenziale, come avviene nelle catastrofi, dove il sistema, al variare di un parametro, pur permanendo nello stesso stato, caratterizzato dal medesimo valore della variabile di stato, assume una configurazione dinamica completamente differente. A volte le fluttuazioni esterne possono determinare una variazione qualitativa della dinamica del sistema stesso, fino a causare l’impossibilità, da parte di esso, di ripercorrere gli stessi stati dinamici tipici della sua evoluzione. Quest’effetto può assimilarsi alla perdita di memoria da parte del sistema. Questa “dimenticanza” può essere correlata all’esistenza di molti stati metastabili, cioè prossimi a quello stabile, nel quale un sistema, regolato dal principio di criticità auto-organizzato, può trascorrere un tempo anche molto lungo, ma sempre imprevedibile. La ricerca si trova pertanto sempre di fronte all’imprevedibilità che caratterizza tutti i sistemi, da quelli complessi a quelli apparentemente più semplici, come quelli auto-organizzati. Ci si è soffermati su quest’argomento per enfatizzare il ruolo molto efficace delle perturbazioni esterne sul sistema uomo, che si trova in uno stato di criticità auto-organizzata e risulta quindi sensibile alle piccole e frequenti sollecitazioni esterne, le quali lasciano presagire una futura evoluzione del sistema del tipo di quelle avvenute in passato. Quindi, le dinamiche naturali sono caratterizzate dal ricorrere (i) di eventi eccezionali, più o meno rari, cadenzati, in virtù di un’organizzazione interna tramite cicli di reazione (feedback) non controllati da parametri indipendenti esterni e (ii) di fenomeni di piccola intensità, ma più frequenti, indispensabili alla sopravvivenza dei sistemi. (Palumbo,2005) Ma come sono correlati gli argomenti trattati con la teoria di stringa? In un precedente lavoro ho dimostrato che esiste una correlazione matematica molto forte tra alcune soluzioni di equazioni di teoria di campo di stringa ed alcune soluzioni di equazioni inerenti la funzione zeta di Riemann, quest'ultima correlata ai numeri primi. Ma qual'è il significato fisico di questa correlazione matematica? Ho provato allora a paragonare le frequenze emesse da una stringa alle frequenze emesse dalle note musicali. Ad ogni nota è cioè assegnata una ben determinata frequenza. Ogni frequenza è, a sua volta, associata a dei ben determinati numeri primi. Le frequenze che vanno dal Do naturale al Si naturale sono: 262 Hz, 294Hz, 330Hz, 349Hz, 392Hz, 440Hz e 494 Hz. I numeri primi che formano tali frequenze sono: 2, 3, 5, 7, 11, 13, 19, 131 e 349. Anche questi numeri possono corrispondere a delle determinate frequenze. Ora dividiamo tutte le frequenze che vanno dal Do naturale al Si naturale ( 262, 277, 294, 311, 330, 349, 370, 392, 415, 440, 466, 494),quindi anche i semitoni, per 2, per 4 e per 8, ottenendo così tutte le frequenze corrispondenti alla tastiera di un pianoforte. La serie dei numeri primi che formano tutte le frequenze così ricavate è: 2, 3, 5, 7, 11, 13, 19, 31, 37, 47, 59, 83, 131, 139 e 233. Di tali numeri il 2 si ripete trenta volte, il 3 undici volte, il 5 nove volte, il 7 docici volte, l'11 otto volte, il 13 otto volte, il 31 tre volte ed il 37 tre volte. Mettendo in grafico la serie dei numeri e il numero di volte che esso si ripete, otteniamo una curva che mostra la casualità insita nelle forme frattali. D'altronde anche il Palumbo ha notato che la gradita ripetitività dei temi di un brano musicale, riproposta in tonalità diverse, risiede nel rispetto dei principi della geometria frattale. Quindi, le stringhe la cui vibrazione è dell'ordine di 10-100 Hz, quindi di energia pari a 10 elevato alla meno 12-13 eV, hanno un andamento che rispecchia la casualità dei numeri primi, quindi un andamento frattale. L'esempio stringhe->note può essere benissimo esteso alle altre frequenze e quindi anche le stringhe di energia pari a quella corrispondente ad un bosone o ad un fermione hanno un andamento frattale. Anche il matematico Connes fu capace di scorgere le connessioni esistenti fra numeri primi e geometria non commutativa. Le idee di Connes fornirono una descrizione matematica di una geometria che i teorici delle stringhe ed i fisici quantistici cercavano di costruire. Connes comprese che, pur non avendo una chiara immagine del lato fisico di questa geometria, poteva pur sempre costruire il suo lato algebrico astratto. La geometria di Connes offre al mondo matematico la possibilità di penetrare nella strana geometria dell'incredibilmente piccolo. Grazie ad essa, potremo 8 forse finalmente riuscire a decifrare la struttura elementare dello spazio. Hugh Montgomery e Michael Berry avevano evidenziato la possibile connessione fra i numeri primi ed il caos quantistico. Il fatto che il linguaggio di Connes fosse perfettamente adatto alla trattazione della fisica quantistica (e quindi alla teoria di stringa, che ricordiamolo è una teoria in cui è insita anche la meccanica quantistica) contribuì ad alimentare l'ottimismo sull'esito del suo lavoro sull'ipotesi di Riemann. Ciò che Connes crede di aver identificato è uno spazio geometrico molto complesso, chiamato lo spazio non commutativo delle classi degli adeles, costruito nel mondo dell'algebra. Per costruire questo spazio si servì di alcuni numeri, scoperti al principio del XX secolo, i numeri padici. C'è una famiglia di numeri p-adici per ogni numero primo p. Connes ritiene che congiungendo tutti questi numeri ed osservando come opera la moltiplicazione in questo spazio estremamente singolare, gli zeri di Riemann dovrebbero apparire naturalmente come risonanze all'interno di questo spazio. Michael Berry afferma: "se si ritiene che l'ipotesi di Riemann sia vera, allora alla base degli zeri di Riemann non ci sarebbe semplicemente un sistema quantistico, ma un sistema quantistico con un omologo classico, moderatamente semplice ma caotico". E vista la relazione che sembra esistere tra soluzioni in teoria di campo di stringa e numeri primi, anche le oscillazioni di stringa sono correlate all'andamento casuale dei numeri primi, quindi al meraviglioso mondo della geometria frattale. (Nardelli, 2005) Michele Nardelli 9