Comments
Description
Transcript
- Mebook!
Quale Modello per le Neuroscienze di Claudio Messori ABSTRACT Con uno sguardo rivolto alle premesse cosmologiche e geologiche che fanno da sfondo all’origine del fenomeno biologico, vengono ripercorse le fasi storiche essenziali che dal Paleolitico Superiore attraverso l’Età dei Metalli e l’Età dei Lumi hanno traghettato l’Occidente verso la forma mentis della scienza contemporanea. La dimensione tensoriale (Tensione-dynamis) viene indicata come il territorio a cui appartiene il fenomeno mentale e come la dimensione fisica fondamentale e irriducibile che precede, produce e coesiste con la dimensione energetica. La transizione dalla dimensione tensoriale alla dimensione energetica viene spiegata in termini di rottura di simmetria di riflessione (mirror symmetry breaking). Allo spin-internal motion viene riconosciuto un ruolo centrale nella genesi della trama energetica e della geometria spaziotemporale. L’energia viene definita come la capacità di generare interferenza e il quanto d’azione fondamentale h come la frazione minima ammissibile della capacità di generare interferenza. Viene avanzata una spiegazione del fenomeno biologico, neurologico e mentale in chiave quantistico-relativistica. Alla rottura di simmetria chirale viene riconosciuto un ruolo centrale nella genesi del fenomeno biologico. Adottando la visione introdotta dalla QFT e dalla QED nella spiegazione della strutturazione della materia, viene avanzata l'ipotesi che dalla formazione di specifici Dominii di Supercoerenza Oscillatoria dell'acqua prebiotica allo stato liquido, abbia preso avvio il processo di nucleazione e di accrescimento del protoambiente biotico che ha portato alla formazione dei precursori delle protocellule. Le dinamiche che qualificano rispettivamente l'attività cellulare, neuronale e mentale vengono incluse tra le dinamiche dei sistemi transienti non-lineari di tipo caotico e vengono spiegate alla luce dell’azione sintropica esercitata da un Attrattore Strano Olografico (Holographic Strange Attractor). A conclusione vengono esposte le basi paradigmatiche per un approccio non computazionale al problema mente-cervello. Keywords: dimensione tensoriale, Twisted-Pinched Hysteresis Loop, rottura di simmetria di riflessione, eventi tensoriali indifferenziati, eventi tensoriali differenziati, Attrattore Strano Olografico, dimensione energetica, spin-internal motion, rottura di simmetria di spin, spinmomento angolare, chiralità, enantioselettività, autopoiesi, Dominii di Supercoerenza Oscillatoria dell'acqua, origine del fenomeno biologico, relazione neurodipendente Corresponding author: Claudio Messori - Independent Researcher Address: Str. Villaggio Prinzera 1, Fraz. Boschi di Bardone, Terenzo 43040, Italy Phone: +393282876077 e-mail: [email protected] 1. Il fenomeno biologico terrestre: premesse cosmologiche e geologiche L’Uomo moderno non si rende conto che la realtà è anche per lui una creazione della sua psiche, una proiezione dei suoi impulsi profondi che, essendo una ben misera cosa, determinano la formazione di una ben misera realtà: quella del mercante. Luca Valerio Fabj1 Il reperto fossile più antico in assoluto risale a 13 miliardi e 5oo milioni di anni fa circa, è la radiazione cosmica di fondo (cosmic microwave background radiation) [1]. L'esistenza di una radiazione cosmica di fondo alla temperatura di 3 gradi Kelvin (K), osservata a partire dal 1965, fornisce un indizio sperimentale sul possibile stato dell’Universo intorno ai 14 miliardi di anni fa, uno stato energetico mass-free ad altissima densità e altissima temperatura (calcolabile in 15 miliardi di gradi K) che è andato incontro ad un lento e progressivo processo di raffreddamento e forse anche di espansione [2]. Per un tempo durato milioni di anni, l'energia radiante (l’energia associata ad un’onda elettromagnetica) ha rappresentato la quasi totalità della realtà fisica. Le particelle elementari dotate di massa come gli elettroni, i neutroni e i protoni si sono potute formare quando la temperatura raggiunse i 5 miliardi di gradi K. A livello di una temperatura di 300 milioni di gradi K si sono potuti formare, per aggregazione delle particelle, i primi nuclei atomici, mentre a livello di 40 milioni di gradi K, si sono potute formare strutture più complesse. Le galassie si formarono successivamente forse per condensazione di nubi composte da energia e particelle. Esse, in seguito ad ulteriore condensazione, hanno determinato la formazione delle singole stelle raggruppate in galassie (si stima che nella sola Via Lattea vi siano tra 100 e 300 miliardi di stelle, e che il numero di galassie nell’Universo sia incalcolabile). Le galassie, raffreddandosi progressivamente hanno dato, in qualche caso, origine ai pianeti. Il nostro Sistema Solare e il pianeta che abitiamo si sarebbero formati come conseguenza del processo di aggregazione di un ammasso galattico gassoso, nel corso di un periodo di tempo compreso tra circa 4 miliardi e 600 milioni e 3 miliardi e 800 milioni di anni fa 2 (una datazione quasi esatta della nascita della Terra si ottiene con il calcolo della velocità di trasformazione degli elementi radioattivi nelle sue rocce), un periodo di tempo chiamato Adeano o epoca pregeologica, il primo periodo dell’Era Precambriana, iniziata con la formazione del pianeta e terminata 540 milioni di anni fa circa, quando ebbe inizio l’Era Cambriana (l’Era Precambriana occupa l’88% della storia del pianeta). 1 L. V. Fabj, Fondamenti di Psicopatologia generale come scienza autonoma, Paolo Emilio Persiani Editore, 2013, pag. 344 2 The oldest materials that formed in the Solar System are inclusions rich in calcium and aluminum found within carbonaceous chondrite meteorites. Nicknamed CAIs (for Calcium-Aluminum-rich Inclusions), these objects are thought to have been some of the first solids to form after the cloud of gas and dust began to heat up. CAIs have ages of 4.566 billion years. On the basis of measurements of several isotopes, the Earth and Moon formed about 50 to 100 million years later. [G. Jeffrey Taylor, Origin of the Earth and Moon, NASA, last updated 2012, https://solarsystem.nasa.gov/scitech/display.cfm?ST_ID=446 ] Durante l'epoca pregeologica (Adeano) la Terra era una massa incandescente la cui superficie assomigliava ad un oceano di magma, dove galleggiavano una sorta di zattere roventi ma semisolide. L'abbassamento della temperatura al di sotto dei 1000 gradi Celsius portò al consolidamento delle zone con temperature più basse che, divenute più stabili, avviarono la costruzione della futura crosta terrestre. L'ulteriore abbassamento della temperatura portò alla costituzione di una crosta terrestre primitiva di roccia vulcanica scura simile al basalto (il consolidamento della crosta terrestre sarebbe avvenuto circa 3 miliardi e 600 milioni di anni fa). Dalle rocce incandescenti e dalla crosta terrestre primitiva si sprigionava, soprattutto per opera dell'attività vulcanica, una fitta nebbia di sostanze gassose come ammoniaca, idrogeno, biossido di carbonio, metano, vapore acqueo ed altri elementi che, nell’arco di 100 milioni di anni, gradualmente formarono l'atmosfera primordiale terrestre (riducente, cioè priva di ossigeno gassoso). La Terra primitiva rimase a lungo avvolta dalle tenebre, sotto una spessa cappa di dense nubi ardenti formate dal vapore acqueo continuamente riversato nell'atmosfera dalle esalazioni vulcaniche. Quando la temperatura scese abbastanza, le nubi cominciarono a liquefarsi in pioggia, e l'atmosfera primordiale diede vita a tempeste di proporzioni apocalittiche. In un primo tempo, abbattendosi sulle rocce incandescenti, la pioggia svaporava, ma con il graduale raffreddamento della crosta solida l'evaporazione andò diminuendo finché l'acqua poté condensare nelle zone più depresse della superficie terrestre, formando i primi oceani, mentre dagli altopiani rocciosi prese avvio la formazione dei continenti. A poco a poco il nostro pianeta assunse un aspetto a noi più familiare, con una zona fluida gassosa ricca di nubi detta atmosfera (riducente), una zona fluida liquida con oceani (la formazione delle masse oceaniche con una dislocazione simile all'attuale è databile intorno ai 3,2 miliardi di anni fa), laghi e fiumi, detta idrosfera, ed una zona solida indicata con il nome di litosfera, con i primi abbozzi di quelli che diventeranno i futuri continenti. Al termine di questa fase pregeologica (3 miliardi e 800 milioni di anni fa circa) ha inizio il periodo Archeano dell’Era Precambriana, ed è durante questo periodo che si sviluppa il fenomeno biologico terrestre. Da questo remoto passato in avanti, il pianeta Terra potrà dirsi a tutti gli effetti abitabile (CHZ, Circumstellar Habitable Zone) e di fatto abitato da forme di vita che dipendono dalla presenza di acqua allo stato liquido o, per essere più precisi, dalla presenza di una pressione atmosferica capace di mantenere l’acqua sulla superficie del pianeta allo stato liquido. Uno tra altri 11 miliardi di pianeti, nella sola Via Lattea, considerati abitabili, stando ai dati raccolti dalla missione spaziale Keplero, da forme di vita dipendenti dall’acqua allo stato liquido. 1.1 Il fenomeno biologico: dai precursori delle cellule al Cambriano Quello che è avvenuto sulla Terra in un remoto passato e quali possano essere state le condizioni (uniche e irripetibili?) che hanno innescato il fenomeno biologico, è un concetto di cui possiamo parlare, ma si tratta di eventi che non possiamo conoscere per diretta esperienza. Qualunque ipotesi facciamo, non possiamo in linea di principio verificarla per diretto confronto con ciò che è avvenuto. Tutto ciò che possiamo fare è costruire una ipotesi che renda coerentemente connessi tra loro tutti i dati in nostro possesso, eliminando ogni apparente contraddizione, senza timore di dover tornare sui nostri passi, se la prospettiva di indagine adottata dovesse dimostrarsi fallace. In base allo stato attuale delle conoscenze, il fenomeno biologico ebbe inizio in ambiente acquatico (che era incompatibile con la sopravvivenza del 99% delle forme di vita attuali) tra i 4 e i 3.8 miliardi di anni fa, quando l’intero habitat terrestre, così come la distribuzione delle terre emerse, era completamente diverso da quello attuale (l'atmosfera era probabilmente composta per il 75% di azoto e per il 15% di anidride carbonica, la luminosità solare era l'80% del livello attuale). Il passaggio dall’organico al biologico sarebbe avvenuto, come si dirà meglio nel Paragrafo 5.3, con la formazione dei precursori (vescicole colloidali liofile di acqua prebiotica mantenuta in un regime di supercoerenza oscillatoria da un campo elettromagnetico endogeno di idonea intensità e frequenza, delimitate da una pompa elettronica selettiva costituita da una pellicola semicristallina di acqua, e contenenti macromolecole come proteine e amminoacidi, sintetizzate su base enantioselettiva) delle prime forme di vita unicellulare, le cellule procariote (cellule prive di nucleo, microrganismi unicellulari autotrofi anaerobi foto, magneto e chemio-sintetici). Dopo un lento processo non-lineare di trasmutazione biologica (orientato da una precisa e universale relazione causale: 1) la funzione genera la struttura e 2) i processi biofisici precedono i processi biochimici), durato circa 2-1,5 miliardi di anni (periodo di transizione da una atmosfera riducente, cioè priva di ossigeno gassoso, ad una ossidante), parte dei microrganismi unicellulari autotrofi esistenti (cellule procariote) andarono incontro ad un processo di nucleazione trasformandosi in cellule eucariote (cellule dotate di nucleo), di cui sono costituiti tutti gli organismi pluricellulari (i più antichi ibridi di organismi pluricellulari furono metazoi, funghi e spugne marine, che si formarono tra 800 e 700 milioni di anni fa circa). Circa 570-540 milioni di anni fa, 3,5-3 miliardi di anni dopo la formazione delle cellule procariote, al Precambriano succede il Cambriano (da Cambria, nome latino dato al Galles, dove venne rinvenuta la prima roccia risalente a questo periodo). Nell’arco di poche decine di milioni di anni l’ecosistema biotico, fino ad allora composto da organismi procarioti, organismi eucarioti e dagli ibridi degli organismi pluricellulari, andò incontro ad un rapido processo di diversificazione delle forma di approvvigionamento energetico che portò alla comparsa degli organismi eucarioti pluricellulari, come Alghe, Artropodi, Molluschi, Meduse, Crostacei (→organismi dotati di guscio, predatori, scavatori di tane profonde). Con esso ebbe inizio, 570-540 milioni di anni fa circa, l'Era Primaria, o Paleozoico, che durerà circa 300 milioni di anni e che comprende l'Ordoviciano, periodo nel quale compaiono i Vertebrati agnati, e il Siluriano, nel corso del quale compaiono i Pesci. Seguono, sempre nell'Era Primaria, il Devoniano, con i primi campioni di flora e di fauna terrestri, e il Carbonifero, caratterizzato da un grande sviluppo della flora con grandi foreste che ricoprirono tutti i continenti, seguito dal Permiano, con la comparsa dei Rettili, i primi vertebrati esclusivamente terrestri. L'Era Secondaria, o Mesozoico, si apre 250 milioni di anni fa circa con il Triassico, nel quale la vita si arricchisce per la comparsa dei primi organismi che anziché deporre le uova partorivano, gli animali placentati (precursori dei Mammiferi). Gli Uccelli compaiono nel successivo Giurassico, mentre nel Cretaceo si affermano e dilagano sulle terre emerse i Sauri. E' di questo periodo la specializzazione dei grandi Rettili nelle varie nicchie ecologiche: sono stati ritrovati fossili di Ittiosauri, Dinosauri e Pterosauri, adattati alla vita rispettivamente nelle acque e sulla terraferma e al volo nell'aria. Il declino e la scomparsa dei vari gruppi di Sauri si realizza totalmente prima della fine del Cretaceo (→estinzione di massa). Altre forme di vita vegetale e animale compaiono nell'Era Terziaria, o Cenozoico, che inizia 65 milioni di anni fa circa e viene suddivisa nei periodi Paleocene, Eocene, Oligocene, Miocene e Pliocene, che marcano soprattutto l'affermarsi dei Mammiferi. Nell'Età Quaternaria, il cui inizio è da porsi tra 3 e 1,8 milioni di anni fa, e precisamente nel periodo chiamato Pleistocene, la storia della vita presenta i primi fossili del genere Homo (Homo Abilis). La comparsa dell'uomo attuale (Homo Sapiens) è databile intorno ai 200.000 anni fa. La comparsa d'un numero elevato e diversificato di specie animali marine (invertebrati) durante il periodo di transizione tra Cambriano e Ordoviciano fu accompagnata da una diversificazione delle modalità nel procacciamento del cibo (approvvigionamento energetico), tra le quali figurano quelle basate sulla foto-autotrofia, sulla chemio-autotrofia e sulla eterotrofia e dallo sviluppo delle prime comunità complesse di animali legate tra loro da catene alimentari. La fotoautotrofia implica una relazione simbiotica con microscopiche alghe fotosintetiche. Dato che si trovano all'interno dei tessuti dell'animale che le ospita, le alghe sono protette dagli organismi che potrebbero cibarsene. In cambio, le alghe fotosintetiche sintetizzano e cedono sostanze nutritive all'ospite e ne eliminano i prodotti di rifiuto (molti coralli di scogliera attuali e alcuni bivalvi tropicali possiedono nei loro tessuti alghe fotosintetiche). Grazie alla chemioautotrofia, invece, gli animali captano le sostanze nutritive dall'acqua marina in modo sia diretto che indiretto. In questo secondo caso si assiste a un tipo di simbiosi interna, grazie alla quale l'animale ospita batteri chemiosintetici che, in cambio di protezione, sintetizzano e cedono sostanze nutritive all'ospite (questo tipo di fisiologia è comune tra gli attuali animali che vivono presso le sorgenti idrotermali che si aprono nelle profondità oceaniche). Così, in acque povere di sostanze nutritive, la relazione ospite-simbionte risultò particolarmente vantaggiosa: l'ospite può nutrirsi efficacemente per interposizione del simbionte e quindi riciclare i suoi prodotti di rifiuto direttamente tramite il simbionte anzichè liberarli nell'ambiente. Un ambiente ricco di sostanze nutritive, al contrario, non avrebbe favorito solo la nutrizione basata su relazioni simbiotiche, ma avrebbe favorito anche altre modalità di alimentazione, aumentando il numero di animali detrivori (che si nutrono di detriti organici) e necrofagi (che si nutrono di organismi in decomposizione), determinando al tempo stesso un aumento nel numero e nella varietà degli animali eterotrofi. L'eterotrofia (ossia il consumo per ingestione di altri organismi, sia animali sia vegetali) divenne sempre più importante a partire dal tardo Cambriano. Per il loro nutrimento questi animali digeriscono il cibo in una cavità interna e accumulano sostanze di riserva in forma di glicogeno o grasso. Generalmente si muovono per l'azione di cellule specializzate (cellule contrattili e cellule muscolari), tendono a delegare il controllo e l'organizzazione della loro attività a particolari sostanze (gli ormoni) o cellule (neuroni), la loro riproduzione è generalmente sessuata (spermatozoo maschile e uovo femminile) e gli adulti, a differenza delle piante, generalmente mantengono dimensioni e forma fisse. Fig. 1 Posizione degli antichi continenti durante il Cambriano, circa 550 milioni di anni fa. (Fonte immagine wikipedia.org) 1.2 Le estinzioni di massa Nel corso dei circa 3,8 miliardi di anni che ci separano dai precursori delle cellule procariote, sul pianeta si sono avvicendate varie e importanti estinzioni di massa, innescate da diversi fattori, tra cui fattori abiotici (ad es., clima) e biotici (ad es., malattie), eventi graduali (ad es., riduzione o aumento della concentrazione di ossigeno, aridità generata da cambiamenti climatici, cambiamenti delle correnti oceaniche e variazioni dei livelli del mare, variazioni nella distribuzione delle terre emerse) ed eventi catastrofici (ad es., impatti meteoritici, aumento dell'attività vulcanica, rilascio di clatrato di metano dal mare e dai fondali oceanici). Una serie di eventi graduali e catastrofici che annulla la sostenibilità in chiave darwinista, di una discendenza filogenetica spontaneamente/ casualmente consequenziale (vedi Paragrafo 3.1). Le principali estinzioni di massa furono (dalla più antica alla più recente): → tra i 2400 e i 2000 milioni di anni fa (maf): Grande Evento Ossidativo, la prima e più grande estinzione di massa, chiamata anche la Catastrofe dell'Ossigeno, la massiccia e prolungata immissione in atmosfera dell'ossigeno gassoso prodotto dai procarioti anaerobi fotoautotrofi (cianobatteri), determinò il passaggio da un'atmosfera riducente a una ossidante, con conseguenze letali per gran parte degli organismi procarioti anaerobici (che sono avvelenati dall'ossigeno gassoso) [3], costretti a rifugiarsi nei fondali oceanici; → 650 maf: estinzione di massa del 70% delle piante marine, dovuta a una glaciazione globale (ipotesi della Snowball Earth); → 443 maf: Glaciazione di Gondwana, estinzione di massa di molti invertebrati marini, scomparve circa il 49% dei generi di fauna esistente; → 374 maf: estinzione di massa di circa il 70% delle specie marine, in realtà si tratta di una serie prolungata di estinzioni, durata per più di 20 milioni di anni, dedotta dalla presenza di segni evidenti di anossia delle acque nelle profondità oceaniche, e di un raffreddamento globale che causò l'abbassamento della temperatura di superficie da circa 34° Celsius a circa 26° C.; → 251 maf: estinzione di massa del Permiano-Triassico, segni di un possibile cratere di origine meteoritica, largo circa 480 km, nella regione di Wilkes Land in Antartide; periodo di grande vulcanismo in Siberia che causa il rilascio di grandi quantità di gas (CO2, CH4 e H2S) in atmosfera, il livello di ossigeno (O2) scese dal 30% al 12%, il livello di anidride carbonica (CO2) era di circa 2000 ppm (parti per milione), fu la peggiore estinzione di massa post-precambriana, che comportò l’eliminazione del 90% delle forme di vita oceaniche, e del 70% di quelle terrestri (fauna e flora); → 201 maf: estinzione di massa causata da un evento anossico oceanico, che comportò l’eliminazione del 20% di tutte le forme di vita marine; → 65,5 maf: un impatto meteoritico provoca un cratere largo 170 km a Chicxulub, nello Yucatan, in Messico, estinzione di massa dell’80-90% delle specie marine e dell’85% delle specie terrestri, compresi i dinosauri; → 12,900 anni fa: l’esplosione di una cometa sul Canada provoca l'estinzione della megafauna americana come il Mammut e il Sabretooth Cat (Smilodon), così come la fine della cultura Clovis. Fig. 2 Evolution timeline 2. Dalla tecnologia di Homo Sapiens et Faber alla metafisica applicata per scopi pratici Certamente fin dall’inizio non tutto gli déi svelarono ai mortali ma nel corso del tempo quelli che ricercano trovano ciò che è meglio Senofane di Colofone (circa 580-485 a.C.) Frammento 18 La centralità della tecnologia3, ovvero del saper fare inteso come ideazione, produzione e applicazione intenzionale di tecniche (procedure) manuali e/o strumentali finalizzate alla soddisfazione di scopi antropici, è un fatto relativamente recente nella storia delle comunità umane [Messori 2013]. Le più antiche testimonianze del saper fare antropico risalgono al Paleolitico Inferiore e Medio, sotto forma di manufatti litici (choppers, bifacciali, raschiatoi, asce e punte), resti di imbarcazioni “Il termine tecnologia è una parola composta che deriva dalla parola greca τεχνολογία (tékhne-loghìa), letteralmente “discorso (o ragionamento) sull’arte”, dove con arte si intendeva sino al secolo XVIII il saper fare, quello che oggi indichiamo con la tecnica.” (Daniele Dallorto) 3 rudimentali [Strasser, 2010]4, incisioni su pietra (petroglifi) e pittogrammi parietali, statuette (Veneri), ma si tratta di produzioni che indicano un ricorso a prassie e abilità manuali caratterizzato dalla assenza di intenzionalità: un saper fare che si fa nell’incontro tra l’ambiente e la disponibilità di requisiti e di competenze filogeneticamente acquisite, così come la stazione eretta e il saper camminare non sono frutto di intenzionalità nè di apprendimento ma si fanno nell’incontro tra ambiente e competenze antigravitarie pronte all’uso. Sarà solo a decorrere dal periodo di transizione tra il tardo Paleolitico Medio e gli inizi del Paleolitico Superiore (tra circa 70 e 30 mila anni fa) che le comunità umane inizieranno a integrare il loro saper fare filogenetico con un saper fare epigenetico contraddistinto dalla intenzionalità e impiegato per scopi adattivi e sovradattivi. Nell’arco di questo periodo di tempo infatti, la relazione di continuità [Messori 2012] sino ad allora intrattenuta dall’animale homo (come da qualsiasi altro animale) con l’ambiente, venne fecondata dalla nascita psicologica della individualità umana e dalla costituzione di quella identità psichica relativamente autonoma e indipendente (pre-razionale e pre-verbale) che chiamiamo funzione epigenetica del reale, o autocoscienza umana, dando avvio alla sedimentazione di una relazione di contiguità con il Mondo, e al conseguente processo di produzione culturale, che gradualmente e irreversibilmente porterà una parte delle comunità umane a fare un uso sempre più intensivo e specialistico della tecnologia. All’interno di questo gap tra l’ambiente inconscio del sapere filogenetico e l’ambiente conscio del sapere epigenetico, scavato dalla nascita psicologica, si inseriscono tutte le dinamiche relazionali e comportamentali che da questo momento in poi verranno sperimentate dalle comunità umane nel loro confronto culturale con l’esistere. Dinamiche relazionali che traggono tutte origine dalla triade archetipica associata alla stazione eretta dell’essere umano, secondo la quale il suo posto nel Mondo, il suo ruolo elettivo, è di collegamento tra ciò che sta sopra, in alto, il Cielo, e ciò che sta sotto, in basso, la Terra. Il primo passo importante, verso un uso sempre più intensivo e specialistico della tecnologia, venne fatto nel corso del Neolitico con l’ideazione e l’applicazione delle prime tecniche e l’uso dei primi attrezzi da lavoro nella coltivazione cerealicola, allevamento di bestiame, filatura, tessitura, nella costruzione di abitati e nella lavorazione della ceramica. Nel corso degli oltre quindicimila anni che separano il Neolitico dall’Illuminismo inglese del XVIII sec. d.C., la tecnologia è sempre stata considerata un mezzo, a cui fare ricorso per soddisfare i fini dettati dalla produzione culturale e sociale, in particolare quelli rivolti alla sopravvivenza, all’addomesticamento della Natura (approvvigionamento di risorse alimentari, regimentazione rudimentale delle acque fluviali, etc.). Aristocratici, Sacerdoti e Guerrieri, così come le comunità di individui che essi rappresentavano, hanno continuato a servirsi della disponibilità di risorse tecnologiche considerandole sempre come un mezzo e mai come un fine, anche quando due straordinarie acquisizioni tecnologiche come l'addomesticamento del fuoco per la lavorazione dei metalli (Età dei Metalli, VIII-I millennio a.C.) e l’invenzione della scrittura, cambiarono il corso della storia5. 4 Reported by M. Marshall, Neanderthals were ancient mariners, 2012: www.newscientist.com/article/mg21328544.800-neanderthals-were-ancient-mariners.html 5 Ciò che non ha una sua essenza, ma che è un complesso tessuto di contingenze, è la Storia. Ciò che si veste sempre di nuove forme, adattandosi alle realtà contingenti ed esprimendosi attraverso il linguaggio dei tempi, pur restando sempre uguale nella sua essenza, è la Tradizione. La Storia è l’aspetto modale (processuale) della Tradizione e la Tradizione è la parte sostanziale della Storia. I valori e gli ideali sono articolati dalla Tradizione ed il risultato della loro attuazione o concretizzazione nella realtà è un fatto storico. Nell’area euro-mediterranea, tuttavia, l’intreccio maturato nel corso del I millennio a.C. tra gli elementi paradigmatici mesopotamici, ellenistici e romani posti a fondamento della gestione delle faccende terrene (→ Cilindro di Nabonidus6 e Cilindro di Ciro7 → Polis → Senato), e la lungimirante elaborazione teologica della casta sacerdotale semitica (tra il VII e VI sec. a.C., in un’epoca retta dal politeismo, il Regno di Giuda, con capitale Gerusalemme, fu il primo regno nella storia a venerare in un unico tempio un unico dio, il dio abramitico Yahweh), portò a concepire una forma di governo dell’Impero, istituita sulla distinzione giuridica tra legge divina e legge terrena (che verrà successivamente sintetizzata nel celebre detto attribuito a Gesù e riportato dai Vangeli: Date a Cesare quello che è di Cesare e a Dio quello che è di Dio). Il Senato romano e la Polis greca fornivano già tutti gli elementi necessari per l’articolazione giuridica della legge terrena, mancava un culto religioso che potesse fornire gli elementi necessari per l’articolazione giuridica della legge divina. Questo culto religioso prese corpo nella religione giudaico-cristiana. L’affermazione imperiale del culto giudaico-cristiano, deve molto della sua fortuna alla missione apostolica di un contemporaneo di Gesù di Nazareth, Saulo di Tarso (latinizzato in Paolo, ovvero San Paolo, 5(10)-64(67) d.C.), un predicatore greco-romano itinerante di religione ebraica poi convertitosi al cristianesimo, che nel corso del I sec. d.C. riesce ad estendere il nuovo culto, allora praticato solo da un ristretto numero di comunità giudeo-cristiane, fuori dai confini della Palestina, verso l’attuale Giordania, la Turchia e la Grecia. Saulo si fece promotore di un cristianesimo ispirato ai principii etici dello stoicismo medio (I sec. a.C.)8, basato sull’assunto che Gesù di Nazareth (predicatore e profeta ebreo anch’egli itinerante, finito crocifisso per mano dei romani) fosse il Messia, Il Cristo (dal greco Christòs, l’Unto), il Figlio di un Re dei re, Sacerdote dei sacerdoti, Condottiero dei condottieri, di origine semitica: il Dio venerato a Gerusalemme, Jahweh, Colui che È. Jahweh, figura divina sinaitica, ispirata a una figura divina indù, Īśvara, elaborata dalla casta sacerdotale semitica nel corso della seconda metà del II millennio a.C. (epoca in cui i popoli semitici del Sinai inventano la scrittura alfabetica), e derivata dalla sintesi teologica della triade cosmica sumerica Anum-Enlil-Enki (nonchè della controparte femminile di Anum, Ki, e della divinità femminile creatrice Ninhunsag), e di quella akkadica composta da Marduk-IshtarShamash, Jahweh dunque, si fa uomo in Gesù. L’assunzione di sembianze umane da parte di una divinità non costituisce un elemento di novità, molte altre divinità nella Storia sia dell’emisfero boreale che di quello australe lo fanno. Il fatto sorprendente e straordinario, per qualcuno quasi blasfemo mentre per altri semplicemente insensato, è dato dal fatto che questo Dio non si limita ad assumere sembianze umane, no, questo Dio si fa, letteralmente, mortale. L’aver reso mortale l’immortale e immortale il mortale (la consustanzialità della pericoresi cristologica, base del dogma della Trinità), è una operazione di metafisica applicata per scopi pratici unica nel suo genere9, che accoglie in pieno l’istanza 6 http://www.livius.org/na-nd/nabonidus/cylinder.html http://www.livius.org/ct-cz/cyrus_I/cyrus_cylinder.html 8 Tutti gli uomini sono uguali di fronte alla legge universale del Lògos, direbbe uno stoico, e Saulo applicò questo principio etico alla sua religione, affermando che tutti gli uomini, anche quelli non circoncisi, sono figli del suo Dio. Cfr.: http://www.latinovivo.com/schedeletteratura/stoicismo.htm 9 Anche la divisione in caste dell’India vedica, per es., è una operazione di metafisica applicata, nel senso che rispecchia un Ordine cosmico imprescindibile: Rg Veda X, 90, strofa 12 (Purusasukta): La sua bocca [dell’Uomo primordiale fatto a pezzi, sacrificato] divenne il Brahmano, il Guerriero fu il prodotto delle sue braccia, le sue cosce furono l’Artigiano, dai suoi piedi nacque il Servitore. La differenza è che qui ci si pone nella prospettiva anti-storica della metafisica (la Tradizione), da cui tutte le questioni di ordine pratico partono e a cui tutte fanno ritorno, mentre l’aver reso mortale l’immortale e 7 aristotelica: ciò che attiene al Lògos (in Platone il Cielo iperuranico delle Idee), al Motore Immobile (in Aristotele la metafora della antistoricità della metafisica10), per quanto sublime possa essere, è per definizione estraneo a questioni di ordine pratico e quindi non-utile, perciò, noi, cultori dell’arte-arma del logos11 (la Dialettica, la serrata applicazione pratica della logica, e la Retorica, l’abilità nell’uso della parola come chiave di ogni autorità nello Stato), ci volgiamo all’uso esclusivo della Ragione delle idee (della matematica e della geometria). L’evento cruciale nel processo di affermazione della ragione della metafisica applicata per scopi pratici e della ragione della consustanzialità (gli elementi teoretico-teologici sui quali germoglierà la postuma Età dei Lumi), fu l’incoronazione (V sec. d.C.) della religione cattolica di Santa Romana Chiesa ad unica religione ammessa e tollerata dall’Impero Romano (d’Occidente)12. Il sodalizio tra la Santa Romana Chiesa fattasi Stato e l’Impero Romano d’Occidente, celebra ufficialmente il trionfo della Ragione delle idee, che, nel rivendicare la propria autonomia ed estraneità dalle dispute metafisiche, declassa la trascendenza, (il territorio del Non-nato, meglio noto come Non-Essere, del Senza-Nome, dell’eccedenza di senso, del simbolo), ad una questione teologica (il territorio del Nato, meglio noto come l’Essere, dei Nomi, del senso e dei significati) [Messori 2000, 2004]. La convergenza dei tutori del sacro e dei tutori del profano, sulla opportunità di affidare il governo universale dei corpi e delle anime al primato della ragione della metafisica applicata per scopi pratici, è un evento storico di eccezionale importanza, rimasto per secoli circoscritto all’area euromediterranea (nonostante l’espansione dell’Impero romano fino alle porte dell’India, nonostante due secoli di Crociate, nonostante quattro secoli di espansionismo coloniale), che in epoca tardorinascimentale (quando la riabilitazione dei classici greci e romani era cosa fatta) porterà i discendenti degli esperti nell’arte del sapere e del saper fare per scopi pratici dell’Età dei Metalli, ovvero gli Artigiani, esperti nell’arte del trasformare la materia grezza in oggetti finiti (ai quali gli alchimisti consegnano lo spirito dello sciamano-metallurgo, il Signore del Fuoco, incarnato nel corpo esoterico della metafisica applicata che non rinuncia a cogliere dall’Albero della Conoscenza), e i Mercanti, gli esperti per antonomasia nell’arte del fare affari con il sacro e con il profano, ad affermarsi come soggetto sociale e politico dominante. A decorrere dal XV sec., il trend positivo registrato dallo sviluppo e dal trasferimento delle attività produttive e commerciali verso i centri cittadini, nonché il vuoto di potere generato dal declino del Sacro Romano Impero e dal contemporaneo affievolimento dell'autorità papale, aprono le porte alle istanze di un nuovo gruppo sociale urbano privilegiato (èlite), caratterizzato da specifiche norme di comportamento e da ruoli predeterminati (ceto), che per affermarsi sistematizzerà il ricorso ad una ragione della metafisica applicata per scopi pratici, ispirata al "sapere e saper immortale il mortale è retorica allo stato puro, tant’è che la sua insostenibilità è messa a tacere da un dogma mimetizzato in un atto di fede. 10 Il Motore Immobile è l’equivalente dell’Axis Mundi, del Lògos dei presocratici (Eraclito), del Dharma della dottrina indù, del Cielo Anteriore nella cosmologia taoista, è ciò che imprime contrapposto a ciò che esprime, è ciò che permane invariabile al centro delle rivoluzioni di tutte le cose, e che regola, senza intervenirvi in alcun modo (il wu-wei, azione-senza-azione, del taoismo), il corso dei cambiamenti per il fatto stesso che non ne è partecipe. 11 Il lògos dei postsocratici, la parola argomentata che sistematizza il divenire delle relazioni in regole e segni, contrapposta alla parola rituale, ai me della civiltà akkadico-sumera (XIX-XVIII sec. a.C.), norme e decreti di natura divina che garantiscono e determinano il destino di ogni essere, di ogni forma di vita, di ogni impresa divina o umana, dei vari mestieri, vocazioni e istituzioni (il cui corrispettivo nella tradizione indù sono i dharma). 12 La vocazione ad essere una religione esclusiva e non inclusiva è già presente nel I dei X Comandamenti: Non avrai altro Dio all’infuori di me. Un comandamento che suona al tempo stesso come una promessa, una minaccia, un avvertimento, una certezza, un premio. Per molti sarà una condanna. fare affari inteso come ideazione, produzione e applicazione imprenditoriale di tecniche (procedure) manuali, strumentali, economiche, politiche, finanziarie, militari finalizzate al soddisfacimento della propria ambizione di potere": la borghesia. Autoproclamatisi eredi legittimi dell’illuminismo greco ante litteram (sofisti, atomisti, scettici, stoici), tra il XVII e XVIII sec. gli intellettuali borghesi inglesi danno vita a un movimento di pensiero e d’azione, l’Illuminismo, che si fa portatore di un modello culturale emendato da qualsiasi traccia di metafisica e di superstizione, fondato sulla fede incondizionata ed esclusiva (non avrai altro modello di conoscenza all’infuori di me) nella ragione empirica e nella conoscenza scientifica ritagliata sul modello scientifico sperimentale galileiano-newtoniano. Contemporaneamente, il movimento illuminista scardina l’assetto socio-politico dominante (rivoluzione americana e francese, nascita delle monarchie costituzionali europee), consegnando il destino dei popoli alla visione meccanicista e riduzionista della realtà: Dio-Gesù, il grande orologiaio, nel creare il Cielo e la Terra e tutto ciò che popola lo spazio compreso tra di essi non ha lasciato niente al caso, anzi, tutto è stato calcolato secondo un disegno matematico di causa-effetto, per essere affidato all'Uomo maschio, bianco, cattolico, istruito, benestante, l’unico essere del creato in cui Dio abbia compiutamente infuso la res cogitans. L'Universo, è un sistema meccanico di oggetti solidi (res extensa) che riempiono porzioni di uno spazio altrimenti vuoto, posti in relazione reciproca secondo leggi di moto che, almeno in linea di principio, sono calcolabili. Con la progettazione e realizzazione delle prime macchine complesse in grado di produrre energia in modo costante (nel 1730 Kay inventa la spola volante che velocizza la tessitura, nel 1764 Hargreaves inventa la spinning-jenny, un filatoio meccanico azionato dall'uomo, in grado di far agire contemporaneamente molti fusi, nel 1768 Arkwright costruisce una filatrice che richiede energia non manuale grazie ad un motore idraulico, nel 1784 Cartwright realizza il telaio meccanico, nel 1781 Watt costruisce la prima vera e propria macchina a vapore), banchieri, mercanti e imprenditori, arricchiti dall’esperienza coloniale e ferventi sostenitori dei principii illuministici (a cui si richiama la classica definizione di energia: capacità di un sistema o di un corpo di compiere lavoro), scoprono i vantaggi che possono trarre dallo sfruttamento imprenditoriale delle macchine e decidono di investire denaro, beni, conoscenze, competenze, esperienza, tempo e mano d’opera nella meccanizzazione dei processi produttivi e nello sviluppo tecnologico. È in quest’epoca che il processo di integrazione tra uomo e tecnologia (macchina) muove i suoi primi passi, partendo dal presupposto che il capitale umano scarsamente o per nulla dotato di res cogitans (gli schiavi deportati dalle colonie e tutti i non appartenenti alla razza bianca, le donne, i bambini e i maschi prestatori d’opera) deve esercitare il proprio ruolo produttivo in funzione del capitale tecnologico. Nel corso del XIX sec., l’impeto rivoluzionario illuminista abbandona le piazze e viene data alla luce la prima religione laica e scientifica della Storia, il positivismo, l’elaborazione ideologica di una borghesia industriale liberista solidamente affermata, che fa della scienza una metafisica di certezze assolute, tanto che negli ultimi anni della sua vita Auguste Comte (17981857), ideologo del positivismo, scrive il Catechismo positivista e fonda la Chiesa Positivista, dove vengono trasposti gli elementi dottrinali, etici e liturgici della tradizione cattolica. Tornata ad affermarsi, quella ragione della metafisica applicata per scopi pratici che aveva tenuto a battesimo la scalata sociale del ceto borghese cambia nome e diventa dottrina della fede nella Scienza. Per molti secoli la filosofia e le scienze erano rimaste strettamente connesse in un sistema di rapporti reciproci subordinati ai principi universali della metafisica. Il declassamento della trascendenza ad una questione teologica aveva inferto alla metafisica e alla filosofia il primo duro colpo, facendole cadere in disgrazia a favore delle scienze e della metafisica applicata per scopi pratici. Il colpo di grazia verrà loro inferto dall’Illuminismo prima e dal Positivismo poi, quando l’assolutismo teologico passa definitivamente il testimone all’assolutismo scientifico, decretando la scomparsa della figura dello scienziato con interessi e conoscenze universali, per lasciare il posto ai ricercatori specializzati, che dovevano dare risposte sicure ai problemi posti dall’industrializzazione e dal progresso tecnologico. Subordinata al punto di vista dell’individuo, scrive il Colli [4], la conoscenza diventa così strumento dell’azione: in questa crisi, tragica e decisiva per i secoli seguenti, il filosofo in Descartes impallidisce, trascolora sino ad annullarsi nello scienziato, e in generale la filosofia si ritira ufficialmente dal giuoco, cedendo il banco. Il vincitore è privo di venerazione, e da allora il titolo di filosofo designa qualcuno che sta tra l’acchiappanuvole e il giullare. Si impone, così, il mito di una Scienza super partes che contende a Dio il suo primato di Giudice imparziale, e così facendo sfila il destino dei popoli dalle mani dei teologi per gettarla nelle le mani dei teo-scienziati che stabiliscono razionalmente leggi assolute, obiettive e valide sopra ogni ragionevole dubbio. Una assunzione di assoluta imparzialità palesemente falsa. Qual’è allora il giusto ruolo, scrive il fisico David Bohm [5], dell’incorporare fatti in ordini, misure e strutture di teorie preesistenti? Qui è importante notare che i fatti non vanno considerati come oggetti indipendentemente esistenti, che troviamo nei nostri laboratori. Un fatto è piuttosto ‘ciò che è stato fatto’: in un certo senso siamo noi che ‘facciamo’ il fatto. Vale a dire che, a partire dalla percezione immediata di una situazione reale, la trasformiamo in fatto dandole un ordine, una forma e una struttura con l’aiuto dei nostri concetti teorici. Per esempio, servendosi dei concetti d’ordine dominanti nell’antichità, gli scienziati furono portati a ‘fare’ il fatto delle orbite planetarie, descrivendole e misurandole in termini di epicicli. I fatti della fisica classica sono invece ‘fatti’ sul modello di ordine delle orbite planetarie descritte in termini di posizioni e di tempi. I fatti della relatività generale sono ‘fatti’ in base all’ordine della geometria riemaniana e alla misura che risulta da concetti come quello di curvatura dello spazio. Nella teoria quantistica, i fatti sono ‘fatti’ in base all’ordine dei livelli energetici, dei numeri quantici, dei gruppi di simmetria, e così via, insieme con opportune misure (per esempio, sezioni d’urto, masse e cariche di particelle, eccetera). I cambiamenti di ordine e misura nella teoria portano in ultima analisi a nuovi modi di sperimentare e a nuovi strumenti, che a loro volta portano a ‘fare’ fatti di nuovo tipo corrispondentemente ordinati e misurati. Come conseguenza del sempre più vasto arruolamento di forza lavoro a basso costo nel ciclo produttivo creato dal processo di industrializzazione, prendono vita un nuovo soggetto sociale, il proletariato, e due teorie politiche e sociali, una rigidamente materialista, il socialismo scientifico di Karl Marx e Friedrich Engels, l’altra agitata da un romantico idealismo, l’anarchismo di Michail A. Bakunin e Petr Kropotkin. Entrambe lasciano intatto l’impianto ideologico settecentesco su cui si erge la visione della scienza come metafisica di certezze assolute, per schierarsi a favore della emancipazione della classe operaia e di quanti sono vittime della logica di potere del ceto dominante. Meno di un secolo dopo (prima metà del ‘900), la rivoluzione scientifica innescata con la formulazione della Teoria della Relatività Generale di Einstein (che ha cambiato radicalmente ciò che sappiamo dello spazio e del tempo) e della Meccanica Quantistica (che ha cambiato profondamente ciò che sappiamo della materia), svela una realtà fisica microscopica e macroscopica completamente diversa da quella teorizzata dalla fisica newtoniana, che perde il titolo di teoria fisica universale e deve accontentarsi di mantenere una validità pratica solo sul piano meccanico. Le nuove acquisizioni scientifiche non tardano a trovare conferma sperimentale, e la realizzazione dei primi ordigni nucleari, sganciati sul Giappone nell’estate del 1945, uno (soprannominato Little Boy) su Hiroshima, l’altro (Fat Man) su Nagasaki, non lasciano ombra di dubbio: è l’avvento di una nuova Era, l’Età dei Quanti. 2.1 Il crollo del paradigma newtoniano Il conflitto tra scienza e religione è dovuto in realtà ad un malinteso di entrambe. Il materialismo scientifico ha semplicemente introdotto una nuova ipostasi, e questo è un peccato intellettuale. Esso ha dato un altro nome al principio primo della realtà ed ha presunto di avere così creato un elemento nuovo e di averne distrutto uno vecchio. In qualunque modo chiamiate il principio dell’esistenza - Dio, materia, energia o qualsiasi altra cosa preferiate -, non avrete creato nulla; avrete semplicemente sostituito un simbolo. Il materialista è un metafisico malgrè lui. Carl Gustav Jung 13 Lo scopo fondamentale della fisica classica newtoniana, era spiegare causalmente l'azione delle forze sulle particelle che compongono il cosmo, e descrivere il loro moto reciproco con l'ausilio di equazioni matematiche. Dalle tre leggi della dinamica14 e dalla legge di gravitazione universale15 si ricavano le equazioni del moto, che consentono di prevedere, in riferimento alla tre dimensioni dello spazio e al fluire unidimensionale del tempo, le traiettorie dei corpi. Su queste basi, si stabiliscono legami deterministici tra i corpi, secondo il principio di una connessione necessaria tra causa ed effetto, esprimibili mediante le equazioni del moto. Nell'universo newtoniano niente accade per caso, ma tutto è necessario in quanto soggetto alle leggi deterministiche della natura. Newton suppose l'esistenza di uno spazio assoluto, infinito, vuoto, tridimensionale, invisibile, non modificabile dalle masse e fermo rispetto al loro moto. Era così possibile misurare il moto uniforme di un corpo rispetto a questo spazio assoluto. Ogni corpo occupa nello spazio assoluto una posizione determinata ed unica, e due corpi possono occupare lo stesso spazio, ma solo in tempi diversi. Il tempo misura così la successione e la simultaneità degli eventi nello spazio. E come lo spazio, anche il tempo assoluto di Newton viene concepito in termini matematici: è composto da una serie continua di istanti, disposti in un'unica dimensione. Il tempo è per Newton una realtà fisica, universale e assoluta, non alterabile dai corpi e dal loro moto. 13 Tratto dal suo commento psicologico a: Il libro tibetano della grande liberazione, Newton Compton Editori, 1992, pag. 11 14 I legge della dinamica o Legge di inerzia di Galilei: Un corpo si muove di moto rettilineo uniforme finché una forza non lo costringa a muoversi diversamente; II legge della dinamica o Legge di Newton: Il cambiamento di moto è proporzionale alla forza motrice risultante applicata, ed avviene lungo la linea retta secondo la quale la forza stessa è stata esercitata; III legge della dinamica: Ad ogni azione corrisponde una reazione pari e contraria. 15 Nell'universo ogni punto materiale attrae ogni altro punto materiale con una forza che è direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. Le prime gravi difficoltà della meccanica di Newton si manifestarono a partire dalla seconda metà dell'Ottocento, con la comparsa della teoria elettromagnetica e della termodinamica. La fisica di Newton, con la sua la forza di gravità che agisce a distanza istantaneamente, sembrava incompatibile con la nuova teoria di Faraday e Maxwell, che descriveva l'azione esercitata dalle forze elettromagnetiche sul moto delle cariche elettriche. La teoria prediceva l'esistenza di onde elettromagnetiche, che sostituiscono le particelle puntiformi della meccanica, che si propagano nello spazio, non più concepito in termini newtoniani (assolutamente vuoto e insensibile all'azione delle forze), ma pensato come una specie di fluido, per quanto invisibile, detto etere. La rivoluzione relativistica fu il prodotto del sempre più evidente contrasto tra la descrizione del moto delle particelle elettricamente cariche nei campi di Maxwell e la descrizione del moto secondo le leggi della meccanica di Newton. La fisica classica conteneva il principio della relatività del moto, ed anche la nozione di un moto assoluto, intesa come possibilità - mai sperimentalmente verificata - di poter misurare il moto uniforme di un corpo rispetto allo spazio e al tempo assoluti. Per la teoria elettromagnetica il campo elettrico genera un moto di attrazione e di repulsione delle cariche, cioè un flusso di cariche (quelle dello stesso segno si respingono, quelle di segno diverso si attraggono) detto corrente elettrica. Una corrente elettrica induce un campo magnetico. Ora se applichiamo il principio della relatività del moto ai fenomeni elettromagnetici, dovremmo notare che la velocità delle cariche elettriche dipende dal sistema di riferimento dell'osservatore. Dato un certo sistema di riferimento l'osservatore vedrà la carica in moto, dato un altro la vedrà in quiete. Il primo osservatore constaterà allora l'esistenza di un certo fenomeno, cioè la formazione di un campo magnetico; il secondo osservatore non vedrà nulla. Einstein dimostrò che la meccanica classica si basava su due assunti errati: 1) che la misura del tempo fra gli eventi fosse indipendente dal moto dell'osservatore; 2) che la misura dello spazio fra due punti di un sistema di riferimento fosse indipendente dal moto dell'osservatore. Le leggi di natura sono invarianti e valgono per tutti gli osservatori dell'universo, mentre lo spazio e il tempo dei fenomeni sono relativi al moto (sistema di riferimento) in cui si trova un determinato osservatore. Ne consegue che occorre rivedere profondamente le leggi della dinamica di Newton: queste in senso forte non possono più essere considerate descrizioni vere dei fenomeni naturali. La nuova teoria che sostituisce la dinamica di Newton sarà chiamata teoria della relatività speciale, o ristretta. Se è vera la teoria della relatività speciale, col suo principio della costanza della velocità della luce, allora questa è incompatibile con la forza di gravità di Newton che agisce istantaneamente a distanze infinite. Einstein lavorò al problema per diversi anni, nel 1915 aveva in mano la soluzione: la teoria della relatività generale. I princìpi della relatività speciale venivano estesi ai moti accelerati, mentre in origine si riferivano ai soli moti uniformi (che rappresentano sempre delle idealizzazioni). Poiché tutte le masse sono soggette alla forza di gravità, e quindi sono accelerate (non sono mai realmente in moto uniforme, o inerziale), le leggi relativistiche vengono fatte valere per l'intero universo. La relatività ristretta metteva in discussione la natura intuitiva del concetto di tempo. Ora la stessa sorte toccava all'idea intuitiva dello spazio tridimensionale euclideo. Lo spazio di Newton veniva infatti sostituito con una nuova geometria dello spazio, un continuo spazio-temporale a quattro dimensioni. La geometria del cosmo è non-euclidea. La teoria einsteiniana della relatività, per quanto lontana dal senso comune e per quanto avesse messo in discussione i concetti fondamentali della meccanica di Newton, è ancora una teoria classica a causa del suo determinismo. Ed è ancora una teoria deterministica, in quanto considera le leggi di natura indipendenti dall'osservatore. All'inizio del Novecento prese avvio una nuova prospettiva di ricerca, oltre a quella relativistica, che si concluse con l'edificazione della teoria quantistica della materia. Questa teoria distrusse completamente l'edificio della fisica classica newtoniana, e sostituì il determinismo con l'indeterminismo, la spiegazione causale con la spiegazione probabilistica, e introdusse l'osservatore come soggetto non meramente passivo nelle leggi della fisica. Nell'anno 1900 Max Planck, fisico tedesco, dimostrò che lo scambio energetico tra materia e radiazione avviene in modo discreto (quantizzato), e non in modo continuo come si era fino ad allora supposto. L'energia viene assorbita o irradiata secondo quantità definite, e i loro multipli esatti, dette quanta. L'energia di un quantum dipende dalla frequenza (v) e da una costante (h), poi detta di Planck (E=hv). Era l'inizio dell'Età dei Quanti. Nel 1923 il francese de Broglie, nella sua tesi di laurea, propose un modello matematico che descriveva un campo di radiazione elettromagnetica quantizzato. Ciò significa che le particelle, come gli elettroni, possono essere descritte come onde e la radiazione come particelle, cioè come unità discrete di energia. Così gli atomi e i loro componenti come l'elettrone, fino ad allora descritti in termini classici, cioè puntiformi come pianeti in orbita intorno al Sole, acquistarono una ben diversa connotazione, ondulatoria. La teoria einsteiniana della relatività, fin dal suo apparire, introdusse nel dibattito epistemologico elementi di discussione molto forti, riguardanti il ruolo dell'osservatore, lo status delle leggi naturali, il processo di formazione dei concetti scientifici e il loro valore. Lo stesso si può dire, a maggior ragione, per la meccanica quantistica. Per due secoli la meccanica classica aveva avuto un grande successo nello spiegare i fenomeni; era considerata una teoria vera, un meraviglioso edificio eretto dall'intelligenza umana. Ora questa teoria si era dimostrata falsa, incapace di spiegare i fenomeni ultramacroscopici, cosmologici, e ultramicroscopici, elettromagnetici, atomici e sub-atomici. Al suo posto c'erano teorie che introducevano la relatività del tempo e dello spazio, l'indeterminazione quantistica, il dualismo onda-particella, l'entanglement16, la superposizione bosonica17 e altri "strani" fenomeni. Con questa rivoluzione paradigmatica l’interpretazione e l’investigazione scientifica della realtà fenomenica, incluso il fenomeno mentale, percorrerà due strade18, destinate a tracciarne una terza. L’interazione tra oggetti quantistici porta a correlazioni non-locali che non hanno un analogo classico. Due o più oggetti fisici sono entangled quando sono o sono stati descritti dalla stessa funzione d’onda. Qualora decidessimo di separarli, ad es. due elettroni dei quali uno con spin su (elicità destrogira) e l’altro con spin giù (elicità levogira), ponendoli ai capi opposti dell’Universo e variassimo lo spin di uno dei due, poniamo da su a giù (da destrogiro a levogiro), l’altro lo avvertirebbe istantaneamente variando il proprio spin da giù a su (da levogiro a destrogiro)! Non è ancora chiaro come ciò avvenga. Apparentemente l’entanglement quantistico vìola il limite di propagazione di un impulso fissato dalla velocità della luce (300 mila Km/sec. nel vuoto). Di fatto non lo vìola perché l’entanglement non è un fenomeno vettoriale ma tensoriale. L’entanglement è una misura del grado di correlazione non-locale tra oggetti quantistici, ovvero di quanto lo stato complessivo del sistema sia non-separabile, ovvero non fattorizzabile in stati degli oggetti individuali. Fondamentale è comprendere tutte le implicazioni insite nella equivalenza tra spazio-tempo, campo gravitazionale e continuo spaziotemporale. 17 La Teoria Quantistica dei Campi (Quantum Field Theory) non spiega l’ontogenesi del fenomeno energetico ma spiega la strutturazione della materia in termini di relazioni frequenziali, dove un pattern correlativo corrisponde a un dominio di coerenza oscillatoria. In fisica quantistica (Interpretazione di Copenaghen) l’espressione matematica del pattern correlativo di un oggetto o di un fenomeno (quantistico) viene derivata dalla equazione di Schrödinger e prende il nome di funzione d’onda. Le particelle descritte da funzioni d'onda simmetriche sono dette bosoni e obbediscono alla statistica di Bose-Einstein. Le particelle descritte da funzioni d'onda anti-simmetriche sono dette fermioni e obbediscono alla statistica di FermiDirac. Tutte le particelle elementari responsabili delle forze che tengono uniti i fermioni sono bosoni. Per il principio di esclusione di Pauli, due fermioni non possono condividere lo stesso stato quantico, mentre i bosoni si (superposizione bosonica). 18 Cfr.: Jeffrey M. Schwartz, Henry P. Stapp, Mario Beauregard, Quantum Physics in Neuroscience and Psychology: a Neurophysical Model of Mind/Brain Interaction, 2005, http://rstb.royalsocietypublishing.org/content/360/1458/1309.full.pdf+html 16 Una è quella classica, ben radicata nella forma mentis occidentale contemporanea, basata (i) sul dualismo cartesiano, che esclude la res cogitans dalla propria prospettiva di conoscenza, e (ii) sulla fisica newtoniana, dimostratasi errata. L’altra strada, è quella apertasi con la formulazione della Teoria della Relatività Generale e della Meccanica Quantistica (la cui impostazione di fondo rimane comunque deterministica, altrimenti non si chiamerebbe Meccanica). 3. Il Mondo deterministico La scienza naturale non è semplicemente una descrizione e una spiegazione della natura; essa è parte dell'azione reciproca tra noi e la natura. W. Heisenberg Il mondo visto attraverso il paradigma newtoniano e illuminista è, come si è detto nel paragrafo precedente, un mondo costituito da elementi deterministici di realtà che interagiscono con altri elementi deterministici di realtà. La strutturazione degli oggetti e dei fenomeni che osserviamo dentro e fuori di noi, avrebbe origine dalla diversa combinazione di elementi fondamentali e irriducibili di realtà (come gli atomi di Democrito). Ogni combinazione è predisposta da un codice (algoritmo), ovvero da una sequenza di operazioni che quando applicate a certi dati iniziali portano ad un determinato risultato finale. La strutturazione degli oggetti e dei fenomeni avverrebbe secondo lo schema, riduzionistico e meccanicistico, utilizzato nella ideazione, progettazione e realizzazione di un sistema meccanico: una certa combinazione di building blocks genera una certa struttura, che genera certi processi che grazie all’apporto di energia fanno funzionare….. la macchina. Se si conosce il codice, e si è in possesso del materiale da combinare (building blocks) e degli strumenti per operare19, è possibile riprodurre artificialmente quella particolare combinazione di elementi. Seguendo questa mappazione della realtà, gli scienziati di ieri e di oggi sono a caccia di building blocks e dei codici per assemblarli, a tutti i livelli della materia, sub-atomico, atomico e sovraatomico, inorganico, organico e biologico, cellulare, di organo e di sistema. Nel campo della fisica, ad es., il Modello Standard, ovvero la teoria fisica adottata agli inizi del 1970 per spiegare la composizione della materia, viene introdotto dal CERN con queste parole20: …. everything in the universe is found to be made from a few basic building blocks called fundamental particles, governed by four fundamental forces. Our best understanding of how these particles and three of the forces are related to each other is encapsulated in the Standard Model of particle physics. 19 In questo senso le bio-nano-tecnologie e la bioingegneria hanno fatto passi da gigante. Peccato che in un settore come quello farmaceutico, circa il 40% delle sperimentazioni cliniche si dimostrino fallimentari, e che continuino ad essere utilizzate migliaia di sostanze chimiche i cui effetti sugli esseri umani sono semplicemente sconosciuti. Tanto che in alcuni Centri di ricerca, come il Los Alamos National Laboratory, si sta tentando di correre ai ripari: Surrogate organ system developed for toxicity testing, http://www.lanl.gov/discover/news-release-archive/2014/March/03.26-athena-desktop-human.php 20 CERN accelerating science, The Standard Model, http://home.web.cern.ch/about/physics/standard-model Attualmente lo zoo delle particelle, come viene scherzosamente soprannominato l’insieme dei building blocks-particelle, comprende circa cento esemplari, ed è destinato a crescere, tanto che qualcuno (il fisico americano Murray Gell-Mann e il fisico svizzero George Zweig), intravedendo il rischio che la libera moltiplicazione delle particelle-building blocks possa far collassare l’impianto teorico su cui si regge tutto lo zoo (trasformandolo in un allevamento intensivo di particelle), ha suggerito di considerare la maggior parte delle particelle note non come particelle fondamentali, ma come particelle elementari costituite dalla combinazione di un numero ristretto di particelle effettivamente fondamentali: i quarks. Fig. 3 I sedici tipi di particelle fondamentali-building blocks dalla cui combinazione scaturisce lo zoo delle particelle di cui è costituita la materia. E nel campo della biologia? 3.1 Darwinismo super partes? La nascita della teoria darwiniana dell’evoluzione, e il De profundis della teoria creazionista, vengono fatti coincidere con la pubblicazione della prima edizione de Sull'origine delle specie per mezzo della selezione naturale o la preservazione delle razze favorite nella lotta per la vita, pubblicata il 24 Novembre 1859 presso l’editore Murray di Londra, anche se sarà solo con l’edizione del 1871 che Darwin utilizzerà per la prima volta il termine evoluzione nella sua opera, assieme all’aggiunta del concetto, espresso per primo dall’economista Thomas Robert Malthus e poi dal filosofo positivista Herbert Spenser, di sopravvivenza del più forte, seguito, alla fine del Cap. XV, da un esplicito richiamo alla magnificenza del Creatore (Darwin era consapevole di avere dato il colpo di grazia alla teoria creazionista, ma evitò sempre di farsi coinvolgere in attacchi contro la religione e da buon agnostico non negò mai l’esistenza di Dio, si preoccupò piuttosto di dare alla Scienza ciò che era della Scienza e a Dio ciò che era di Dio): C'è qualcosa di grandioso in questa idea della vita, con le sue infinite potenzialità, originariamente infuse dal Creatore in pochissime o in una sola forma; e, mentre questo pianeta ha continuato a roteare seguendo le immutabili leggi di gravità, da un inizio così semplice infinite forme, sempre più belle e meravigliose, si sono evolute e tuttora si evolvono21. L’opera fu accolta con grande interesse dalla comunità scientifica e intellettuale dell’epoca, che si divise tra chi sosteneva e chi dissentiva dalla teoria espressa da Darwin, raccogliendo una strenua opposizione, al limite dell’accusa di blasfemia, da parte dei sostenitori laici e religiosi della teoria creazionista. Tra i positivisti europei, invece, la nuova teoria riscosse grande successo, tanto che lo stesso Karl Marx, seppure meno entusiasta della teoria darwiniana di quanto non fosse l’amico Friedrich Engels, nel 1873 inviò in omaggio a Darwin la seconda edizione, allora uscita, del II volume del Capitale. La dedica autografa diceva: Al signor Charles Darwin da parte del suo sincero ammiratore Karl Marx. Come il suo predecessore e primo artefice di una teoria evoluzionista, il naturalista francese JeanBaptiste Lamarck (1744-1829), Darwin concepì e formulò la sua verità storica di ciò che secondo il paradigma creazionista era considerato senza storia, basandosi sulle evidenze desunte dall’ampia raccolta di dati empirici in suo possesso, dandone una interpretazione del tutto conforme alla prospettiva di conoscenza elaborata dal pensiero positivista, di quello anglosassone in particolare, che nell’800 era solidamente e irreversibilmente asceso al rango di dottrina della fede nella Scienza. La sua visione della Natura era deterministica. Per un uomo del suo tempo, determinismo voleva dire la concezione esposta dal matematico e astronomo Pierre-Simon de Laplace nel Système du monde (1814). Questa dottrina, che avrebbe dominato la scena fino alla rivoluzione concettuale provocata dalla fisica quantistica, può essere riassunta così: a) l'Universo è retto dalla causalità; b) nella storia dell'universo ogni stato della materia è determinato da quello che lo precede e determina quello che segue, secondo modalità analizzabili per mezzo della meccanica newtoniana; c) la causalità consente la prevedibilità; d) i fenomeni vengono descritti secondo il paradigma meccanicistico e deterministico che trae forza dalla precisione e dal rigore della meccanica newtoniana; e) il caso non esiste, è un concetto relativo ai limiti delle capacità umane: è infatti inconcepibile che vi siano eventi che si sottraggono a una legge; f) la rete causale dell'universo è tuttavia troppo complessa perché possa essere ricostruita dalla mente umana; per questo tutte le conoscenze fisiche non possono essere che fondate sulla probabilità. Il modus operandi dell’evoluzione è fatto di prove e soprattutto di errori. L'unico fattore di ordine è la selezione naturale. Questa, trasforma una improbabilità in una probabilità: fa di un evento fortuito (la comparsa casuale di una variazione) l'inizio di un processo che, considerato retrospettivamente, sembra indirizzato fin dall'inizio lungo una certa direzione, ma solo perché tutti gli altri percorsi sono stati cancellati e quello che vediamo è l'unico superstite, o il più appariscente fra i superstiti. Darwin dimostrava che le stesse cause che producevano conservazione, stabilità ed equilibrio potevano produrre precarietà, distruzione e trasformazione. 21 There is grandeur in this view of life, with its several powers, having been originally breathed by the Creator into a few forms or into one; and that, whilst this planet has gone circling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being evolved. L'aspetto sereno, maestoso, lussureggiante della Natura coesisteva con l'aspetto tragico. La Natura era insieme crudele e benefica, avara e prodiga. Ma come si producono le differenze individuali all’interno di una specie, che sono il materiale da costruzione con cui opera la selezione naturale? La base di partenza era il riconoscimento di una variabilità spontanea delle specie in Natura, cioè del fatto che anche nello stesso ambiente gli individui della medesima specie differiscono tutti l'uno dall'altro, seppure in modo impercettibile. Questa variabilità è detta spontanea perché è un dato costante della Natura: è presente in tutti gli ambienti e in tutte le condizioni. Le sue cause sono, secondo Darwin, le più disparate (clima, cibo, abitudini di vita, effetti strani della riproduzione sessuale, ecc.), ma la variazione da sola non spiega l'evoluzione. Infatti non tutte le variazioni hanno uguale importanza, non tutte possono dare inizio a una linea evolutiva. Ognuna può risultare più o meno vantaggiosa delle altre, a seconda delle circostanze: tutte devono passare attraverso il vaglio dell'ambiente, al quale spetta l'ultima parola. La decisione avviene a un livello superiore, non più individuale, ma ecologico: quello della selezione naturale. La formazione di specie nuove è dunque il risultato di due processi distinti: la comparsa imprevedibile e costante di variazioni e la selezione severa esercitata dall'ambiente. Le variazioni, secondo Darwin, sono non solo spontanee, ma anche casuali. Questo concetto è cruciale nella sua teoria. Parlando di variazioni casuali Darwin non intende dire che non hanno una causa, ma che sono dovute a cause complesse e sconosciute: il termine caso sta a indicare la nostra ignoranza delle cause, non la loro assenza. Ma il termine casuale ha anche un altro significato, distinto logicamente ma inseparabile dal primo: le variazioni non sono orientate a favorire la sopravvivenza dell'individuo. La singola variazione non è di per sé la risposta giusta alle esigenze poste dall'ambiente; in altri termini, non nasce per adattare l'organismo all'ambiente, non garantisce di per sé la sopravvivenza e il successo riproduttivo; anzi, nella stragrande maggioranza dei casi le variazioni sono inutili o indifferenti, alcune perfino dannose: eliminate queste ultime dalla selezione naturale, le altre rimangono, come si dice oggi, fluttuanti, in attesa che l'ambiente si pronunci sul loro destino. Questo, però, non dà istruzioni agli organismi su come modificarsi, ma si limita a giudicare, per così dire, il loro comportamento spontaneo. Nella teoria darwiniana, l'organismo non si modifica per adattarsi: varia e basta. Le variazioni si producono in molte direzioni, senza correlazione con le esigenze della sopravvivenza. Se e quali siano adattative viene stabilito dalla rete complicatissima delle relazioni ecologiche che costituiscono quell'ambiente particolare: la variazione propone, la selezione dispone. Il risultato implicito ottenuto dall’intreccio tra variazioni casuali e spontanee e selezione naturale, equivale a ciò che il filosofo illuminista Immanuel Kant (1724-1804), tra i più convinti e influenti esponenti della metafisica applicata per scopi pratici del settecento, definisce come: determinato a priori nel fenomeno. Per Kant il caso non esiste, al suo posto esiste una necessità ipotetica del reale, nel senso che si tratta semplicemente di effetti necessari conseguenti a precise cause secondo leggi che stabiliscono che tutto quello che accade è determinato a priori nel fenomeno [I. Kant, Analitica trascendentale, libro II, cap. II, sez. III]. Una necessità ipotetica del reale che, a ben vedere, non si discosta di molto dal tema del fato presente nella poesia e nella tragedia greca arcaica, poi ripreso razionalmente dai filosofi greci antichi e specialmente dallo stoicismo per poi giungere ai pensatori successivi, ivi compresi gli illuministi settecenteschi. Resta il fatto che in virtù della fede viscerale, nevrotica e tendenzialmente delirante, nella Scienza super partes che dall’alto del Cielo iperuranico delle Idee (Platone) indica al superstizioso e irrazionale uomo medievale la retta Via della Ragione, né Darwin né gli altri scienziati come lui potevano essere minimamente toccati dall’idea che la loro interpretazione di realtà potesse di fatto avere effetti catastrofici sull’umanità. La storia attesta di come la forte accelerazione impressa alle scienze naturali e alla biologia in particolare dalla teoria darwinista dell’evoluzione, impallidisca di fronte alle tragiche conseguenze prodotte dalla altrettanto decisiva e rigorosamente scientifica accelerazione impressa a ciò che i positivisti e colonialisti europei e d’oltre oceano davano da tempo per scontato, e cioè che la compiutezza della specie umana si realizzi solo nei suoi rappresentanti maschi, inciviliti, benestanti, di pelle bianca. È grazie a questa visione scientifica (?) della vita, che la civiltà occidentale si è sentita autorizzata a consegnare alla storia pagine e pagine di crimini contro l’umanità, per poi rivolgerli con atto suicida oltre che omicida, contro se stessa, sprofondando nei conflitti bellici più devastanti mai concepiti e realizzati a memoria d’uomo. Charles Darwin non era razzista o sessista più di quanto non lo fossero Engels e Marx, erano, però, dei positivisti convinti e viscerali. Scrive Darwin al Cap. V di The Descent of Man and Selection in Relation to Sex 22): Nei selvaggi i deboli di corpo o di mente sono in breve eliminati; e quelli che sopravvivono presentano comunemente una fiorente e robusta salute. D’altra parte noi, uomini inciviliti, cerchiamo ogni mezzo onde porre ostacoli al processo di eliminazione; fabbrichiamo ricoveri per gli idioti, gli storpi ed i malati; facciamo leggi pei poveri; e i nostri medici si stillano il cervello per salvare la vita di ognuno fino all’ultimo momento. Vi è ragione per credere che il vaccino ha preservato migliaia di vite, che con una debole costituzione sarebbero prima morte di vaiolo. Così i membri deboli delle società incivilite si riproducono. Chiunque abbia avuto che fare coll’allevamento degli animali domestici non leverà un dubbio che questo fatto non sia altamente dannoso alla razza umana. Fa meraviglia come la mancanza di cure, e le cure male dirette conducano alla degenerazione di una razza domestica; ma, eccettuato il caso dell’uomo stesso, forse nessuno può essere tanto ignorante da far generare i suoi peggiori animali. E al Cap. VI23: Fra qualche tempo avvenire, non molto lontano se misurando per secoli, è quasi certo che le razze umane incivilite stermineranno e si sostituiranno in tutto il mondo alle razze selvagge. Nello stesso tempo le scimmie antropomorfe, come ha notato il prof. Schaaffhausen, saranno senza dubbio sterminate. Allora la lacuna sarà ancora più larga, perchè starà tra l’uomo in uno stato ancor più civile, speriamo, che non il caucusico, e qualche scimmia inferiore, come il babbuino, invece di quella che esiste ora fra un nero od un australiano ed il gorilla. E al Cap. VII24: 22 Charles Darwin, The Descent of Man and Selection in Relation to Sex, prima edizione, London, John Murray, capitolo V, Dello sviluppo delle facoltà intellettuali e morali durante i tempi primitivi ed i tempi inciviliti, 1871: With savages, the weak in body or mind are soon eliminated; and those that survive commonly exhibit a vigorous state of health. We civilised men, on the other hand, do our utmost to check the process of elimination; we build asylums for the imbecile, the maimed, and the sick; we institute poor-laws; and our medical men exert their utmost skill to save the life of every one to the last moment. There is reason to believe that vaccination has preserved thousands, who from a weak constitution would formerly have succumbed to small-pox. Thus the weak members of civilised societies propagate their kind. No one who has attended to the breeding of domestic animals will doubt that this must be highly injurious to the race of man. It is surprising how soon a want of care, or care wrongly directed, leads to the degeneration of a domestic race; but excepting in the case of man himself, hardly any one is so ignorant as to allow his worst animals to breed. 23 Charles Darwin, The Descent of Man and Selection in Relation to Sex, prima edizione, London, John Murray, capitolo VI, Delle affinità e della Genealogia dell’uomo, 1871: At some future period, not very distant as measured by centuries, the civilised races of man will almost certainly exterminate and replace throughout the world the savage races. At the same time the anthropomorphous apes, as Professor Schaaffhausen has remarked, will no doubt be exterminated. The break will then be rendered wider, for it will intervene between man in a more civilised state, as we may hope, than the Caucasian, and some ape as low as a baboon, instead of as at present between the negro or Australian and the gorilla. Quando le nazioni civili vengono in contatto coi barbari la lotta è breve, tranne ove un clima mortale venga in aiuto della razza indigena. Fra le cause che fanno vittoriose le nazioni civili alcune sono evidenti, altre oscurissime. Possiamo vedere che il coltivare la terra diviene fatale in vario modo ai selvaggi perchè non possono o non vogliono mutare le loro abitudini. Nuove malattie e i vizi nuovi sono causa di grande distruzione; e sembra che in ogni nazione una nuova malattia produce molta mortalità, finchè quelli che sono più suscettivi alla sua mortale azione non siano stati gradatamente portati via; e questo può anche seguire pei cattivi effetti dei liquori spiritosi, come pure per l’invincibile gusto per essi che dimostrano tanti selvaggi. Sembra inoltre per quanto questo fatto sia misterioso, che il primo incontro di popoli distinti e separati genera malattie. Il sig. Sproat, che nell’isola Vancouver si è occupato con molta cura dell’estinzione delle razze, crede che il mutamento nelle abitudini della vita, che segue sempre la venuta degli europei, produca molte malattie. Egli dà anche importanza ad una causa piuttosto frivola, quella cioè che i nativi rimangono “sbalorditi e stupidi per la nuova vita che li circonda; perdono il movente per operare, e non producono altri al loro posto”. Influenzata dalla teoria darwiniana dell’evoluzione, l’idea di progresso scientifico (tecnologico e industriale) dell’epoca vittoriana divenne un paradigma metafisico, secondo cui la realtà esprime uno sviluppo universale, costante e necessario, verso forme sempre più evolute di vita, dal semplice al complesso, dall’omogeneo all’eterogeneo, dall’inferiore al superiore. Sotto le suggestioni offerte dalla teoria biologica dell’evoluzione, la realtà non viene più interpretata secondo le tradizionali categorie metafisiche dell’immutabilità e della necessità, dell’innatismo e della fissità, ma piuttosto del dinamismo e del progresso. L’evoluzionismo, nuova metafisica del reale, descrive il movimento della storia, e soprattutto interpreta questo movimento universale finalisticamente, ossia come orientato ad un approdo positivo: la condizione di felicità universale, assimilando in questo senso una concezione progressiva della storia che già fu dell’Illuminismo settecentesco. E proprio l’ottimismo nei confronti della scienza, la fiducia nel progresso, contribuiscono a determinare un ribaltamento concettuale assai significativo: la categoria della naturalità, la supposta esistenza di un ordine naturale eterno e immutabile, viene incalzata da quella dell’artificialità, della modificabilità. La scienza e la tecnica possono trasformare ciò che si pensava predeterminato, in virtù dell’efficacia dei loro mezzi. La natura, compresa la natura umana, viene ora pensata come perfettibile, liberandola dalla ferrea legge di necessità. Ciò che è artificialmente costruito diventa desiderabile (→ Intelligenza Artificiale). È allora che i nuovi valori dell’urbanesimo industriale, i valori della borghesia civile e operosa, prendono il sopravvento costruendo un diverso modello di riferimento e una nuova identità collettiva. 24 Charles Darwin, The Descent of Man and Selection in Relation to Sex, prima edizione, London, John Murray, capitolo VII, Delle razze umane, 1871. Fig. 4 Lobotomia transorbitale A) Sollevata la palpebra si entra nella cavità orbitale e, facendo pressione, si frattura la volta orbitale e si penetra nella cavità cranica. Indi si procede, fino alla profondità desiderata, nella massa cerebrale. Imprimendo al leucotomo un movimento pendolare si dissecano i fasci di fibre nervose che congiungono i lobi prefrontali alle altre zone del cervello e, in particolare, al talamo. B) Rappresentazione schematica dell’introduzione del leucotomo nel lobo sinistro del cervello, in rosso è segnata l’area sezionata. Tutto l’impianto teorico su cui si regge l’ipotesi darwinista di processo-progresso evolutivo si regge su una interpretazione della filogenesi palesemente viziata dal delirio di onnipotenza positivista, da quella perversa pulsione imprenditoriale volta a sostituire l’assunto monoteista, secondo il quale a capo di Tutto regna la Volontà di Dio (il cui pupillo è ovviamente l’Uomo maschio, bianco, cattolico, istruito, benestante), con quello, molto più produttivo, del: a capo di Tutto regna la Volontà della Scienza. Il determinismo biologico settecentesco (superiorità biologica vs inferiorità biologica), revisionato dall’evoluzionismo darwiniano, sfociato nel darwinismo sociale tardo ottocentesco, confluito nel determinismo genetico novecentesco (geneticamente superiore vs geneticamente inferiore), portato alle sue estreme conseguenze dalle pratiche eugenetiche e scientiste iniziate nel corso della seconda metà dell’800 e proseguite fino alla seconda metà del ‘900 (impiegate sia nel Nuovo che nel Vecchio Continente, allo scopo di emendare la società dell’Uomo maschio, bianco, cattolico, istruito, benestante, dalla presenza inquinante di centinaia di migliaia di individui ritenuti inferiori, pericolosi, fisicamente o mentalmente mal-sani, intollerabilmente diversi), rielaborato negli attuali modelli computazionali del cervello, si basa sull’assunto (falso) scientificoriduzionista-meccanicista che la struttura genera la funzione, per arrivare a sostenere che vi sia un ordinamento gerarchico e lineare della variazione umana tracciato in funzione delle capacità cognitive e più in generale mentali e comportamentali degli individui, misurabile dalla dimensione della scatola cranica (maggiore la dimensione→ maggiore il volume della massa cerebrale→ maggiori le capacità cognitive). Più esattamente, le capacità cognitive dipenderebbero dal rapporto di proporzionalità (ispirato all’ideale estetico greco e romano) esistente tra la dimensione del cranio e la struttura corporea (→razza). Inutile dire che tutte le misurazioni effettuate vennero falsificate al fine di provare scientificamente che la superiorità cognitiva e comportamentale la si riscontra solo nei soggetti di pelle bianca (maschi, cattolici, istruiti, benestanti). Assumendo una prospettiva darwiniana della filogenesi, questo rapporto di proporzionalità coinciderebbe con l’indice di un processo filogenetico noto come processo di encefalizzazione25, 25 I Mammiferi, la classe di animali vertebrati alla quale appartiene la specie Homo, comparvero verso la fine del Periodo Triassico dell'Era Mesozoica, 200 milioni di anni fa circa. Dal Triassico ad oggi il SNC dei che il razzismo scientifico tenta ancora oggi di manipolare per esibirlo come prova scientifica della superiorità della razza bianca sulle altre razze umane e, più in generale, sugli altri animali. Mantenendo una prospettiva darwiniana (neo-darwinismo) per la moderna biologia molecolare la filogenesi è una successione forte, logica e computazionale, di eventi biochimici che orbitano attorno ai building blocks del fenomeno biologico, le basi nucleotidiche, le lettere dell’alfabeto del linguaggio della vita (A, G, C e T, adenina, guanina, citosina e timina nel DNA; A, G, C e U, uracile, nel RNA), dalla cui combinazione e ricombinazione deriverebbe la discendenza filetica (a questa linea di pensiero appartiene la convinzione, smentita dall’evidenza, che la complessità e il grado evolutivo di una specie sia direttamente proporzionale al numero di geni presenti nel suo genoma26, o che ad ogni segmento di un tracciato elettroencefalografico corrisponda un segmento di pensiero). Sul piano pratico, le applicazioni tecnologiche e i risultati ottenuti per questa via sono stati talmente tanti e talmente incoraggianti (il modello interpretativo di riferimento è sbagliato però sul piano meccanico funziona!), che gli scienziati hanno deciso di contravvenire al limite cartesiano (→ la res cogitans è una entità fittizia, non oggettivabile, e in quanto tale non è di alcun interesse per la scienza), per mettersi alla caccia dei building blocks e dei codici che possano spiegare la meccanica dei pensieri, delle funzioni cognitive e neuropsicologiche, della coscienza, delle emozioni27. Non c’è da stupirsi se il determinismo biologico che serpeggia in tutto l’Occidente ipertecnologicizzato, non si lascerà sfuggire l’opportunità di ricorrere ai nuovi e sofisticatissimi strumenti di selezione artificiale della specie oggi a disposizione. Gli appassionati di Intelligenza Artificiale, ad es., non vedono l’ora di poter fornire ai neuro-chirurghi software e micro-chip a reti neurali da impiantare nei cervelli dei pazienti neurologici gravi o dei malati terminali, con tanto di consenso dell’interessato o di chi ne fa le veci. Una prospettiva salvavita, come quella già collaudata con il mercato del trapianto di organi, che prepara il terreno ad un uso diffuso e intensivo delle bio-nano-tecnologie informatiche a interazione neurale o d’organo. vertebrati e dei Mammiferi in particolare è andato incontro ad un processo di encefalizzazione, che consiste in un progressivo incremento della massa cerebrale in rapporto alle dimensioni corporee. Secondo la visione riduzionista della filogenesi, la diversità comportamentale degli Uccelli e dei Mammiferi nei confronti dei Rettili sarebbe legata al rispettivo grado di encefalizzazione. I Rettili, come altri Vertebrati minori, non presentano lungo il corso di centinaia di milioni di anni alcun sviluppo di rilievo della loro massa cerebrale, per cui il rapporto cervello/corpo è quasi lo stesso nei Dinosauri e nei Rettili viventi. Il passaggio dai Rettili ai Mammiferi è caratterizzato da un incremento della massa cerebrale rispetto al corpo (di circa quattro volte), che non ha subito variazioni per almeno 100 milioni di anni. Nei Mammiferi il processo di encefalizzazione è ripreso una cinquantina di milioni di anni fa circa, subendo una netta accelerazione solo con la comparsa della specie umana, mentre nello stesso periodo gli altri Mammiferi non sono andati incontro ad alcuna variazione del loro grado di encefalizzazione. 26 L’Ameba dubia (un organismo unicellulare) possiede un genoma composto da 670 miliardi di basi nucleotidiche, più di 200 volte la dimensione del genoma umano. 27 Da Democrito in poi, i building blocks della attività mentale sono stati considerati entità fittizie o qualità secondarie, chiamate anche qualia, associate alle sensazioni, contrapposte alle entità reali o qualità primarie associate agli atomi. Alfred North Whitehead, nella prima metà del XX° sec., superò questa dicotomia sostenendo che sono entrambe entità fittizie, astratte, dipendenti da ciò che egli chiama l'evento, inteso come elemento concreto primario della natura, un nodo di relazioni non isolato nè isolabile dall'universo in cui è compreso. John Carew Eccles chiamava questi pezzi psiconi. Fig. 5 Le basi nucleotidiche-building blocks dalla cui combinazione scaturisce la vita. Come si può notare la struttura a doppia elica del DNA rispecchia la struttura a doppia elica del T-PHL. Oggi che la tecnica, un tempo subordinata alla produzione sociale e culturale che richiedeva strumenti “.... si è autonomizzata dal rapporto sociale e si è incorporata nel rapporto produttivo, giungendo a un primato della ragione strumentale, dei mezzi sui fini [tale per cui] risponde solo alla propria potenza con l’unico fine dell’autoaccrescimento continuo”28. Oggi che il culto feticistico per il progresso tecno-scientifico e che la dipendenza ossessivocompulsiva verso la commercializzazione e il consumo dei suoi prodotti è diventato uno status simbol. Oggi che le acquisizioni scientifiche evolvono in funzione e per conto delle applicazioni tecnologiche invocate e controllate dalle business venture multi-nazionali e multi-etniche. Oggi che i cellulari sono sbarcati anche tra i boscimani del Kalahari e che Rosetta è sbarcata su una cometa a 500 milioni di anni luce dalla Terra. Oggi che la lingua ufficiale parlata dalla tecno-scienza-finanza è l’inglese. Oggi, sorge spontanea una domanda: ma cosa ce ne facciamo di questo Signore dell’high tech e della business economy, di questo Super Eroe, Re dei re, Sacerdote dei sacerdoti, Condottiero dei condottieri, Mercante dei mercanti, Artigiano degli artigiani, che predica l’avvento di una umanità felice nell’abdicare il proprio statuto antropologico in cambio dei benefits (il micro chip d’avanguardia, l’esoscheletro di ultima generazione, etc. etc.) accordatigli da sua eccellenza il Mercato Globale? Ennio Flaiano diceva che la madre dei cretini è sempre incinta, e ne prendiamo atto. Ma sarebbe una vera catastrofe, se al governo del governabile non potesse essere applicata la regola cautelativa dell’alternanza. 28 Pietro Barcellona, La parola perduta. Tra polis greca e cyberspazio, Edizioni Dedalo, 2007, pag. 77 4. Il Modello probabilistico: la Via dei Quanti Il mondo descritto per questa strada è intrinsecamente dinamico e solo parzialmente deterministico. La sua fisicità cessa di essere descritta dalla interazione deterministica tra elementi deterministici di realtà, per essere sostituita da una distribuzione probabilistica29 di interazioni locali e non-locali tra sistemi vibrazionali. Una intricata matassa di oscillatori armonici quantistici che interferiscono, ed eventualmente entrano in risonanza30, con altri oscillatori, sia localmente che a grande e grandissima distanza (entanglement), che la Teoria Quantistica dei Campi (Quantum Field Theory) chiama campo quantistico di punto zero, un sistema esteso di oscillazioni spaziali ed elettromagnetiche subliminali (dette oscillazioni di punto zero perché non sono in grado di eccitare il campo) la cui attività viene descritta ricorrendo ad un coefficiente di proporzionalità noto come quanto di azione fondamentale, la costante di 34 Planck h (la più piccola entità di divisibilità di energia nell’unità di tempo: h= 6 ,63 10 Joule / sec ). L’uso del concetto di “probabilità” nell’analisi scientifica significa proprio questo: vi sono limiti di conoscibilità del mondo che sono inerenti al soggetto conoscente, e tali limiti introducono un’inevitabile dose d’incertezza soggettiva anche in descrizioni “oggettive” della realtà. Diviene così consapevolezza comune il fatto che qualsiasi teoria scientifica del mondo è una descrizione dello stesso tarata dall’incertezza insita in una misura di soggettività, che è tanto immancabile quanto consensualmente condivisa. Pertanto, altro è il riconoscimento dell’oggettività di una teoria, altro è ritenere che una teoria descriva la realtà oggettiva del mondo. [Mario Ludovico, Sintropia: definizione ed uso, 2008: http://www.sintropia.it/italiano/2008-it-1-2.pdf] 30 La QED (Quantum Electrodynamic Field Theory), spiega il processo di strutturazione della materia introducendo il concetto di dominio di coerenza oscillatoria. La costituzione della struttura particellare e coerente della materia, la sua strutturazione subatomica, atomica e molecolare, avviene per accoppiamenti di fase, operati dal campo elettromagnetico su una lunghezza d’onda portante, tra le oscillazioni spaziali ed elettromagnetiche di porzioni del campo quantistico di fondo (campo esteso). Per spiegare la diversa strutturazione della materia dallo stato di gas a quello di materia condensata (liquidi e solidi), un gruppo di fisici delle alte energie dell’Università di Milano, guidato da Giuliano Preparata (1942-2000), introdusse il concetto di dominio di coerenza in opposizione a quello di dominio di non coerenza. In sintesi, un sistema subatomico-atomico-molecolare è detto coerente (liquidi e solidi), quando il dominio fisico della sua strutturazione è governato dalla concordanza di fase (risonanza) tra i modi oscillatori dei suoi componenti (particelle-atomi-molecole) e il modo oscillatorio del campo elettromagnetico in cui sono immersi (su una lunghezza d’onda portante). Al contrario, un sistema subatomico-atomico-molecolare è detto non coerente (gas), quando il dominio fisico della sua strutturazione è dominato dalla discordanza di fase tra i modi oscillatori coinvolti nel processo di interferenza. 29 4.1 Dimensione energetica e dimensione tensoriale It is important to realize that in physics today, we have no knowledge of what energy is. Richard Feynman (The Feynman Lectures on Physics, Vol I, pag. 4-1) La definizione di ciò che dovremmo intendere per energia e per dimensione energetica inizia dalla risposta che intendiamo dare a due semplici domande: che cosa è e da dove deriva (ammesso che derivi da qualcos’altro che non da se stesso) questo quanto di azione fondamentale? Nella mia ipotesi (Modello Endodinamotensivo) [Messori 2012, 2013], il fatto energetico è lo stato discontinuo, anisotropo, disomogeneo e perturbato, finale, di una dimensione indotta dalla rottura di simmetria (tensoriale) e dalla conseguente transizione tensoriale (il passaggio da uno stato tensoriale ad un altro), di una soggiacente dimensione fisica priva di struttura (continua, isotropa, omogenea, imperturbata) e supersimmetrica (supersimmetria di tensione), dove tutto ciò che c’è è una irriducibile Tensione31 Implicata (TI) che reca in se un principio protodinamico (dynamis32) indifferenziato e totopotente. Questa transizione tensoriale originaria genera una realtà fisica costituita da una distribuzione di gradienti di potenziale tensoriale (TI/dynamis) implicata in una distribuzione di gradienti di potenziale cinetico (dove agisce l’impulso di moto). La dimensione energetica è la dimensione della distribuzione di gradienti di potenziale cinetico, dove l’unico fattore rilevante sotto il profilo energetico è la relazione spaziotemporale tra i gradienti stessi di potenziale cinetico. Questa relazione si traduce nella costituzione di una rete di relazioni locali e non-locali tra entità vibrazionali (sistemi oscillanti di spin), uno scenario che Stuart Roy Hameroff e Roger Penrose interpretano, dal loro punto di vista, così [6]: At very small scales, space is not smooth, but quantized. Imagine viewing the ocean from an airplane. The ocean surface may look perfectly smooth. However if you were in a small boat on Normalmente per tensione si intende l’effetto o lo stato prodotto da una differenza di potenziale o dalla applicazione di una forza ma qui la Tensione/dynamis va intesa non come l’effetto ma come il presupposto e l’ordito da cui traggono origine e su cui si innestano tutte le differenze di potenziale, tutte le interazioni o forze e tutte le relazioni che caratterizzano la strutturazione del fenomeno energetico e tensoriale. In questo senso, il valore ontologico che assegno alla Tensione/dynamis si avvicina molto (per divergere sulla nozione di universo come totalità razionale) a ciò che gli stoici, e in particolare Crisippo, intendevano con tonos, tensione appunto, indicando con ciò il movimento tensionale in virtù del quale agisce lo pneuma nella sua funzione di attualizzazione, attraverso la tensione-coesione, del mondo manifesto. Sul valore ontologico, prima ancora che ontico, riservato a tonos dagli stoici, si veda: Luca Guidetti, Bolzano e gli stoici (in: Bernard Bolzano e la tradizione filosofica, a cura di Stefano Besoli, Luca Guidetti, Venanzio Raspa, Discipline Filosofiche xxi 2 2011), http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=10&ved=0CGUQFjAJ&url=http%3A% 2F%2Fwww.researchgate.net%2Fprofile%2FLuca_Guidetti%2Fpublication%2F235330789_Bolzano_e_gli_ stoici%2Flinks%2F02bfe510e4100edce0000000&ei=8nxCVNvDKMPZapbugoAG&usg=AFQjCNH1Z1U8 8UrIXwg_n5SdixJu-1-f5g&bvm=bv.77648437,d.bGQ ] 32 Con Aristotele per dynamis si intende la potenza correlata all’azione (energheia), la causa efficiente connessa al movimento e ai suoi effetti quantitativi e qualitativi; la potenza inerente o possibilità intrinseca di un ente di tradursi in una azione (energheia) che può realizzarsi o meno, un valore di realtà solo possibile rispetto all’azione reale realizzata. 31 the ocean surface you'd be tossed about by the roughness of the sea invisible from high above. Similarly as we go down in scale from the size of atoms (10-8 centimeters) empty space seems smooth until eventually we find granularity at the incredibly small "Planck scale" (10-33 centimeters, 10-43 seconds). There are several types of descriptions of the Planck scale: string theory, "quantum foam", and loop quantum gravity. In the context of loop quantum gravity, Penrose portrayed the Planck scale as a dynamical spider-web of spin. Taking spin as an irreducible, fundamental entity, spin networks define spectra of discrete Planck scale volumes and configurations which dynamically evolve and define spacetime geometry. The amount of potential information in Planck scale spin networks is vast; each Planck scale volume, or "pixel of reality" may be shaped by huge variability and nonlocal interactions (.....) So the universe may be constructed of Planck scale spin networks whose configurations and dynamics lead to all matter and energy. If, as Whitehead and others proposed, consciousness derives from fundamental, irreducible entities which are "proto-conscious" (what philosophers call "qualia"), then proto-conscious qualia must also be embedded in Planck scale spin networks (where else could they be embedded? Fundamental spacetime geometry is all there is!). We can envision proto-conscious qualia as specific, nonlocal distributed configurations of Planck scale spin networks. Dal momento che queste relazioni locali e non-locali tra entità vibrazionali sono relazioni di interferenza, e dal momento che la strutturazione della realtà energetica è basata su fenomeni di interferenza tra sistemi oscillanti, la definizione di energia diviene la seguente: l’energia è la capacità di generare interferenza. Il quanto d’azione fondamentale h è la frazione minima ammissibile della capacità di generare interferenza. Sul piano quantistico, la struttura fisica fondamentale introdotta dalla relazione spaziotemporale tra i gradienti di potenziale cinetico, è un risonatore di cavità, un oggetto frattale composto da un involucro esterno frequenziale (frazione deterministica misurabile), da un involucro interno spinoriale (frazione quasi-deterministica) e da un nucleo tensoriale (frazione indeterministica non-misurabile). Sul piano relativistico, il precursore di questo oggetto frattale è un vortice toroidale di spin/internal motion [7] (zitterbewegung, auto-dinamismo, potenziale cinetico autoreferenziale indipendente da fattori esterni), una entità stazionaria e frazionaria, nonquantizzata, sede di un centro stereogenico prochirale, provvista di un potenziale quasicinetico, dove l’impulso di moto è latente. Sottoposto ad una azione torcente e rotazionale (indotta dalla rottura di simmetria di riflessione), questo vortice toroidale di spin/internal motion viene trasformato in un oggetto bi-polare quantistico-relativistico, che ho chiamato Twisted/Pinched Hysteresis Loop (T-PHL) [Messori 2012, 2013], in cui lo spin/internal motion è de-simmetrizzato in spin-up e spin-down (l’impulso rotazionale intrinseco, o momento angolare intrinseco, da non confondere con il momento angolare orbitale), uno a polarizzazione (di spin) sinistrorsa e l’altro destrorsa. Questa condizione esprime uno stato (fondamentale) stazionario ma non stabile di tensione tra oggetti spinoriali con opposta dominanza di polarizzazione (sinistrorsa vs destrorsa). Sottoposto a idonei fenomeni auto-perturbativi sovra-liminali, questo stato, che possiamo dire retto da una simmetria chirale intrinseca (vedi paragrafo successivo), viene ad essere interessato da una serie ininterrotta di transizioni di fase, che portano ad una distribuzione non uniforme e non omogenea di spin. Il T-PHL può essere allora pensato come un oggetto dinamico costituito da un flusso ciclotronico inerziale33 (impulso di moto latente) di spin (internal motion), che per 33 Cfr.: - Marcelo Samuel Berman, On the Machian Origin of Inertia, 2008, effetto della de-simmetrizzazione viene perturbato e sottoposto ad una torsione attorno al proprio asse di simmetria, tale da sdoppiarlo senza soluzione di continuità in due loop elicoidali simmetrici (vedi Fig. 6). Il nuovo assetto strutturale, coincide (i) con la transizione di fase dell’impulso di moto che da latente (sub-liminale) diviene agente (sovra-liminale), e (ii) con l’instaurazione di una simmetria chirale di spin34 (momento angolare), data dal fatto che uno dei due loop che formano il T-PHL viene ad essere interessato da un flusso ciclotronico di spin (momento angolare) polarizzato verso destra (destrorso, segno +), mentre l’altro risulta essere interessato dal medesimo flusso ciclotronico di spin (momento angolare) ma polarizzato verso sinistra (sinistrorso, segno -). Il risultato, è un moto ciclotronico continuo e non-uniforme di spin, che nel passare per il punto de-localizzato di autointersezione del loop (che fissa il nuovo piano di simmetria del T-PHL) decussa e inverte di segno, passando senza soluzione di continuità da valori negativi (polarizzazione sinistrorsa, segno –) a valori positivi (polarizzazione destrorsa, segno +). Vedremo nel prossimo paragrafo quali sono le conseguenze che comporta questa simmetria chirale di spin [8] nella strutturazione dei sistemi biologici, dove la rottura di simmetria di riflessione (mirror symmetry breaking [9]) che porta alla costituzione del T-PHL biologico, è alla base dell’assorbimento enantioselettivo mediato dalla struttura semi-cristallina dell’acqua nello stato di supercoerenza oscillatoria (biologica), che determina la ben nota omochiralità biologica [10]. Sul piano bi-dimensionale, la rappresentazione topologica più appropriata del twisted/pinched hysteresis loop è fornita dalla figura dell’otto rovesciato (il simbolo matematico dell’infinito), Fig. 6; sul piano tridimensionale dal Nastro di Möbius, Fig. 7; sul piano quadri-dimensionale (continuo spaziotemporale) da un isteroide olografico frattalizzato del tipo toroide-poloide a quattro dimensioni, Fig. 8 [11]. Fig. 6 Twisted-Pinched tangent tension-torque Hysteresis Loop [Image source (modified): Memristors and the future. At: http://www.nobeliefs.com/memristor.htm] http://arxiv.org/pdf/physics/0609026.pdf - D. W. Sciama, On the origin of inertia, Royal Astronomical Society, Vol. 113, pag.34 to 42, 1952, http://articles.adsabs.harvard.edu//full/1953MNRAS.113...34S/0000034.000.html 34 Cfr.: Robert Foot, Does mirror matter exist?, 2002, http://arxiv.org/PS_cache/hep-ph/pdf/0207/0207175v1.pdf Fig. 7 L’attrattore strano di Lorenz della figura corrisponde a un Nastro di Möbius, qui un oggetto geometrico tridimensionale rappresentativo del moto di un sistema caotico nello spazio delle fasi. Fig. 8 Biaxial or tetra- toroid, also coined as external toroid warped around an internal poloid , as drawn here has 27 identical loops. Compared with ordinary toroid coil, the main differences are twisted loops instead of the plain toroid loops and the involuted “donut hole”. While 27 closed loops are presented to show a tetrahedron relationship, all loops can be one continuous twisting line. (Image source : http://harmoniouspalette.com/TetMold.html) 5. Sistemi biologici e filogenesi La tesi secondo la quale qualche cosa dirige la creazione, è una tesi della realtà. La tesi secondo la quale niente agisce nell’universo è una tesi del vuoto. Ciò che è di competenza dei nomi e delle realtà rimane nel campo degli esseri. Tutto ciò che può esprimersi con parole e formarsi con idee si defila dalla prima verità. Tchouang tseu , Cap XXV I sistemi biologici sono sistemi tenso-energetici transienti termodinamicamente aperti, cioè liberi di scambiare energia e materia con l’ambiente, al limite di fase tra ordine e caos, la cui esistenza dipende dalla loro capacità e possibilità di sfruttare una fonte energetica esterna adeguata (biocompatibile). I caratteri distintivi di un sistema biologico sono dati dall’essere: (i) enantioselettivo (seleziona rigorosamente le forme enantiomeriche delle specie molecolari di cui è costituito) (ii) autopoietico (ridefinisce costantemente se stesso e al proprio interno si sostiene e si riproduce) (iii) autocatalitico (si autoriproduce attraverso processi biofisici e biochimici auto-accelerati non-lineari). 5.1 Enantioselettività Uno dei due aspetti che caratterizzano l’assetto strutturale del T-PHL è l’instaurazione di una simmetria chirale di spin/momento angolare. A livello ultra-microscopico (particelle elementari) la chiralità è data dall’orientamento destrorso vs sinistrorso dello spin/momento angolare (spin-up vs spin-down) ed è una proprietà intrinseca del fenomeno energetico, che non varia al variare del sistema di riferimento adottato. A questo livello, ciò che può variare al variare del sistema di riferimento non è la chiralità ma un’altra proprietà spesso confusa con la chiralità, esibita solo dalle particelle dotate di massa (i.e. fermioni), chiamata elicità. La elicità è la lateralizzazione apparente [12] di una particella massiva, e viene definita come la proiezione dello spin (in Fig. 9 freccia rossa per spin destrorso e freccia blu per spin sinistrorso) lungo la direzione del vettore impulso (freccia grigia), il vettore che indica la direzione di moto della particella. Quando la proiezione dell’orientamento dello spin coincide con la direzione di moto della particella, la particella ha elicità sinistrorsa, al contrario, quando è opposto alla direzione di moto della particella, la particella ha elicità destrorsa 35. 35 The Chiral Nature of the Standard Model. Two concepts integral to elementary particle physics are `helicity' and `chirality'. When we speak of the helicity of a particle, we are speaking of the apparent handedness of the particle, given by the projection of its spin onto its momentum vector (….). When we speak of chirality, we are speaking of an innate property of the particle, its ‘intrinsic' handedness. Chirality is not necessarily directly observable (….) but it is the term which appears in the mathematics of electroweak theory. [Matthew Evans, On the discovery of symmetry violations and their effect on the trajectory of elementary particle physics research, 2013, pag. 6: http://mtdevans.com/wp-content/uploads/2012/12/OnTheDiscoveryOfSymmetryViolations.pdf ] Se la particella è priva di massa (come il fotone), chiralità ed elicità coincidono (una data particella priva di massa sembra ruotare nella stessa direzione lungo il suo asse di movimento indipendentemente dal punto di vista dell’osservatore), ovvero la elicità (frame dipendente) decade a favore della chiralità (frame indipendente). Fig. 9 What happens when you rotate a left- vs right-chiral fermion 360 degree about its direction of motion. Both particles pick up a -1, but the left-chiral fermion goes one way around the complex plane, while the right-chiral fermion goes the other way. The circle on the right represents the complex phase of the particle’s quantum state; as we rotate a particle, the value of the phase moves along the circle. Rotating the particle 360 degrees only brings you halfway around the circle in a direction that depends on the chirality of the fermion. Only the rotation by 720 degrees is continuously connected to “doing nothing”; a rotation by 360 degrees is not. [Image source: Flip Tanedo, Helicity, Chirality, Mass, and the Higgs, http://www.quantumdiaries.org/2011/06/19/helicity-chirality-mass-and-the-higgs/] A livello mesoscopico (molecolare) la chiralità è la capacità fisica di alcune molecole o composti chimici di ruotare a destra (forma destrogira) o a sinistra (forma levogira) il piano della luce linearmente polarizzata. In quanto tale, la chiralità (molecolare) è una proprietà che può variare al variare del sistema di riferimento adottato. La spiegazione della chiralità molecolare la si deve al chimico francese Louis Pasteur36, il quale 36 In 1848 Louis Pasteur discovered, almost by sheer luck, the property of optical isomerism. Two forms of the same chemical compound, isomers, were found to rotate polarized light in two different directions --one to the left, the other to the right. Isomers are essentially identical chemical compounds. They have the same number and type of atoms and the same structure, almost. The difference in the two isomers of a compound is that one is the mirror image of the other. This is the same symmetry that exists between the left and right hands. Pasteur observed as well that living organisms were able to synthesize and use only one isomer and never the other. But nature itself appeared to have no preference over which form it produced --in reactions the isomers were produced in equal quantities. That is, nature appears to exhibit complete symmetry between the left and right. Until 1957 physicists believed this symmetry to hold for all physical processes. A mirror image of any reaction should be identical in every way to the actual reaction. This idea was intuitive to the physicist --- what could it mean if nature preferred left over right or vice-versa? [Krishna Myneni, Symmetry Destroyed: The Failure of Parity, 1984 : http://ccreweb.org/documents/parity/parity.html] riuscì a dare (1848) una spiegazione alla proprietà di alcune molecole nota come attività ottica (la capacità delle molecole di ruotare il piano della luce polarizzata), scoperta nel 1815 dal fisico francese Baptiste Biot. Pasteur si accorse che un sale dell’acido tartarico (il tartrato di sodio e di ammonio), otticamente inattivo, cristallizzava in due tipi di cristalli diversi, la cui forma era l’una l’immagine speculare dell’altra e le cui soluzioni risultavano otticamente attive. Pasteur riuscì a separare le due specie di cristalli e chiamò levogira quella che faceva ruotare a sinistra il piano di vibrazione della luce polarizzata e destrogira quella che lo faceva ruotare verso destra. In seguito agli studi di Pasteur, si scoprì che le molecole otticamente attive possono esistere in due forme isomere identiche per numero e tipo di atomi e per struttura, che sono l’una l’immagine speculare e non sovrapponibile dell’altra (allo stesso modo di come la mano destra è l’immagine speculare ma non sovrapponibile della mano sinistra: nessuna rotazione può trasformare una forma enantiomera nell’altra, così come nessuna rotazione può trasformare la forma di una mano in quella dell’altra), chiamate enantiomeri (che costituiscono una delle due categorie di stereoisomeri configurazionali), o molecole chirali. L’attività ottica esibita da una coppia di enantiomeri, data appunto dal fatto che uno dei due imprime un angolo (-α) di deviazione-rotazione al piano di polarizzazione della luce verso sinistra (o levogira o sinistrogira o sinistrorsa, di segno -), mentre l’altra imprime un angolo (+α) di deviazione-rotazione al piano di polarizzazione della luce identico all’altro ma in direzione opposta, verso destra (o destrogira o destrorsa, di segno +), è chiamata appunto chiralità, e gli isomeri che esibiscono tale proprietà sono detti chirali. Quando una soluzione contiene la stessa identica quantità dei due enantiomeri di una data molecola (la sua forma levogira e destrogira), la soluzione si dice racemica. Una soluzione racemica non manifesta alcuna attività ottica: l’attività ottica dei due enantiomeri (il loro rispettivo potere rotatorio), essendo identica ma di segno opposto si compensa annullandosi, cosicchè il piano di polarizzazione della luce che attraversa la soluzione non subisce alcuna deviazione-rotazione, lasciando che la luce continui a vibrare su un unico piano. Pasteur osservò inoltre che gli organismi viventi sintetizzano ed utilizzano solo uno dei due enantiomeri e mai l’altro. A differenza delle reazioni inorganiche, che non sembrano esibire alcuna preferenza rispetto a quale forma enantiomerica venga prodotta (nelle reazioni gli isomeri vengono prodotti in quantità uguali), le reazioni biologiche sono rigorosamente enantioselettive, ovvero sintetizzano ed utilizzano sempre e solo una delle due forme enantiomeriche di una data molecola. L’enantioselettività dei sistemi biologici è la ragione della loro omochiralità, e cioè della presenza di gruppi di molecole che hanno tutte la stessa configurazione enantiomerica (ad es., gli amminoacidi sono tutti nella configurazione levogira, mentre il ribosio e il deossiribosio degli acidi nucleici hanno solo configurazione destrogira). Nel caso di macromolecole complesse come le proteine, per es., queste possono formarsi solo partendo dagli amminoacidi otticamente puri (forma levogira), e non potrebbero formarsi partendo da una soluzione racemica. 5.2 Autopoiesi e dinamica autocatalitica cellulare Nel 1972 il biologo e filosofo cileno Humberto Maturana conia il termine autopoiesi [13] (auto, se stesso, e poiesi, creazione) allo scopo di dare una definizione di sistema vivente che fosse scollegata da specifiche caratteristiche funzionali, come la mobilità, la capacità di riprodursi, il metabolismo, ma si basasse esclusivamente sul sistema stesso in quanto tale. In pratica un sistema autopoietico è un sistema che risponde alle leggi della termodinamica del non-equilibrio [14], che ridefinisce costantemente se stesso e che al proprio interno si sostiene e si riproduce. La dinamica autopoietica della cellula è organizzata intorno a pattern biochimici e biofisici autocatalitici (cioè auto-accelerati) regolati da fluttuazioni continue e non-lineari [15] di trasferimento energetico [16] selettivo tra ambiente interno e ambiente esterno. La selettività transmembranaria è l’elemento centrale della dinamica autopoietica cellulare. Vi è un nucleo catalitico [17] capace di interagire con il substrato ambientale in modo da produrre i componenti che formano la membrana. Una membrana perciò definisce e separa questa rete di interazioni dall’ambiente in modo che possa realizzarsi un’unità autonoma ma non isolata. Una cellula è una produzione continua e ricorsiva di componenti che, attraverso la membrana, definiscono la cellula stessa. Sebbene vi siano miriadi di strutture subcellulari all’interno della cellula, come atomi, molecole, polimeri macromolecolari, mitocondri, cloroplasti e così via, le proprietà dei componenti non determinano le proprietà della cellula come sistema autopoietico. Le proprietà della cellula sono proprietà di relazione e interazione che sono prodotte e che producono i suoi componenti. Il metodo convenzionale (paradigma neo-positivista) di approccio riduttivo ai sistemi complessi consiste nello scomporli in componenti più piccoli. Se questi sono ancora troppo complessi, si continua il processo di scomposizione fino a che diventano abbastanza minuscoli da essere quasi-compresi. Nel solo nucleo della cellula sono state identificate più di cento distinte reazioni chimiche; ma le proprietà dei componenti isolati aggiungono poco, se non nulla, alla comprensione del modo di funzionamento di una cellula. Una cellula, come sistema autorganizzato, non può essere compresa studiando le proprietà dei suoi componenti. Le sue proprietà come insieme sono determinate dalle proprietà delle interazioni tenso-energetiche, non lineari, tra i componenti, cioè dalla sua organizzazione dinamica. Il nucleo catalitico di una cellula (NCC) sarebbe costituito dall’Apparato del Golgi, dal centrosoma (MTOC, Microtubule Organizing Center [17]) e dai microtubuli [18] (le unità strutturali del citoscheletro cellulare, proteine polimerizzate altamente polarizzate), che fungerebbero da acceleratori direzionali delle trasformazioni dei pattern tensoriali in pattern isomorfici di spin e quindi in pattern frequenziali e viceversa. L’NCC si comporterebbe come un risonatore di cavità quantistico, sede della modulazione della frequenza dei flussi elettronici37 e della modulazione della fase [19] dei flussi fotonici (biofotoni [20]), che contraddistinguono gli scambi energetici intra ed extracellulari [21]. I vettori principali della modulazione della frequenza sarebbero gli eccitoni, mentre i vettori principali della modulazione della fase sarebbero i solitoni38. L’azione combinata tra eccitoni e solitoni, da un lato stabilizza la modulazione della frequenza (componente trasversale dell’onda elettromagnetica) e la modulazione della fase (componente scalare dell’onda elettromagnetica) del campo bio-elettromagnetico, mentre dall’altro lato, sostiene l’interfacciamento tra la dimensione quantistica (energia/massa) e la dimensione relativistica (tensoriale). Complessivamente, questa attività selettiva di fondo (sensibile alle fluttuazioni termodinamiche ed elettrodinamiche) costituisce un campo di onda quantistico-relativistico nonlineare [22] dotato di una elevata capacità di generare interferenza e di veicolare informazione (accoppiamenti di fase, risonanza), su cui agisce l’attività sintropica e prescrittiva dell’attrattore strano cellulare (ASO). 5.3 Dominii di Supercoerenza Oscillatoria dell’acqua L’enantioselettività, l’omochilarità e l’autopoiesi del fenomeno biologico sembrano legate alla transizione di fase dell’acqua dallo stato liquido allo stato semi-cristallino o vetroso [23], o forma 37 Cfr.: J. Fal/JILA (National Institute of Standards and Technology and the University of Colorado at Boulder), Disorder may be in order for ‘Spintronic’ devices, 2007, at: http://www.physorg.com/news90776398.html 38 Un solitone è un’onda-particella scalare o longitudinale a spin semi-intero (fermioni) la cui diffusione avviene a velocità ridotte senza perdita di energia. Un eccitone è una quasi-particella a spin intero (bosoni) la cui propagazione avviene a velocità elevate. Nell’interazione con il mezzo un solitone mantiene intatta la forma, la velocità, l’ampiezza dell’impulso e la frequenza potendo variare la fase. Nell’interazione con il mezzo un eccitone emette un elevato potenziale energetico sotto forma di fotoni (luce, bioluminescenza). clusterizzata [24] e supercoerente [25] dell’acqua biologica39. Per comprendere in cosa consista questa transizione di fase, dobbiamo prima dare un rapido sguardo alla spiegazione fornita dalla QFT (Quantum Field Theory) e dalla QED (Quantum Electrodynamic Field Theory) alla strutturazione della materia (gas, liquidi e solidi). La Meccanica Quantistica stabilisce che la matrice del fenomeno energetico, in qualsiasi forma esso si presenti, è vibrazionale, e che la realtà può essere compresa e spiegata in termini di relazioni di interferenza tra sistemi oscillanti. La Teoria Quantistica dei Campi (QFT) si attiene a questa visione della realtà, descrivendo la dimensione energetica come una distribuzione spaziotemporale di onde-particelle (oggetti quantistici intrinsecamente ambivalenti noti come quanti, insiemi di pacchetti di energia e impulso capaci di manifestarsi sia come fenomeni ondulatori che come fenomeni corpuscolari), la cui rappresentazione più appropriata è quella di campo esteso o campo quantistico, una distribuzione spazio-temporale di energia e impulso che associa il campo a due ordini di grandezza: a) l’intensità, proporzionale al numero dei quanti che lo compongono e quindi all’intensità delle loro frequenze unitarie di oscillazione, e b) la modalità oscillatoria, rappresentata dalla fase, grandezza matematica che fornisce il ritmo dell’oscillazione. Il campo quantistico consiste di: a) due campi correlati: (i) un campo di materia, associato alle fluttuazioni spaziali dei quanti in veste di particelle prive di carica; (ii) un campo di onda, associato alle fluttuazioni elettromagnetiche dei quanti in veste di particelle cariche; b) due regimi o stati fisici correlati: (i) uno stato quantistico di minima energia - detto anche vuoto quantistico -, associato ad un campo di materia relativamente inerte e ad un campo di onda composto da insiemi poco densi di particelle cariche; e (ii) uno stato quantistico eccitato, associato ad un campo di materia internamente agitato da moti di turbolenza sovra-liminali e/o ad un campo di onda eccitato da insiemi particolarmente densi di particelle cariche. Nella configurazione quantistica di minima energia (struttura granulare del campo), gli unici moti oscillatori ad interessare il campo sono descritti come oscillazioni spaziali ed elettromagnetiche di punto zero, auto-oscillazioni dei pacchetti di energia e impulso (quanti) relativamente indipendenti le une dalle altre. Perché le configurazioni eccitabili del campo quantistico, o meglio di porzioni spazio-temporali di esso, possano auto-eccitarsi innescando quella distribuzione di transizioni di fase (transizioni di regime) che spiegano la strutturazione subatomica della materia (struttura particellare del campo), deve realizzarsi almeno una delle condizioni seguenti: (i) un flusso di turbolenza (moto vorticoso) avente idonea intensità, o 39 - R. Ruzic et al., Electromagnetic transference of molecular information in garden cress germination, Int J High Dilution Res 2008; 7(24): 122-131: http://www.feg.unesp.br/~ojs/index.php/ijhdr/article/viewFile/300/366 - The Real Bioinformatics Revolution, ISIS Press Release 02/02/07: http://www.i-sis.org.uk/TheRealBioinformaticsRevolution.php (ii) un insieme di particelle cariche avente idonea densità. In questi casi, il passaggio dalla struttura granulare a quella particellare→atomica→molecolare (gas) del campo viene indotto dall’azione del campo elettromagnetico su una lunghezza d’onda portante, che determina l’accoppiamento di fase (risonanza) tra le oscillazioni spaziali ed elettromagnetiche complessivamente coinvolte nell’evento. Il risultato di questa risonanza oscillatoria è la costituzione della struttura particellare e coerente della materia (gas), la sua strutturazione atomica e molecolare. A questo punto, per spiegare la diversa strutturazione della materia dallo stato di gas a quello di materia condensata (liquidi e solidi), un gruppo di fisici delle alte energie dell’Università di Milano, guidato da Giuliano Preparata [26], ha sviluppato una teoria, la QED, che introduce il concetto di dominio di coerenza oscillatoria (→suono) in opposizione a quello di dominio di non coerenza oscillatoria (→rumore). Un sistema atomico-molecolare è detto coerente (liquidi e solidi), quando il dominio fisico della sua strutturazione (associata alle leggi della termodinamica), è governato dalla concordanza di fase (risonanza) tra i modi oscillatori dei suoi componenti (atomi e molecole) e il modo oscillatorio del campo elettromagnetico in cui sono immersi (su una lunghezza d’onda portante). Al contrario, un sistema atomico-molecolare è detto non coerente (gas), quando il dominio fisico della sua strutturazione (associata alle leggi della termodinamica), è contrassegnato dalla discordanza di fase tra i modi oscillatori complessivamente coinvolti. Ogni varietà elettrodinamica (campi di materia e campi di onda) e termodinamica (liquidi e solidi), corrisponde ad una configurazione oscillatoria coerente di specifica frequenza (quella fondamentale più i suoi armonici), associata ad una configurazione coerente di spin, e ad una configurazione coerente di tensione. Le transizioni tra una varietà e l’altra corrispondono alla soppressione di certi modi frequenziali (ritmi), di certi modi spinoriali e di certi modi tensoriali, che da esplicati diventano implicati, e alla amplificazione di altri, che da implicati diventano esplicati. L’acqua (H2O) è la terza molecola più comune nell’Universo (dopo la molecola di H2 e di CO), il 99% della totalità delle biomolecole di cui sono composti gli organismi viventi è rappresentato da molecole di H2O, è la sostanza più abbondante sulla Terra e l’unico liquido inorganico ottenuto naturalmente, gli oceani ne contengono un miliardo di chilometri cubi e nell’arco della vita il nostro corpo ne smaltisce 50 tonnellate. La sua struttura chimica, basata sul legame idrogeno, viene studiata da lungo tempo, molti modelli sono stati proposti ma nessuno è ancora in grado di spiegare una serie di proprietà dell’acqua considerate anomale [27]. La QFT ha prodotto una visione dell’acqua allo stato liquido come medium, che per una peculiarità del suo spettro elettronico molecolare si rivela come uno strumento essenziale per le comunicazioni a lungo raggio, essendo in grado di cambiare la propria organizzazione sovramolecolare in funzione dell’interazione con l’ambiente40. I campi elettromagnetici che vengono intrappolati nei domini di coerenza (CDs, Coherent Domains) dell’acqua e nelle loro matrici coerenti [28], producono potenziali elettromagnetici che regolano la fase di tutto il sistema, che a sua volta dà origine ad attrazioni selettive tra le molecole del soluto. 40 Nell'approccio adottato dalla QFT i quanti del campo che correlano le molecole di un sistema molecolare sono componenti del sistema tanto quanto le molecole, e scompaiono quando il sistema decade. Nella QFT l'interazione è considerata un oggetto al pari degli elementi di base. Inoltre, la stretta associazione tra le molecole e il campo di correlazione produce nuovi oggetti di base chiamati quasi-particelle (come i solitoni, gli eccitoni, i phononi, etc.) e la separazione convenzionale tra la materia e l'interazione svanisce. [Umezawa H., Advanced Field Theory: Micro, Macro and the Thermal Concepts, American Institute of Physics, New York, NY, USA, 1993] Seguendo questo approccio, la centralità dei fenomeni di risonanza indotti dal campo elettromagnetico nella strutturazione della materia condensata (liquidi e solidi), trova la sua applicazione anche nella spiegazione della instaurazione della fase supercoerente (un grado di coerenza oscillatoria superiore a quello della normale acqua allo stato liquido) dell’acqua biologica [29], un fenomeno che Emilio Del Giudice spiega così [30]: Prendiamo un insieme di unità microscopiche, ad esempio molecole, capaci di esistere in una pluralità di configurazioni interne; per semplicità supponiamo che queste configurazioni siano soltanto due. La dimensione tipica di queste molecole è qualche Angstrom (l’Angstrom è un centomilionesimo di centimetro), mentre il tipico salto di energia tra differenti configurazioni interne della molecola è dell’ordine di alcuni elettronvolt; per fissare le idee diciamo una decina, come nel caso dell’acqua. Questo insieme di unità microscopiche interagisce con il campo elettromagnetico, sia quello contenuto nell’eventuale fondo ambientale, sia quello connesso con le fluttuazioni quantistiche del vuoto. Il campo elettromagnetico interagisce con la materia non in modo continuo ma attraverso lo scambio di quantità discrete di energia dette fotoni. Quanto è esteso spazialmente un fotone? La risposta della teoria dei campi è che un fotone non può essere più piccolo della lunghezza d’onda dell’oscillazione cui corrisponde. Nel caso di un fotone di 12 elettronvolt la sua lunghezza d’onda è 1000 Angstrom. Pertanto un fotone è un oggetto esteso in una regione il cui volume è il cubo della lunghezza d’onda. Notiamo perciò che l’agente fisico capace di indurre cambiamenti di configurazione interna in un oggetto avente la dimensione di qualche Angstrom è un oggetto fisico molto più grande al cui interno possono trovarsi molte altre molecole. Per esempio, nel caso dell’acqua, alla temperatura di 100 gradi centigradi e alla pressione di 1 atmosfera, un fotone di 12 elettronvolt coinvolge simultaneamente, all’interno della sua lunghezza d’onda, 20.000 molecole. Esaminiamo ora l’interazione di questo fotone proveniente dal vuoto quantistico oppure dal fondo ambientale e le molecole presenti nello stato di gas. Un fotone comincia ad eccitare una molecola portandola dalla configurazione di bassa energia a quella di alta energia. La molecola resta eccitata per un breve periodo (dell’ordine di una piccolissima frazione di secondo) quindi decade nello stato originale riemettendo il fotone che a sua volta può avere due differenti destini. Può tornare nel mezzo (fondo ambientale o vuoto quantistico) da cui era venuto, oppure può eccitare una seconda molecola. La variabile critica che definisce il destino del fotone è la densità delle molecole. Detta P la probabilità che il fotone ecciti una molecola singola, se il numero N delle molecole contenuto nel volume occupato dal fotone è tale che il prodotto PN eccede 1, il fotone non sarà più capace di tornare da dove era venuto ma rimbalzerà continuamente da una molecola all’altra producendo quindi all’interno di quella regione un campo elettromagnetico che non si spegne più. Il vuoto, ovvero il fondo ambientale, ha perduto stabilmente un fotone a vantaggio della materia ma esso continua a fluttuare elettromagneticamente, per cui produce continuamente nuovi fotoni che subiscono lo stesso destino del primo. In un tempo molto breve nella regione data si accumula un numero di fotoni sufficiente a fare oscillare simultaneamente tutte le molecole tra le due configurazioni; la regione è diventata un Dominio di Coerenza. Le molecole che precedentemente si muovevano in modo indipendente ora hanno acquisito una correlazione, un comportamento collettivo, che ne limita l’indipendenza individuale determinando perciò una diminuzione dell’entropia. La diminuzione dell’entropia è perciò connessa all’insorgenza della coerenza elettrodinamica. La proprietà sopra discussa è una proprietà universale della materia che si applica a tutte le specie molecolari. In particolare l’insorgere della coerenza nell’oscillazione tra le configurazioni della nuvola elettronica delle molecole caratterizza lo stato liquido, mentre l’estensione della coerenza ai nuclei dà luogo all’apparizione dello stato solido. In questo quadro l’acqua liquida gode di una proprietà peculiare, non condivisa dalle altre specie molecolari, che la rende adatta a dare origine al fenomeno della vita. Infatti, nel caso dell’acqua liquida, l’oscillazione coerente delle nuvole elettroniche delle molecole che dà luogo alla formazione dei Domini di Coerenza avviene tra una configurazione di bassa energia in cui tutti gli elettroni sono fortemente legati all’interno della molecola e uno stato eccitato di alta energia in cui per ogni molecola un elettrone è pressoché libero, nel senso che l’energia residua di legame è estremamente piccola. Perciò, mentre le molecole non coerenti di acqua non possono cedere elettroni, i Domini di Coerenza dell’acqua hanno una forte propensione a cedere elettroni, diventando quindi elementi chimicamente riducenti, oppure possono dar luogo a stati eccitati in quanto eventuali apporti di energia esterna al Dominio di Coerenza possono indurre la formazione di stati eccitati collettivi (vortici) di questo insieme di elettroni quasi liberi. Il Dominio di Coerenza dell’acqua liquida a differenza dei Domini di Coerenza delle altre specie molecolari è suscettibile di dar luogo a un gran numero di stati eccitati. Nasce di conseguenza la possibilità di un ulteriore livello di coerenza generato dall’oscillazione collettiva di una pluralità di Domini di Coerenza dell’acqua tra due proprie configurazioni: una coerenza tra Domini di Coerenza, ovvero una Supercoerenza, che da un lato fa crescere la dimensione della regione correlata dal decimo di micron dei Domini di Coerenza elementari dell’acqua fino ai micron delle cellule, ai centimetri degli organi o ai metri degli organismi superiori. Come avviene l’oscillazione collettiva di questi Domini di Coerenza? Data la pluralità6 dei livelli eccitati del Dominio di Coerenza esso è in grado di prelevare dal rumore ambientale piccole quantità di energia trasformandole in vortici coerenti di elettroni quasi liberi. La durata di tali eccitazioni vorticose può essere molto lunga (giorni, settimane, mesi) poiché a causa della coerenza l’attrito interno è nullo, non vi sono collisioni e il Dominio non può dissipare energia in forma termica. Data la lunga durata di queste eccitazioni è possibile sommarne un gran numero all’interno del dominio, come essere in grado di accumulare un capitale di 1 milione di euro in monetine da 1 centesimo. Ogni vortice41 è un moto di elettroni, cioè di particelle elettricamente cariche, che dà luogo alla apparizione di un momento magnetico, il quale a sua volta si allinea col campo magnetico ambientale, che in ultima analisi può anche essere il campo magnetico terrestre. I vortici perciò non possono elidersi l’un l’altro ma si sommano coerentemente, trasformando quindi energia ambientale di bassa qualità (alta entropia) in energia coerente di alta qualità (bassa entropia) capace di indurre, come preconizzato da Szent-Gyorgyi, l’eccitazione elettronica delle molecole circostanti il dominio di coerenza. Di fatto [31], quando l’energia accumulata nel dominio di coerenza raggiunge il livello corrispondente all’energia di attivazione chimica delle biomolecole presenti nel dominio di coerenza nell’acqua, si ha per risonanza elettromagnetica il trasferimento di energia. Il Dominio di Coerenza si scarica, completando così la sua oscillazione, e un insieme di reazioni chimiche ben definito ha luogo, governato da una legge di risonanza elettromagnetica e non dal regime diffusivo fondato sui moti e urti casuali delle molecole tipico della chimica non biologica. In questo modo è possibile raggiungere simultaneamente due obiettivi: si rende possibile l’oscillazione dei Domini di Coerenza dell’acqua, precondizione necessaria per l’insorgenze della Supercoerenza, che estende il raggio di correlazione su distanze di interesse biologico; si genera una biochimica non governata dagli urti casuali tra molecole ma da un codice di mutuo riconoscimento e richiamo tra molecole fondato sulla interazione elettromagnetica a lunga distanza. Le reazioni biochimiche diventano così selettive, cioè obbedienti a specifici codici organici, e veloci. Inoltre l’energia chimica liberata durante le reazioni chimiche, una volta assunta dal Dominio di Coerenza, ne modifica la frequenza caratteristica di oscillazione, determinando a sua volta la modifica del tipo di specie molecolari capaci di risuonare col dominio. Abbiamo perciò un regime coerente non stazionario ma che si evolve nel tempo generando a sua volta un quadro biochimico dipendente dal tempo. In questo modo si ottiene un accordo qualitativo con le 41 - Konstantin Meyl, DNA and cell resonance: Magnetic Waves Enable Cell Communication. In: DNA and Cell Communication, pag. 422-426, 2012, http://www.k-meyl.de/go/Primaerliteratur/Magnetic_Waves-Enable-Cell_Communication.pdf - Konstantin Meyl, About Vortex Physics and Vortex Losses, Journal of Vortex Science and Technology, Vol. I, 2012, http://omicsonline.com/open-access/about-vortex-physics-and-vortex-losses-20908369.1000101.pdf?aid=15110 principali manifestazioni della dinamica del vivente che appaiono incomprensibili nel quadro concettuale di una chimica governata dal regime diffusivo e dagli urti casuali. La dinamica complessiva del vivente appare in ultima analisi emergere dal ritmo oscillatorio dell’acqua e dalle manifestazioni energetiche connesse. Negli organismi viventi, l’acqua può essere considerata come acqua interfacciale, per il fatto che non vi è quasi nessun punto di un organismo che non sia lontano più di una frazione di micron da una superficie (membrane cellulari, scheletro delle macromolecole, ecc). L’acqua interfacciale assume un aspetto vetroso ed è stata studiata da numerosi ricercatori [32], lasciando intravedere la possibilità che si tratti di una fase diversa da quella della normale acqua allo stato liquido. In particolare, si è scoperto che spessi strati viscosi di acqua contigui alle superfici biologiche (chiamate EZ, Exclusion Zone), in cui i soluti non sono in grado di penetrare e la cui esistenza nelle cellule eucariotiche è stata rilevata per la prima volta da Mollenhauer e Morre nel 1978 [33], restano statici quando il fluido circostante viene vigorosamente agitato [34]. Come Pagnotta e Bruni osservano42: …..interfacial and intracellular water is directly involved in the formation of amorphous matrices, with glass-like structural and dynamical properties. We propose that this glassiness of water, geometrically confined by the presence of solid intracellular surfaces, is a key characteristic that has been exploited by Nature in setting up a mechanism able to match the quite different time scales of protein and solvent dynamics, namely to slow down fast solvent dynamics to make it overlap with the much slower protein turnover times in order to sustain biological functions. Additionally and equally important, the same mechanism can be used to completely stop or slow down biological processes, as a protection against extreme conditions such as low temperature or dehydration… Recentemente, l’esistenza di una pluralità di fasi dell’acqua allo stato liquido ha ricevuto importanti conferme [35]. Sono state fornite prove sperimentali del fatto che sottoponendo l’acqua liquida a trattamenti fisici ben definiti (irradiazione di onde elettromagnetiche; sospensione di microsfere di materiali inerti; scioglimento di macromolecole di fullerene, una forma allotropica del carbonio scoperta nel 1985), si ottengono varietà speciali di liquido che presentano proprietà diverse da quelle dell’acqua normale e simili all’acqua interfacciale delle EZs [36]. Inoltre, una varietà di acqua avente proprietà simili all’acqua presente negli organismi biologici, è stata ottenuta eseguendo particolari processi biologici sull’acqua normale, connessi essenzialmente con il processo della fotosintesi [37]. Un risultato questo, che avvalora la tesi sostenuta da A. SzentGyorgyi [38], secondo il quale l’energetica degli esseri viventi può essere compresa in termini di fotosintesi e del suo processo inverso, la bioluminescenza43. Tutti gli involucri biologici, dalla membrana cellulare al tessuto epiteliale, contengono questa fase acquosa allo stato semi-cristallino (paragonata al ghiaccio liquido) o ne sono perfusi (surfactante alveolare; liquor cerebrospinale; liquido amniotico, etc.). Si tratta di acqua allo stato liquido in una fase di organizzazione quantistica [39] (supercoerenza oscillatoria) che le conferisce una elevata capacità di: (i) trattenere cariche elettroniche, sotto forma di eccitazioni vorticose di elettroni liberi44, immagazzinabili come riserva energetica; S. Pagnotta, F. Bruni, The glassy state of water: A “stop and go” device for biological processes. In: G.H. Pollack et al., Water and the Cell, Eds. Springer Verlag: Heidelberg, German, 2007, pp. 93-112. 43 La costituzione e il mantenimento delle strutture biologiche si basa sul processo di fotosintesi, grazie al quale il surplus di energia fornita dal fotone all'elettrone nella eccitazione elettronica, viene convertito in energia di legame. Il processo inverso è chiamato bioluminescenza. In questo caso si ha un trasferimento di energia da un legame ad un elettrone eccitato, con conseguente emissione di un fotone. 44 Tutti i processi cellulari sono supportati da energia derivante dalla rottura dei legami chimici (cessione di fotoni) e dalla eccitazione di elettroni (acquisizione di fotoni). A seconda dell'ambiente e delle circostanze, 42 (ii) (iii) indurre una eccitazione elettronica e protonica a lungo raggio e di lunghissima durata delle diverse specie molecolari presenti, rendendo possibile la loro selettiva attivazione e attrazione reciproca (→assorbimento enantioselettivo); convertire le vibrazioni meccaniche (phononi) in quanti di energia elettromagnetica (fotoni) e viceversa (effetto piezoelettrico). 5.4 Ipotesi sull’origine del fenomeno biologico È ipotizzabile che la centralità dei fenomeni di risonanza innescati dal campo elettromagnetico nella strutturazione della materia e nella transizione dell’acqua liquida dalla fase di ordinaria coerenza oscillatoria a quella di supercoerenza oscillatoria, possa risultare valida anche nella spiegazione dell’origine del fenomeno biologico, ovvero nella spiegazione di come sia avvenuto il passaggio dalla materia inanimata-inorganica alla materia animata-biologica. L’ambiente naturale entro cui si realizzò questo evento straordinario fu l’ambiente acquatico prebiotico, ricco dei derivati dell’acido carbonico (sali carbonati), e verosimilmente anche dell’isotopo stabile non radioattivo del carbonio, il più abbondante in natura (98,98%), il carbonio12, le cui caratteristiche vengono considerate ideali per la costituzione, in acqua, di strutture proteiche 45. l'eccitazione dell'elettrone da parte di un quanto di energia elettromagnetica (fotone) può essere convertita in tre modi diversi: (1) in calore e dissipazione (2) nella definizione di molecole o di ioni cellulari, o (3) nella trasformazione della forma molecolare con conseguenze dirette sulla sua reattività biologica. La formazione di un certo tipo di legame chimico noto come legame di risonanza, porta ad una situazione particolare in cui alcuni elettroni vengono liberati dalla particolare posizione che occupano nella molecola. Essendo liberi di viaggiare per tutta la molecola, questi elettroni vanno ad occupare un guscio od orbitale di energia che riguarda l'intera molecola e non un particolare atomo della molecola, per diventare vortici coerenti di elettroni quasi liberi. Le molecole che contengono questi vortici elettronici sono conosciute come sistemi coniugati. Molecole di questo tipo possono interagire in vari modi. Uno di questi consiste nella compenetrazione dei rispettivi vortici elettronici e nel conseguente accoppiamento elettromagnetico tra molecole, che equivale alla formazione di un dominio trans-molecolare di coerenza oscillatoria che accorpa i dominii di coerenza oscillatoria di più molecole. Questo accoppiamento può consentire all'energia di attivazione di un elettrone di passare da una molecola a un'altra, nello stesso modo in cui un segnale radio può passare da un trasmettitore ad un ricevitore, o consentire il trasferimento di un intero vortice elettronico da una molecola all'altra, un fenomeno noto come trasferimento di carica. 45 Come scrive Richard Merrick (Harmonically Guided Evolution, 2010, http://interferencetheory.com/files/Harmonic_Evolution.pdf: All life on Earth is composed mostly of carbon-12 and water. This is the case because carbon-12 bonds or resonates with more simple elements than any other element in the universe. It is for this very reason that carbon-12 is the international standard for atomic weight and all other elements are measured against it. With 6 protons + 6 neutrons in its nucleus and 6 electrons orbiting in two shells, carbon-12 exhibits the lowest possible energy of all the elements and is said to be ‘unbound’, thereby creating the most stable atomic geometry possible. When mixed with water, carbon-12 creates endless chains of sticky amino acids capable of crystallizing into life. This idea of life as a crystallization process is a good one because just as minerals align under pressure into lattices, coils of amino acids fold under pressure into three-dimensional protein structures, aligning into the familiar helical lattice of DNA. It is the geometric pressure of hydrogen atoms in water that helps create the lattice and give DNA its twist. When the 5-fold icosahedral superclusters of water is then combined with the complementary dodecahedral structures of carbon, something very interesting occurs - they resonate with one another to produce the characteristic geometry of life. There is nothing random or arbitrary about this – it is an inevitable outcome of the physics of harmonics acting at the atomic level. Carbon vibrates or resonates with Il fenomeno biologico è un processo non-lineare e indeterministico di eventi autopoietici e autosimilari, che fa della filogenesi una successione debole, paradossale e caotica (non computazionale, non prevedibile, non riproducibile, irreversibile), di relazioni (tensoriali, energetiche, cosmologiche, geologiche, biologiche, biofisiche, biochimiche, genetiche) che prescrivono ma non descrivono le possibili alternative (→problematizzazione delle soluzioni) strategiche e strutturali adottabili da un sistema biologico (inteso come sistema tenso-energetico integrato in una rete di interazioni multimodali con l’ambiente tensoriale e energetico, biotico e abiotico, di cui fa parte), nel tentativo di conciliare la necessità di assolvere al proprio fabbisogno tenso-energetico, con la necessità di far fronte alla pressione ambientale, e riprodursi: nella realtà della filogenesi, non è mai il soggetto più forte ad avere la meglio nella sfida competitiva per la riproduzione (la sistematica applicazione del caso contrario è una eventualità che si rende possibile solo grazie all’esercizio della stupidità tipica dei componenti delle comunità animali di Homo sapiens et faber), ma è sempre il o la meglio accordato/accordata all’ordito tensoriale e alla trama energetica delle relazioni specie-specifiche di cui gli individui fanno parte, perché è in ciò solo che si appalesa l’unica variabile dipendente, favorevole alla continuità della specie, su cui sia consentito agire epigeneticamente. Sotto l’aspetto termodinamico, la biforcazione filogenetica del Cambriano è un evento comune ai sistemi dinamici che si reggono sulla termodinamica del non-equilibrio. La termodinamica del non-equilibrio interessa quei sistemi per i quali il raggiungimento dell’equilibrio termodinamico (morte termica) è impedito dalle interazioni con l’esterno, ovvero dal continuo scambio di materia ed energia (sistemi aperti) con l’ambiente circostante, come accade nel caso dei sistemi biologici. In ogni processo meccanico macroscopico, almeno una parte dell’energia implicata nel processo viene dissipata come calore. Quando nel 1850 il fisico tedesco Rudolf Clausius vide per primo le possibili implicazioni di questa semplice osservazione, introdusse il concetto di entropia, ovvero di una quantità che cresce incessantemente in conseguenza di questa dissipazione di calore. Il calore è dato dal moto delle singole particelle che costituiscono un sistema, per cui l’entropia, indice di un potenziale termodinamico, è stata interpretata come la quantità di disordine contenuta nel sistema. Nel 1945, Ilya Prigogine, un fisico teorico e fisico chimico dell’Università di Bruxelles, formulò il teorema della minima produzione di entropia, in cui si afferma che i sistemi prossimi all’equilibrio termodinamico evolvono verso uno stato stazionario in cui la dissipazione è minima. Successivamente, con il collega Paul Glansdorff ed altri collaboratori a Bruxelles, egli iniziò ad esplorare sistemi più lontani dall’equilibrio, per verificare se il teorema potesse essere esteso a criterio generale valido anche per sistemi non lineari lontani dall’equilibrio. Glansdorff e Prigogine formularono un’ipotesi generale sulla stabilità degli stati stazionari lontani dall’equilibrio, affermando che possono divenire instabili se condotti ancor più lontani dall’equilibrio: a quel punto può sorgere una crisi o punto di biforcazione, in cui il sistema preferisce allontanarsi dallo stato stazionario evolvendo verso qualche altro stato stabile. La novità consiste nel fatto che al di là del primo punto di crisi si possono manifestare improvvisamente stati estremamente organizzati. Questi stati dinamici non sono associati ad una produzione minima di entropia da parte del sistema, tuttavia l’entropia prodotta viene trasferita all’ambiente esterno. Il criterio Glansdorff-Prigogine [40] non è un principio guida universale, esistono infatti innumerevoli comportamenti possibili quando il sistema è lontano dall’equilibrio: l’evoluzione nel tempo di un sistema lontano dall’equilibrio può dipendere fortemente dalle sue proprietà microscopiche (il moto degli atomi e delle molecole che lo compongono per esempio) e non solo da parametri su larga scala come la temperatura e la pressione. Lontano dall’equilibrio, le più piccole fluttuazioni possono portare a comportamenti completamente diversi su scala macroscopica. Una itself and other simple elements to form a wave-like spine while water acts to deaden or ‘damp’ everything into a pentagonal framework. miriade di biforcazioni può portare il sistema, in modo apparentemente casuale, a nuovi stati stazionari. Questi stati non uniformi di organizzazione strutturale, variabili nel tempo o nello spazio (o in entrambi), furono chiamati da Prigogine strutture dissipative, e la loro evoluzione spontanea, auto-organizzazione. Sotto il profilo termodinamico, le innumerevoli soluzioni funzionali e strutturali che caratterizzano le varietà biologiche prodotte nel corso della diversificazione filogenetica in generale, e di quella del Cambriano in particolare, rappresentano altrettante strutture dissipative lontane dall’equilibrio termodinamico. Stati stazionari al limite di fase tra ordine e caos, che se condotti ancora più lontani dall’equilibrio termodinamico (→ estinzioni di massa) possono andare incontro ad una crisi o punto di biforcazione, in cui il sistema preferisce allontanarsi dallo stato stazionario evolvendo verso qualche altro stato imprevedibile di stabilità. Seguendo questa linea interpretativa e ricordando che dall’acqua liquida sottoposta a particolari trattamenti fisici si ottengono varietà speciali di liquido che presentano proprietà diverse da quelle dell’acqua normale e simili all’acqua interfacciale delle EZs, è ipotizzabile che l’esposizione (tra i 4 e i 3 miliardi di anni fa, periodo di formazione del nucleo terrestre) dell’acqua prebiotica alle intense fluttuazioni del campo magnetico terrestre prebiotico46, associata all’abbondante disponibilità di carbonio-12, possa avere innescato la transizione di fase dal dominio ordinario di coerenza oscillatoria dell’acqua a quello di supercoerenza oscillatoria, dando avvio alla formazione di microdominii di acqua supercoerente delimitati da una lamina proteica semi-cristallina, contenenti una varietà limitata di macromolecole (come proteine e acidi nucleici) che vibrano sulle frequenze di risonanza del campo elettromagnetico intrappolato nel dominio di supercoerenza. Le particolari proprietà strutturali e funzionali di questi microdominii di acqua nella fase di supercoerenza oscillatoria, fanno di essi dei veri e propri proto-organi con funzioni di trasduzione (conversione di energia meccanica in energia elettromagnetica e viceversa) e di trasmutazione (trasformazione di un elemento chimico-fisico in un altro), e degli ottimi candidati al ruolo di protosistemi autopoietici, ovvero sistemi intermedi tra l’inorganico e il biologico, tra il reagente e il vivente. In questo caso, si pone il problema di spiegare se e come potessero essere in grado di autoriprodursi. Un problema di difficile soluzione, tanto più se ci si limita a prendere in considerazione il solo aspetto chimico del fenomeno, tralasciando l’aspetto fisico, che al contrario è ineludibile e determinante. Forse la risposta risiede nel fatto che la matrice elettronica di un Dominio di Supercoerenza Oscillatoria sussiste al decadere della sua struttura molecolare. Per loro natura tutti i sistemi dinamici, compresi quelli autopoietici, esplicano il loro dinamismo entro limiti di tempo e di spazio definiti, in caso contrario sarebbero eterni nel tempo e infiniti nello spazio. Stabilendo i confini della variabilità temporale e spaziale a cui è vincolata l’esistenza 46 Specifically, the field may have been strong through the Archaean as the geodynamo was driven by vigorous thermal convection, it may then have became weaker as the thermal convection ebbed through the Proterozoic, and finally, it may have become re-established at higher values as compositional convection was initiated by inner core nucleation at some point in the late Proterozoic or Phanerozoic. [In: Andrew J. Biggin, The intensity of the geomagnetic field in the late-Archaean: new measurements and an analysis of the updated IAGA palaeointensity database, Earth Planets Space, 61, 9–22, 2009, http://www.uu.nl/SiteCollectionDocuments/GEO/Peleomagnetism/Biggin_2009_EPS.pdf ] See also: - David J. Dunlop, Palaeomagnetism: A more ancient shield, Nature, 2007, http://www.nature.com/nature/journal/v446/n7136/full/446623a.html - John A. Tarduno, Geodynamo, Solar Wind, and Magnetopause 3.4 to 3.45 Billion Years Ago, Science, 2010, http://www.sciencemag.org/content/327/5970/1238.abstract del sistema, questi limiti rappresentano la variabilità limitata del sistema stesso. Parte di questa variabilità, specie quella che attinge agli estremi (i limiti di fase), non si appalesa nel dinamismo ordinario del sistema. Questa porzione di variabilità è detta variabilità di riserva e coincide con la capacità di adattamento e/o di reazione del sistema dinamico alla evoluzionarietà ed alla perturbabilità. In altri termini, la variabilità complessiva (variabilità limitata più variabilità di riserva) indica il limite di capacità del sistema di autoregolarsi, e stabilisce i limiti di stress specifici del sistema, oltre i quali la sua dinamica non è più controllata. In un sistema oscillante in continuum (sistema ritmico continuo), come un dominio di coerenza e di supercoerenza oscillatoria: la variabilità di riserva del sistema si identifica con i limiti di stress di ciascuna delle proprietà ritmiche di cui il sistema oscillante è dotato, la variabilità limitata coincide con la sua capacità oscillatoria, la capacità oscillatoria corrisponde alla capacità di modulazione delle proprietà ritmiche del sistema. La capacità di modulazione delle proprietà ritmiche del sistema comprende: la modulazione tonica o modulazione del livello medio oscillatorio, la modulazione della ampiezza, la modulazione della fase, la modulazione della frequenza. Ne deriva che quando si oltrepassano i limiti di stress di un sistema ritmico continuo, cioè quando si ha una sovramodulazione di una o più di una delle proprietà oscillatorie, il ritmo continuo del sistema oscillante perde il suo comportamento ciclico autoregolato per entrare in un dinamismo irregolare, randomizzato. Un sistema dinamico autopoietico deve poter cambiare nel tempo rimanendo simile a se stesso. Questa facoltà gli viene conferita dall’azione prescrittiva e sintropica dell’attrattore strano (ASO) che presiede alla sua dinamica, ma è solo grazie all’azione modulante (capacità di modulazione delle proprietà ritmiche del sistema) esercitata dal campo elettromagnetico intrappolato nel dominio di supercoerenza oscillatoria che questa facoltà si trasforma in capacità di trasformare i pattern tensoriali in pattern isomorfici di spin e quindi in pattern frequenziali e viceversa. In condizioni normali, l’azione combinata che si instaura tra l’attrattore strano e il campo elettromagnetico mantiene la ciclicità del sistema sul piano della autosimilarità e della invarianza di scala, condizione necessaria affinché la funzione e la morfologia dei processi e delle strutture del dominio di supercoerenza oscillatoria pur trasformandosi restino complessivamente aderenti al ruolo loro assegnato (nel processo di invecchiamento, ad es., strutture e processi cambiano pur rimanendo sempre simili a se stesse). A questo scopo l’attrattore strano subisce una costante trasformazione passando da attrattore strano ad attrattore a ciclo limite 47 (quasi periodico) ad attrattore a punto fisso (periodico) e viceversa48. 47 Il principio del ciclo limite (Mitchel J. Feigenbaum) indica il limite oltre il quale un sistema dinamico a ciclo continuo, come la dinamica cellulare, può passare (transizione di fase) da uno stato caotico a uno stato ordinato, e viceversa. Nella transizione tra i due stati l’attrattore strano che governa sulla dinamica del sistema viene detto attrattore a ciclo limite. 48 (…)The stable limit cycle of the original trimolecular two-variable model becomes unstable (and the system diverges) if the velocity constant of the autocatalytic reaction is sufficiently small. If one simply adds a further intermediate variable as a storage substance, the stable limit cycle exhibits a period doubling cascade into chaos when lowering the autocatalytic reaction rate. If the rate is lowered even further, the stable chaotic attractor becomes unstable and the system diverges again. In contrast, in system we observed the same (two-dimensional) behaviour than in the original two-variable model. Of course the period Sino a quando il grado di indeterminatezza dell’attrattore e la sua funzione sintropica sono preservate la sua autotrasformazione è reversibile (processi fisiologici, processi di autoriparazione), ma quando il grado di indeterminatezza e/o l’efficacia della funzione sintropica vengono compromesse da cause interne all’attrattore o esterne ad esso (alterazione o perdita della capacità di mantenere le proprietà ritmiche del sistema) il processo di autotrasformazione può arrestarsi al livello dell’attrattore a ciclo limite o dell’attrattore a punto fisso, con una ricaduta sui processi e/o sulle strutture che sono sotto il suo controllo. Oltre una certa soglia (superamento irreversibile dei limiti di stress), la perdita di indeterminatezza e/o di capacità sintropica dell’attrattore determina una locale o diffusa riduzione del grado di libertà funzionale (danni strutturali e/o funzionali permanenti) o la perdita di una o più funzioni che può portare alla morte del sistema, ma non alla scomparsa della sua matrice elettronica, che anzi continua ad essere presente nel mezzo ambiente e spendibile per la formazione di un nuovo sistema proto-biologico la cui dinamica è riconducibile a quella dei sistemi che lo hanno preceduto. Da qui avrebbe preso il via il lungo processo di integrazione e diversificazione di strutture e funzioni, che ha portato alla costituzione dei precursori delle protocellule fino alla costituzione delle cellule procariote, delle cellule eucariote e degli organismi pluricellulari sino a noi. Se questa ipotesi si dimostrasse corretta, saremmo indotti a concludere che il fenomeno biologico non solo ebbe origine nell’ambiente acquatico prebiotico, ma che ebbe origine grazie ad un processo non-lineare (iniziato 4 miliardi di anni fa e mediato sul piano quantistico dal campo elettromagnetico) di formazione, stabilizzazione e integrazione di particolari dominii di supercoereza oscillatoria dell’acqua allo stato liquido, delimitati da una pompa elettronica selettiva (lamina proteica→membrana) e costituiti, almeno stando al Modello Endodynamotensivo, da una trama frattalica di creste di interferenza e di reti spinoriali (involucro energetico) in uno stato di accoppiamento non-locale (entangled) con un ordito di tensioni differenziate e indifferenziate (nucleo tensoriale), che presiede e orienta (prescrive ma non descrive) la strutturazione del fenomeno energetico in tutte le sue forme, inclusa quella biologica. In questo senso, l’ipotizzata capacità del dominio di supercoerenza oscillatoria di autoriprodursi sia al proprio interno, sul piano orizzontale della sua durata temporale, che sul piano verticale della discendenza filetica, fa del fenomeno biologico, dalle sue origini, un unico spettacolare ecosistema auto poietico legato da catene energetiche e tensoriali. Un organismo vivente, allora, non può essere considerato una tessera del mosaico della vita ma una entità vibrante che dinamicamente dialoga con il proprio ambiente, costituito non solo da altri organismi viventi (ambiente biotico) ma anche da materia inanimata (ambiente abiotico). Il risultato di un dialogo in fieri (relazioni di interferenza sul piano energetico e tensoriale), che lo coinvolge e che coinvolge tutte le variabili ambientali (nello spazio, nel tempo e nello spaziotempo) da cui dipende la sua esistenza e sussistenza. doubling and the chaotic region in the parameter space could be so narrow that we did not find it numerically, but it seems that the trajectories of the whole three-dimensional model are in fact confined to a two-dimensional surface in the long time limit. [Thomas Wilhelm and Peter Hanggi, What can be stated by the Glansdorff–Prigogine criterion concerning the stability of mass-action kinetic systems?, Journal Of Chemical Physics, volume 110, number 13, 1999, http://www.physik.uni-augsburg.de/theo1/hanggi/Papers/229.pdf ] 6. L’organismo pluricellulare Chuang Tzu livella tutte le cose E le riduce alla stessa monade; Ma, dico io, in questa identità Possono sorgere diversità: S’anche nel cedere alla natura Mostrano entrambi tendenze simili, Pure mi sembra che in qualche modo Una fenice sia più d’un rettile. Po Chu-I (772-846 d. C. ) Per sopravvivere e per non estinguersi tutti i sistemi biologici dai più semplici ai più complessi utilizzano e sviluppano due tipologie strettamente interrelate e interdipendenti di strategie energetico/adattive: - una tende ad adattare il sistema alle variabili incondizionate imposte dall’ambiente (forza di gravità e campo magnetico terrestre, macrosistema geo-climatologico, sistema solare, ere geologiche, etc.), - l’altra tende ad adattare le variabili condizionate dell’ambiente alle esigenze di sopravvivenza del sistema (conformazione delle terre emerse, degli ambienti sommersi e dell’atmosfera, disponibilità di risorse energetiche biocompatibili, eventi metereologici e climatici ciclici, etc.). La variabilità ambientale, spaziale e temporale, rappresenta lo scenario con il quale la biodinamica energetico/adattiva deve misurarsi. Ai fini della sopravvivenza questo significa che le strategie energetico/adattive: - non possono basarsi su processi lineari (feedback loops) di problem solving, che sono poveri di informazione e limitano la tolleranza del sistema alla pressione ambientale, ma devono problematizzare le soluzioni (feedforward) sfruttando la non linearità dei processi naturali [41], che è ricca di informazione (capacità di generare interferenza) e capace di garantire plasticità funzionale e tolleranza strutturale al sistema (la problematizzazione non lineare – frattale – delle soluzioni è il motore dell’apprendimento e si contestualizza attraverso di esso), - non possono realizzarsi come fatti indipendenti slegati dal contesto ma devono realizzarsi come fatti dipendenti dal contesto perché parte di esso e della sua dinamica (la dipendenza dalle variabili ambientali richiama variabilità biologica che si traduce nella costituzione di ecosistemi). La formazione di organismi pluricellulari contestualizza uno straordinario passaggio: - dal modello territoriale di organizzazione ecosistemica (che vede come protagonisti interi agglomerati di organismi unicellulari distribuiti su uno o più territori e legati da un guadagno bioenergetico e adattivo comune) al modello pluricellulare di organizzazione ecosistemica, che vede come protagonisti colonie di cellule specializzate e riunite da un legame funzionale e strutturale comune delimitato e identificato nella costituzione di un tessuto, - e dal modello territoriale di comportamento unitario di interi gruppi di cellule (dove il comportamento del singolo è prescritto da quello del gruppo e descritto da una dinamica corale, come quella che osserviamo nei movimenti sincronizzati di branchi di pesci, stormi di uccelli, comunità di formiche e di termiti, sciami di api, etc.), al modello tissutale dove organi e sistemi di organi operano in sincronia per la sopravvivenza e l’unità del sistema. L’organismo biologico unitario (cellula) da sistema autopoietico integrato delimitato da una membrana e composto da una moltitudine di strutture subcellulari e di unità molecolari, diviene una pluralità autopoietica ecosistemica (organismo pluricellulare) circoscritta e costituita da un sistema integrato di cellule differenziate e specializzate in base al ruolo che devono occupare e alla funzione che devono svolgere (tessuto→organo→sistema). Fino al Cambriano la diversificazione biologica orbitò attorno alla messa a punto di strategie biofisiche e biochimiche destinate all’assolvimento del fabbisogno energetico. Con l’epocale biforcazione filogenetica del Cambriano, che determinò una vera e propria esplosione di varietà pluricellulari, venne introdotta una nuova variabile nella diversificazione adattiva: il ricorso a strategie comportamentali. 6.1 Metazoi: eterotrofia, mobilità, irritabilità, neuroni L’organizzazione corporea di organismi pluricellulari eucarioti del regno animale come i celenterati a simmetria radiale, meduse e anemoni di mare, consiste di tessuti derivati da due foglietti embrionali, l’endoderma e l’ectoderma. Un grado maggiore di integrazione tissutale e funzionale lo si riscontra nei platelminti, che hanno tre foglietti embrionali, comprendenti anche il mesoderma, simmetria bilaterale e organi di senso concentrati a un’estremità. I celomati, che includono quasi tutti gli altri animali, hanno tessuti derivanti da tre foglietti embrionali e una cavità, il celoma, rivestita da epitelio di origine mesodermica. Entro questo vasto raggruppamento si situano le organizzazioni corporee inconfondibili degli anellidi (vermi metamerici), degli echinodermi (stelle di mare, oloturie, ofiure e altri organismi a simmetria pentamera), degli artropodi (insetti, crostacei, aracnidi), dei molluschi e di un numero esorbitante di altri organismi meno noti. Caratteristica unificante di tutti gli animali, è il loro modo di nutrirsi: a differenza delle piante, che ricevono passivamente l’energia solare, gli animali debbono cercarsi il nutrimento o, alternativamente, escogitare nel tempo filetico strategie adeguate per assicurarsi l’apporto di cibo. La mobilità, perciò, di tutto l’organismo, delle sue parti o di entrambi è una condizione indispensabile per la loro sopravvivenza. La mobilità in generale e l’inseguimento delle prede in particolare richiedono sistemi efficienti di integrazione e controllo. Generalmente si muovono per l’azione di cellule specializzate (cellule contrattili e cellule muscolari), e tendono a integrare il controllo e l’organizzazione della loro attività facendo ricorso a particolari sostanze (gli ormoni) o cellule (neuroni). Gli animali più complessi, come i cefalopodi, gli insetti e i vertebrati, hanno molti tipi di tessuti specializzati ed elaborati meccanismi sensoriali e neuromotori che non si trovano negli altri regni, e che hanno la loro origine nella eterotrofia. Ci sono pochi modi fondamentali per realizzare la locomozione, la presa di cibo, l’autodifesa e la coordinazione motoria. Nel corso della diversificazione filogenetica, tuttavia, parallelamente all’adattamento degli animali ad ambienti nuovi e mutevoli, quelle poche modalità di base sono state reinventate, perfezionate, rielaborate in un processo di integrazione e diversificazione strutturale e funzionale culminato nella grande varietà di strategie adattive che osserviamo oggi. Una delle proprietà generali del protoplasma (composto da acqua, elettroliti, proteine, lipidi e carboidrati), cioè della materia biologica di cui sono costituite le cellule, è l’irritabilità, ovvero la capacità di avvertire uno stimolo esterno e di reagire ad esso. Un organismo costituito da un’unica cellula (come l’ameba) reagisce a un contatto contraendo il proprio citoplasma. L’irritabilità, tuttavia, non è una risposta, ma una cellula deve essere irritabile per poter rispondere ad uno stimolo. Nei vertebrati, ad esempio, le cellule epiteliali, se stimolate, possono rispondere secernendo, le cellule muscolari contraendosi e le cellule nervose (neuroni) producendo e/o conducendo impulsi neuro-elettro-chimici o potenziali d’azione49 che si propagano lungo i loro prolungamenti (assoni e dendriti) a velocità variabile. Negli organismi pluricellulari del regno animale (dai Metazoi sino a noi), in cui le varie funzioni si ripartiscono sempre più fra tessuti diversi e specializzati, questa proprietà caratteristica dell’irritabilità viene acquisita e perfezionata al massimo grado dalle cellule nervose (neuroni) che, assieme alle cellule della nevroglia, formano il Tessuto Nervoso (TN), la cui diversificazione e integrazione morfologica, anatomica e funzionale porta alla costituzione del Sistema Nervoso (SN). In animali con un grado neurologico di integrazione strutturale e funzionale perfettamente efficiente e relativamente diversificato, come i Celenterati, per esempio le meduse e i polipi, il SN è limitato a una rete di elementi neuromuscolari, dotati al tempo stesso di capacità sensitiva e contrattile. In animali con un grado maggiore di diversificazione funzionale e strutturale, come in alcuni Molluschi, il SN si organizza in strutture più complesse e selettive, costituite da cellule differenziate (cioè che hanno acquisito particolari caratteristiche strutturali rispondenti alla funzione da svolgere) raggruppate in profondità, sotto i tegumenti, a formare una catena di gangli (raggruppamenti neuronali) a lato del tubo digerente. Con la comparsa dei vertebrati la suddivisione del SN in organi centrali (notocorda→ tubo neurale) e strutture periferiche (fibre nervose e organi recettoriali), prefigurata in alcune specie di animali marini al confine tra invertebrati e vertebrati (come il Pikaia gracilens, considerato l’antenato fossile dell’attuale Anfiosso), subisce una decisiva stabilizzazione e gli organi centrali di esso (encefalo e midollo spinale) vengono accolti entro un astuccio osteo-fibroso rappresentato dalla scatola cranica e dallo speco vertebrale. Caratteristica degli animali a simmetria bilaterale (come la specie Homo) è un piano strutturale corporeo organizzato lungo un asse longitudinale, con la metà destra che è approssimativamente l’immagine speculare (ma non sovrapponibile→chiralità) della metà sinistra. Un animale a simmetria bilaterale può muoversi più efficacemente di un animale a simmetria radiale o raggiata (come i Celenterati) che, a sua volta, è meglio adattato ad una vita sedentaria. Altra caratteristica degli animali a simmetria bilaterale è l’avere un orientamento spaziale di tipo assiale, cioè organizzato in senso longitudinale tra due estremità, una anteriore (cefalica o rostrale) ed una posteriore (caudale). Avere una estremità anteriore è una caratteristica degli animali molto attivi. In tali organismi molte delle cellule sensoriali (cellule nervose specializzate in funzioni recettoriali stimolospecifiche) sono concentrate nell’estremità anteriore del corpo insieme a una maggiore concentrazione di cellule nervose specializzate in funzioni diverse da quelle stimolo-specifiche: grazie a questa particolare organizzazione neuroanatomica l’organismo si trova ad essere praticamente orientato in una direzione preferenziale, in avanti, sulla base della quale l’animale organizza il proprio comportamento motorio. Un impulso neuro-elettro-chimico o impulso nervoso o potenziale d’azione è un’onda solitonica [42] che si propaga lungo tutta la membrana cellulare (grazie ad un processo a catena di modificazione della permeabilità transmembranaria che coincide con variazioni transitorie della concentrazione ionica di membrana), con ampiezza ed intensità costanti e con frequenza e velocità variabili (la velocità di propagazione è direttamente proporzionale al diametro ed al grado di mielinizzazione della fibra nervosa; la frequenza è direttamente proporzionale allo stato eccitatorio del neurone). Nei vertebrati, l’attività neuroelettro-chimica dipende in misura sostanziale dall’ambiente dielettrico costituito dalla sostanza bianca (o nevroglia) e dal liquido cefalo rachidiano. 49 7. Le basi paradigmatiche per un nuovo modello delle neuroscienze Recentemente mi sono trovato a dover spiegare il modo in cui percepiamo le cose, ma non riuscivo a trovare le parole adatte. Alla fine, per disperazione, chiesi al mio interlocutore come egli ritenesse di vedere il mondo. Rispose che nella sua testa doveva esserci, in qualche punto, qualcosa come una sorta di piccolo televisore. ‘E allora – chiesi – chi è che lo guarda? ‘. A questo punto, improvvisamente, si rese conto del problema. F.H.C. Crick50 Tutta la fisica classica e la quasi totalità della fisica quantistica e relativistica continuano ad occuparsi della frazione deterministica e quasi-deterministica della realtà, o sono orientate a prediligere la versione quantizzata (→una grandezza fisica può assumere solo valori discreti) della realtà, trascurando o sottovalutando il fatto che tanto la quantizzazione quanto la realtà del continuo spaziotemporale (Teoria della Relatività Generale), implicano l’esistenza di una frazione di realtà intrinsecamente indeterministica (tensoriale), non misurabile e caotica 51. Il caos rappresenta una nuova sfida per il punto di vista riduzionistico, secondo cui un sistema può essere compreso scomponendolo e poi studiandone le singole parti. Questo punto di vista è stato largamente seguito nella scienza anche se sono moltissimi i sistemi per i quali il comportamento del tutto è apparentemente la somma delle parti. Il caos, tuttavia, dimostra che un sistema può manifestare un comportamento complicato come risultato di un’interazione non lineare semplice tra poche componenti soltanto. Il problema si è già reso evidente in un’ampia gamma di discipline scientifiche, dalla descrizione della fisica microscopica alla costruzione di modelli per il comportamento macroscopico degli organismi biologici. Negli ultimi anni la capacità di ricavare conoscenze particolareggiate sulla struttura di un sistema ha compiuto progressi formidabili, ma la capacità di integrare queste conoscenze è stata ostacolata dall’assenza di una cornice concettuale adatta, entro la quale descrivere il comportamento qualitativo. Anche quando si possegga una mappa completa del sistema nervoso di un organismo semplice, come il nematode, non è possibile ricavarne il comportamento. Analogamente, la speranza che la fisica possa raggiungere la compiutezza grazie a una comprensione sempre più particolareggiata delle forze fisiche e dei costituenti fondamentali è infondata. L’interazione delle componenti a una data scala può provocare su scala più vasta un comportamento globale complesso che in generale non può essere ricavato dalla conoscenza delle singole componenti. Spesso il caos è visto in termini delle limitazioni che comporta, come la mancanza di prevedibilità. Ma accade che la natura sfrutti il caos in modo costruttivo. Grazie all’amplificazione di piccole fluttuazioni, esso può consentire ai sistemi naturali di deviare (biforcazione) da quella che appare come la linea maestra. La filogenesi richiede variabilità genetica, e il caos offre un mezzo per la strutturazione delle variazioni aleatorie, fornendo così la possibilità di porre la variabilità sotto il controllo della diversificazione biologica. Tutta la neuroscienza contemporanea è in larga misura vincolata all’idea che un sistema fisico è 50 F. H. C. Crick, Riflessioni sul cervello. In: Le Scienze quaderni, N 31, 1986, pag 92 A qualsiasi scala la si consideri, la parte caotica (non misurabile e impredicibile) della realtà è sempre riscontrabile nell’intertempo e nell’interspazio tra le misure fattibili (deterministiche) che utilizziamo per codificarla. 51 fatto di parti macro e microscopiche indipendenti che interagiscono solo con le parti adiacenti, sviluppando un comportamento che nel tempo è deterministico. Questo è il principio su cui si basano tutti i modelli computazionali del cervello. Secondo questo paradigma, una mente è il prodotto di un cervello, che è un sistema, come gli altri che popolano l’Universo, regolato da leggi meccaniche, ma particolare. Questa visione si fonda sulla fisica newtoniana, la scienza della materia (res extensa), che esclude a priori l’investigazione della mente (res cogitans). Ai neuroscienziati che si occupano di investigare il fenomeno mentale, sfugge questo semplice sillogismo: sono alla ricerca di una spiegazione della mente utilizzando strumenti che sono stati concepiti per non occuparsi della mente. Strumenti che, oltretutto, si sono dimostrati errati anche nello studio della materia. Niente di strano, allora, se le menti offuscate dall’ombra di Dio dei neoseguaci della dottrina della fede nella Scienza siano sedotte dall’idea che la coscienza sia una proprietà inerente della materia. Le stranezze evidenziate dalla fisica delle particelle, tuttavia, e in particolare il fatto che l’attività mentale dell’osservatore interferisce con l’oggetto della sua osservazione, ci obbligano a considerare la possibilità che: il fatto mentale “osservatore” interferisca con il fatto energetico “particella” perché il fatto mentale è la forma tensoriale della interazione neuro-logica che si instaura tra il territorio dell’energia e il territorio della tensione (TI/dynamis). In questo senso, il fatto mentale va considerato a tutti gli effetti un evento fisico, un fenomeno dinamico in continua trasformazione, non energetico ma tensoriale. Questo, tuttavia, non significa affatto che la materia possegga un nucleo mentale, né che le leggi naturali debbano prevedere e consentire l’esistenza di esseri intelligenti capaci di interrogarsi su di esse (principio antropico), né che da una certa combinazione di reti neurali artificiali possa emergere un flusso di pensieri: un flusso di pensieri sta a una rete neurale, come Edipo sta alla propria immagine riflessa da uno specchio d’acqua. Così come non significa che il fatto mentale e la coscienza coincidano: il fatto mentale sta alla coscienza come l’impulso di moto sta al Cante Jondo andaluso. Significa invece che i due territori, energetico e tensoriale, si integrano e interagiscono l’uno con l’altro, ognuno con le proprie caratteristiche fisiche e le proprie dinamiche, con modalità ed effetti che variano in base alla loro localizzazione e integrazione spazio-temporale. Le caratteristiche neurologiche, genetiche ed epigenetiche, dell’animale Homo fanno sì che la esplicazione della relazione tra il territorio energetico e il territorio tensoriale assuma la forma di ciò che sperimentiamo come fenomeno mentale umano, una quota di realtà non fattorizzabile estranea al territorio dell’energia, ma non per questo fittizia bensì virtuale: in fisica si parla di dimensione virtuale (e di particelle virtuali) come di quella dimensione (o particelle) non direttamente osservabile, ma la cui influenza si fa sentire e conferma le previsioni teoriche. Sul fatto che l’influenza del fenomeno mentale si faccia sentire non credo ci siano obiezioni, ma non disponiamo ancora di un metodo scientifico (che non può essere quello galileianonewtoniano) e degli strumenti teorici che ci consentano di fare delle previsioni 52 (ammesso che se ne possano fare). 52 In realtà non è esatto, gli strumenti teorici che potrebbero essere opportunamente trasformati allo scopo, ci sono. Mi riferisco, ad es., alla estensione relativistica della Meccanica dei continui, o meccanica tensoriale; alla Teoria della Elasticità Relativistica (vedi ad es: J. Kijowski, Elasticità Finita e Relativistica: introduzione ai metodi geometrici della Teoria dei Campi, 1991, www.cft.edu.pl/~kijowski/Odbitkiprac/TUTTO.pdf ); alla Teoria quantistico-relativistica del Campo Torsionale di Riemann-Cartan, nota anche come Teoria U4 o Teoria di Einstein-Cartan-Sciama-Kibble (vedi ad es.: J.B. Fonseca-Neto, C. Romero, S.P.G. Martinez, Scalar Torsion and a new Simmetry of General Relativity, Gen.Rel.Grav. 45 (2013) 1579.1601, 2012, http://arxiv.org/abs/1211.1557 ). E di cosa sarebbe fatta la mente? Stando al Modello Endodynamotensivo [Messori 2013] il territorio fisico a cui appartiene il fenomeno mentale, sia umano che animale, è costituito da un ordito (i) di eventi tensoriali indifferenziati, che mantenendo la terminologia già in uso chiamo qualia, definendoli come le più piccole e irriducibili frazioni (intertempi) indifferenziate di tensione, i meta-pixel53 che compongono l’ordito temporale del territorio della tensione, e (ii) di eventi tensoriali differenziati, che chiamo tensioni tangenti, un frame di deformazioni (interspazi) tangenti al piano di simmetria tensoriale TI, i metatexel54 che compongono l’ordito spaziale del territorio della tensione. La strutturazione degli eventi mentali, di cui sono partecipi, passivamente o attivamente (specie umana → nascita psicologica) e con modalità, gradi di integrazione e di complessità (stereotipia vs superamento della stereotipia) diverse tutti gli organismi (invertebrati e vertebrati) dotati di Sistema Nervoso (SN) 55, avviene per accoppiamenti del tipo frequenza-fase→ fasetensione→tensione-tensione [Messori 2012, 2013] e viceversa, operati da un Attrattore Strano56 Olografico (ASO) [Messori 2011, 2012, 2013] su una frequenza-fase-tensione portante (specie specifica). L’ASO (Holographic Strange Attractor, HoSA) è: un centro spaziotemporale di stabilità tensoriale, dimensionato come frattale e configurato come ologramma, intorno a cui si verifica la variabilità indeterministica delle relazioni di accoppiamento (frequenza-fase sul piano quantistico; fase-tensione sul piano quantistico-relativistico; tensione-tensione sul piano 53 Le deformazioni temporali che si creano, per effetto della de-simmetrizzazione di riflessione, attorno ai più piccoli elementi (tracce mnesiche o dominii tensoriali di coerenza isteresica) di un pattern tensoriale. Meta-pixel e tracce mnesiche formano, sul piano temporale, una singolarità caotica non-casuale (Rene Thom), o evento catastrofico non-casuale, una realtà ontica meta-stocastica potenzialmente predicibile sulla base delle equazioni (matematica dei frattali) che descrivono la caoticità del processo di trasduzione del fenomeno tensoriale in fenomeno energetico, responsabile della attualizzazione di ciò che resta implicato (pattern tensoriale). L’evento catastrofico non-casuale pattern tensoriale è così una entità logica che non prescinde, nello spazio-tempo, dal prima e dal dopo energetico in cui esso si attualizza e, come tale, è in un rapporto di causa-effetto con la natura caotica del processo (T-PHL) in cui si inscrive. 54 Le deformazioni spaziali (texture) che si creano, per effetto della de-simmetrizzazione di riflessione, attorno ai più piccoli elementi (tracce mnesiche o dominii tensoriali di coerenza isteresica) di un pattern tensoriale. Meta-texel e tracce mnesiche formano una singolarità caotica non-casuale sul piano spaziale (frazioni volumetriche o regioni fratte spaziotemporali). 55 Da quello di un anemone di mare, composto da una rete di poche cellule neuro-epiteliali, a quello dell’animale Homo. 56 Un attrattore strano (David Ruelle) è una zona di tempo e/o di spazio di dimensioni minimali assimilabili allo zero intorno a cui si verifica la variabilità imprevedibile temporale e/o spaziale di un fenomeno dinamico caotico: il polo dell’attrattore strano è un momento temporale e/o un volume spaziale di stabilità attorno al quale orbita la dinamica del fenomeno caotico. L'attrattore strano, scrive Pietro Cugini (http://www.seuroma.com/clinica_terapeutica/cugini/critica_1.htm) è dunque un analizzatore della variabilità caotica che non ha la presunzione di misurarla per grandezze definite. Di essa può conoscere il grado relativo in base alla correlazione numerica dei punti circumpolari che giacciono entro i vari cerchi concentrici che s'incentrano sul polo, aventi un raggio unitariamente crescente sino ad includere l'intera figura (correlazione di dimensione secondo P. Grassberger e I. Procaccia). Va notato che la capacità descrittiva della variabilità caotica da parte dell'attrattore strano è cosi forte che una dispersione peripolare la si ritrova anche nel caso del più apparentemente ordinato degli eventi dinamici, il moto pendolare. Ciò si verifica a causa dei gradi di liberta che il movimento di un pendolo può avere nei vari piani dello spazio rispetto all'asse del moto oscillatorio, sicchè la proiezione di questo moto nello spazio non determina un'immagine rettilinea su un unico asse ma un'immagine capricciosa imprevedibile. relativistico). La funzione assegnata dalla filogenesi al SN rientra tra le possibili soluzioni adottate dal modus operandi filogenetico (la problematizzazione e diversificazione delle strategie adattive), per far fronte alla pressione ambientale e assicurare continuità al fenomeno biologico. Attraverso il SN viene resa operativa la capacità di interfacciare biunivocamente il territorio della tensione con il territorio dell’energia, così da dare corso a nuove strategie relazionali e adattive (nuove rispetto alle strategie relazionali e adattive non o pre-neurologiche). In questo senso il SN è una interfaccia selettiva tra i due territori, energetico/quantistico ↔ tensoriale/relativistico [43], e la funzione originaria assegnata dal differenziamento cellulare57 alla cellula nervosa è recettoriale e meta-fisica (di collegamento tra un piano e l’altro di realtà). Rispetto al territorio dell’energia il SN opera una selezione (funzione recettoriale) specie-specifica sulle variazioni di stato (stimoli) provenienti dall’ambiente esterno e interno, rendendo l’organismo opportunamente sensibile (sentire è una funzione meno integrata del percepire ma è più integrata del reagire che a sua volta è una funzione più integrata della irritabilità) a una certa gamma di variazioni di stato e non ad altre. Rispetto al territorio della tensione il SN trasforma le variazioni di stato (stimoli) da pattern frequenziali (attività recettoriale ↔ attività neuro-elettro-chimica) in pattern isomorfici di spin 58 [44], sui quali opera l’ASO, che trasmuta i pattern di spin in pattern tensoriali e stabilisce tra di essi delle correlazioni funzionali valide sotto il profilo biologico e/o neurologico e/o mentale. La costituzione di specifici pattern tensoriali avviene per attrazione delle perturbazioni temporali (qualia) e delle perturbazioni spaziali (tensioni tangenti) disciolte nell’ordito tensoriale di fondo, all’interno di una specifica orbita tensoriale, dove acquistano l’identità del pattern di cui entrano a fare parte. In questo modo, un dato pattern tensoriale rimane discolto nell’ordito tensoriale di fondo ma è sempre evocabile (se le condizioni per la sua evocabilità sono soddisfatte) dalla opportuna attivazione della corrispondente orbita tensoriale, associata a un determinato pattern di spin. Ciò che caratterizza la peculiarità della relazione di un organismo neurologico con l’ambiente endogeno ed esogeno, è la disponibilità di un flusso di configurazioni tensoriali (attività mentale) supportato dalla relazione neuro-isomorfica tra i pattern di spin e i pattern di tensioni: fuori da questa relazione, ovvero fuori dalla relazione tra l’organismo neurologico e l’ambiente, non esiste nulla che possa essere chiamato flusso di configurazioni tensoriali-attività mentale! Una possibile esemplificazione metaforica del processo di trasmutazione biunivoca dei pattern di spin in pattern di tensioni, potrebbe essere quella suggerita da Augusto Sabbadini nella sua prefazione al libro di David Bohm Universo mente materia59, dove, in accordo con il concetto 57 Il differenziamento cellulare è quel processo mediante il quale le cellule si specializzano, acquistando o esaltando la capacità di compiere una funzione specifica. Tutte le cellule hanno le proprietà fondamentali del protoplasma vivente, cioè l’attività metabolica (sintesi, respirazione), l’eccitabilità, la conduzione degli eccitamenti, la capacità di ricevere stimoli dall’ambiente e di reagire con il movimento, con la secrezione o in altri modi, la capacità di riprodursi. Quando una cellula si specializza non perde nessuna di queste proprietà fondamentali inerenti alla vita biologica, ma si diversifica in quanto potenzia una di queste proprietà. In genere una cellula, quando si specializza in una funzione, modifica anche la sua morfologia. 58 Nel modello Orch OR (Orchestrated Objective Reduction) proposto da Stuart Roy Hameroff e Roger Penrose, la trasformazione dei pattern frequenziali in pattern isomorfici di spin avverrebbe all’interno dei microtubuli, polimeri citoplasmatici dell’ordine di 100/270 angstroms di forma cilindrica le cui pareti sono costituite da filamenti proteici spiraliformi di tubulina, che si comporterebbero come risonatori di cavità quantistici. 59 D. Bohm, Universo mente materia, Red Edizioni, 1996, pagg. 11-12-15-16 bohmiano di olomovimento, al posto della tensione compare appunto il movimento. Scrive Sabbadini [il grassetto è mio]: Immaginiamo uno stagno fangoso in cui stiamo pescando. Nello stagno nuota un pesce, ma non siamo in grado di vederlo né l’acqua è torbida. A un certo punto il pesce abbocca. Solleviamo la canna e lo vediamo attaccato all’amo. In una situazione del genere supponiamo naturalmente che, un attimo prima di abboccare, sia venuto a trovarsi precisamente nel punto in cui c’era l’amo. Fino a un attimo fa non eravamo in grado di dire dove si trovasse: la sua posizione era per noi in un certo senso indeterminata. Ma non si trattava di una indeterminazione intrinseca, irriducibile. Essa era legata soltanto a una incompleta informazione da parte nostra su una realtà che era in se stessa determinata. (. . . . . ) Possiamo immaginare un gran numero di stagni identici con dentro l’identico pesce in tutte le posizioni possibili. Finché il pesce non abbocca, non sappiamo precisamente con quale degli stagni possibili abbiamo a che fare. Ma ciò non toglie che in ciascuno stagno possibile il pesce occupi una posizione ben definita. L’insieme degli stagni possibili si ripartisce in sottoinsiemi di stagni in cui il pesce occupa la stessa posizione. Quando il pesce abbocca, sappiamo a quale sottoinsieme appartiene lo stagno reale in cui stiamo pescando. Tutto questo è molto naturale. Immaginiamo ora che il pesce sia una particella quantistica e la canna, la lenza e l’amo siano un apparecchio che ne misura la posizione. Anche in questo caso, finchè non eseguiamo la misura, la posizione del pesce è indeterminata. Ma si tratta di una indeterminazione diversa e più radicale. Piuttosto che a un pesce normale, la particella assomiglia a un pesce solubile, che, prima di abboccare, si trova diffuso in tutto lo stagno, più densamente in certi punti, meno densamente in altri. L’indeterminazione della sua posizione non è soltanto una carenza di informazione da parte nostra. Se (. . . . . ) immaginiamo un insieme di stagni identici, questa volta non c’è modo di ripartire l’insieme in sottoinsiemi di stagni con una posizione del pesce ben determinata. L’insieme è assolutamente omogeneo, rappresenta uno stato puro: in ciascuno degli stagni possibili il pesce è disciolto in tutto lo stagno. La situazione non è ulteriormente riducibile. Dove è più addensato abbiamo più probabilità di pescarlo, dove è meno addensato ne abbiamo meno. Ma la sua posizione è intrinsecamente indeterminata. Ciononostante, miracolosamente, nel momento in cui il pesce solubile viene pescato la sua natura diffusa istantaneamente si condensa e precipita in un pesce reale, perfettamente localizzato, appeso all’amo. (. . . . ) In questa visione l’esistenza separata di oggetti e soggetti, osservatori e sistemi osservati, è solo un’approssimazione pratica, che vale esclusivamente a un certo livello ed entro certi limiti. Già la teoria della relatività per certi versi suggeriva una visione unitaria della realtà, in termini di campi estesi attraverso tutto lo spaziotempo. La fisica quantistica rafforza questa visione, in quanto in essa sistemi che abbiano interagito fra loro a un certo istante restano per sempre inseparabilmente accoppiati. Nella teoria di Bohm la visione unitaria della realtà diviene ancora più radicale: i singoli sistemi, le particelle o gli insiemi di particelle, non esistono affatto. Essi non sono pensabili come enti separati interagenti fra loro. Sono piuttosto simili a immagini che si formano e si disfano in un caleidoscopio, o a vortici che si formano e si disfano nella corrente di un fiume. I vortici esistono solo temporaneamente e sono solo una realtà in una certa misura fittizia e arbitraria ritagliata nel flusso continuo della corrente. La sola realtà ultima è la corrente indivisibile del movimento universale. In seno a questo movimento esistono vari livelli di ordine, in generale implicati, ripiegati all’interno della corrente, non percettibili dai nostri sensi. Ma il flusso ininterrotto del movimento porta continuamente alcuni aspetti a dispiegarsi, a divenire esplicati o manifesti, percettibili, per poi tornare a immergersi nel tutto, mentre altri aspetti implicati emergono e divengono esplicati. La fisica classica, quella che studia gli oggetti macroscopici, percettibili dai nostri sensi, prende in considerazione solo il livello esplicato o manifesto del movimento della realtà. Questo livello non è ovviamente autonomo, non è retto da una legge propria: esso dipende in primo luogo dal livello sottostante, che è quello studiato dalla fisica quantistica. Ma neppure quest’ultimo, dice Bohm, rappresenta una descrizione autonoma della realtà, né dipende da livelli implicati ancora più profondi. Il passaggio da pesce solubile a pesce reale, per esempio, è incomprensibile al livello della fisica quantistica né entrambe le forme, pesce solubile e pesce reale, sono soltanto aspetti emergenti di una realtà implicata sottostante ed è in questa realtà implicata sottostante che va cercata la legge del loro movimento. Seguendo la traccia metaforica suggerita da Sabbadini, ho chiamato le configurazioni tensoriali coerenti “pescate” all’amo dalla relazione isomorfica tra i pattern di spin e i pattern di tensioni, immagini spaziotemporali, e in ragione della loro permanenza (“pesce solubile”) nel substrato tensoriale di fondo, le considero a tutti gli effetti delle tracce mnesiche (dominii tensoriali di coerenza isteresica) [Messori 2012, 2013]. Rispetto al piano meso e macroscopico della dinamica di interfacciamento mediata dalla attività neuronale, questi dominii tensoriali di coerenza isteresica portano alla stabilizzazione, per similitudine dinamica, di mappe correlative neurosensoriali, o mappe sensoriali, e per similitudine geometrica di mappe correlative somatotopiche, o mappe neuronali. La mente-stagno, allora, potrebbe essere pensata come: lo stato tensoriale implicato nel sistema di relazioni non-locali che si appalesa nella disponibilità correlativa e funzionale di una serie complessa di processi energetici e tensoriali evocati dalla e nella interazione tra bacino di attrazione ambientale e bacino di attrazione neurologico. Sensazione e percezione, così come impulsi, inclinazioni, desideri, stati emotivi e forme inconsce di apprendimento sono, in senso lato, fenomeni mentali corrispondenti a gradi diversi e variabili di integrazione del materiale mnesico implicato e generato dalla e nella relazione tra l’individuo che sente/percepisce e l’ambiente sentito/percepito. Dentro a chi sente/percepisce non c’è niente e nessuno che vede o sente o pensa l’oggetto reale o mentale visto, sentito, pensato: la sensazione/percezione letteralmente e fisicamente è implicata nella relazione tra individuo e ambiente. Con la linea zoologica umana il processo percettivo si apre al superamento del vincolo imposto dalla interazione tra bacino di attrazione ambientale e bacino di attrazione neurologico fino a staccarsi, con Homo Sapiens, dalla strada zoologica maestra della continuità (continuità vs contiguità), per imboccare la via della sua progressiva scomposizione in un prima-dentro (before-inside) e un dopo-fuori (after-outside): il prima-dentro rimane implicato nella relazione tra individuo e ambiente sotto forma di materiale psichico inconscio, mentre l’individuo che percepisce esce dalla relazione per trasformarsi nel dopo-fuori del materiale psichico conscio. In questo modo, la spirale temporale che va dal tempo-spazio cosmologico al tempo-spazio sentito/percepito passando per il tempo-spazio biologico genera un tempo-spazio soggettivo. Con la nascita psicologica della individualità umana [Messori 2012] questa possibilità di uscire (fuori nel dopo) dalla stretta della relazione percettiva con l’ambiente, per guardare sé stessi e l’ambiente come se ci fosse un Io che può percepire e un Altro dall’Io che può o non può essere percepito dai sensi, si contestualizza in uno stravolgente sdoppiamento della personalità: una parte di essa resta dentro (nel prima) la relazione con l’ambiente (l’Altro dall’Io che non può essere percepito dai sensi, l’inconscio, l’irriducibilmente irrazionale, il simbolo, il senza soluzione di continuità, il tempo-Aion, l’assente-morte) mentre l’altra parte esce fuori (nel dopo) da questa relazione e inizia a supporla (l’Io, il conscio, il razionale, il segno, il discontinuo, il tempo-Kronos, il presente-vita). Nella tensione creata da questo sdoppiamento della personalità umana nasce la coscienza (dualistica) e la sua antitesi. La nascita della coscienza diventa l’atto fondativo del pensare e il pensiero, non potendo fare altro che supporre attraverso l’immagine, farà della ritenzione dell’assente il proprio punto di forza e il proprio limite: al di fuori della linea adattiva tracciata dalla assegnazione filogenetica di autonomia relazionale al comportamento neuro-logico, il fatto mentale non avrebbe avuto modo di esistere. In questo senso, la dirompenza dell’evento epigenetico legato al territorio del comportamento e non al territorio dell’energia, che chiamiamo fatto mentale umano, è tale da riuscire ad entrare in competizione con la potenza del fatto energetico biologico. Dal Paleolitico Medio in poi, la dinamica psico-percettiva (il percepire è una funzione più integrata del sentire che è una funzione più integrata del reagire che è una funzione più integrata della eccitabilità, e il fatto psico-percettivo è una funzione meno integrata dell’atto mentale umano) dell’animale umano viene così avvolta dal pensiero e nel pensiero nasce l’essere culturale umano [45]. L’atto mentale-pensiero è la contestualizzazione neuro-psico-logica nata dallo sdoppiamento della realtà in un Io e un Altro dall’Io, che l’Io non potrà mai cogliere nella sua interezza. Come scrive Spencer-Brown60: Un universo capace di produrre osservatori è un universo scisso. Infatti, non possiamo sfuggire al fatto che il mondo che conosciamo è costruito con il fine (e quindi in modo tale che sia capace di) vedere se stesso. Questo è veramente stupefacente. E non tanto per quello che vede, benchè questo possa sembrare abbastanza fantastico, ma per il fatto che in qualche modo può vedere. Tuttavia, a tale scopo deve innanzi tutto scindere se stesso in almeno uno stato che vede e per lo meno uno stato che è visto. In questa condizione lacerata e mutilata, qualunque sia la cosa che vede, vede solo una parte di se stessa. Il mondo è certamente se stesso (vale a dire, in-distinto da se stesso), ma, ogni qualvolta tenta di vedersi come oggetto, deve, altrettanto certamente, fare in modo di rendersi diverso da (e, perciò, falso rispetto a) se stesso. In questa condizione sempre sfuggirà in parte da se stesso . Cercare un dove sono o un chi guarda ciò che chiamiamo pensieri è semplicemente illusorio, sarebbe come cercare di dividere se stessi dalla propria immagine riflessa nello specchio: il pensiero è il risultato di un gioco di specchi, di una tensione, tra un Io che desidera percepire e un Altro dall’Io che sfuggirà sempre, almeno in parte, alla percezione. Conclusioni Il fenomeno biologico e neurologico possono essere considerati come sistemi dinamici non lineari di tipo caotico, dove la dinamica del non equilibrio garantisce la trasformazione e l’esistenza stessa del sistema. Il caos, ad esempio, è inerente alla salute, non alla malattia: la non linearità dei flussi fisiologici (aria, sangue, impulsi nervosi, ecc.) corrisponde alla natura frattale (frazionaria) delle geometrie dei suoi supporti anatomici (polmoni, vasi sanguigni, reti neurali, ecc.) e garantisce la sua autoregolazione. Viceversa, la malattia è una forma di ordine, che trova nella morte la sua espressione definitiva. Il caos non minaccia i sistemi biologici dall’esterno, è una proprietà dei sistemi stessi: fa parte del loro essere sistemi autopoietici. La perturbazione risiede nell’equilibrio lineare: l’agente patogeno introduce nell’in-formazione caotica del sistema una in-formazione di ordine, un comportamento condizionato. Un attrattore potrebbe essere la metafora che indica un singolo flusso di immagini mentali (percezione, sensazione, emozione, pensiero, ricordo) immerso nella corrente della relazione di continuità che resta implicata nell’apparente discontinuità tra lo sperimentatore e l’oggetto della sua sperimentazione, tra il territorio dell’energia e il territorio della tensione, e il continuo cambiamento delle immagini mentali potrebbe essere paragonato al passaggio di una traiettoria relazionale da un bacino di attrazione a un altro. 60 Citato da: Jesus Ibanez, Il centro del caos, in Il pensiero eccentrico, Edizioni Volontà,4/91-1/92 La corrente della relazione di continuità che resta implicata nell’apparente discontinuità tra lo sperimentatore e l’oggetto della sua sperimentazione, tra il territorio dell’energia e il territorio della tensione, tra la dimensione corporea e la dimensione psichica, potrebbe essere paragonata a un sistema dinamico, fluido, non lineare di tipo caotico che si autorganizza intorno all’azione prescrittiva ma non descrittiva di un bacino di attrazione (ASO), la cui contestualizzazione nel tempo soggettivo lo fa apparire come frammentato in una molteplicità integrata di bacini di attrazione, dove: anche la più piccola variazione nell’andamento del flusso o la più piccola perturbazione che agisca su di esso, mediata dall’azione selettiva e discriminativa del filtro neurologico, è in grado di interferire in misura non trascurabile con il comportamento complessivo del sistema. Nello spazio delle fasi, o degli stati (la risoluzione grafica dell’andamento di un sistema non lineare di tipo caotico), le orbite situate sull’attrattore caotico subiscono un continuo processo di stiramento e di piegatura che mescola le orbite in modo imprevedibile conferendo al sistema un carattere intrinseco di aleatorietà. L’operazione di stiramento e piegatura di un attrattore caotico trasforma sistematicamente l’informazione iniziale e la integra con l’informazione successiva: lo stiramento amplifica le indeterminazioni su piccola scala, la piegatura avvicina traiettorie (orbite) molto lontane tra loro e nasconde l’informazione su grande scala. Il risultato di questa continua amplificazione e sovrapposizione delle diverse oscillazioni che costituiscono il moto complessivo del sistema, è appunto l’imprevedibilità del suo comportamento futuro, il modus operandi (la problematizzazione delle soluzioni) di ciò che in relazione alla filogenesi chiamiamo diversificazione, di ciò che in relazione al modulo comportamentale neurologico chiamiamo superamento della stereotipia e di ciò che in relazione al comportamento umano chiamiamo apprendimento e creatività. I sistemi biologici sono particolari sistemi dinamici non lineari la cui stabilità strutturale deriva dai processi sottostanti. Processo e stabilità sono però compatibili solo se i processi formano modelli ritmici. Il ritmo non è il tempo, ma un modo di essere del tempo fisico, non una proprietà della materia vivente, ma un fenomeno che la materia vivente deriva dal tempo fisico, cioè un fenomeno partecipato, riprodotto, ricavato: fluttuazioni, oscillazioni, vibrazioni, onde. Le fluttuazioni, ovvero il meccanismo di reiterazione del processo e/o della struttura che descrive le fluttuazioni, sono cruciali nella dinamica dei sistemi non lineari in generale e di quelli biologici in particolare. Esse sono la base del nostro divenire: le strutture coerenti derivano da modelli ritmici. Modelli ritmici sono manifesti a tutti i livelli. Gli atomi sono modelli di onde di probabilità, le molecole sono sistemi vibranti, il DNA è un sistema fluttuante di tensioni, le cellule sono sistemi ritmici di oscillazioni e gli organismi sono modelli multidimensionali, interdipendenti di fluttuazioni. Piante, animali ed esseri umani sono soggetti a cicli di attività e di quiete, e tutte le loro funzioni fisiologiche oscillano in ritmi di varia periodicità. I componenti di ecosistemi sono interconnessi attraverso scambi ciclici di materia, di energia e di tensione; le civiltà ascendono e cadono in cicli evolutivi, e il pianeta nella sua totalità ha i suoi ritmi e i suoi ricorsi mentre ruota attorno al suo asse e orbita attorno al Sole. Quando vediamo, il nostro SN trasforma le onde elettromagnetiche visive e le tensioni ad esse associate in pulsazioni elettrochimiche ritmiche dei neuroni61. La nozione cartesiana di oggetti separati e la nostra esperienza con le macchine fotografiche ci hanno condotti a supporre che attraverso i nostri sensi noi siamo in grado di crearci una rappresentazione interna della realtà esterna tale per cui la prima possa essere considerata come una riproduzione fedele, speculare, della seconda. In altre parole la realtà sarebbe come noi ce la rappresentiamo. Ma la percezione non opera in questo modo. Immagini fedeli di oggetti separati esistono solo nel nostro mondo interno di categorie mentali, di concetti, emozioni e idee, e dipendono comunque dalle caratteristiche strutturali e funzionali del nostro SN, nonché dalle caratteristiche strutturali e funzionali dei mezzi che utilizziamo per osservare e indagare la realtà. Le caratteristiche del mondo 61 György Buzsáki, Rhythms of the Brain, Oxford University Press USA, 2011: http://www.amazon.it/Rhythms-Brain-Gyorgy-Buzsaki/dp/0199828237 variano da specie animale a specie animale, da individuo a individuo, da strumento a strumento, e dipendono in ultima analisi dalle condizioni neuro-relazionali in cui opera chi sperimenta il mondo. Tanto la percezione quanto l’osservazione strumentale operano una selezione sugli stimoli, se così non fosse saremmo letteralmente travolti e sopraffatti dall’oceano di variazioni di stato in cui siamo immersi: quelli utilizzabili possono essere solo quelli percepibili e rilevabili. La realtà che ci circonda e di cui siamo parte altro non è che un intricato intreccio, senza soluzione di continuità temporale e spaziale, di ritmi e strutture da essi derivate: i nostri sensi, e gli strumenti di cui disponiamo e disporremo per indagare la realtà, traducono solo una quota delle sue variazioni di stato, in modelli di frequenze e di tensioni che possono essere impiegate nella relazione specie-specifica, e almeno per quello che ci riguarda anche nella relazione soggettiva, tra il bacino di attrazione ambientale e il bacino di attrazione neurologico. Il sogno recondito di una verità assoluta62, altro non è che l’illusione di una volontà di potenza che non vuole rassegnarsi all’evidenza: l’assoluto può essere solo ed esclusivamente un assoluto semantico! Ma la realtà non è composta di assoluti e di relativi, né di veri e falsi. La realtà non è composta affatto, se non nell’ordine della nostra composizione, fatta di tempi e spazi, di soggetti e oggetti, di cause e di effetti, di significati e simboli, di santi e di mercanti. RIFERIMENTI: [1] Marcos Cruz et al., A Cosmic Microwave Background Feature Consistent with a Cosmic Texture, Science 318 (2007) 1612-1614, http://arXiv:0710.5737 [astro-ph](2007): http://arxiv.org/abs/0710.5737 [2] Eric J. Lerner, Evidence for a Non-Expanding Universe: Surface Brightness Data From HUDF, 2005: http://arxiv.org/ftp/astro-ph/papers/0509/0509611.pdf Eric J. Lerner, UV surface brightness of galaxies from the local Universe to z ~ 5, 2014: http://arxiv.org/ftp/arxiv/papers/1405/1405.0275.pdf [3] Banded Iron Formation: http://jersey.uoregon.edu/~mstrick/RogueComCollege/RCC_Lectures/Banded_Iron.html [4] Giorgio Colli (1917-1979), La sapienza greca – vol. III – Eraclito, Adelphi Edizioni,1996, pag 198. [5] D. Bohm, Universo mente materia, Red Edizioni, 1996, pag. 196. [6] Stuart Roy Hameroff, Time, consciousness and quantum events in fundamental spacetime geometry, http://www.quantumconsciousness.org/Time.htm 62 Chiunque affermi di aver trovato leggi assolute per un sistema di comprensione del mondo, dice in realtà semplicemente di aver compreso se stesso rappresentato in una inconsapevole proiezione sul mondo. [Aldo Carotenuto, introduzione a Elementi di Psicologia, di C. G. Jung, Newton Compton Ed. , 1995, pag. 10] [7] Hu H. and Wu M. Spin-Mediated Consciousness Theory: An Approach Based On PanProtopsychism, 2002, http://cogprints.org/2579/1/SpinMind2.pdf [8] On the discovery of symmetry violations and their effect on the trajectory of elementary particle physics research, 2013, http://mtdevans.com/wp-content/uploads/2012/12/OnTheDiscoveryOfSymmetryViolations.pdf [9] V. Avetisov, V. Goldanskii, Mirror symmetry breaking at the molecular level, 1996, http://www.pnas.org/content/93/21/11435.full.pdf [10] Johnson Louise N., Asymmetry at the molecular level in biology, European Review, Vol. 13, Supp. No. 2, 77–95 (2005), http://www.acadeuro.org/fileadmin/user_upload/publications/ER_Symmetry_supplement/John son.pdf [11] Haramein N. and Rauscher E. A., The Origin of Spin: a Consideration of Torque and Coriolis Forces in Einstein’s Field Equations and Grand Unification Theory, 2004, at: http://theresonanceproject.org/wp-content/uploads/torque_paper.pdf [12] Flip Tanedo, Helicity, Chirality, Mass, and the Higgs, http://www.quantumdiaries.org/2011/06/19/helicity-chirality-mass-and-the-higgs/ [13] Maturana e Varela (Autopoiesis and Enaction), at: http://www.enolagaia.com/AT.html [14] Prigogine Ilya, Kondepudi Dilip, Termodinamica. Dai motori termici alle strutture dissipative, Bollati Boringhieri, 2002. [15] Pietro Cugini, Biostatistica Cronobiologia Caosbiologia nella Metodologia Medica, Parte III, Società Editrice Universo, Roma, 2006. [16] Cfr.: Physics and Human Energy, 2004: http://www.istc.ru/istc/db/projects.nsf/All/F725570AD545AA13C3256E320042F0A5?OpenDocu ment [17] Apparato del Golgi e centrosoma o Microtubule Organizing Center (MTOC): - I. Kaverina et Coll., Surprising origin of cell’s internal highways, 2007, at: http://www.physorg.com/news101566683.html - M. Stone, M. Rolls, Fruit fly neuron can reprogram itself after injury, 2009, at: http://www.physorg.com/news179328565.html [18] M. Stone, M. Rolls, Fruit fly neuron can reprogram itself after injury, 2009, http://www.physorg.com/news179328565.html [19] Robert Blankenship, Orientation of antenna protein in photosynthetic bacteria described, 2009 at: http://www.sciencedaily.com/releases/2009/04/090402171438.htm [20] - Fritz-Albert Popp, Nuovi orizzonti in medicina. La teoria dei biofotoni, IPSA Editore, 1985 - Guglielmo Arcieri Introduzione alla medicina cibernetica e quantistica, IPSA Editore, 1988. [21] Graham Fleming et Coll. (2007), Quantum secrets of photosynthesis revealed, at: http://www.physorg.com/news95605211.html [22] Chris C. King, Evidence for Chaos and Fractal dynamics in excitable cells (e paragrafi seguenti) in: Fractal and Chaotic Dynamics in Nervous System: http://www.math.auckland.ac.nz/~king/Preprints/pdf/BrChaos.pdf [23] E.H. Zhou, et al., Universal behavior of the osmotically compressed cell and its analogy to the colloidal glass transition, Proc. Natl. Acad. Sci. USA 2009. [24] Ho MW, Large Supramolecular Water Clusters Caught on Camera - A Review, Water Journal, 2014, http://www.waterjournal.org/uploads/vol6/ho/WATER.2013.12.Ho.pdf [25] De Ninno A., Del Giudice E., Gamberale L., Congiu Castellano A., The Structure of Liquid Water Emerging from the Vibrational Spectroscopy: Interpretation with QED Theory, Water Journal, 2014, http://www.waterjournal.org/uploads/vol6/deninno/WATER.2013.13.DeNinno.pdf [26] Giuliano Preparata, QED Coherence in Matter, Ed. World Scientific, 1995. Dello stesso autore: Dai Quark ai cristalli - Breve storia di un lungo viaggio attraverso la materia, inedito. [27] Frank N. Keutsch, Richard J. Saykally, Water clusters: Untangling the mysteries of the liquid, one molecule at a time, Inaugural Articles by members of the National Academy of Sciences, 2001, http://www.pnas.org/content/98/19/10533.full.pdf [28] Murugan NJ, Karbowski LM, Persinger MA, Serial pH Increments (~20 to 40 Milliseconds) in Water During Exposures to Weak, Physiologically Patterned Magnetic Fields: Implications for Consciousness, Water Journal, 2014, http://www.waterjournal.org/volume-6/persingersummary-2 [29] - E. Del Giudice, Role of the electromagnetic field in the formation of domains in the process of symmetry-breaking phase transition, 2006: http://arxiv.org/abs/cond-mat/0607594 - E. Del Giudice, Water Respiration - The Basis of the Living State, 2009: http://www.waterjournal.org/uploads/vol1/voeikov/WATER-Vol1-Voeikov.pdf - E. Del Giudice, Water Dynamics at The Root of Metamorphosis in Living Organisms, 2010, http://www.mdpi.com/2073-4441/2/3/566 [30] E. Del Giudice, A. Tedeschi, La respirazione dell'acqua come base della dinamica della vita, Atti del XXIV Congresso di Omeopatia, Omotossicologia e Medicina Biologica, Milano, 16 Maggio – Roma, 23 Maggio 2009 – Sessione di Ricerca Scientifica sull’Acqua, http://www1.medibio.it/uploads/pubblicazioni/medibio/MB0904_01.pdf?phpMyAdmin=9OR7V so-5ieefYjm1jmbrSkpQUa [31] - Del Giudice E., Tedeschi A., Water and the autocatalysis in living matter, Electromagnetic Biology and Medicine, 2009, http://www.ncbi.nlm.nih.gov/pubmed/19337894 - Voeikov VL., Del Giudice E., Water Respiration – the Basis of the Living State, Water Journal, 12009, (waterjournal.org). - Brizhik Larissa S., Del Giudice E., Tedeschi A., Voeikov Vladimir L., The role of water in the information exchange between the components of an ecosystem. In: Ecologicall Modelling, 2011: https://www.researchgate.net/publication/229327908_The_role_of_water_in_the_information _exchange_between_the_components_of_an_ecosystem [32] - Clegg, J.S., Alternative views on the role of water in cell function. In: Biophysics of Water, F. Franks, S.F. Mathias, Eds. John Wiley and Sons, New York, NY, USA, 1982. - Y.N. Antonenko, P. Pohl, , E. Rosenfeld, Visualisation of the reaction layer in the immediate membrane vicinity, Arch. Biochem. Biophys. 1996. [33] H.H. Mollenhauer, D.J. Morré, Structural compartmentation of the cytosol: zones of exclusion, zones of adhesion, cytoskeletal and intercisternal elements. In: D.B. Roodyn, Subcellular Biochemistry, Ed. Plenum Press, New York, NY, USA, 1978; volume 5. [34] - P.H. Barry, J.M. Diamond, Effects of unstirred layers on membrane phenomena, Physiol. Rev. 1984, 64, 763-871- G.H. Pollack, J. Clegg, Unexpected linkage between unstirred layers, exclusion zones, and water. In: G.H. Pollack, W.C. Chin, Phase Transitions in Cell Biology, Eds. Springer Science & Business Media, Berlin, Germany, 2008. [35] A. Kurcz, A. Capolupo, A. Beige, E. Del Giudice, G. Vitiello, Energy concentration in composite quantum systems, Phys. Rev., 2010. [36] - Y. Katsir, L. Miller, Y. Aharonov, B.J. Eshel, The effect of rf-irradiation on electrochemical deposition and its stabilization by nanoparticle doping, J. Electrochem. Soc., 2007. - K. Korotkov, E. Krizhanovsky, M. Borisova, The research of the time dynamics of the gas discharge around drops of liquid, J. Appl. Phys. 2004. [37] A. Tedeschi, Is the living dynamics able to change the properties of water?, Int. J. Des. Nat. Ecodyn., 2010. [38] Szent-Gyorgyi A., Bioenergetics, New York, Academic Press, 1957. [39] M. LaHaye, M. L. Roukes, K. Schwab, New method to detect quantum mechanical effects in ordinary objects, 2007, at: http://www.sciencedaily.com/releases/2009/06/090622103909.htm [40] Christian Maes, Revisiting the Glansdor_-Prigogine criterion for stability within irreversible thermodynamics, 2013, https://itf.fys.kuleuven.be/~christ/pub/talkSolvay16dec2013.pdf [41] Pietro Cugini, Caosbiologia: razionale e metodologia per studiare il disordine, la complessità e la singolarità dei fenomeni bio-medici mediante analisi matematica non-lineare, La Clinica Terapeutica, 2007, http://pietrocugini.seuroma.it/Pietro_Cugini_Pubblicazioni_EPUB/Pietro%20Cugini%20Clin%20Ter%202007/Caosbio logia%20Clin%20Ter%20fasc.%205_2007.pdf - M. Annunziato, Caos, complessità ed autorganizzazione, ENEA: http://www.plancton.com/papers/chaos.pdf [42] - Thomas Heimburg, Andrew D. Jackson, On soliton propagation in biomembranes and nerves, PNAS, Vol. 102, n°28, 2005, http://www.pnas.org/content/102/28/9790.full - Larissa S. Brizhik, Alexander A. Eremko, Nonlinear Model of the Origin of Endogenous Alternating Electromagnetic Fields and Selfregulation of Metabolic Processes in Biosystems. In: Electromagnetic Biology and Medicine, 2003, https://www.researchgate.net/publication/232052225_Nonlinear_Model_of_the_Origin_of_En dogenous_Alternating_Electromagnetic_Fields_and_Selfregulation_of_Metabolic_Processes_in _Biosystems - F. Contreras, H. Cervantes, M. Aguero and M. Najera, Classic and Non-Classic Soliton Like Structures for Traveling Nerve Pulses, International Journal of Modern Nonlinear Theory and Application, Vol. 2 No. 1, 2013, pp. 7-13 http://www.scirp.org/journal/PaperInformation.aspx?PaperID=28678 - Soliton model in neuroscience, http://en.wikipedia.org/wiki/Soliton_model_in_neuroscience [43] - D. V. Ahluwalia, Interface of Gravitational and Quantum Realms, 2002, http://cds.cern.ch/record/555290/files/0205121.pdf - D.V. Ahluwalia-Khalilova, A freely falling frame at the interface of gravitational and quantum realms, 2005, http://arxiv.org/abs/hep-th/0503141 - Natalie Wolchover, Physicists Eye Quantum-Gravity Interface, 2013, http://www.quantamagazine.org/20131107-physicists-eye-quantum-gravity-interface/ [44] Peter P. Gariaev, Uwe Kaempf, Peter J. Marcer, The DNA-wave Biocomputer, CASYS 2000, the Fourth International Conference on Computing Anticipatory Systems, August 7-12th HEC LIEGE, Belgium: http://www.bcs.org/content/ConWebDoc/16170 [45] - C. Messori, Il Sole e la Luna. Sulla Natura dei Simboli e della Mente Umana , Federico Ceratti Editore, 2000, ISBN: 9788886559553 - C. Messori, Le Metamorfosi della Meraviglia , Maremmi Editori Firenze Libri, 2004, ISBN: 13: 9788851704988 - C. Messori, Cells, Neurons, and Qualia: The Holographic Strange Attractor Model Journal of Consciousness Exploration and Research, 11/2011 - C. Messori, A Cosmogonic Model of Human Consciousness , Journal of Consciousness Exploration and Research, 12/2012 - C. Messori, Dalla Facoltà Acustico-Musicale alle Origini del Linguaggio Orale Fino al Predominio della Cavità Orale che Genera il Mondo sulla Cavità Uterina che Genera la Vita. , Rivista Il Minotauro, 12/2012 - C. Messori, L'Antropologia della Coscienza Incontra la Fisica Quantistico-Relativistica: Modello Cosmogonico EndoDynamoTensivo (EDT) e Mnemopoiesi (MOPS) , Rivista Il Minotauro, 06/2013 - C. Messori, Near-Death Experience nell'Epoca di Transizione da Homo Technologicus a Homo Artificialis. [Near-Death Experience in the Age of Transition from Homo Technologicus to Homo Artificialis] , Rivista Il Minotauro, 12/2013 APPENDICE Dall’Eugenica al Ricapitolazionismo L’eugenetica, o eugenica, nasce con Francis Galton (1822-1911), cugino di Darwin e anch’egli animato dallo stesso spirito positivista. Se per Darwin la selezione naturale selezionava tra le possibili variazioni casuali emergenti tra individui di una specie quelle più favorevoli alla sopravvivenza e perciò alla riproduzione in un particolare contesto ambientale, garantendo la sopravvivenza ai soli individui più adatti nella lotta per la vita, per Galton il concetto assumeva valenze più marcatamente sociali e ideologiche. Galton usa argomentazioni scientifiche che rivelano l’adesione a un preciso sistema di valori, quello di una precisa classe sociale, la ricca borghesia di cui egli stesso faceva parte, e di una nazione, la Gran Bretagna, che in quel periodo iniziava un lento processo di declino, sotto l’aspetto economico, sociale e politico, minacciata all’interno dalle lotte sociali e all’esterno dai nascenti movimenti di indipendenza e dalla ascesa di stati come la Germania e gli Stati Uniti. In questo senso in Galton i concetti di evoluzione e di adattamento sono usati per legittimare una precisa leadership, quella della ricca borghesia dell’industria e del commercio, che aveva fatto grande la nazione inglese nello scenario internazionale e nei rapporti culturali tra razze. La teoria della selezione naturale, insomma, è usata in funzione ideologica e conservatrice, come criterio di distinzione tra adatti e non adatti, avendo però già deciso il criterio di individuazione degli adatti, come stabilirne le caratteristiche distintive, in rapporto a chi o che cosa. Galton esprime una valutazione di merito quando individua le qualità di coloro che meglio esprimono la capacità di eccellere in campo sociale. Rispecchia cioè il punto di vista, i valori e gli interessi di quel ceto borghese che aveva decretato la grandezza economica e politica della nazione. L’eugenica, come la scienza e come la tecnica di cui era espressione, poteva contribuire al perfezionamento dell’umanità, liberandola dal dominio del caso e della necessità. Una patologica, oltre che ideologica, volontà di perfezionamento che dalla seconda metà dell’ottocento prese corpo in una ondata di programmi di igiene razziale, la cui idea di razza pura può contare ancora su numerosi attivisti e su un non trascurabile consenso. Non tutti sanno, ad esempio, che le abominevoli pratiche di epurazione razziale adottate negli anni Trenta dai nazisti, dagli stalinisti e dai loro alleati, erano già in uso da tempo in tutto l’Occidente, dalla Svezia all’Italia, dall’Inghilterra al Portogallo, dalla Germania agli Stati Uniti d’America, dal Canada alla Russia, dal Sudafrica all’Australia. Hitler, che approfondì la sua conoscenza dell'eugenetica durante il periodo di detenzione nel carcere di Landsberg, tra l’Aprile del 1924 e il Maggio del 1925, durante il quale scrisse il Mein Kampf, estese la loro applicazione a milioni di persone inquinanti. Soltanto nel corso della prima metà del ‘900, i governi occidentali, con il consenso quasi unanime di tutte le forze politiche, culturali, sociali, religiose, avevano destinato decine di migliaia di persone di pelle bianca ma appartenenti alle sottospecie di individui, per usare la terminologia darwinista, che deviavano dagli standard della sana normalità, a misure di igiene razziale che prevedevano, tra l’altro, la sterilizzazione forzata (soprattutto maschile per la facilità dell’intervento), l’internamento nei lagher psichiatrici, la lobotomia frontale (una pratica talmente diffusa e prestigiosa che nel 1941 il padre di John Fitzgerald Kennedy, Joseph P. Kennedy, lamentando con i medici gli sbalzi di umore della figlia e il suo inopportuno interesse per i ragazzi, fece sottoporre la figlia Rose Marie Kennedy, all’età di 23 anni, a un intervento di lobotomia transorbiale, il cui esito fu la sua regressione ad uno stadio infantile, confabulazione, deterioramento cognitivo, incontinenza), l’elettroshock e altre pratiche restrittive e medicochirurgiche che non hanno niente da invidiare a quelle utilizzate nei campi di sterminio nazisti e stalinisti. La prima classificazione delle razze umane fu di Linneo che, come altri suoi contemporanei, nel Systema naturae (1735) cominciò a confondere il piano dell’aspetto fisico con quello delle qualità psichiche sostenendo, tra l’altro, che gli europei fossero più intelligenti e razionali degli altri gruppi razziali. Diversi studiosi si cimentarono con il problema di dare un’impostazione scientifica alla classificazione. In analogia con la suddivisione mendeliana delle razze canine, equine, bovine, ovine, etc. si cercò di basarsi su caratteri somatici e strutturali (antropometrici) come le dimensioni o la forma del cranio o degli arti. Per esempio, André Retzius (1796-1860) suggerì di utilizzare l’indice cefalico, cioè il rapporto tra la larghezza e la lunghezza del cranio, che diventò ben presto un parametro internazionalmente riconosciuto non solo come connotato fisico, ma come elemento di valutazione intellettuale e morale. Nel 1854 Emil Huschke (1797-1858), noto anatomista che per primo descrisse diverse strutture anatomiche umane (che portano il suo nome), scriveva: Il cervello del negro possiede un midollo spinale del tipo trovato nei bambini e nelle donne, e oltre a ciò, si avvicina al tipo di cervello trovato nelle scimmie antropomorfe superiori. Tra le principali tesi deterministiche formulate in tale contesto, merita di essere citata, per la rilevanza che tutt’oggi occupa nell’ambito delle neuroscienze, la teoria della ricapitolazione. Secondo tale teoria, lo sviluppo embriologico delle forme di vita superiori ricapitola, in senso darwiniano, lo sviluppo evolutivo filogenetico. Nel XIX secolo, la ricapitolazione servì da teoria generale del determinismo biologico, utilizzata per giustificare un ordinamento gerarchico e lineare della variazione umana: i gruppi giudicati inferiori (in particolare, adulti neri, bianchi delle classi svantaggiate e donne) vennero equiparati, per caratteristiche anatomiche e mentali, ai bambini maschi bianchi dei gruppi ritenuti superiori, e presentati come esemplari viventi di fasi primitive dell’evoluzione lineare, progressiva e ascendente di questi ultimi. La ricapitolazione influenzò numerose discipline. In ambito psicoanalitico, ad esempio, Freud fu un ricapitolazionista, ritenendo che il bambino ricapitoli le fasi della sessualità adulta dei propri antenati e che, in particolare, il complesso edipico infantile rappresenti la ripetizione di un evento filogenetico (il parricidio originario) realmente avvenuto tra adulti ancestrali (idea ampiamente sviluppata in Totem e tabù, del 1913, nell’ambito di un’operazione di parallelismo tra psicologia del bambino e del nevrotico della società moderna e psicologia dei popoli ritenuti primitivi). Molti scienziati di ieri e di oggi sono ricapitolazionisti. Secondo lo psichiatra, anatomista e patologo tedesco Paul Emil Flechsig (1847-1929) il neonato umano è un essere decerebrato dotato di riflessi. Per il biologo, zoologo e filosofo tedesco Ernst Heinrich Haeckel (1834-1919) lo sviluppo ontogenetico del bambino è la ricapitolazione delle principali tappe filogenetiche dalla comparsa della vita sulla terra alla cronospecie umana attuale. Per il noto neurologo e neurochirurgo statunitense Temple Fay (1895-1963), analizzando e comparando lo sviluppo locomotore dei bambini e degli animali, nel corso dell’evoluzione della specie, possiamo selezionare vari livelli di sviluppo: un livello spinale di locomozione ondulatoria, simile a quello dei pesci; un livello bulbare di locomozione anfibia nell’acqua; un livello mesencefalico di locomozione anfibia a terra; un livello sottocorticale di locomozione quadrupedica; un livello corticale di locomozione a stazione eretta simile a quella dei primati; un livello neocorticale di locomozione eretta tipicamente umana. Secondo il neuroscienziato statunitense Paul D. MacLean (1913-2007) il cervello sarebbe suddiviso in tre macro-strutture adibite ad altrettante funzioni (Triune Brain): un cervello istintivo rettiliano, un cervello pulsionale paleo-mammaliano e un cervello cognitivo neo-mammaliano. Crystalline Water Dynamics in Biological Systems Water is a polar molecule, it has positive and negative charges separated by a dipole length and thus exists as an electric dipole. This is due to the 104.5o angle of the hydrogen bonds to the oxygen atom. The electronegativity of the oxygen atom attracts the electron of the hydrogen atom. Thus the region about the oxygen is negative compared to the region around the hydrogen atoms, which are comparatively positve. Because of this molecular configuration, water molecules mutually attract one another due to the (-) and (+) regions. Individual water molecules are linked by these hydrogen bonds and form what are called clusters (structural water). In addition, water at an interface, as with the atmosphere, has a surface tension due to the polar interactions of water with other water molecules at the interface surface. Water has the capacity to align into 400-500 hydration layers (Gerald H. Pollack, 2001). At body temperature, there are about 300-400 water molecules cross-linked into a cluster. This clustering imparts a crystalline like property to the water. Water is known to crosslink in arrays from linear to helical. In the bodies of living organisms, the clusters form hydration layers around biological molecules. The entropy of "structural" water is not as great as that of solid water as ice, due to the greater content of thermal energy at body temperature. The water molecules of ice are aligned in a linear array, with some branching, yielding a more rigid structure of expanded intermolecular domains than that of liquid water. For this reason, ice is less dense than water and as such floats. It is known from electronics that different patterns which contain information result within a cluster depending upon its structure. An example of this is gamma-iron that is used for the recording of information in digital form as discrete, local magnetic domains. Thus, depending on its structure, each molecule has an oscillatory pattern (resonance frequency) that can be determined by spectroscopy. It is known, through spectrographic analysis, that water and other dipole molecules are able to be entrained to exogenous oscillatory patterns by rearranging their cluster patterns. The cluster rearrangements then resonate with the entraining frequency. Quantum electrodynamics calls for the existence of long range electromagnetic fields that can be transmitted by large, hundreds of angstroms, coherent domains present in water (E. Del Giudice & E. Preparata, 1994). Electromagnetic field (EMF) interactions afforded by the capacity of water to support long range EMF fields yield the specific and rapid long distance attraction of coresonating mates. Coherent domains with laser-like properties have been described in water63 (E. del Giudice, G. Preparata, G. Vitiello, 1988) . More recently, a unique type of stable (non-melting) ice crystal that maintains an electrical field has been identified and characterized in water. In the example of living organisms, it is the biological molecules of cellular architecture, membrane systems, cytoplasmic and nucleoplasmic components and cellular organelles that entrain the water of hydration surrounding them. All biological interactions occur in water, since, on the average, there are ten thousand molecules of water per molecule of protein. These patterns persist through time, although not indefinitely without continued entrainment. This entrainment is able to be determined by various types of spectroscopy. These include quanta of electromagnetic waves (photons), quanta of the weak interactions (bosons) and of sound (phonons). Water molecules must line up in an electric field because of their bipolar nature. If the field direction is reversed, the molecules will about-face. As long as the frequency of the imposed field is not too high, water molecules will continue to flip with the imposed frequency. When the frequency is raised beyond a critical value, the water molecules will no longer be able to respond in timely fashion. For ordinary water, the critical frequency for this weakening is 20 GHz. In structural water, the critical frequency drops to 10 KHz. Frequencies below these limits allow the structural water to move in resonance with the entraining frequency. Alternating current frequencies (50 Hz, 60 Hz) are well within this range and are known to deleteriously affect many biological processes 63 See also: Quantum Coherent Water and Life, ISIS Report, 25/07/2011, http://www.i-sis.org.uk/Quantum_Coherent_Water_Life.php (E. F. Block, 1994). The principle of Magnetic Resonance Imaging takes advantage of the orientation of the hydrogen nuclei of water (by absorbing exogenously applied electromagnetic energy) to orient in an exogenously applied stable magnetic field. Upon release from magnetic orientation, the hydrogen nuclei emit relaxation quanta as photons that are recorded and yield a picture of the "structural" water in the body. Water is thus known to orient to the presence of magnetic fields as well as electric fields. This is particularly important when you understand that those persons with "healing" abilities are able to charge water by the application of emitted electromagnetic fields from their body, most usually the hands (R. Gerber, 2001). Interface Water Clusters http://oscillatorium.com/sitebuildercontent/sitebuilderfiles/interfacialwateremf052514.pdf