...

- Mebook!

by user

on
Category: Documents
32

views

Report

Comments

Description

Transcript

- Mebook!
Quale Modello per le Neuroscienze
di Claudio Messori
ABSTRACT
Con uno sguardo rivolto alle premesse cosmologiche e geologiche che fanno da sfondo all’origine
del fenomeno biologico, vengono ripercorse le fasi storiche essenziali che dal Paleolitico Superiore
attraverso l’Età dei Metalli e l’Età dei Lumi hanno traghettato l’Occidente verso la forma mentis
della scienza contemporanea.
La dimensione tensoriale (Tensione-dynamis) viene indicata come il territorio a cui appartiene il
fenomeno mentale e come la dimensione fisica fondamentale e irriducibile che precede, produce e
coesiste con la dimensione energetica. La transizione dalla dimensione tensoriale alla dimensione
energetica viene spiegata in termini di rottura di simmetria di riflessione (mirror symmetry
breaking). Allo spin-internal motion viene riconosciuto un ruolo centrale nella genesi della trama
energetica e della geometria spaziotemporale. L’energia viene definita come la capacità di
generare interferenza e il quanto d’azione fondamentale h come la frazione minima ammissibile
della capacità di generare interferenza. Viene avanzata una spiegazione del fenomeno biologico,
neurologico e mentale in chiave quantistico-relativistica. Alla rottura di simmetria chirale viene
riconosciuto un ruolo centrale nella genesi del fenomeno biologico. Adottando la visione
introdotta dalla QFT e dalla QED nella spiegazione della strutturazione della materia, viene
avanzata l'ipotesi che dalla formazione di specifici Dominii di Supercoerenza Oscillatoria
dell'acqua prebiotica allo stato liquido, abbia preso avvio il processo di nucleazione e di
accrescimento del protoambiente biotico che ha portato alla formazione dei precursori delle
protocellule. Le dinamiche che qualificano rispettivamente l'attività cellulare, neuronale e mentale
vengono incluse tra le dinamiche dei sistemi transienti non-lineari di tipo caotico e vengono
spiegate alla luce dell’azione sintropica esercitata da un Attrattore Strano Olografico
(Holographic Strange Attractor). A conclusione vengono esposte le basi paradigmatiche per un
approccio non computazionale al problema mente-cervello.
Keywords: dimensione tensoriale, Twisted-Pinched Hysteresis Loop, rottura di simmetria di
riflessione, eventi tensoriali indifferenziati, eventi tensoriali differenziati, Attrattore Strano
Olografico, dimensione energetica, spin-internal motion, rottura di simmetria di spin, spinmomento angolare, chiralità, enantioselettività, autopoiesi, Dominii di Supercoerenza
Oscillatoria dell'acqua, origine del fenomeno biologico, relazione neurodipendente
 Corresponding author: Claudio Messori - Independent Researcher
Address: Str. Villaggio Prinzera 1, Fraz. Boschi di Bardone, Terenzo 43040, Italy
Phone: +393282876077
e-mail: [email protected]
1. Il fenomeno biologico terrestre: premesse cosmologiche e geologiche
L’Uomo moderno non si rende conto che
la realtà è anche per lui una creazione
della sua psiche, una proiezione dei suoi
impulsi profondi che, essendo una ben misera cosa,
determinano la formazione di una ben misera
realtà: quella del mercante.
Luca Valerio Fabj1
Il reperto fossile più antico in assoluto risale a 13 miliardi e 5oo milioni di anni fa circa, è la
radiazione cosmica di fondo (cosmic microwave background radiation) [1]. L'esistenza di una
radiazione cosmica di fondo alla temperatura di 3 gradi Kelvin (K), osservata a partire dal 1965,
fornisce un indizio sperimentale sul possibile stato dell’Universo intorno ai 14 miliardi di anni fa,
uno stato energetico mass-free ad altissima densità e altissima temperatura (calcolabile in 15
miliardi di gradi K) che è andato incontro ad un lento e progressivo processo di raffreddamento e
forse anche di espansione [2]. Per un tempo durato milioni di anni, l'energia radiante (l’energia
associata ad un’onda elettromagnetica) ha rappresentato la quasi totalità della realtà fisica. Le
particelle elementari dotate di massa come gli elettroni, i neutroni e i protoni si sono potute
formare quando la temperatura raggiunse i 5 miliardi di gradi K. A livello di una temperatura di
300 milioni di gradi K si sono potuti formare, per aggregazione delle particelle, i primi nuclei
atomici, mentre a livello di 40 milioni di gradi K, si sono potute formare strutture più complesse.
Le galassie si formarono successivamente forse per condensazione di nubi composte da energia e
particelle. Esse, in seguito ad ulteriore condensazione, hanno determinato la formazione delle
singole stelle raggruppate in galassie (si stima che nella sola Via Lattea vi siano tra 100 e 300
miliardi di stelle, e che il numero di galassie nell’Universo sia incalcolabile). Le galassie,
raffreddandosi progressivamente hanno dato, in qualche caso, origine ai pianeti.
Il nostro Sistema Solare e il pianeta che abitiamo si sarebbero formati come conseguenza del
processo di aggregazione di un ammasso galattico gassoso, nel corso di un periodo di tempo
compreso tra circa 4 miliardi e 600 milioni e 3 miliardi e 800 milioni di anni fa 2 (una datazione
quasi esatta della nascita della Terra si ottiene con il calcolo della velocità di trasformazione degli
elementi radioattivi nelle sue rocce), un periodo di tempo chiamato Adeano o epoca pregeologica,
il primo periodo dell’Era Precambriana, iniziata con la formazione del pianeta e terminata 540
milioni di anni fa circa, quando ebbe inizio l’Era Cambriana (l’Era Precambriana occupa l’88%
della storia del pianeta).
1
L. V. Fabj, Fondamenti di Psicopatologia generale come scienza autonoma, Paolo Emilio Persiani Editore,
2013, pag. 344
2
The oldest materials that formed in the Solar System are inclusions rich in calcium and aluminum found
within carbonaceous chondrite meteorites. Nicknamed CAIs (for Calcium-Aluminum-rich Inclusions), these
objects are thought to have been some of the first solids to form after the cloud of gas and dust began to heat
up. CAIs have ages of 4.566 billion years. On the basis of measurements of several isotopes, the Earth and
Moon formed about 50 to 100 million years later. [G. Jeffrey Taylor, Origin of the Earth and Moon, NASA,
last updated 2012, https://solarsystem.nasa.gov/scitech/display.cfm?ST_ID=446 ]
Durante l'epoca pregeologica (Adeano) la Terra era una massa incandescente la cui superficie
assomigliava ad un oceano di magma, dove galleggiavano una sorta di zattere roventi ma
semisolide. L'abbassamento della temperatura al di sotto dei 1000 gradi Celsius portò al
consolidamento delle zone con temperature più basse che, divenute più stabili, avviarono la
costruzione della futura crosta terrestre. L'ulteriore abbassamento della temperatura portò alla
costituzione di una crosta terrestre primitiva di roccia vulcanica scura simile al basalto (il
consolidamento della crosta terrestre sarebbe avvenuto circa 3 miliardi e 600 milioni di anni fa).
Dalle rocce incandescenti e dalla crosta terrestre primitiva si sprigionava, soprattutto per opera
dell'attività vulcanica, una fitta nebbia di sostanze gassose come ammoniaca, idrogeno, biossido di
carbonio, metano, vapore acqueo ed altri elementi che, nell’arco di 100 milioni di anni,
gradualmente formarono l'atmosfera primordiale terrestre (riducente, cioè priva di ossigeno
gassoso).
La Terra primitiva rimase a lungo avvolta dalle tenebre, sotto una spessa cappa di dense nubi
ardenti formate dal vapore acqueo continuamente riversato nell'atmosfera dalle esalazioni
vulcaniche.
Quando la temperatura scese abbastanza, le nubi cominciarono a liquefarsi in pioggia, e
l'atmosfera primordiale diede vita a tempeste di proporzioni apocalittiche.
In un primo tempo, abbattendosi sulle rocce incandescenti, la pioggia svaporava, ma con il
graduale raffreddamento della crosta solida l'evaporazione andò diminuendo finché l'acqua poté
condensare nelle zone più depresse della superficie terrestre, formando i primi oceani, mentre
dagli altopiani rocciosi prese avvio la formazione dei continenti.
A poco a poco il nostro pianeta assunse un aspetto a noi più familiare, con una zona fluida gassosa
ricca di nubi detta atmosfera (riducente), una zona fluida liquida con oceani (la formazione delle
masse oceaniche con una dislocazione simile all'attuale è databile intorno ai 3,2 miliardi di anni
fa), laghi e fiumi, detta idrosfera, ed una zona solida indicata con il nome di litosfera, con i primi
abbozzi di quelli che diventeranno i futuri continenti.
Al termine di questa fase pregeologica (3 miliardi e 800 milioni di anni fa circa) ha inizio il periodo
Archeano dell’Era Precambriana, ed è durante questo periodo che si sviluppa il fenomeno
biologico terrestre.
Da questo remoto passato in avanti, il pianeta Terra potrà dirsi a tutti gli effetti abitabile (CHZ,
Circumstellar Habitable Zone) e di fatto abitato da forme di vita che dipendono dalla presenza di
acqua allo stato liquido o, per essere più precisi, dalla presenza di una pressione atmosferica
capace di mantenere l’acqua sulla superficie del pianeta allo stato liquido. Uno tra altri 11 miliardi
di pianeti, nella sola Via Lattea, considerati abitabili, stando ai dati raccolti dalla missione spaziale
Keplero, da forme di vita dipendenti dall’acqua allo stato liquido.
1.1 Il fenomeno biologico: dai precursori delle cellule al Cambriano
Quello che è avvenuto sulla Terra in un remoto passato e quali possano essere state le condizioni
(uniche e irripetibili?) che hanno innescato il fenomeno biologico, è un concetto di cui possiamo
parlare, ma si tratta di eventi che non possiamo conoscere per diretta esperienza. Qualunque
ipotesi facciamo, non possiamo in linea di principio verificarla per diretto confronto con ciò che è
avvenuto. Tutto ciò che possiamo fare è costruire una ipotesi che renda coerentemente connessi tra
loro tutti i dati in nostro possesso, eliminando ogni apparente contraddizione, senza timore di
dover tornare sui nostri passi, se la prospettiva di indagine adottata dovesse dimostrarsi fallace.
In base allo stato attuale delle conoscenze, il fenomeno biologico ebbe inizio in ambiente acquatico
(che era incompatibile con la sopravvivenza del 99% delle forme di vita attuali) tra i 4 e i 3.8
miliardi di anni fa, quando l’intero habitat terrestre, così come la distribuzione delle terre emerse,
era completamente diverso da quello attuale (l'atmosfera era probabilmente composta per il 75% di
azoto e per il 15% di anidride carbonica, la luminosità solare era l'80% del livello attuale).
Il passaggio dall’organico al biologico sarebbe avvenuto, come si dirà meglio nel Paragrafo 5.3, con
la formazione dei precursori (vescicole colloidali liofile di acqua prebiotica mantenuta in un
regime di supercoerenza oscillatoria da un campo elettromagnetico endogeno di idonea intensità
e frequenza, delimitate da una pompa elettronica selettiva costituita da una pellicola semicristallina di acqua, e contenenti macromolecole come proteine e amminoacidi, sintetizzate su base
enantioselettiva) delle prime forme di vita unicellulare, le cellule procariote (cellule prive di
nucleo, microrganismi unicellulari autotrofi anaerobi foto, magneto e chemio-sintetici). Dopo un
lento processo non-lineare di trasmutazione biologica (orientato da una precisa e universale
relazione causale: 1) la funzione genera la struttura e 2) i processi biofisici precedono i processi
biochimici), durato circa 2-1,5 miliardi di anni (periodo di transizione da una atmosfera riducente,
cioè priva di ossigeno gassoso, ad una ossidante), parte dei microrganismi unicellulari autotrofi
esistenti (cellule procariote) andarono incontro ad un processo di nucleazione trasformandosi in
cellule eucariote (cellule dotate di nucleo), di cui sono costituiti tutti gli organismi pluricellulari (i
più antichi ibridi di organismi pluricellulari furono metazoi, funghi e spugne marine, che si
formarono tra 800 e 700 milioni di anni fa circa).
Circa 570-540 milioni di anni fa, 3,5-3 miliardi di anni dopo la formazione delle cellule procariote,
al Precambriano succede il Cambriano (da Cambria, nome latino dato al Galles, dove venne
rinvenuta la prima roccia risalente a questo periodo). Nell’arco di poche decine di milioni di anni
l’ecosistema biotico, fino ad allora composto da organismi procarioti, organismi eucarioti e dagli
ibridi degli organismi pluricellulari, andò incontro ad un rapido processo di diversificazione delle
forma di approvvigionamento energetico che portò alla comparsa degli organismi eucarioti
pluricellulari, come Alghe, Artropodi, Molluschi, Meduse, Crostacei (→organismi dotati di guscio,
predatori, scavatori di tane profonde). Con esso ebbe inizio, 570-540 milioni di anni fa circa, l'Era
Primaria, o Paleozoico, che durerà circa 300 milioni di anni e che comprende l'Ordoviciano,
periodo nel quale compaiono i Vertebrati agnati, e il Siluriano, nel corso del quale compaiono i
Pesci. Seguono, sempre nell'Era Primaria, il Devoniano, con i primi campioni di flora e di fauna
terrestri, e il Carbonifero, caratterizzato da un grande sviluppo della flora con grandi foreste che
ricoprirono tutti i continenti, seguito dal Permiano, con la comparsa dei Rettili, i primi vertebrati
esclusivamente terrestri. L'Era Secondaria, o Mesozoico, si apre 250 milioni di anni fa circa con il
Triassico, nel quale la vita si arricchisce per la comparsa dei primi organismi che anziché deporre
le uova partorivano, gli animali placentati (precursori dei Mammiferi). Gli Uccelli compaiono nel
successivo Giurassico, mentre nel Cretaceo si affermano e dilagano sulle terre emerse i Sauri. E' di
questo periodo la specializzazione dei grandi Rettili nelle varie nicchie ecologiche: sono stati
ritrovati fossili di Ittiosauri, Dinosauri e Pterosauri, adattati alla vita rispettivamente nelle acque e
sulla terraferma e al volo nell'aria. Il declino e la scomparsa dei vari gruppi di Sauri si realizza
totalmente prima della fine del Cretaceo (→estinzione di massa). Altre forme di vita vegetale e
animale compaiono nell'Era Terziaria, o Cenozoico, che inizia 65 milioni di anni fa circa e viene
suddivisa nei periodi Paleocene, Eocene, Oligocene, Miocene e Pliocene, che marcano soprattutto
l'affermarsi dei Mammiferi.
Nell'Età Quaternaria, il cui inizio è da porsi tra 3 e 1,8 milioni di anni fa, e precisamente nel
periodo chiamato Pleistocene, la storia della vita presenta i primi fossili del genere Homo (Homo
Abilis). La comparsa dell'uomo attuale (Homo Sapiens) è databile intorno ai 200.000 anni fa.
La comparsa d'un numero elevato e diversificato di specie animali marine (invertebrati) durante il
periodo di transizione tra Cambriano e Ordoviciano fu accompagnata da una diversificazione delle
modalità nel procacciamento del cibo (approvvigionamento energetico), tra le quali figurano quelle
basate sulla foto-autotrofia, sulla chemio-autotrofia e sulla eterotrofia e dallo sviluppo delle prime
comunità complesse di animali legate tra loro da catene alimentari.
La fotoautotrofia implica una relazione simbiotica con microscopiche alghe fotosintetiche. Dato
che si trovano all'interno dei tessuti dell'animale che le ospita, le alghe sono protette dagli
organismi che potrebbero cibarsene. In cambio, le alghe fotosintetiche sintetizzano e cedono
sostanze nutritive all'ospite e ne eliminano i prodotti di rifiuto (molti coralli di scogliera attuali e
alcuni bivalvi tropicali possiedono nei loro tessuti alghe fotosintetiche). Grazie alla
chemioautotrofia, invece, gli animali captano le sostanze nutritive dall'acqua marina in modo sia
diretto che indiretto. In questo secondo caso si assiste a un tipo di simbiosi interna, grazie alla
quale l'animale ospita batteri chemiosintetici che, in cambio di protezione, sintetizzano e cedono
sostanze nutritive all'ospite (questo tipo di fisiologia è comune tra gli attuali animali che vivono
presso le sorgenti idrotermali che si aprono nelle profondità oceaniche).
Così, in acque povere di sostanze nutritive, la relazione ospite-simbionte risultò particolarmente
vantaggiosa: l'ospite può nutrirsi efficacemente per interposizione del simbionte e quindi riciclare i
suoi prodotti di rifiuto direttamente tramite il simbionte anzichè liberarli nell'ambiente.
Un ambiente ricco di sostanze nutritive, al contrario, non avrebbe favorito solo la nutrizione basata
su relazioni simbiotiche, ma avrebbe favorito anche altre modalità di alimentazione, aumentando il
numero di animali detrivori (che si nutrono di detriti organici) e necrofagi (che si nutrono di
organismi in decomposizione), determinando al tempo stesso un aumento nel numero e nella
varietà degli animali eterotrofi.
L'eterotrofia (ossia il consumo per ingestione di altri organismi, sia animali sia vegetali) divenne
sempre più importante a partire dal tardo Cambriano.
Per il loro nutrimento questi animali digeriscono il cibo in una cavità interna e accumulano
sostanze di riserva in forma di glicogeno o grasso. Generalmente si muovono per l'azione di cellule
specializzate (cellule contrattili e cellule muscolari), tendono a delegare il controllo e
l'organizzazione della loro attività a particolari sostanze (gli ormoni) o cellule (neuroni), la loro
riproduzione è generalmente sessuata (spermatozoo maschile e uovo femminile) e gli adulti, a
differenza delle piante, generalmente mantengono dimensioni e forma fisse.
Fig. 1
Posizione degli antichi continenti durante il Cambriano, circa 550 milioni di anni fa.
(Fonte immagine wikipedia.org)
1.2 Le estinzioni di massa
Nel corso dei circa 3,8 miliardi di anni che ci separano dai precursori delle cellule procariote, sul
pianeta si sono avvicendate varie e importanti estinzioni di massa, innescate da diversi fattori, tra
cui fattori abiotici (ad es., clima) e biotici (ad es., malattie), eventi graduali (ad es., riduzione o
aumento della concentrazione di ossigeno, aridità generata da cambiamenti climatici, cambiamenti
delle correnti oceaniche e variazioni dei livelli del mare, variazioni nella distribuzione delle terre
emerse) ed eventi catastrofici (ad es., impatti meteoritici, aumento dell'attività vulcanica, rilascio
di clatrato di metano dal mare e dai fondali oceanici).
Una serie di eventi graduali e catastrofici che annulla la sostenibilità in chiave darwinista, di una
discendenza filogenetica spontaneamente/ casualmente consequenziale (vedi Paragrafo 3.1).
Le principali estinzioni di massa furono (dalla più antica alla più recente):
→ tra i 2400 e i 2000 milioni di anni fa (maf): Grande Evento Ossidativo, la prima e più
grande estinzione di massa, chiamata anche la Catastrofe dell'Ossigeno, la massiccia e prolungata
immissione in atmosfera dell'ossigeno gassoso prodotto dai procarioti anaerobi fotoautotrofi
(cianobatteri), determinò il passaggio da un'atmosfera riducente a una ossidante, con conseguenze
letali per gran parte degli organismi procarioti anaerobici (che sono avvelenati dall'ossigeno
gassoso) [3], costretti a rifugiarsi nei fondali oceanici;
→ 650 maf: estinzione di massa del 70% delle piante marine, dovuta a una glaciazione globale
(ipotesi della Snowball Earth);
→ 443 maf: Glaciazione di Gondwana, estinzione di massa di molti invertebrati marini,
scomparve circa il 49% dei generi di fauna esistente;
→ 374 maf: estinzione di massa di circa il 70% delle specie marine, in realtà si tratta di una serie
prolungata di estinzioni, durata per più di 20 milioni di anni, dedotta dalla presenza di segni
evidenti di anossia delle acque nelle profondità oceaniche, e di un raffreddamento globale che
causò l'abbassamento della temperatura di superficie da circa 34° Celsius a circa 26° C.;
→ 251 maf: estinzione di massa del Permiano-Triassico, segni di un possibile cratere di origine
meteoritica, largo circa 480 km, nella regione di Wilkes Land in Antartide; periodo di grande
vulcanismo in Siberia che causa il rilascio di grandi quantità di gas (CO2, CH4 e H2S) in atmosfera,
il livello di ossigeno (O2) scese dal 30% al 12%, il livello di anidride carbonica (CO2) era di circa
2000 ppm (parti per milione), fu la peggiore estinzione di massa post-precambriana, che comportò
l’eliminazione del 90% delle forme di vita oceaniche, e del 70% di quelle terrestri (fauna e flora);
→ 201 maf: estinzione di massa causata da un evento anossico oceanico, che comportò
l’eliminazione del 20% di tutte le forme di vita marine;
→ 65,5 maf: un impatto meteoritico provoca un cratere largo 170 km a Chicxulub, nello Yucatan,
in Messico, estinzione di massa dell’80-90% delle specie marine e dell’85% delle specie terrestri,
compresi i dinosauri;
→ 12,900 anni fa: l’esplosione di una cometa sul Canada provoca l'estinzione della megafauna
americana come il Mammut e il Sabretooth Cat (Smilodon), così come la fine della cultura Clovis.
Fig. 2
Evolution timeline
2. Dalla tecnologia di Homo Sapiens et Faber alla metafisica applicata
per scopi pratici
Certamente fin dall’inizio non tutto
gli déi svelarono ai mortali
ma nel corso del tempo quelli che ricercano
trovano ciò che è meglio
Senofane di Colofone (circa 580-485 a.C.)
Frammento 18
La centralità della tecnologia3, ovvero del saper fare inteso come ideazione, produzione e
applicazione intenzionale di tecniche (procedure) manuali e/o strumentali finalizzate alla
soddisfazione di scopi antropici, è un fatto relativamente recente nella storia delle comunità
umane [Messori 2013].
Le più antiche testimonianze del saper fare antropico risalgono al Paleolitico Inferiore e Medio,
sotto forma di manufatti litici (choppers, bifacciali, raschiatoi, asce e punte), resti di imbarcazioni
“Il termine tecnologia è una parola composta che deriva dalla parola greca τεχνολογία (tékhne-loghìa),
letteralmente “discorso (o ragionamento) sull’arte”, dove con arte si intendeva sino al secolo XVIII
il saper fare, quello che oggi indichiamo con la tecnica.” (Daniele Dallorto)
3
rudimentali [Strasser, 2010]4, incisioni su pietra (petroglifi) e pittogrammi parietali, statuette
(Veneri), ma si tratta di produzioni che indicano un ricorso a prassie e abilità manuali
caratterizzato dalla assenza di intenzionalità: un saper fare che si fa nell’incontro tra
l’ambiente e la disponibilità di requisiti e di competenze filogeneticamente acquisite, così come la
stazione eretta e il saper camminare non sono frutto di intenzionalità nè di apprendimento ma si
fanno nell’incontro tra ambiente e competenze antigravitarie pronte all’uso.
Sarà solo a decorrere dal periodo di transizione tra il tardo Paleolitico Medio e gli inizi del
Paleolitico Superiore (tra circa 70 e 30 mila anni fa) che le comunità umane inizieranno a integrare
il loro saper fare filogenetico con un saper fare epigenetico contraddistinto dalla intenzionalità e
impiegato per scopi adattivi e sovradattivi.
Nell’arco di questo periodo di tempo infatti, la relazione di continuità [Messori 2012] sino ad
allora intrattenuta dall’animale homo (come da qualsiasi altro animale) con l’ambiente, venne
fecondata dalla nascita psicologica della individualità umana e dalla costituzione di quella
identità psichica relativamente autonoma e indipendente (pre-razionale e pre-verbale) che
chiamiamo funzione epigenetica del reale, o autocoscienza umana, dando avvio alla
sedimentazione di una relazione di contiguità con il Mondo, e al conseguente processo di
produzione culturale, che gradualmente e irreversibilmente porterà una parte delle comunità
umane a fare un uso sempre più intensivo e specialistico della tecnologia.
All’interno di questo gap tra l’ambiente inconscio del sapere filogenetico e l’ambiente conscio del
sapere epigenetico, scavato dalla nascita psicologica, si inseriscono tutte le dinamiche relazionali e
comportamentali che da questo momento in poi verranno sperimentate dalle comunità umane nel
loro confronto culturale con l’esistere. Dinamiche relazionali che traggono tutte origine dalla triade
archetipica associata alla stazione eretta dell’essere umano, secondo la quale il suo posto nel
Mondo, il suo ruolo elettivo, è di collegamento tra ciò che sta sopra, in alto, il Cielo, e ciò che sta
sotto, in basso, la Terra.
Il primo passo importante, verso un uso sempre più intensivo e specialistico della tecnologia,
venne fatto nel corso del Neolitico con l’ideazione e l’applicazione delle prime tecniche e l’uso dei
primi attrezzi da lavoro nella coltivazione cerealicola, allevamento di bestiame, filatura, tessitura,
nella costruzione di abitati e nella lavorazione della ceramica.
Nel corso degli oltre quindicimila anni che separano il Neolitico dall’Illuminismo inglese del XVIII
sec. d.C., la tecnologia è sempre stata considerata un mezzo, a cui fare ricorso per soddisfare i fini
dettati dalla produzione culturale e sociale, in particolare quelli rivolti alla sopravvivenza,
all’addomesticamento della Natura (approvvigionamento di risorse alimentari, regimentazione
rudimentale delle acque fluviali, etc.). Aristocratici, Sacerdoti e Guerrieri, così come le comunità di
individui che essi rappresentavano, hanno continuato a servirsi della disponibilità di risorse
tecnologiche considerandole sempre come un mezzo e mai come un fine, anche quando due
straordinarie acquisizioni tecnologiche come l'addomesticamento del fuoco per la lavorazione dei
metalli (Età dei Metalli, VIII-I millennio a.C.) e l’invenzione della scrittura, cambiarono il corso
della storia5.
4
Reported by M. Marshall, Neanderthals were ancient mariners, 2012:
www.newscientist.com/article/mg21328544.800-neanderthals-were-ancient-mariners.html
5
Ciò che non ha una sua essenza, ma che è un complesso tessuto di contingenze, è la Storia. Ciò che si veste
sempre di nuove forme, adattandosi alle realtà contingenti ed esprimendosi attraverso il linguaggio dei
tempi, pur restando sempre uguale nella sua essenza, è la Tradizione. La Storia è l’aspetto modale
(processuale) della Tradizione e la Tradizione è la parte sostanziale della Storia. I valori e gli ideali sono
articolati dalla Tradizione ed il risultato della loro attuazione o concretizzazione nella realtà è un fatto
storico.
Nell’area euro-mediterranea, tuttavia, l’intreccio maturato nel corso del I millennio a.C. tra gli
elementi paradigmatici mesopotamici, ellenistici e romani posti a fondamento della gestione delle
faccende terrene (→ Cilindro di Nabonidus6 e Cilindro di Ciro7 → Polis → Senato), e la
lungimirante elaborazione teologica della casta sacerdotale semitica (tra il VII e VI sec. a.C., in
un’epoca retta dal politeismo, il Regno di Giuda, con capitale Gerusalemme, fu il primo regno nella
storia a venerare in un unico tempio un unico dio, il dio abramitico Yahweh), portò a
concepire una forma di governo dell’Impero, istituita sulla distinzione giuridica tra legge divina e
legge terrena (che verrà successivamente sintetizzata nel celebre detto attribuito a Gesù e riportato
dai Vangeli: Date a Cesare quello che è di Cesare e a Dio quello che è di Dio).
Il Senato romano e la Polis greca fornivano già tutti gli elementi necessari per l’articolazione
giuridica della legge terrena, mancava un culto religioso che potesse fornire gli elementi necessari
per l’articolazione giuridica della legge divina. Questo culto religioso prese corpo nella religione
giudaico-cristiana.
L’affermazione imperiale del culto giudaico-cristiano, deve molto della sua fortuna alla missione
apostolica di un contemporaneo di Gesù di Nazareth, Saulo di Tarso (latinizzato in Paolo, ovvero
San Paolo, 5(10)-64(67) d.C.), un predicatore greco-romano itinerante di religione ebraica poi
convertitosi al cristianesimo, che nel corso del I sec. d.C. riesce ad estendere il nuovo culto, allora
praticato solo da un ristretto numero di comunità giudeo-cristiane, fuori dai confini della
Palestina, verso l’attuale Giordania, la Turchia e la Grecia. Saulo si fece promotore di un
cristianesimo ispirato ai principii etici dello stoicismo medio (I sec. a.C.)8, basato sull’assunto che
Gesù di Nazareth (predicatore e profeta ebreo anch’egli itinerante, finito crocifisso per mano dei
romani) fosse il Messia, Il Cristo (dal greco Christòs, l’Unto), il Figlio di un Re dei re, Sacerdote
dei sacerdoti, Condottiero dei condottieri, di origine semitica: il Dio venerato a Gerusalemme,
Jahweh, Colui che È.
Jahweh, figura divina sinaitica, ispirata a una figura divina indù, Īśvara, elaborata dalla casta
sacerdotale semitica nel corso della seconda metà del II millennio a.C. (epoca in cui i popoli
semitici del Sinai inventano la scrittura alfabetica), e derivata dalla sintesi teologica della triade
cosmica sumerica Anum-Enlil-Enki (nonchè della controparte femminile di Anum, Ki, e della
divinità femminile creatrice Ninhunsag), e di quella akkadica composta da Marduk-IshtarShamash, Jahweh dunque, si fa uomo in Gesù.
L’assunzione di sembianze umane da parte di una divinità non costituisce un elemento di novità,
molte altre divinità nella Storia sia dell’emisfero boreale che di quello australe lo fanno. Il fatto
sorprendente e straordinario, per qualcuno quasi blasfemo mentre per altri semplicemente
insensato, è dato dal fatto che questo Dio non si limita ad assumere sembianze umane, no, questo
Dio si fa, letteralmente, mortale. L’aver reso mortale l’immortale e immortale il mortale (la
consustanzialità della pericoresi cristologica, base del dogma della Trinità), è una operazione di
metafisica applicata per scopi pratici unica nel suo genere9, che accoglie in pieno l’istanza
6
http://www.livius.org/na-nd/nabonidus/cylinder.html
http://www.livius.org/ct-cz/cyrus_I/cyrus_cylinder.html
8
Tutti gli uomini sono uguali di fronte alla legge universale del Lògos, direbbe uno stoico, e Saulo applicò
questo principio etico alla sua religione, affermando che tutti gli uomini, anche quelli non circoncisi, sono
figli del suo Dio.
Cfr.: http://www.latinovivo.com/schedeletteratura/stoicismo.htm
9
Anche la divisione in caste dell’India vedica, per es., è una operazione di metafisica applicata, nel senso
che rispecchia un Ordine cosmico imprescindibile:
Rg Veda X, 90, strofa 12 (Purusasukta): La sua bocca [dell’Uomo primordiale fatto a pezzi, sacrificato]
divenne il Brahmano, il Guerriero fu il prodotto delle sue braccia, le sue cosce furono l’Artigiano, dai suoi
piedi nacque il Servitore.
La differenza è che qui ci si pone nella prospettiva anti-storica della metafisica (la Tradizione), da cui tutte le
questioni di ordine pratico partono e a cui tutte fanno ritorno, mentre l’aver reso mortale l’immortale e
7
aristotelica: ciò che attiene al Lògos (in Platone il Cielo iperuranico delle Idee), al Motore
Immobile (in Aristotele la metafora della antistoricità della metafisica10), per quanto sublime possa
essere, è per definizione estraneo a questioni di ordine pratico e quindi non-utile, perciò, noi,
cultori dell’arte-arma del logos11 (la Dialettica, la serrata applicazione pratica della logica, e la
Retorica, l’abilità nell’uso della parola come chiave di ogni autorità nello Stato), ci volgiamo all’uso
esclusivo della Ragione delle idee (della matematica e della geometria).
L’evento cruciale nel processo di affermazione della ragione della metafisica applicata per scopi
pratici e della ragione della consustanzialità (gli elementi teoretico-teologici sui quali germoglierà
la postuma Età dei Lumi), fu l’incoronazione (V sec. d.C.) della religione cattolica di Santa
Romana Chiesa ad unica religione ammessa e tollerata dall’Impero Romano (d’Occidente)12.
Il sodalizio tra la Santa Romana Chiesa fattasi Stato e l’Impero Romano d’Occidente, celebra
ufficialmente il trionfo della Ragione delle idee, che, nel rivendicare la propria autonomia ed
estraneità dalle dispute metafisiche, declassa la trascendenza, (il territorio del Non-nato, meglio
noto come Non-Essere, del Senza-Nome, dell’eccedenza di senso, del simbolo), ad una questione
teologica (il territorio del Nato, meglio noto come l’Essere, dei Nomi, del senso e dei significati)
[Messori 2000, 2004].
La convergenza dei tutori del sacro e dei tutori del profano, sulla opportunità di affidare il governo
universale dei corpi e delle anime al primato della ragione della metafisica applicata per scopi
pratici, è un evento storico di eccezionale importanza, rimasto per secoli circoscritto all’area euromediterranea (nonostante l’espansione dell’Impero romano fino alle porte dell’India, nonostante
due secoli di Crociate, nonostante quattro secoli di espansionismo coloniale), che in epoca tardorinascimentale (quando la riabilitazione dei classici greci e romani era cosa fatta) porterà i
discendenti degli esperti nell’arte del sapere e del saper fare per scopi pratici dell’Età dei Metalli,
ovvero gli Artigiani, esperti nell’arte del trasformare la materia grezza in oggetti finiti (ai quali gli
alchimisti consegnano lo spirito dello sciamano-metallurgo, il Signore del Fuoco, incarnato nel
corpo esoterico della metafisica applicata che non rinuncia a cogliere dall’Albero della
Conoscenza), e i Mercanti, gli esperti per antonomasia nell’arte del fare affari con il sacro e con il
profano, ad affermarsi come soggetto sociale e politico dominante.
A decorrere dal XV sec., il trend positivo registrato dallo sviluppo e dal trasferimento delle attività
produttive e commerciali verso i centri cittadini, nonché il vuoto di potere generato dal declino del
Sacro Romano Impero e dal contemporaneo affievolimento dell'autorità papale, aprono le porte
alle istanze di un nuovo gruppo sociale urbano privilegiato (èlite), caratterizzato da specifiche
norme di comportamento e da ruoli predeterminati (ceto), che per affermarsi sistematizzerà il
ricorso ad una ragione della metafisica applicata per scopi pratici, ispirata al "sapere e saper
immortale il mortale è retorica allo stato puro, tant’è che la sua insostenibilità è messa a tacere da un dogma
mimetizzato in un atto di fede.
10
Il Motore Immobile è l’equivalente dell’Axis Mundi, del Lògos dei presocratici (Eraclito), del Dharma
della dottrina indù, del Cielo Anteriore nella cosmologia taoista, è ciò che imprime contrapposto a ciò che
esprime, è ciò che permane invariabile al centro delle rivoluzioni di tutte le cose, e che regola, senza
intervenirvi in alcun modo (il wu-wei, azione-senza-azione, del taoismo), il corso dei cambiamenti per il
fatto stesso che non ne è partecipe.
11
Il lògos dei postsocratici, la parola argomentata che sistematizza il divenire delle relazioni in regole e
segni, contrapposta alla parola rituale, ai me della civiltà akkadico-sumera (XIX-XVIII sec. a.C.), norme e
decreti di natura divina che garantiscono e determinano il destino di ogni essere, di ogni forma di vita, di
ogni impresa divina o umana, dei vari mestieri, vocazioni e istituzioni (il cui corrispettivo nella tradizione
indù sono i dharma).
12
La vocazione ad essere una religione esclusiva e non inclusiva è già presente nel I dei X Comandamenti:
Non avrai altro Dio all’infuori di me. Un comandamento che suona al tempo stesso come una promessa, una
minaccia, un avvertimento, una certezza, un premio. Per molti sarà una condanna.
fare affari inteso come ideazione, produzione e applicazione imprenditoriale di tecniche
(procedure) manuali, strumentali, economiche, politiche, finanziarie, militari finalizzate al
soddisfacimento della propria ambizione di potere": la borghesia.
Autoproclamatisi eredi legittimi dell’illuminismo greco ante litteram (sofisti, atomisti, scettici,
stoici), tra il XVII e XVIII sec. gli intellettuali borghesi inglesi danno vita a un movimento di
pensiero e d’azione, l’Illuminismo, che si fa portatore di un modello culturale emendato da
qualsiasi traccia di metafisica e di superstizione, fondato sulla fede incondizionata ed esclusiva
(non avrai altro modello di conoscenza all’infuori di me) nella ragione empirica e nella
conoscenza scientifica ritagliata sul modello scientifico sperimentale galileiano-newtoniano.
Contemporaneamente, il movimento illuminista scardina l’assetto socio-politico dominante
(rivoluzione americana e francese, nascita delle monarchie costituzionali europee), consegnando il
destino dei popoli alla visione meccanicista e riduzionista della realtà: Dio-Gesù, il grande
orologiaio, nel creare il Cielo e la Terra e tutto ciò che popola lo spazio compreso tra di essi non ha
lasciato niente al caso, anzi, tutto è stato calcolato secondo un disegno matematico di causa-effetto,
per essere affidato all'Uomo maschio, bianco, cattolico, istruito, benestante, l’unico essere del
creato in cui Dio abbia compiutamente infuso la res cogitans.
L'Universo, è un sistema meccanico di oggetti solidi (res extensa) che riempiono porzioni di uno
spazio altrimenti vuoto, posti in relazione reciproca secondo leggi di moto che, almeno in linea di
principio, sono calcolabili.
Con la progettazione e realizzazione delle prime macchine complesse in grado di produrre energia
in modo costante (nel 1730 Kay inventa la spola volante che velocizza la tessitura, nel 1764
Hargreaves inventa la spinning-jenny, un filatoio meccanico azionato dall'uomo, in grado di far
agire contemporaneamente molti fusi, nel 1768 Arkwright costruisce una filatrice che richiede
energia non manuale grazie ad un motore idraulico, nel 1784 Cartwright realizza il telaio
meccanico, nel 1781 Watt costruisce la prima vera e propria macchina a vapore), banchieri,
mercanti e imprenditori, arricchiti dall’esperienza coloniale e ferventi sostenitori dei principii
illuministici (a cui si richiama la classica definizione di energia: capacità di un sistema o di un
corpo di compiere lavoro), scoprono i vantaggi che possono trarre dallo sfruttamento
imprenditoriale delle macchine e decidono di investire denaro, beni, conoscenze, competenze,
esperienza, tempo e mano d’opera nella meccanizzazione dei processi produttivi e nello sviluppo
tecnologico.
È in quest’epoca che il processo di integrazione tra uomo e tecnologia (macchina) muove i suoi
primi passi, partendo dal presupposto che il capitale umano scarsamente o per nulla dotato di res
cogitans (gli schiavi deportati dalle colonie e tutti i non appartenenti alla razza bianca, le donne, i
bambini e i maschi prestatori d’opera) deve esercitare il proprio ruolo produttivo in funzione del
capitale tecnologico.
Nel corso del XIX sec., l’impeto rivoluzionario illuminista abbandona le piazze e viene data alla
luce la prima religione laica e scientifica della Storia, il positivismo, l’elaborazione
ideologica di una borghesia industriale liberista solidamente affermata, che fa della scienza una
metafisica di certezze assolute, tanto che negli ultimi anni della sua vita Auguste Comte (17981857), ideologo del positivismo, scrive il Catechismo positivista e fonda la Chiesa Positivista, dove
vengono trasposti gli elementi dottrinali, etici e liturgici della tradizione cattolica.
Tornata ad affermarsi, quella ragione della metafisica applicata per scopi pratici che aveva tenuto
a battesimo la scalata sociale del ceto borghese cambia nome e diventa dottrina della fede nella
Scienza.
Per molti secoli la filosofia e le scienze erano rimaste strettamente connesse in un sistema di
rapporti reciproci subordinati ai principi universali della metafisica. Il declassamento della
trascendenza ad una questione teologica aveva inferto alla metafisica e alla filosofia il primo duro
colpo, facendole cadere in disgrazia a favore delle scienze e della metafisica applicata per scopi
pratici. Il colpo di grazia verrà loro inferto dall’Illuminismo prima e dal Positivismo poi, quando
l’assolutismo teologico passa definitivamente il testimone all’assolutismo scientifico, decretando la
scomparsa della figura dello scienziato con interessi e conoscenze universali, per lasciare il posto ai
ricercatori specializzati, che dovevano dare risposte sicure ai problemi posti
dall’industrializzazione e dal progresso tecnologico.
Subordinata al punto di vista dell’individuo, scrive il Colli [4], la conoscenza diventa così
strumento dell’azione: in questa crisi, tragica e decisiva per i secoli seguenti, il filosofo in
Descartes impallidisce, trascolora sino ad annullarsi nello scienziato, e in generale la filosofia si
ritira ufficialmente dal giuoco, cedendo il banco. Il vincitore è privo di venerazione, e da allora il
titolo di filosofo designa qualcuno che sta tra l’acchiappanuvole e il giullare.
Si impone, così, il mito di una Scienza super partes che contende a Dio il suo primato di Giudice
imparziale, e così facendo sfila il destino dei popoli dalle mani dei teologi per gettarla nelle le mani
dei teo-scienziati che stabiliscono razionalmente leggi assolute, obiettive e valide sopra ogni
ragionevole dubbio. Una assunzione di assoluta imparzialità palesemente falsa.
Qual’è allora il giusto ruolo, scrive il fisico David Bohm [5], dell’incorporare fatti in ordini,
misure e strutture di teorie preesistenti? Qui è importante notare che i fatti non vanno
considerati come oggetti indipendentemente esistenti, che troviamo nei nostri laboratori. Un
fatto è piuttosto ‘ciò che è stato fatto’: in un certo senso siamo noi che ‘facciamo’ il fatto. Vale a
dire che, a partire dalla percezione immediata di una situazione reale, la trasformiamo in fatto
dandole un ordine, una forma e una struttura con l’aiuto dei nostri concetti teorici. Per esempio,
servendosi dei concetti d’ordine dominanti nell’antichità, gli scienziati furono portati a ‘fare’ il
fatto delle orbite planetarie, descrivendole e misurandole in termini di epicicli. I fatti della fisica
classica sono invece ‘fatti’ sul modello di ordine delle orbite planetarie descritte in termini di
posizioni e di tempi. I fatti della relatività generale sono ‘fatti’ in base all’ordine della geometria
riemaniana e alla misura che risulta da concetti come quello di curvatura dello spazio. Nella
teoria quantistica, i fatti sono ‘fatti’ in base all’ordine dei livelli energetici, dei numeri quantici,
dei gruppi di simmetria, e così via, insieme con opportune misure (per esempio, sezioni d’urto,
masse e cariche di particelle, eccetera). I cambiamenti di ordine e misura nella teoria portano in
ultima analisi a nuovi modi di sperimentare e a nuovi strumenti, che a loro volta portano a ‘fare’
fatti di nuovo tipo corrispondentemente ordinati e misurati.
Come conseguenza del sempre più vasto arruolamento di forza lavoro a basso costo nel ciclo
produttivo creato dal processo di industrializzazione, prendono vita un nuovo soggetto sociale, il
proletariato, e due teorie politiche e sociali, una rigidamente materialista, il socialismo scientifico
di Karl Marx e Friedrich Engels, l’altra agitata da un romantico idealismo, l’anarchismo di Michail
A. Bakunin e Petr Kropotkin. Entrambe lasciano intatto l’impianto ideologico settecentesco su
cui si erge la visione della scienza come metafisica di certezze assolute, per schierarsi a favore
della emancipazione della classe operaia e di quanti sono vittime della logica di potere del ceto
dominante.
Meno di un secolo dopo (prima metà del ‘900), la rivoluzione scientifica innescata con la
formulazione della Teoria della Relatività Generale di Einstein (che ha cambiato radicalmente ciò
che sappiamo dello spazio e del tempo) e della Meccanica Quantistica (che ha cambiato
profondamente ciò che sappiamo della materia), svela una realtà fisica microscopica e
macroscopica completamente diversa da quella teorizzata dalla fisica newtoniana, che perde il
titolo di teoria fisica universale e deve accontentarsi di mantenere una validità pratica solo sul
piano meccanico.
Le nuove acquisizioni scientifiche non tardano a trovare conferma sperimentale, e la realizzazione
dei primi ordigni nucleari, sganciati sul Giappone nell’estate del 1945, uno (soprannominato Little
Boy) su Hiroshima, l’altro (Fat Man) su Nagasaki, non lasciano ombra di dubbio: è l’avvento di
una nuova Era, l’Età dei Quanti.
2.1 Il crollo del paradigma newtoniano
Il conflitto tra scienza e religione è dovuto in realtà
ad un malinteso di entrambe. Il materialismo scientifico
ha semplicemente introdotto una nuova ipostasi,
e questo è un peccato intellettuale. Esso ha dato un altro nome
al principio primo della realtà ed ha presunto di avere così
creato un elemento nuovo e di averne distrutto uno vecchio.
In qualunque modo chiamiate il principio dell’esistenza
- Dio, materia, energia o qualsiasi altra cosa preferiate -,
non avrete creato nulla; avrete semplicemente sostituito un simbolo.
Il materialista è un metafisico malgrè lui.
Carl Gustav Jung 13
Lo scopo fondamentale della fisica classica newtoniana, era spiegare causalmente l'azione delle
forze sulle particelle che compongono il cosmo, e descrivere il loro moto reciproco con l'ausilio di
equazioni matematiche. Dalle tre leggi della dinamica14 e dalla legge di gravitazione universale15 si
ricavano le equazioni del moto, che consentono di prevedere, in riferimento alla tre dimensioni
dello spazio e al fluire unidimensionale del tempo, le traiettorie dei corpi.
Su queste basi, si stabiliscono legami deterministici tra i corpi, secondo il principio di una
connessione necessaria tra causa ed effetto, esprimibili mediante le equazioni del moto.
Nell'universo newtoniano niente accade per caso, ma tutto è necessario in quanto soggetto alle
leggi deterministiche della natura.
Newton suppose l'esistenza di uno spazio assoluto, infinito, vuoto, tridimensionale, invisibile, non
modificabile dalle masse e fermo rispetto al loro moto. Era così possibile misurare il moto
uniforme di un corpo rispetto a questo spazio assoluto. Ogni corpo occupa nello spazio assoluto
una posizione determinata ed unica, e due corpi possono occupare lo stesso spazio, ma solo in
tempi diversi. Il tempo misura così la successione e la simultaneità degli eventi nello spazio. E
come lo spazio, anche il tempo assoluto di Newton viene concepito in termini matematici: è
composto da una serie continua di istanti, disposti in un'unica dimensione. Il tempo è per Newton
una realtà fisica, universale e assoluta, non alterabile dai corpi e dal loro moto.
13
Tratto dal suo commento psicologico a: Il libro tibetano della grande liberazione, Newton Compton
Editori, 1992, pag. 11
14
I legge della dinamica o Legge di inerzia di Galilei: Un corpo si muove di moto rettilineo uniforme finché
una forza non lo costringa a muoversi diversamente; II legge della dinamica o Legge di Newton: Il
cambiamento di moto è proporzionale alla forza motrice risultante applicata, ed avviene lungo la linea retta
secondo la quale la forza stessa è stata esercitata; III legge della dinamica: Ad ogni azione corrisponde una
reazione pari e contraria.
15
Nell'universo ogni punto materiale attrae ogni altro punto materiale con una forza che è direttamente
proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza.
Le prime gravi difficoltà della meccanica di Newton si manifestarono a partire dalla seconda metà
dell'Ottocento, con la comparsa della teoria elettromagnetica e della termodinamica.
La fisica di Newton, con la sua la forza di gravità che agisce a distanza istantaneamente, sembrava
incompatibile con la nuova teoria di Faraday e Maxwell, che descriveva l'azione esercitata dalle
forze elettromagnetiche sul moto delle cariche elettriche. La teoria prediceva l'esistenza di onde
elettromagnetiche, che sostituiscono le particelle puntiformi della meccanica, che si propagano
nello spazio, non più concepito in termini newtoniani (assolutamente vuoto e insensibile all'azione
delle forze), ma pensato come una specie di fluido, per quanto invisibile, detto etere.
La rivoluzione relativistica fu il prodotto del sempre più evidente contrasto tra la descrizione del
moto delle particelle elettricamente cariche nei campi di Maxwell e la descrizione del moto secondo
le leggi della meccanica di Newton. La fisica classica conteneva il principio della relatività del moto,
ed anche la nozione di un moto assoluto, intesa come possibilità - mai sperimentalmente verificata
- di poter misurare il moto uniforme di un corpo rispetto allo spazio e al tempo assoluti. Per la
teoria elettromagnetica il campo elettrico genera un moto di attrazione e di repulsione delle
cariche, cioè un flusso di cariche (quelle dello stesso segno si respingono, quelle di segno diverso si
attraggono) detto corrente elettrica. Una corrente elettrica induce un campo magnetico. Ora se
applichiamo il principio della relatività del moto ai fenomeni elettromagnetici, dovremmo notare
che la velocità delle cariche elettriche dipende dal sistema di riferimento dell'osservatore. Dato un
certo sistema di riferimento l'osservatore vedrà la carica in moto, dato un altro la vedrà in quiete. Il
primo osservatore constaterà allora l'esistenza di un certo fenomeno, cioè la formazione di un
campo magnetico; il secondo osservatore non vedrà nulla.
Einstein dimostrò che la meccanica classica si basava su due assunti errati:
1) che la misura del tempo fra gli eventi fosse indipendente dal moto dell'osservatore;
2) che la misura dello spazio fra due punti di un sistema di riferimento fosse indipendente dal
moto dell'osservatore.
Le leggi di natura sono invarianti e valgono per tutti gli osservatori dell'universo, mentre lo spazio
e il tempo dei fenomeni sono relativi al moto (sistema di riferimento) in cui si trova un determinato
osservatore. Ne consegue che occorre rivedere profondamente le leggi della dinamica di Newton:
queste in senso forte non possono più essere considerate descrizioni vere dei fenomeni naturali. La
nuova teoria che sostituisce la dinamica di Newton sarà chiamata teoria della relatività speciale, o
ristretta.
Se è vera la teoria della relatività speciale, col suo principio della costanza della velocità della luce,
allora questa è incompatibile con la forza di gravità di Newton che agisce istantaneamente a
distanze infinite. Einstein lavorò al problema per diversi anni, nel 1915 aveva in mano la soluzione:
la teoria della relatività generale. I princìpi della relatività speciale venivano estesi ai moti
accelerati, mentre in origine si riferivano ai soli moti uniformi (che rappresentano sempre delle
idealizzazioni). Poiché tutte le masse sono soggette alla forza di gravità, e quindi sono accelerate
(non sono mai realmente in moto uniforme, o inerziale), le leggi relativistiche vengono fatte valere
per l'intero universo.
La relatività ristretta metteva in discussione la natura intuitiva del concetto di tempo. Ora la stessa
sorte toccava all'idea intuitiva dello spazio tridimensionale euclideo. Lo spazio di Newton veniva
infatti sostituito con una nuova geometria dello spazio, un continuo spazio-temporale a quattro
dimensioni. La geometria del cosmo è non-euclidea.
La teoria einsteiniana della relatività, per quanto lontana dal senso comune e per quanto avesse
messo in discussione i concetti fondamentali della meccanica di Newton, è ancora una teoria
classica a causa del suo determinismo. Ed è ancora una teoria deterministica, in quanto considera
le leggi di natura indipendenti dall'osservatore. All'inizio del Novecento prese avvio una nuova
prospettiva di ricerca, oltre a quella relativistica, che si concluse con l'edificazione della teoria
quantistica della materia. Questa teoria distrusse completamente l'edificio della fisica classica
newtoniana, e sostituì il determinismo con l'indeterminismo, la spiegazione causale con la
spiegazione probabilistica, e introdusse l'osservatore come soggetto non meramente
passivo nelle leggi della fisica.
Nell'anno 1900 Max Planck, fisico tedesco, dimostrò che lo scambio energetico tra materia e
radiazione avviene in modo discreto (quantizzato), e non in modo continuo come si era fino ad
allora supposto. L'energia viene assorbita o irradiata secondo quantità definite, e i loro multipli
esatti, dette quanta. L'energia di un quantum dipende dalla frequenza (v) e da una costante (h),
poi detta di Planck (E=hv). Era l'inizio dell'Età dei Quanti.
Nel 1923 il francese de Broglie, nella sua tesi di laurea, propose un modello matematico che
descriveva un campo di radiazione elettromagnetica quantizzato. Ciò significa che le particelle,
come gli elettroni, possono essere descritte come onde e la radiazione come particelle, cioè come
unità discrete di energia. Così gli atomi e i loro componenti come l'elettrone, fino ad allora descritti
in termini classici, cioè puntiformi come pianeti in orbita intorno al Sole, acquistarono una ben
diversa connotazione, ondulatoria.
La teoria einsteiniana della relatività, fin dal suo apparire, introdusse nel dibattito epistemologico
elementi di discussione molto forti, riguardanti il ruolo dell'osservatore, lo status delle leggi
naturali, il processo di formazione dei concetti scientifici e il loro valore. Lo stesso si può dire, a
maggior ragione, per la meccanica quantistica.
Per due secoli la meccanica classica aveva avuto un grande successo nello spiegare i fenomeni; era
considerata una teoria vera, un meraviglioso edificio eretto dall'intelligenza umana.
Ora questa teoria si era dimostrata falsa, incapace di spiegare i fenomeni ultramacroscopici,
cosmologici, e ultramicroscopici, elettromagnetici, atomici e sub-atomici. Al suo posto c'erano
teorie che introducevano la relatività del tempo e dello spazio, l'indeterminazione quantistica, il
dualismo onda-particella, l'entanglement16, la superposizione bosonica17 e altri "strani" fenomeni.
Con questa rivoluzione paradigmatica l’interpretazione e l’investigazione scientifica della realtà
fenomenica, incluso il fenomeno mentale, percorrerà due strade18, destinate a tracciarne una terza.
L’interazione tra oggetti quantistici porta a correlazioni non-locali che non hanno un analogo classico.
Due o più oggetti fisici sono entangled quando sono o sono stati descritti dalla stessa funzione d’onda.
Qualora decidessimo di separarli, ad es. due elettroni dei quali uno con spin su (elicità destrogira) e l’altro
con spin giù (elicità levogira), ponendoli ai capi opposti dell’Universo e variassimo lo spin di uno dei due,
poniamo da su a giù (da destrogiro a levogiro), l’altro lo avvertirebbe istantaneamente variando il proprio
spin da giù a su (da levogiro a destrogiro)! Non è ancora chiaro come ciò avvenga. Apparentemente
l’entanglement quantistico vìola il limite di propagazione di un impulso fissato dalla velocità della luce (300
mila Km/sec. nel vuoto). Di fatto non lo vìola perché l’entanglement non è un fenomeno vettoriale ma
tensoriale. L’entanglement è una misura del grado di correlazione non-locale tra oggetti quantistici, ovvero
di quanto lo stato complessivo del sistema sia non-separabile, ovvero non fattorizzabile in stati degli oggetti
individuali. Fondamentale è comprendere tutte le implicazioni insite nella equivalenza tra spazio-tempo,
campo gravitazionale e continuo spaziotemporale.
17
La Teoria Quantistica dei Campi (Quantum Field Theory) non spiega l’ontogenesi del fenomeno
energetico ma spiega la strutturazione della materia in termini di relazioni frequenziali, dove un pattern
correlativo corrisponde a un dominio di coerenza oscillatoria. In fisica quantistica (Interpretazione di
Copenaghen) l’espressione matematica del pattern correlativo di un oggetto o di un fenomeno (quantistico)
viene derivata dalla equazione di Schrödinger e prende il nome di funzione d’onda. Le particelle descritte da
funzioni d'onda simmetriche sono dette bosoni e obbediscono alla statistica di Bose-Einstein. Le particelle
descritte da funzioni d'onda anti-simmetriche sono dette fermioni e obbediscono alla statistica di FermiDirac. Tutte le particelle elementari responsabili delle forze che tengono uniti i fermioni sono bosoni.
Per il principio di esclusione di Pauli, due fermioni non possono condividere lo stesso stato quantico, mentre
i bosoni si (superposizione bosonica).
18
Cfr.: Jeffrey M. Schwartz, Henry P. Stapp, Mario Beauregard, Quantum Physics in Neuroscience and
Psychology: a Neurophysical Model of Mind/Brain Interaction, 2005,
http://rstb.royalsocietypublishing.org/content/360/1458/1309.full.pdf+html
16
Una è quella classica, ben radicata nella forma mentis occidentale contemporanea, basata (i) sul
dualismo cartesiano, che esclude la res cogitans dalla propria prospettiva di conoscenza, e (ii)
sulla fisica newtoniana, dimostratasi errata.
L’altra strada, è quella apertasi con la formulazione della Teoria della Relatività Generale e della
Meccanica Quantistica (la cui impostazione di fondo rimane comunque deterministica, altrimenti
non si chiamerebbe Meccanica).
3. Il Mondo deterministico
La scienza naturale non è semplicemente una descrizione
e una spiegazione della natura; essa è parte dell'azione
reciproca tra noi e la natura.
W. Heisenberg
Il mondo visto attraverso il paradigma newtoniano e illuminista è, come si è detto nel paragrafo
precedente, un mondo costituito da elementi deterministici di realtà che interagiscono
con altri elementi deterministici di realtà. La strutturazione degli oggetti e dei fenomeni che
osserviamo dentro e fuori di noi, avrebbe origine dalla diversa combinazione di elementi
fondamentali e irriducibili di realtà (come gli atomi di Democrito). Ogni combinazione è
predisposta da un codice (algoritmo), ovvero da una sequenza di operazioni che quando applicate
a certi dati iniziali portano ad un determinato risultato finale. La strutturazione degli oggetti e dei
fenomeni avverrebbe secondo lo schema, riduzionistico e meccanicistico, utilizzato nella ideazione,
progettazione e realizzazione di un sistema meccanico: una certa combinazione di building blocks
genera una certa struttura, che genera certi processi che grazie all’apporto di energia fanno
funzionare….. la macchina. Se si conosce il codice, e si è in possesso del materiale da combinare
(building blocks) e degli strumenti per operare19, è possibile riprodurre artificialmente quella
particolare combinazione di elementi.
Seguendo questa mappazione della realtà, gli scienziati di ieri e di oggi sono a caccia di building
blocks e dei codici per assemblarli, a tutti i livelli della materia, sub-atomico, atomico e sovraatomico, inorganico, organico e biologico, cellulare, di organo e di sistema.
Nel campo della fisica, ad es., il Modello Standard, ovvero la teoria fisica adottata agli inizi del 1970
per spiegare la composizione della materia, viene introdotto dal CERN con queste parole20: ….
everything in the universe is found to be made from a few basic building blocks called
fundamental particles, governed by four fundamental forces. Our best understanding of how
these particles and three of the forces are related to each other is encapsulated in the Standard
Model of particle physics.
19
In questo senso le bio-nano-tecnologie e la bioingegneria hanno fatto passi da gigante. Peccato che in un
settore come quello farmaceutico, circa il 40% delle sperimentazioni cliniche si dimostrino fallimentari, e
che continuino ad essere utilizzate migliaia di sostanze chimiche i cui effetti sugli esseri umani sono
semplicemente sconosciuti. Tanto che in alcuni Centri di ricerca, come il Los Alamos National Laboratory,
si sta tentando di correre ai ripari: Surrogate organ system developed for toxicity testing,
http://www.lanl.gov/discover/news-release-archive/2014/March/03.26-athena-desktop-human.php
20
CERN accelerating science, The Standard Model, http://home.web.cern.ch/about/physics/standard-model
Attualmente lo zoo delle particelle, come viene scherzosamente soprannominato l’insieme dei
building blocks-particelle, comprende circa cento esemplari, ed è destinato a crescere, tanto che
qualcuno (il fisico americano Murray Gell-Mann e il fisico svizzero George Zweig), intravedendo il
rischio che la libera moltiplicazione delle particelle-building blocks possa far collassare l’impianto
teorico su cui si regge tutto lo zoo (trasformandolo in un allevamento intensivo di particelle), ha
suggerito di considerare la maggior parte delle particelle note non come particelle fondamentali,
ma come particelle elementari costituite dalla combinazione di un numero ristretto di particelle
effettivamente fondamentali: i quarks.
Fig. 3
I sedici tipi di particelle fondamentali-building blocks dalla cui combinazione scaturisce lo zoo delle particelle di cui è
costituita la materia.
E nel campo della biologia?
3.1 Darwinismo super partes?
La nascita della teoria darwiniana dell’evoluzione, e il De profundis della teoria creazionista,
vengono fatti coincidere con la pubblicazione della prima edizione de Sull'origine delle specie per
mezzo della selezione naturale o la preservazione delle razze favorite nella lotta per la vita,
pubblicata il 24 Novembre 1859 presso l’editore Murray di Londra, anche se sarà solo con
l’edizione del 1871 che Darwin utilizzerà per la prima volta il termine evoluzione nella sua opera,
assieme all’aggiunta del concetto, espresso per primo dall’economista Thomas Robert Malthus e
poi dal filosofo positivista Herbert Spenser, di sopravvivenza del più forte, seguito, alla fine del
Cap. XV, da un esplicito richiamo alla magnificenza del Creatore (Darwin era consapevole di avere
dato il colpo di grazia alla teoria creazionista, ma evitò sempre di farsi coinvolgere in attacchi
contro la religione e da buon agnostico non negò mai l’esistenza di Dio, si preoccupò piuttosto di
dare alla Scienza ciò che era della Scienza e a Dio ciò che era di Dio): C'è qualcosa di grandioso in
questa idea della vita, con le sue infinite potenzialità, originariamente infuse dal Creatore in
pochissime o in una sola forma; e, mentre questo pianeta ha continuato a roteare seguendo le
immutabili leggi di gravità, da un inizio così semplice infinite forme, sempre più belle e
meravigliose, si sono evolute e tuttora si evolvono21.
L’opera fu accolta con grande interesse dalla comunità scientifica e intellettuale dell’epoca, che si
divise tra chi sosteneva e chi dissentiva dalla teoria espressa da Darwin, raccogliendo una strenua
opposizione, al limite dell’accusa di blasfemia, da parte dei sostenitori laici e religiosi della teoria
creazionista. Tra i positivisti europei, invece, la nuova teoria riscosse grande successo, tanto che lo
stesso Karl Marx, seppure meno entusiasta della teoria darwiniana di quanto non fosse l’amico
Friedrich Engels, nel 1873 inviò in omaggio a Darwin la seconda edizione, allora uscita, del II
volume del Capitale. La dedica autografa diceva: Al signor Charles Darwin da parte del suo
sincero ammiratore Karl Marx.
Come il suo predecessore e primo artefice di una teoria evoluzionista, il naturalista francese JeanBaptiste Lamarck (1744-1829), Darwin concepì e formulò la sua verità storica di ciò che secondo il
paradigma creazionista era considerato senza storia, basandosi sulle evidenze desunte dall’ampia
raccolta di dati empirici in suo possesso, dandone una interpretazione del tutto conforme alla
prospettiva di conoscenza elaborata dal pensiero positivista, di quello anglosassone in particolare,
che nell’800 era solidamente e irreversibilmente asceso al rango di dottrina della fede nella
Scienza.
La sua visione della Natura era deterministica. Per un uomo del suo tempo, determinismo voleva
dire la concezione esposta dal matematico e astronomo Pierre-Simon de Laplace nel Système du
monde (1814). Questa dottrina, che avrebbe dominato la scena fino alla rivoluzione concettuale
provocata dalla fisica quantistica, può essere riassunta così:
a) l'Universo è retto dalla causalità;
b) nella storia dell'universo ogni stato della materia è determinato da quello che lo precede e
determina quello che segue, secondo modalità analizzabili per mezzo della meccanica newtoniana;
c) la causalità consente la prevedibilità;
d) i fenomeni vengono descritti secondo il paradigma meccanicistico e deterministico che trae
forza dalla precisione e dal rigore della meccanica newtoniana;
e) il caso non esiste, è un concetto relativo ai limiti delle capacità umane: è infatti inconcepibile che
vi siano eventi che si sottraggono a una legge;
f) la rete causale dell'universo è tuttavia troppo complessa perché possa essere ricostruita dalla
mente umana; per questo tutte le conoscenze fisiche non possono essere che fondate sulla
probabilità.
Il modus operandi dell’evoluzione è fatto di prove e soprattutto di errori. L'unico fattore di ordine è
la selezione naturale. Questa, trasforma una improbabilità in una probabilità: fa di un evento
fortuito (la comparsa casuale di una variazione) l'inizio di un processo che, considerato
retrospettivamente, sembra indirizzato fin dall'inizio lungo una certa direzione, ma solo perché
tutti gli altri percorsi sono stati cancellati e quello che vediamo è l'unico superstite, o il più
appariscente fra i superstiti. Darwin dimostrava che le stesse cause che producevano
conservazione, stabilità ed equilibrio potevano produrre precarietà, distruzione e trasformazione.
21
There is grandeur in this view of life, with its several powers, having been originally breathed by the
Creator into a few forms or into one; and that, whilst this planet has gone circling on according to the fixed
law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and
are being evolved.
L'aspetto sereno, maestoso, lussureggiante della Natura coesisteva con l'aspetto tragico. La Natura
era insieme crudele e benefica, avara e prodiga.
Ma come si producono le differenze individuali all’interno di una specie, che sono il materiale da
costruzione con cui opera la selezione naturale? La base di partenza era il riconoscimento di una
variabilità spontanea delle specie in Natura, cioè del fatto che anche nello stesso ambiente gli
individui della medesima specie differiscono tutti l'uno dall'altro, seppure in modo impercettibile.
Questa variabilità è detta spontanea perché è un dato costante della Natura: è presente in tutti gli
ambienti e in tutte le condizioni. Le sue cause sono, secondo Darwin, le più disparate (clima, cibo,
abitudini di vita, effetti strani della riproduzione sessuale, ecc.), ma la variazione da sola non
spiega l'evoluzione. Infatti non tutte le variazioni hanno uguale importanza, non tutte possono
dare inizio a una linea evolutiva. Ognuna può risultare più o meno vantaggiosa delle altre, a
seconda delle circostanze: tutte devono passare attraverso il vaglio dell'ambiente, al quale spetta
l'ultima parola. La decisione avviene a un livello superiore, non più individuale, ma ecologico:
quello della selezione naturale. La formazione di specie nuove è dunque il risultato di due processi
distinti: la comparsa imprevedibile e costante di variazioni e la selezione severa esercitata
dall'ambiente.
Le variazioni, secondo Darwin, sono non solo spontanee, ma anche casuali. Questo concetto è
cruciale nella sua teoria. Parlando di variazioni casuali Darwin non intende dire che non hanno
una causa, ma che sono dovute a cause complesse e sconosciute: il termine caso sta a indicare la
nostra ignoranza delle cause, non la loro assenza.
Ma il termine casuale ha anche un altro significato, distinto logicamente ma inseparabile dal
primo: le variazioni non sono orientate a favorire la sopravvivenza dell'individuo. La singola
variazione non è di per sé la risposta giusta alle esigenze poste dall'ambiente; in altri termini, non
nasce per adattare l'organismo all'ambiente, non garantisce di per sé la sopravvivenza e il successo
riproduttivo; anzi, nella stragrande maggioranza dei casi le variazioni sono inutili o indifferenti,
alcune perfino dannose: eliminate queste ultime dalla selezione naturale, le altre rimangono, come
si dice oggi, fluttuanti, in attesa che l'ambiente si pronunci sul loro destino. Questo, però, non dà
istruzioni agli organismi su come modificarsi, ma si limita a giudicare, per così dire, il loro
comportamento spontaneo. Nella teoria darwiniana, l'organismo non si modifica per adattarsi:
varia e basta. Le variazioni si producono in molte direzioni, senza correlazione con le esigenze della
sopravvivenza. Se e quali siano adattative viene stabilito dalla rete complicatissima delle relazioni
ecologiche che costituiscono quell'ambiente particolare: la variazione propone, la selezione
dispone.
Il risultato implicito ottenuto dall’intreccio tra variazioni casuali e spontanee e selezione naturale,
equivale a ciò che il filosofo illuminista Immanuel Kant (1724-1804), tra i più convinti e influenti
esponenti della metafisica applicata per scopi pratici del settecento, definisce come: determinato
a priori nel fenomeno. Per Kant il caso non esiste, al suo posto esiste una necessità ipotetica del
reale, nel senso che si tratta semplicemente di effetti necessari conseguenti a precise cause
secondo leggi che stabiliscono che tutto quello che accade è determinato a priori nel fenomeno [I.
Kant, Analitica trascendentale, libro II, cap. II, sez. III].
Una necessità ipotetica del reale che, a ben vedere, non si discosta di molto dal tema del fato
presente nella poesia e nella tragedia greca arcaica, poi ripreso razionalmente dai filosofi greci
antichi e specialmente dallo stoicismo per poi giungere ai pensatori successivi, ivi compresi gli
illuministi settecenteschi.
Resta il fatto che in virtù della fede viscerale, nevrotica e tendenzialmente delirante, nella Scienza
super partes che dall’alto del Cielo iperuranico delle Idee (Platone) indica al superstizioso e
irrazionale uomo medievale la retta Via della Ragione, né Darwin né gli altri scienziati come lui
potevano essere minimamente toccati dall’idea che la loro interpretazione di realtà potesse di fatto
avere effetti catastrofici sull’umanità. La storia attesta di come la forte accelerazione impressa alle
scienze naturali e alla biologia in particolare dalla teoria darwinista dell’evoluzione, impallidisca di
fronte alle tragiche conseguenze prodotte dalla altrettanto decisiva e rigorosamente scientifica
accelerazione impressa a ciò che i positivisti e colonialisti europei e d’oltre oceano davano da
tempo per scontato, e cioè che la compiutezza della specie umana si realizzi solo nei suoi
rappresentanti maschi, inciviliti, benestanti, di pelle bianca. È grazie a questa visione scientifica
(?) della vita, che la civiltà occidentale si è sentita autorizzata a consegnare alla storia pagine e
pagine di crimini contro l’umanità, per poi rivolgerli con atto suicida oltre che omicida, contro se
stessa, sprofondando nei conflitti bellici più devastanti mai concepiti e realizzati a memoria
d’uomo.
Charles Darwin non era razzista o sessista più di quanto non lo fossero Engels e Marx, erano, però,
dei positivisti convinti e viscerali.
Scrive Darwin al Cap. V di The Descent of Man and Selection in Relation to Sex 22):
Nei selvaggi i deboli di corpo o di mente sono in breve eliminati; e quelli che sopravvivono
presentano comunemente una fiorente e robusta salute. D’altra parte noi, uomini inciviliti,
cerchiamo ogni mezzo onde porre ostacoli al processo di eliminazione; fabbrichiamo ricoveri per
gli idioti, gli storpi ed i malati; facciamo leggi pei poveri; e i nostri medici si stillano il cervello
per salvare la vita di ognuno fino all’ultimo momento. Vi è ragione per credere che il vaccino ha
preservato migliaia di vite, che con una debole costituzione sarebbero prima morte di vaiolo. Così
i membri deboli delle società incivilite si riproducono. Chiunque abbia avuto che fare
coll’allevamento degli animali domestici non leverà un dubbio che questo fatto non sia altamente
dannoso alla razza umana. Fa meraviglia come la mancanza di cure, e le cure male dirette
conducano alla degenerazione di una razza domestica; ma, eccettuato il caso dell’uomo stesso,
forse nessuno può essere tanto ignorante da far generare i suoi peggiori animali.
E al Cap. VI23:
Fra qualche tempo avvenire, non molto lontano se misurando per secoli, è quasi certo che le razze
umane incivilite stermineranno e si sostituiranno in tutto il mondo alle razze selvagge. Nello
stesso tempo le scimmie antropomorfe, come ha notato il prof. Schaaffhausen, saranno senza
dubbio sterminate. Allora la lacuna sarà ancora più larga, perchè starà tra l’uomo in uno stato
ancor più civile, speriamo, che non il caucusico, e qualche scimmia inferiore, come il babbuino,
invece di quella che esiste ora fra un nero od un australiano ed il gorilla.
E al Cap. VII24:
22
Charles Darwin, The Descent of Man and Selection in Relation to Sex, prima edizione, London, John
Murray, capitolo V, Dello sviluppo delle facoltà intellettuali e morali durante i tempi primitivi ed i tempi
inciviliti, 1871: With savages, the weak in body or mind are soon eliminated; and those that survive
commonly exhibit a vigorous state of health. We civilised men, on the other hand, do our utmost to check the
process of elimination; we build asylums for the imbecile, the maimed, and the sick; we institute poor-laws;
and our medical men exert their utmost skill to save the life of every one to the last moment. There is reason
to believe that vaccination has preserved thousands, who from a weak constitution would formerly have
succumbed to small-pox. Thus the weak members of civilised societies propagate their kind. No one who has
attended to the breeding of domestic animals will doubt that this must be highly injurious to the race of man.
It is surprising how soon a want of care, or care wrongly directed, leads to the degeneration of a domestic
race; but excepting in the case of man himself, hardly any one is so ignorant as to allow his worst animals to
breed.
23
Charles Darwin, The Descent of Man and Selection in Relation to Sex, prima edizione, London, John
Murray, capitolo VI, Delle affinità e della Genealogia dell’uomo, 1871: At some future period, not very
distant as measured by centuries, the civilised races of man will almost certainly exterminate and replace
throughout the world the savage races. At the same time the anthropomorphous apes, as Professor
Schaaffhausen has remarked, will no doubt be exterminated. The break will then be rendered wider, for it
will intervene between man in a more civilised state, as we may hope, than the Caucasian, and some ape as
low as a baboon, instead of as at present between the negro or Australian and the gorilla.
Quando le nazioni civili vengono in contatto coi barbari la lotta è breve, tranne ove un clima
mortale venga in aiuto della razza indigena. Fra le cause che fanno vittoriose le nazioni civili
alcune sono evidenti, altre oscurissime. Possiamo vedere che il coltivare la terra diviene fatale in
vario modo ai selvaggi perchè non possono o non vogliono mutare le loro abitudini. Nuove
malattie e i vizi nuovi sono causa di grande distruzione; e sembra che in ogni nazione una nuova
malattia produce molta mortalità, finchè quelli che sono più suscettivi alla sua mortale azione
non siano stati gradatamente portati via; e questo può anche seguire pei cattivi effetti dei liquori
spiritosi, come pure per l’invincibile gusto per essi che dimostrano tanti selvaggi. Sembra inoltre
per quanto questo fatto sia misterioso, che il primo incontro di popoli distinti e separati genera
malattie. Il sig. Sproat, che nell’isola Vancouver si è occupato con molta cura dell’estinzione delle
razze, crede che il mutamento nelle abitudini della vita, che segue sempre la venuta degli europei,
produca molte malattie. Egli dà anche importanza ad una causa piuttosto frivola, quella cioè che
i nativi rimangono “sbalorditi e stupidi per la nuova vita che li circonda; perdono il movente per
operare, e non producono altri al loro posto”.
Influenzata dalla teoria darwiniana dell’evoluzione, l’idea di progresso scientifico (tecnologico e
industriale) dell’epoca vittoriana divenne un paradigma metafisico, secondo cui la realtà esprime
uno sviluppo universale, costante e necessario, verso forme sempre più evolute di vita, dal semplice
al complesso, dall’omogeneo all’eterogeneo, dall’inferiore al superiore. Sotto le suggestioni offerte
dalla teoria biologica dell’evoluzione, la realtà non viene più interpretata secondo le tradizionali
categorie metafisiche dell’immutabilità e della necessità, dell’innatismo e della fissità, ma
piuttosto del dinamismo e del progresso.
L’evoluzionismo, nuova metafisica del reale, descrive il movimento della storia, e soprattutto
interpreta questo movimento universale finalisticamente, ossia come orientato ad un approdo
positivo: la condizione di felicità universale, assimilando in questo senso una concezione
progressiva della storia che già fu dell’Illuminismo settecentesco. E proprio l’ottimismo nei
confronti della scienza, la fiducia nel progresso, contribuiscono a determinare un ribaltamento
concettuale assai significativo: la categoria della naturalità, la supposta esistenza di un ordine
naturale eterno e immutabile, viene incalzata da quella dell’artificialità, della modificabilità. La
scienza e la tecnica possono trasformare ciò che si pensava predeterminato, in virtù dell’efficacia
dei loro mezzi. La natura, compresa la natura umana, viene ora pensata come perfettibile,
liberandola dalla ferrea legge di necessità. Ciò che è artificialmente costruito diventa desiderabile
(→ Intelligenza Artificiale). È allora che i nuovi valori dell’urbanesimo industriale, i valori della
borghesia civile e operosa, prendono il sopravvento costruendo un diverso modello di riferimento e
una nuova identità collettiva.
24
Charles Darwin, The Descent of Man and Selection in Relation to Sex, prima edizione, London, John
Murray, capitolo VII, Delle razze umane, 1871.
Fig. 4
Lobotomia transorbitale
A) Sollevata la palpebra si entra nella cavità orbitale e, facendo pressione, si frattura la volta orbitale e si penetra nella
cavità cranica. Indi si procede, fino alla profondità desiderata, nella massa cerebrale. Imprimendo al leucotomo un
movimento pendolare si dissecano i fasci di fibre nervose che congiungono i lobi prefrontali alle altre zone del cervello
e, in particolare, al talamo. B) Rappresentazione schematica dell’introduzione del leucotomo nel lobo sinistro del
cervello, in rosso è segnata l’area sezionata.
Tutto l’impianto teorico su cui si regge l’ipotesi darwinista di processo-progresso evolutivo si regge
su una interpretazione della filogenesi palesemente viziata dal delirio di onnipotenza positivista,
da quella perversa pulsione imprenditoriale volta a sostituire l’assunto monoteista, secondo il
quale a capo di Tutto regna la Volontà di Dio (il cui pupillo è ovviamente l’Uomo maschio, bianco,
cattolico, istruito, benestante), con quello, molto più produttivo, del: a capo di Tutto regna la
Volontà della Scienza.
Il determinismo biologico settecentesco (superiorità biologica vs inferiorità biologica),
revisionato dall’evoluzionismo darwiniano, sfociato nel darwinismo sociale tardo ottocentesco,
confluito nel determinismo genetico novecentesco (geneticamente superiore vs geneticamente
inferiore), portato alle sue estreme conseguenze dalle pratiche eugenetiche e scientiste iniziate nel
corso della seconda metà dell’800 e proseguite fino alla seconda metà del ‘900 (impiegate sia nel
Nuovo che nel Vecchio Continente, allo scopo di emendare la società dell’Uomo maschio, bianco,
cattolico, istruito, benestante, dalla presenza inquinante di centinaia di migliaia di individui
ritenuti inferiori, pericolosi, fisicamente o mentalmente mal-sani, intollerabilmente diversi),
rielaborato negli attuali modelli computazionali del cervello, si basa sull’assunto (falso) scientificoriduzionista-meccanicista che la struttura genera la funzione, per arrivare a sostenere che vi sia
un ordinamento gerarchico e lineare della variazione umana tracciato in funzione delle capacità
cognitive e più in generale mentali e comportamentali degli individui, misurabile dalla dimensione
della scatola cranica (maggiore la dimensione→ maggiore il volume della massa cerebrale→
maggiori le capacità cognitive). Più esattamente, le capacità cognitive dipenderebbero dal rapporto
di proporzionalità (ispirato all’ideale estetico greco e romano) esistente tra la dimensione del
cranio e la struttura corporea (→razza). Inutile dire che tutte le misurazioni effettuate vennero
falsificate al fine di provare scientificamente che la superiorità cognitiva e comportamentale la si
riscontra solo nei soggetti di pelle bianca (maschi, cattolici, istruiti, benestanti).
Assumendo una prospettiva darwiniana della filogenesi, questo rapporto di proporzionalità
coinciderebbe con l’indice di un processo filogenetico noto come processo di encefalizzazione25,
25
I Mammiferi, la classe di animali vertebrati alla quale appartiene la specie Homo, comparvero verso la
fine del Periodo Triassico dell'Era Mesozoica, 200 milioni di anni fa circa. Dal Triassico ad oggi il SNC dei
che il razzismo scientifico tenta ancora oggi di manipolare per esibirlo come prova scientifica
della superiorità della razza bianca sulle altre razze umane e, più in generale, sugli altri
animali.
Mantenendo una prospettiva darwiniana (neo-darwinismo) per la moderna biologia molecolare la
filogenesi è una successione forte, logica e computazionale, di eventi biochimici che orbitano
attorno ai building blocks del fenomeno biologico, le basi nucleotidiche, le lettere dell’alfabeto del
linguaggio della vita (A, G, C e T, adenina, guanina, citosina e timina nel DNA; A, G, C e U, uracile,
nel RNA), dalla cui combinazione e ricombinazione deriverebbe la discendenza filetica (a questa
linea di pensiero appartiene la convinzione, smentita dall’evidenza, che la complessità e il grado
evolutivo di una specie sia direttamente proporzionale al numero di geni presenti nel suo
genoma26, o che ad ogni segmento di un tracciato elettroencefalografico corrisponda un segmento
di pensiero).
Sul piano pratico, le applicazioni tecnologiche e i risultati ottenuti per questa via sono stati
talmente tanti e talmente incoraggianti (il modello interpretativo di riferimento è sbagliato però sul
piano meccanico funziona!), che gli scienziati hanno deciso di contravvenire al limite cartesiano
(→ la res cogitans è una entità fittizia, non oggettivabile, e in quanto tale non è di alcun interesse
per la scienza), per mettersi alla caccia dei building blocks e dei codici che possano spiegare la
meccanica dei pensieri, delle funzioni cognitive e neuropsicologiche, della coscienza, delle
emozioni27.
Non c’è da stupirsi se il determinismo biologico che serpeggia in tutto l’Occidente ipertecnologicizzato, non si lascerà sfuggire l’opportunità di ricorrere ai nuovi e sofisticatissimi
strumenti di selezione artificiale della specie oggi a disposizione. Gli appassionati di Intelligenza
Artificiale, ad es., non vedono l’ora di poter fornire ai neuro-chirurghi software e micro-chip a reti
neurali da impiantare nei cervelli dei pazienti neurologici gravi o dei malati terminali, con tanto di
consenso dell’interessato o di chi ne fa le veci. Una prospettiva salvavita, come quella già
collaudata con il mercato del trapianto di organi, che prepara il terreno ad un uso diffuso e
intensivo delle bio-nano-tecnologie informatiche a interazione neurale o d’organo.
vertebrati e dei Mammiferi in particolare è andato incontro ad un processo di encefalizzazione, che consiste
in un progressivo incremento della massa cerebrale in rapporto alle dimensioni corporee.
Secondo la visione riduzionista della filogenesi, la diversità comportamentale degli Uccelli e dei Mammiferi
nei confronti dei Rettili sarebbe legata al rispettivo grado di encefalizzazione. I Rettili, come altri Vertebrati
minori, non presentano lungo il corso di centinaia di milioni di anni alcun sviluppo di rilievo della loro
massa cerebrale, per cui il rapporto cervello/corpo è quasi lo stesso nei Dinosauri e nei Rettili viventi. Il
passaggio dai Rettili ai Mammiferi è caratterizzato da un incremento della massa cerebrale rispetto al corpo
(di circa quattro volte), che non ha subito variazioni per almeno 100 milioni di anni. Nei Mammiferi il
processo di encefalizzazione è ripreso una cinquantina di milioni di anni fa circa, subendo una netta
accelerazione solo con la comparsa della specie umana, mentre nello stesso periodo gli altri Mammiferi non
sono andati incontro ad alcuna variazione del loro grado di encefalizzazione.
26
L’Ameba dubia (un organismo unicellulare) possiede un genoma composto da 670 miliardi di basi
nucleotidiche, più di 200 volte la dimensione del genoma umano.
27
Da Democrito in poi, i building blocks della attività mentale sono stati considerati entità fittizie o qualità
secondarie, chiamate anche qualia, associate alle sensazioni, contrapposte alle entità reali o qualità
primarie associate agli atomi. Alfred North Whitehead, nella prima metà del XX° sec., superò questa
dicotomia sostenendo che sono entrambe entità fittizie, astratte, dipendenti da ciò che egli chiama l'evento,
inteso come elemento concreto primario della natura, un nodo di relazioni non isolato nè isolabile
dall'universo in cui è compreso. John Carew Eccles chiamava questi pezzi psiconi.
Fig. 5
Le basi nucleotidiche-building blocks dalla cui combinazione scaturisce la vita. Come si può notare la struttura a
doppia elica del DNA rispecchia la struttura a doppia elica del T-PHL.
Oggi che la tecnica, un tempo subordinata alla produzione sociale e culturale che richiedeva
strumenti “.... si è autonomizzata dal rapporto sociale e si è incorporata nel rapporto produttivo,
giungendo a un primato della ragione strumentale, dei mezzi sui fini [tale per cui] risponde
solo alla propria potenza con l’unico fine dell’autoaccrescimento continuo”28.
Oggi che il culto feticistico per il progresso tecno-scientifico e che la dipendenza ossessivocompulsiva verso la commercializzazione e il consumo dei suoi prodotti è diventato uno status
simbol.
Oggi che le acquisizioni scientifiche evolvono in funzione e per conto delle applicazioni
tecnologiche invocate e controllate dalle business venture multi-nazionali e multi-etniche.
Oggi che i cellulari sono sbarcati anche tra i boscimani del Kalahari e che Rosetta è sbarcata su una
cometa a 500 milioni di anni luce dalla Terra.
Oggi che la lingua ufficiale parlata dalla tecno-scienza-finanza è l’inglese.
Oggi, sorge spontanea una domanda: ma cosa ce ne facciamo di questo Signore dell’high tech e
della business economy, di questo Super Eroe, Re dei re, Sacerdote dei sacerdoti, Condottiero dei
condottieri, Mercante dei mercanti, Artigiano degli artigiani, che predica l’avvento di una umanità
felice nell’abdicare il proprio statuto antropologico in cambio dei benefits (il micro chip
d’avanguardia, l’esoscheletro di ultima generazione, etc. etc.) accordatigli da sua eccellenza il
Mercato Globale?
Ennio Flaiano diceva che la madre dei cretini è sempre incinta, e ne prendiamo atto. Ma sarebbe
una vera catastrofe, se al governo del governabile non potesse essere applicata la regola cautelativa
dell’alternanza.
28
Pietro Barcellona, La parola perduta. Tra polis greca e cyberspazio, Edizioni Dedalo, 2007, pag. 77
4. Il Modello probabilistico: la Via dei Quanti
Il mondo descritto per questa strada è intrinsecamente dinamico e solo parzialmente
deterministico. La sua fisicità cessa di essere descritta dalla interazione deterministica tra
elementi deterministici di realtà, per essere sostituita da una distribuzione probabilistica29 di
interazioni locali e non-locali tra sistemi vibrazionali. Una intricata matassa di oscillatori
armonici quantistici che interferiscono, ed eventualmente entrano in risonanza30, con altri
oscillatori, sia localmente che a grande e grandissima distanza (entanglement), che la Teoria
Quantistica dei Campi (Quantum Field Theory) chiama campo quantistico di punto zero, un
sistema esteso di oscillazioni spaziali ed elettromagnetiche subliminali (dette oscillazioni di punto
zero perché non sono in grado di eccitare il campo) la cui attività viene descritta ricorrendo ad un
coefficiente di proporzionalità noto come quanto di azione fondamentale, la costante di
34
Planck h (la più piccola entità di divisibilità di energia nell’unità di tempo: h= 6 ,63  10 Joule / sec
).
L’uso del concetto di “probabilità” nell’analisi scientifica significa proprio questo: vi sono limiti di
conoscibilità del mondo che sono inerenti al soggetto conoscente, e tali limiti introducono un’inevitabile
dose d’incertezza soggettiva anche in descrizioni “oggettive” della realtà. Diviene così consapevolezza
comune il fatto che qualsiasi teoria scientifica del mondo è una descrizione dello stesso tarata
dall’incertezza insita in una misura di soggettività, che è tanto immancabile quanto consensualmente
condivisa. Pertanto, altro è il riconoscimento dell’oggettività di una teoria, altro è ritenere che una teoria
descriva la realtà oggettiva del mondo. [Mario Ludovico, Sintropia: definizione ed uso, 2008:
http://www.sintropia.it/italiano/2008-it-1-2.pdf]
30
La QED (Quantum Electrodynamic Field Theory), spiega il processo di strutturazione della materia
introducendo il concetto di dominio di coerenza oscillatoria. La costituzione della struttura particellare e
coerente della materia, la sua strutturazione subatomica, atomica e molecolare, avviene per accoppiamenti di
fase, operati dal campo elettromagnetico su una lunghezza d’onda portante, tra le oscillazioni spaziali ed
elettromagnetiche di porzioni del campo quantistico di fondo (campo esteso). Per spiegare la diversa
strutturazione della materia dallo stato di gas a quello di materia condensata (liquidi e solidi), un gruppo di
fisici delle alte energie dell’Università di Milano, guidato da Giuliano Preparata (1942-2000), introdusse il
concetto di dominio di coerenza in opposizione a quello di dominio di non coerenza. In sintesi, un sistema
subatomico-atomico-molecolare è detto coerente (liquidi e solidi), quando il dominio fisico della sua
strutturazione è governato dalla concordanza di fase (risonanza) tra i modi oscillatori dei suoi componenti
(particelle-atomi-molecole) e il modo oscillatorio del campo elettromagnetico in cui sono immersi (su una
lunghezza d’onda portante). Al contrario, un sistema subatomico-atomico-molecolare è detto non coerente
(gas), quando il dominio fisico della sua strutturazione è dominato dalla discordanza di fase tra i modi
oscillatori coinvolti nel processo di interferenza.
29
4.1 Dimensione energetica e dimensione tensoriale
It is important to realize that in physics today,
we have no knowledge of what energy is.
Richard Feynman
(The Feynman Lectures on Physics, Vol I, pag. 4-1)
La definizione di ciò che dovremmo intendere per energia e per dimensione energetica inizia
dalla risposta che intendiamo dare a due semplici domande: che cosa è e da dove deriva (ammesso
che derivi da qualcos’altro che non da se stesso) questo quanto di azione fondamentale?
Nella mia ipotesi (Modello Endodinamotensivo) [Messori 2012, 2013], il fatto energetico è lo
stato discontinuo, anisotropo, disomogeneo e perturbato, finale, di una dimensione
indotta dalla rottura di simmetria (tensoriale) e dalla conseguente transizione tensoriale
(il passaggio da uno stato tensoriale ad un altro), di una soggiacente dimensione fisica priva di
struttura (continua, isotropa, omogenea, imperturbata) e supersimmetrica (supersimmetria
di tensione), dove tutto ciò che c’è è una irriducibile Tensione31 Implicata (TI) che reca in se un
principio protodinamico (dynamis32) indifferenziato e totopotente.
Questa transizione tensoriale originaria genera una realtà fisica costituita da una distribuzione
di gradienti di potenziale tensoriale (TI/dynamis) implicata in una distribuzione di
gradienti di potenziale cinetico (dove agisce l’impulso di moto).
La dimensione energetica è la dimensione della distribuzione di gradienti di potenziale
cinetico, dove l’unico fattore rilevante sotto il profilo energetico è la relazione
spaziotemporale tra i gradienti stessi di potenziale cinetico.
Questa relazione si traduce nella costituzione di una rete di relazioni locali e non-locali tra
entità vibrazionali (sistemi oscillanti di spin), uno scenario che Stuart Roy Hameroff e Roger
Penrose interpretano, dal loro punto di vista, così [6]:
At very small scales, space is not smooth, but quantized. Imagine viewing the ocean from an
airplane. The ocean surface may look perfectly smooth. However if you were in a small boat on
Normalmente per tensione si intende l’effetto o lo stato prodotto da una differenza di potenziale o dalla
applicazione di una forza ma qui la Tensione/dynamis va intesa non come l’effetto ma come il presupposto e
l’ordito da cui traggono origine e su cui si innestano tutte le differenze di potenziale, tutte le interazioni o
forze e tutte le relazioni che caratterizzano la strutturazione del fenomeno energetico e tensoriale. In questo
senso, il valore ontologico che assegno alla Tensione/dynamis si avvicina molto (per divergere sulla nozione
di universo come totalità razionale) a ciò che gli stoici, e in particolare Crisippo, intendevano con tonos,
tensione appunto, indicando con ciò il movimento tensionale in virtù del quale agisce lo pneuma nella sua
funzione di attualizzazione, attraverso la tensione-coesione, del mondo manifesto. Sul valore ontologico,
prima ancora che ontico, riservato a tonos dagli stoici, si veda: Luca Guidetti, Bolzano e gli stoici (in:
Bernard Bolzano e la tradizione filosofica, a cura di Stefano Besoli, Luca Guidetti, Venanzio Raspa,
Discipline Filosofiche xxi 2 2011),
http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=10&ved=0CGUQFjAJ&url=http%3A%
2F%2Fwww.researchgate.net%2Fprofile%2FLuca_Guidetti%2Fpublication%2F235330789_Bolzano_e_gli_
stoici%2Flinks%2F02bfe510e4100edce0000000&ei=8nxCVNvDKMPZapbugoAG&usg=AFQjCNH1Z1U8
8UrIXwg_n5SdixJu-1-f5g&bvm=bv.77648437,d.bGQ ]
32
Con Aristotele per dynamis si intende la potenza correlata all’azione (energheia), la causa efficiente
connessa al movimento e ai suoi effetti quantitativi e qualitativi; la potenza inerente o possibilità intrinseca di
un ente di tradursi in una azione (energheia) che può realizzarsi o meno, un valore di realtà solo possibile
rispetto all’azione reale realizzata.
31
the ocean surface you'd be tossed about by the roughness of the sea invisible from high above.
Similarly as we go down in scale from the size of atoms (10-8 centimeters) empty space seems
smooth until eventually we find granularity at the incredibly small "Planck scale" (10-33
centimeters, 10-43 seconds). There are several types of descriptions of the Planck scale: string
theory, "quantum foam", and loop quantum gravity. In the context of loop quantum gravity,
Penrose portrayed the Planck scale as a dynamical spider-web of spin. Taking spin as an
irreducible, fundamental entity, spin networks define spectra of discrete Planck scale volumes
and configurations which dynamically evolve and define spacetime geometry. The amount of
potential information in Planck scale spin networks is vast; each Planck scale volume, or "pixel of
reality" may be shaped by huge variability and nonlocal interactions (.....) So the universe may
be constructed of Planck scale spin networks whose configurations and dynamics lead to all
matter and energy. If, as Whitehead and others proposed, consciousness derives from
fundamental, irreducible entities which are "proto-conscious" (what philosophers call "qualia"),
then proto-conscious qualia must also be embedded in Planck scale spin networks (where else
could they be embedded? Fundamental spacetime geometry is all there is!). We can envision
proto-conscious qualia as specific, nonlocal distributed configurations of Planck scale spin
networks.
Dal momento che queste relazioni locali e non-locali tra entità vibrazionali sono relazioni
di interferenza, e dal momento che la strutturazione della realtà energetica è basata su fenomeni
di interferenza tra sistemi oscillanti, la definizione di energia diviene la seguente: l’energia è la
capacità di generare interferenza.
Il quanto d’azione fondamentale h è la frazione minima ammissibile della capacità di
generare interferenza.
Sul piano quantistico, la struttura fisica fondamentale introdotta dalla relazione
spaziotemporale tra i gradienti di potenziale cinetico, è un risonatore di cavità, un
oggetto frattale composto da un involucro esterno frequenziale (frazione deterministica
misurabile), da un involucro interno spinoriale (frazione quasi-deterministica) e da un
nucleo tensoriale (frazione indeterministica non-misurabile).
Sul piano relativistico, il precursore di questo oggetto frattale è un vortice toroidale di
spin/internal motion [7] (zitterbewegung, auto-dinamismo, potenziale cinetico
autoreferenziale indipendente da fattori esterni), una entità stazionaria e frazionaria, nonquantizzata, sede di un centro stereogenico prochirale, provvista di un potenziale quasicinetico, dove l’impulso di moto è latente.
Sottoposto ad una azione torcente e rotazionale (indotta dalla rottura di simmetria di riflessione),
questo vortice toroidale di spin/internal motion viene trasformato in un oggetto bi-polare
quantistico-relativistico, che ho chiamato Twisted/Pinched Hysteresis Loop (T-PHL)
[Messori 2012, 2013], in cui lo spin/internal motion è de-simmetrizzato in spin-up e spin-down
(l’impulso rotazionale intrinseco, o momento angolare intrinseco, da non confondere con il
momento angolare orbitale), uno a polarizzazione (di spin) sinistrorsa e l’altro destrorsa. Questa
condizione esprime uno stato (fondamentale) stazionario ma non stabile di tensione tra
oggetti spinoriali con opposta dominanza di polarizzazione (sinistrorsa vs destrorsa).
Sottoposto a idonei fenomeni auto-perturbativi sovra-liminali, questo stato, che possiamo dire
retto da una simmetria chirale intrinseca (vedi paragrafo successivo), viene ad essere
interessato da una serie ininterrotta di transizioni di fase, che portano ad una distribuzione non
uniforme e non omogenea di spin.
Il T-PHL può essere allora pensato come un oggetto dinamico costituito da un flusso
ciclotronico inerziale33 (impulso di moto latente) di spin (internal motion), che per
33
Cfr.: - Marcelo Samuel Berman, On the Machian Origin of Inertia, 2008,
effetto della de-simmetrizzazione viene perturbato e sottoposto ad una torsione attorno al proprio
asse di simmetria, tale da sdoppiarlo senza soluzione di continuità in due loop elicoidali simmetrici
(vedi Fig. 6). Il nuovo assetto strutturale, coincide (i) con la transizione di fase dell’impulso di moto
che da latente (sub-liminale) diviene agente (sovra-liminale), e (ii) con l’instaurazione di una
simmetria chirale di spin34 (momento angolare), data dal fatto che uno dei due loop che
formano il T-PHL viene ad essere interessato da un flusso ciclotronico di spin (momento
angolare) polarizzato verso destra (destrorso, segno +), mentre l’altro risulta essere interessato
dal medesimo flusso ciclotronico di spin (momento angolare) ma polarizzato verso
sinistra (sinistrorso, segno -).
Il risultato, è un moto ciclotronico continuo e non-uniforme di spin, che nel passare per il punto
de-localizzato di autointersezione del loop (che fissa il nuovo piano di simmetria del T-PHL)
decussa e inverte di segno, passando senza soluzione di continuità da valori negativi
(polarizzazione sinistrorsa, segno –) a valori positivi (polarizzazione destrorsa, segno +).
Vedremo nel prossimo paragrafo quali sono le conseguenze che comporta questa simmetria
chirale di spin [8] nella strutturazione dei sistemi biologici, dove la rottura di simmetria di
riflessione (mirror symmetry breaking [9]) che porta alla costituzione del T-PHL biologico, è alla
base dell’assorbimento enantioselettivo mediato dalla struttura semi-cristallina dell’acqua
nello stato di supercoerenza oscillatoria (biologica), che determina la ben nota omochiralità
biologica [10].
Sul piano bi-dimensionale, la rappresentazione topologica più appropriata del twisted/pinched
hysteresis loop è fornita dalla figura dell’otto rovesciato (il simbolo matematico dell’infinito), Fig.
6; sul piano tridimensionale dal Nastro di Möbius, Fig. 7; sul piano quadri-dimensionale (continuo
spaziotemporale) da un isteroide olografico frattalizzato del tipo toroide-poloide a quattro
dimensioni, Fig. 8 [11].
Fig. 6
Twisted-Pinched tangent tension-torque Hysteresis Loop
[Image source (modified): Memristors and the future. At: http://www.nobeliefs.com/memristor.htm]
http://arxiv.org/pdf/physics/0609026.pdf
- D. W. Sciama, On the origin of inertia, Royal Astronomical Society, Vol. 113, pag.34 to 42, 1952,
http://articles.adsabs.harvard.edu//full/1953MNRAS.113...34S/0000034.000.html
34
Cfr.: Robert Foot, Does mirror matter exist?, 2002,
http://arxiv.org/PS_cache/hep-ph/pdf/0207/0207175v1.pdf
Fig. 7
L’attrattore strano di Lorenz della figura corrisponde a un Nastro di Möbius, qui un oggetto geometrico
tridimensionale rappresentativo del moto di un sistema caotico nello spazio delle fasi.
Fig. 8
Biaxial or tetra- toroid, also coined as external toroid warped around an internal poloid , as drawn here has 27
identical loops. Compared with ordinary toroid coil, the main differences are twisted loops instead of the plain toroid
loops and the involuted “donut hole”. While 27 closed loops are presented to show a tetrahedron relationship, all loops
can be one continuous twisting line. (Image source : http://harmoniouspalette.com/TetMold.html)
5. Sistemi biologici e filogenesi
La tesi secondo la quale qualche cosa dirige la creazione,
è una tesi della realtà. La tesi secondo la quale niente agisce
nell’universo è una tesi del vuoto. Ciò che è di competenza
dei nomi e delle realtà rimane nel campo degli esseri.
Tutto ciò che può esprimersi con parole e formarsi
con idee si defila dalla prima verità.
Tchouang tseu , Cap XXV
I sistemi biologici sono sistemi tenso-energetici transienti termodinamicamente aperti, cioè liberi
di scambiare energia e materia con l’ambiente, al limite di fase tra ordine e caos, la cui esistenza
dipende dalla loro capacità e possibilità di sfruttare una fonte energetica esterna adeguata
(biocompatibile).
I caratteri distintivi di un sistema biologico sono dati dall’essere:
(i) enantioselettivo (seleziona rigorosamente le forme enantiomeriche delle specie molecolari di
cui è costituito)
(ii) autopoietico (ridefinisce costantemente se stesso e al proprio interno si sostiene e si
riproduce)
(iii) autocatalitico (si autoriproduce attraverso processi biofisici e biochimici auto-accelerati
non-lineari).
5.1 Enantioselettività
Uno dei due aspetti che caratterizzano l’assetto strutturale del T-PHL è l’instaurazione di una
simmetria chirale di spin/momento angolare.
A livello ultra-microscopico (particelle elementari) la chiralità è data dall’orientamento
destrorso vs sinistrorso dello spin/momento angolare (spin-up vs spin-down) ed è una proprietà
intrinseca del fenomeno energetico, che non varia al variare del sistema di riferimento adottato. A
questo livello, ciò che può variare al variare del sistema di riferimento non è la chiralità ma
un’altra proprietà spesso confusa con la chiralità, esibita solo dalle particelle dotate di massa (i.e.
fermioni), chiamata elicità. La elicità è la lateralizzazione apparente [12] di una particella
massiva, e viene definita come la proiezione dello spin (in Fig. 9 freccia rossa per spin destrorso e
freccia blu per spin sinistrorso) lungo la direzione del vettore impulso (freccia grigia), il vettore che
indica la direzione di moto della particella. Quando la proiezione dell’orientamento dello spin
coincide con la direzione di moto della particella, la particella ha elicità sinistrorsa, al contrario,
quando è opposto alla direzione di moto della particella, la particella ha elicità destrorsa 35.
35
The Chiral Nature of the Standard Model. Two concepts integral to elementary particle physics are
`helicity' and `chirality'. When we speak of the helicity of a particle, we are speaking of the apparent
handedness of the particle, given by the projection of its spin onto its momentum vector (….). When we speak
of chirality, we are speaking of an innate property of the particle, its ‘intrinsic' handedness. Chirality is not
necessarily directly observable (….) but it is the term which appears in the mathematics of electroweak
theory. [Matthew Evans, On the discovery of symmetry violations and their effect on the trajectory of
elementary particle physics research, 2013, pag. 6:
http://mtdevans.com/wp-content/uploads/2012/12/OnTheDiscoveryOfSymmetryViolations.pdf ]
Se la particella è priva di massa (come il fotone), chiralità ed elicità coincidono (una data particella
priva di massa sembra ruotare nella stessa direzione lungo il suo asse di movimento
indipendentemente dal punto di vista dell’osservatore), ovvero la elicità (frame dipendente)
decade a favore della chiralità (frame indipendente).
Fig. 9
What happens when you rotate a left- vs right-chiral fermion 360 degree about its direction of motion. Both particles
pick up a -1, but the left-chiral fermion goes one way around the complex plane, while the right-chiral fermion goes the
other way. The circle on the right represents the complex phase of the particle’s quantum state; as we rotate a particle,
the value of the phase moves along the circle. Rotating the particle 360 degrees only brings you halfway around the
circle in a direction that depends on the chirality of the fermion. Only the rotation by 720 degrees is continuously
connected to “doing nothing”; a rotation by 360 degrees is not. [Image source: Flip Tanedo, Helicity, Chirality, Mass,
and the Higgs, http://www.quantumdiaries.org/2011/06/19/helicity-chirality-mass-and-the-higgs/]
A livello mesoscopico (molecolare) la chiralità è la capacità fisica di alcune molecole o composti
chimici di ruotare a destra (forma destrogira) o a sinistra (forma levogira) il piano della luce
linearmente polarizzata. In quanto tale, la chiralità (molecolare) è una proprietà che può variare al
variare del sistema di riferimento adottato.
La spiegazione della chiralità molecolare la si deve al chimico francese Louis Pasteur36, il quale
36
In 1848 Louis Pasteur discovered, almost by sheer luck, the property of optical isomerism. Two forms of
the same chemical compound, isomers, were found to rotate polarized light in two different directions --one to the left, the other to the right. Isomers are essentially identical chemical compounds. They have the
same number and type of atoms and the same structure, almost. The difference in the two isomers of a
compound is that one is the mirror image of the other. This is the same symmetry that exists between the left
and right hands. Pasteur observed as well that living organisms were able to synthesize and use only one
isomer and never the other. But nature itself appeared to have no preference over which form it produced --in reactions the isomers were produced in equal quantities. That is, nature appears to exhibit complete
symmetry between the left and right. Until 1957 physicists believed this symmetry to hold for all physical
processes. A mirror image of any reaction should be identical in every way to the actual reaction. This idea
was intuitive to the physicist --- what could it mean if nature preferred left over right or vice-versa?
[Krishna Myneni, Symmetry Destroyed: The Failure of Parity, 1984 :
http://ccreweb.org/documents/parity/parity.html]
riuscì a dare (1848) una spiegazione alla proprietà di alcune molecole nota come attività ottica (la
capacità delle molecole di ruotare il piano della luce polarizzata), scoperta nel 1815 dal fisico
francese Baptiste Biot. Pasteur si accorse che un sale dell’acido tartarico (il tartrato di sodio e di
ammonio), otticamente inattivo, cristallizzava in due tipi di cristalli diversi, la cui forma era l’una
l’immagine speculare dell’altra e le cui soluzioni risultavano otticamente attive. Pasteur riuscì a
separare le due specie di cristalli e chiamò levogira quella che faceva ruotare a sinistra il piano di
vibrazione della luce polarizzata e destrogira quella che lo faceva ruotare verso destra. In seguito
agli studi di Pasteur, si scoprì che le molecole otticamente attive possono esistere in due forme
isomere identiche per numero e tipo di atomi e per struttura, che sono l’una l’immagine speculare e
non sovrapponibile dell’altra (allo stesso modo di come la mano destra è l’immagine speculare ma
non sovrapponibile della mano sinistra: nessuna rotazione può trasformare una forma
enantiomera nell’altra, così come nessuna rotazione può trasformare la forma di una mano in
quella dell’altra), chiamate enantiomeri (che costituiscono una delle due categorie di
stereoisomeri configurazionali), o molecole chirali.
L’attività ottica esibita da una coppia di enantiomeri, data appunto dal fatto che uno dei due
imprime un angolo (-α) di deviazione-rotazione al piano di polarizzazione della luce verso sinistra
(o levogira o sinistrogira o sinistrorsa, di segno -), mentre l’altra imprime un angolo (+α) di
deviazione-rotazione al piano di polarizzazione della luce identico all’altro ma in direzione opposta,
verso destra (o destrogira o destrorsa, di segno +), è chiamata appunto chiralità, e gli isomeri che
esibiscono tale proprietà sono detti chirali.
Quando una soluzione contiene la stessa identica quantità dei due enantiomeri di una data
molecola (la sua forma levogira e destrogira), la soluzione si dice racemica. Una soluzione
racemica non manifesta alcuna attività ottica: l’attività ottica dei due enantiomeri (il loro
rispettivo potere rotatorio), essendo identica ma di segno opposto si compensa annullandosi,
cosicchè il piano di polarizzazione della luce che attraversa la soluzione non subisce alcuna
deviazione-rotazione, lasciando che la luce continui a vibrare su un unico piano.
Pasteur osservò inoltre che gli organismi viventi sintetizzano ed utilizzano solo uno dei due
enantiomeri e mai l’altro. A differenza delle reazioni inorganiche, che non sembrano esibire alcuna
preferenza rispetto a quale forma enantiomerica venga prodotta (nelle reazioni gli isomeri vengono
prodotti in quantità uguali), le reazioni biologiche sono rigorosamente enantioselettive, ovvero
sintetizzano ed utilizzano sempre e solo una delle due forme enantiomeriche di una data molecola.
L’enantioselettività dei sistemi biologici è la ragione della loro omochiralità, e cioè della presenza
di gruppi di molecole che hanno tutte la stessa configurazione enantiomerica (ad es., gli
amminoacidi sono tutti nella configurazione levogira, mentre il ribosio e il deossiribosio degli acidi
nucleici hanno solo configurazione destrogira). Nel caso di macromolecole complesse come le
proteine, per es., queste possono formarsi solo partendo dagli amminoacidi otticamente puri
(forma levogira), e non potrebbero formarsi partendo da una soluzione racemica.
5.2 Autopoiesi e dinamica autocatalitica cellulare
Nel 1972 il biologo e filosofo cileno Humberto Maturana conia il termine autopoiesi [13] (auto, se
stesso, e poiesi, creazione) allo scopo di dare una definizione di sistema vivente che fosse scollegata
da specifiche caratteristiche funzionali, come la mobilità, la capacità di riprodursi, il metabolismo,
ma si basasse esclusivamente sul sistema stesso in quanto tale. In pratica un sistema autopoietico è
un sistema che risponde alle leggi della termodinamica del non-equilibrio [14], che ridefinisce
costantemente se stesso e che al proprio interno si sostiene e si riproduce. La dinamica
autopoietica della cellula è organizzata intorno a pattern biochimici e biofisici autocatalitici (cioè
auto-accelerati) regolati da fluttuazioni continue e non-lineari [15] di trasferimento energetico [16]
selettivo tra ambiente interno e ambiente esterno. La selettività transmembranaria è l’elemento
centrale della dinamica autopoietica cellulare. Vi è un nucleo catalitico [17] capace di interagire
con il substrato ambientale in modo da produrre i componenti che formano la membrana. Una
membrana perciò definisce e separa questa rete di interazioni dall’ambiente in modo che possa
realizzarsi un’unità autonoma ma non isolata. Una cellula è una produzione continua e ricorsiva di
componenti che, attraverso la membrana, definiscono la cellula stessa. Sebbene vi siano miriadi di
strutture subcellulari all’interno della cellula, come atomi, molecole, polimeri macromolecolari,
mitocondri, cloroplasti e così via, le proprietà dei componenti non determinano le
proprietà della cellula come sistema autopoietico. Le proprietà della cellula sono proprietà di
relazione e interazione che sono prodotte e che producono i suoi componenti. Il metodo
convenzionale (paradigma neo-positivista) di approccio riduttivo ai sistemi complessi consiste
nello scomporli in componenti più piccoli. Se questi sono ancora troppo complessi, si continua il
processo di scomposizione fino a che diventano abbastanza minuscoli da essere quasi-compresi.
Nel solo nucleo della cellula sono state identificate più di cento distinte reazioni chimiche; ma le
proprietà dei componenti isolati aggiungono poco, se non nulla, alla comprensione del modo di
funzionamento di una cellula. Una cellula, come sistema autorganizzato, non può essere compresa
studiando le proprietà dei suoi componenti. Le sue proprietà come insieme sono determinate dalle
proprietà delle interazioni tenso-energetiche, non lineari, tra i componenti, cioè dalla sua
organizzazione dinamica.
Il nucleo catalitico di una cellula (NCC) sarebbe costituito dall’Apparato del Golgi, dal centrosoma
(MTOC, Microtubule Organizing Center [17]) e dai microtubuli [18] (le unità strutturali del
citoscheletro cellulare, proteine polimerizzate altamente polarizzate), che fungerebbero da
acceleratori direzionali delle trasformazioni dei pattern tensoriali in pattern isomorfici di spin e
quindi in pattern frequenziali e viceversa. L’NCC si comporterebbe come un risonatore di cavità
quantistico, sede della modulazione della frequenza dei flussi elettronici37 e della modulazione
della fase [19] dei flussi fotonici (biofotoni [20]), che contraddistinguono gli scambi energetici
intra ed extracellulari [21]. I vettori principali della modulazione della frequenza sarebbero gli
eccitoni, mentre i vettori principali della modulazione della fase sarebbero i solitoni38. L’azione
combinata tra eccitoni e solitoni, da un lato stabilizza la modulazione della frequenza (componente
trasversale dell’onda elettromagnetica) e la modulazione della fase (componente scalare dell’onda
elettromagnetica) del campo bio-elettromagnetico, mentre dall’altro lato, sostiene
l’interfacciamento tra la dimensione quantistica (energia/massa) e la dimensione relativistica
(tensoriale). Complessivamente, questa attività selettiva di fondo (sensibile alle fluttuazioni
termodinamiche ed elettrodinamiche) costituisce un campo di onda quantistico-relativistico nonlineare [22] dotato di una elevata capacità di generare interferenza e di veicolare informazione
(accoppiamenti di fase, risonanza), su cui agisce l’attività sintropica e prescrittiva dell’attrattore
strano cellulare (ASO).
5.3 Dominii di Supercoerenza Oscillatoria dell’acqua
L’enantioselettività, l’omochilarità e l’autopoiesi del fenomeno biologico sembrano legate alla
transizione di fase dell’acqua dallo stato liquido allo stato semi-cristallino o vetroso [23], o forma
37
Cfr.: J. Fal/JILA (National Institute of Standards and Technology and the University of Colorado at
Boulder), Disorder may be in order for ‘Spintronic’ devices, 2007, at:
http://www.physorg.com/news90776398.html
38
Un solitone è un’onda-particella scalare o longitudinale a spin semi-intero (fermioni) la cui diffusione
avviene a velocità ridotte senza perdita di energia. Un eccitone è una quasi-particella a spin intero (bosoni)
la cui propagazione avviene a velocità elevate. Nell’interazione con il mezzo un solitone mantiene intatta la
forma, la velocità, l’ampiezza dell’impulso e la frequenza potendo variare la fase. Nell’interazione con il
mezzo un eccitone emette un elevato potenziale energetico sotto forma di fotoni (luce, bioluminescenza).
clusterizzata [24] e supercoerente [25] dell’acqua biologica39.
Per comprendere in cosa consista questa transizione di fase, dobbiamo prima dare un rapido
sguardo alla spiegazione fornita dalla QFT (Quantum Field Theory) e dalla QED (Quantum
Electrodynamic Field Theory) alla strutturazione della materia (gas, liquidi e solidi).
La Meccanica Quantistica stabilisce che la matrice del fenomeno energetico, in qualsiasi forma esso
si presenti, è vibrazionale, e che la realtà può essere compresa e spiegata in termini di relazioni di
interferenza tra sistemi oscillanti. La Teoria Quantistica dei Campi (QFT) si attiene a questa
visione della realtà, descrivendo la dimensione energetica come una distribuzione spaziotemporale di onde-particelle (oggetti quantistici intrinsecamente ambivalenti noti come quanti,
insiemi di pacchetti di energia e impulso capaci di manifestarsi sia come fenomeni ondulatori che
come fenomeni corpuscolari), la cui rappresentazione più appropriata è quella di campo esteso o
campo quantistico, una distribuzione spazio-temporale di energia e impulso che associa il campo a
due ordini di grandezza:
a) l’intensità, proporzionale al numero dei quanti che lo compongono e quindi all’intensità delle
loro frequenze unitarie di oscillazione, e
b) la modalità oscillatoria, rappresentata dalla fase, grandezza matematica che fornisce il ritmo
dell’oscillazione.
Il campo quantistico consiste di:
a) due campi correlati:
(i) un campo di materia, associato alle fluttuazioni spaziali dei quanti in veste di particelle prive di
carica;
(ii) un campo di onda, associato alle fluttuazioni elettromagnetiche dei quanti in veste di particelle
cariche;
b) due regimi o stati fisici correlati:
(i) uno stato quantistico di minima energia - detto anche vuoto quantistico -, associato ad un
campo di materia relativamente inerte e ad un campo di onda composto da insiemi poco densi di
particelle cariche; e
(ii) uno stato quantistico eccitato, associato ad un campo di materia internamente agitato da moti
di turbolenza sovra-liminali e/o ad un campo di onda eccitato da insiemi particolarmente densi
di particelle cariche.
Nella configurazione quantistica di minima energia (struttura granulare del campo), gli unici moti
oscillatori ad interessare il campo sono descritti come oscillazioni spaziali ed elettromagnetiche di
punto zero, auto-oscillazioni dei pacchetti di energia e impulso (quanti) relativamente
indipendenti le une dalle altre. Perché le configurazioni eccitabili del campo quantistico, o meglio
di porzioni spazio-temporali di esso, possano auto-eccitarsi innescando quella distribuzione di
transizioni di fase (transizioni di regime) che spiegano la strutturazione subatomica della materia
(struttura particellare del campo), deve realizzarsi almeno una delle condizioni seguenti:
(i)
un flusso di turbolenza (moto vorticoso) avente idonea intensità, o
39
- R. Ruzic et al., Electromagnetic transference of molecular information in garden cress germination, Int J
High Dilution Res 2008; 7(24): 122-131:
http://www.feg.unesp.br/~ojs/index.php/ijhdr/article/viewFile/300/366
- The Real Bioinformatics Revolution, ISIS Press Release 02/02/07:
http://www.i-sis.org.uk/TheRealBioinformaticsRevolution.php
(ii)
un insieme di particelle cariche avente idonea densità.
In questi casi, il passaggio dalla struttura granulare a quella particellare→atomica→molecolare
(gas) del campo viene indotto dall’azione del campo elettromagnetico su una lunghezza d’onda
portante, che determina l’accoppiamento di fase (risonanza) tra le oscillazioni spaziali ed
elettromagnetiche complessivamente coinvolte nell’evento. Il risultato di questa risonanza
oscillatoria è la costituzione della struttura particellare e coerente della materia (gas), la sua
strutturazione atomica e molecolare.
A questo punto, per spiegare la diversa strutturazione della materia dallo stato di gas a quello di
materia condensata (liquidi e solidi), un gruppo di fisici delle alte energie dell’Università di Milano,
guidato da Giuliano Preparata [26], ha sviluppato una teoria, la QED, che introduce il concetto di
dominio di coerenza oscillatoria (→suono) in opposizione a quello di dominio di non
coerenza oscillatoria (→rumore).
Un sistema atomico-molecolare è detto coerente (liquidi e solidi), quando il dominio fisico della
sua strutturazione (associata alle leggi della termodinamica), è governato dalla concordanza di
fase (risonanza) tra i modi oscillatori dei suoi componenti (atomi e molecole) e il modo
oscillatorio del campo elettromagnetico in cui sono immersi (su una lunghezza d’onda portante). Al
contrario, un sistema atomico-molecolare è detto non coerente (gas), quando il dominio fisico della
sua strutturazione (associata alle leggi della termodinamica), è contrassegnato dalla discordanza
di fase tra i modi oscillatori complessivamente coinvolti.
Ogni varietà elettrodinamica (campi di materia e campi di onda) e termodinamica (liquidi e
solidi), corrisponde ad una configurazione oscillatoria coerente di specifica frequenza (quella
fondamentale più i suoi armonici), associata ad una configurazione coerente di spin, e ad una
configurazione coerente di tensione. Le transizioni tra una varietà e l’altra corrispondono alla
soppressione di certi modi frequenziali (ritmi), di certi modi spinoriali e di certi modi tensoriali,
che da esplicati diventano implicati, e alla amplificazione di altri, che da implicati diventano
esplicati.
L’acqua (H2O) è la terza molecola più comune nell’Universo (dopo la molecola di H2 e di CO), il
99% della totalità delle biomolecole di cui sono composti gli organismi viventi è rappresentato da
molecole di H2O, è la sostanza più abbondante sulla Terra e l’unico liquido inorganico ottenuto
naturalmente, gli oceani ne contengono un miliardo di chilometri cubi e nell’arco della vita il
nostro corpo ne smaltisce 50 tonnellate. La sua struttura chimica, basata sul legame idrogeno,
viene studiata da lungo tempo, molti modelli sono stati proposti ma nessuno è ancora in grado di
spiegare una serie di proprietà dell’acqua considerate anomale [27].
La QFT ha prodotto una visione dell’acqua allo stato liquido come medium, che per una peculiarità
del suo spettro elettronico molecolare si rivela come uno strumento essenziale per le
comunicazioni a lungo raggio, essendo in grado di cambiare la propria organizzazione
sovramolecolare in funzione dell’interazione con l’ambiente40. I campi elettromagnetici che
vengono intrappolati nei domini di coerenza (CDs, Coherent Domains) dell’acqua e nelle loro
matrici coerenti [28], producono potenziali elettromagnetici che regolano la fase di tutto il
sistema, che a sua volta dà origine ad attrazioni selettive tra le molecole del soluto.
40
Nell'approccio adottato dalla QFT i quanti del campo che correlano le molecole di un sistema molecolare
sono componenti del sistema tanto quanto le molecole, e scompaiono quando il sistema decade. Nella QFT
l'interazione è considerata un oggetto al pari degli elementi di base. Inoltre, la stretta associazione tra le
molecole e il campo di correlazione produce nuovi oggetti di base chiamati quasi-particelle (come i solitoni,
gli eccitoni, i phononi, etc.) e la separazione convenzionale tra la materia e l'interazione svanisce. [Umezawa
H., Advanced Field Theory: Micro, Macro and the Thermal Concepts, American Institute of Physics, New
York, NY, USA, 1993]
Seguendo questo approccio, la centralità dei fenomeni di risonanza indotti dal campo
elettromagnetico nella strutturazione della materia condensata (liquidi e solidi), trova la sua
applicazione anche nella spiegazione della instaurazione della fase supercoerente (un grado di
coerenza oscillatoria superiore a quello della normale acqua allo stato liquido) dell’acqua biologica
[29], un fenomeno che Emilio Del Giudice spiega così [30]: Prendiamo un insieme di unità
microscopiche, ad esempio molecole, capaci di esistere in una pluralità di configurazioni interne;
per semplicità supponiamo che queste configurazioni siano soltanto due. La dimensione tipica di
queste molecole è qualche Angstrom (l’Angstrom è un centomilionesimo di centimetro), mentre il
tipico salto di energia tra differenti configurazioni interne della molecola è dell’ordine di alcuni
elettronvolt; per fissare le idee diciamo una decina, come nel caso dell’acqua. Questo insieme di
unità microscopiche interagisce con il campo elettromagnetico, sia quello contenuto
nell’eventuale fondo ambientale, sia quello connesso con le fluttuazioni quantistiche del vuoto. Il
campo elettromagnetico interagisce con la materia non in modo continuo ma attraverso lo
scambio di quantità discrete di energia dette fotoni. Quanto è esteso spazialmente un fotone? La
risposta della teoria dei campi è che un fotone non può essere più piccolo della lunghezza d’onda
dell’oscillazione cui corrisponde. Nel caso di un fotone di 12 elettronvolt la sua lunghezza d’onda è
1000 Angstrom. Pertanto un fotone è un oggetto esteso in una regione il cui volume è il cubo della
lunghezza d’onda.
Notiamo perciò che l’agente fisico capace di indurre cambiamenti di configurazione interna in un
oggetto avente la dimensione di qualche Angstrom è un oggetto fisico molto più grande al cui
interno possono trovarsi molte altre molecole. Per esempio, nel caso dell’acqua, alla temperatura
di 100 gradi centigradi e alla pressione di 1 atmosfera, un fotone di 12 elettronvolt coinvolge
simultaneamente, all’interno della sua lunghezza d’onda, 20.000 molecole. Esaminiamo ora
l’interazione di questo fotone proveniente dal vuoto quantistico oppure dal fondo ambientale e le
molecole presenti nello stato di gas. Un fotone comincia ad eccitare una molecola portandola
dalla configurazione di bassa energia a quella di alta energia. La molecola resta eccitata per un
breve periodo (dell’ordine di una piccolissima frazione di secondo) quindi decade nello stato
originale riemettendo il fotone che a sua volta può avere due differenti destini. Può tornare nel
mezzo (fondo ambientale o vuoto quantistico) da cui era venuto, oppure può eccitare una seconda
molecola. La variabile critica che definisce il destino del fotone è la densità delle molecole. Detta P
la probabilità che il fotone ecciti una molecola singola, se il numero N delle molecole contenuto
nel volume occupato dal fotone è tale che il prodotto PN eccede 1, il fotone non sarà più capace di
tornare da dove era venuto ma rimbalzerà continuamente da una molecola all’altra producendo
quindi all’interno di quella regione un campo elettromagnetico che non si spegne più. Il vuoto,
ovvero il fondo ambientale, ha perduto stabilmente un fotone a vantaggio della materia ma esso
continua a fluttuare elettromagneticamente, per cui produce continuamente nuovi fotoni che
subiscono lo stesso destino del primo. In un tempo molto breve nella regione data si accumula
un numero di fotoni sufficiente a fare oscillare simultaneamente tutte le molecole tra le due
configurazioni; la regione è diventata un Dominio di Coerenza. Le molecole che precedentemente
si muovevano in modo indipendente ora hanno acquisito una correlazione, un comportamento
collettivo, che ne limita l’indipendenza individuale determinando perciò una diminuzione
dell’entropia. La diminuzione dell’entropia è perciò connessa all’insorgenza della coerenza
elettrodinamica. La proprietà sopra discussa è una proprietà universale della
materia che si applica a tutte le specie molecolari. In particolare l’insorgere della
coerenza nell’oscillazione tra le configurazioni della nuvola elettronica delle molecole
caratterizza lo stato liquido, mentre l’estensione della coerenza ai nuclei dà luogo all’apparizione
dello stato solido.
In questo quadro l’acqua liquida gode di una proprietà peculiare, non condivisa dalle altre specie
molecolari, che la rende adatta a dare origine al fenomeno della vita. Infatti, nel caso dell’acqua
liquida, l’oscillazione coerente delle nuvole elettroniche delle molecole che dà luogo alla
formazione dei Domini di Coerenza avviene tra una configurazione di bassa energia in cui tutti
gli elettroni sono fortemente legati all’interno della molecola e uno stato eccitato di alta energia
in cui per ogni molecola un elettrone è pressoché libero, nel senso che l’energia residua di legame
è estremamente piccola. Perciò, mentre le molecole non coerenti di acqua non possono cedere
elettroni, i Domini di Coerenza dell’acqua hanno una forte propensione a cedere elettroni,
diventando quindi elementi chimicamente riducenti, oppure possono dar luogo a stati eccitati in
quanto eventuali apporti di energia esterna al Dominio di Coerenza possono indurre la
formazione di stati eccitati collettivi (vortici) di questo insieme di elettroni quasi liberi. Il Dominio
di Coerenza dell’acqua liquida a differenza dei Domini di Coerenza delle altre specie molecolari è
suscettibile di dar luogo a un gran numero di stati eccitati. Nasce di conseguenza la possibilità di
un ulteriore livello di coerenza generato dall’oscillazione collettiva di una pluralità di Domini di
Coerenza dell’acqua tra due proprie configurazioni: una coerenza tra Domini di Coerenza,
ovvero una Supercoerenza, che da un lato fa crescere la dimensione della regione correlata dal
decimo di micron dei Domini di Coerenza elementari dell’acqua fino ai micron delle cellule, ai
centimetri degli organi o ai metri degli organismi superiori.
Come avviene l’oscillazione collettiva di questi Domini di Coerenza? Data la pluralità6 dei livelli
eccitati del Dominio di Coerenza esso è in grado di prelevare dal rumore ambientale piccole
quantità di energia trasformandole in vortici coerenti di elettroni quasi liberi. La durata di tali
eccitazioni vorticose può essere molto lunga (giorni, settimane, mesi) poiché a causa della
coerenza l’attrito interno è nullo, non vi sono collisioni e il Dominio non può dissipare energia in
forma termica. Data la lunga durata di queste eccitazioni è possibile sommarne un gran numero
all’interno del dominio, come essere in grado di accumulare un capitale di 1 milione di euro in
monetine da 1 centesimo. Ogni vortice41 è un moto di elettroni, cioè di particelle
elettricamente cariche, che dà luogo alla apparizione di un momento magnetico, il
quale a sua volta si allinea col campo magnetico ambientale, che in ultima analisi
può anche essere il campo magnetico terrestre. I vortici perciò non possono elidersi l’un
l’altro ma si sommano coerentemente, trasformando quindi energia ambientale di bassa qualità
(alta entropia) in energia coerente di alta qualità (bassa entropia) capace di indurre, come
preconizzato da Szent-Gyorgyi, l’eccitazione elettronica delle molecole circostanti il dominio di
coerenza. Di fatto [31], quando l’energia accumulata nel dominio di coerenza raggiunge il livello
corrispondente all’energia di attivazione chimica delle biomolecole presenti nel dominio di
coerenza nell’acqua, si ha per risonanza elettromagnetica il trasferimento di energia. Il Dominio
di Coerenza si scarica, completando così la sua oscillazione, e un insieme di reazioni chimiche ben
definito ha luogo, governato da una legge di risonanza elettromagnetica e non dal regime
diffusivo fondato sui moti e urti casuali delle molecole tipico della chimica non biologica. In
questo modo è possibile raggiungere simultaneamente due obiettivi:
si rende possibile l’oscillazione dei Domini di Coerenza dell’acqua, precondizione
necessaria per l’insorgenze della Supercoerenza, che estende il raggio di correlazione su distanze
di interesse biologico;
si genera una biochimica non governata dagli urti casuali tra molecole ma da un codice di
mutuo riconoscimento e richiamo tra molecole fondato sulla interazione elettromagnetica a
lunga distanza.
Le reazioni biochimiche diventano così selettive, cioè obbedienti a specifici codici organici, e
veloci. Inoltre l’energia chimica liberata durante le reazioni chimiche, una volta assunta dal
Dominio di Coerenza, ne modifica la frequenza caratteristica di oscillazione, determinando a sua
volta la modifica del tipo di specie molecolari capaci di risuonare col dominio. Abbiamo perciò un
regime coerente non stazionario ma che si evolve nel tempo generando a sua volta un quadro
biochimico dipendente dal tempo. In questo modo si ottiene un accordo qualitativo con le
41
- Konstantin Meyl, DNA and cell resonance: Magnetic Waves Enable Cell Communication. In: DNA and
Cell Communication, pag. 422-426, 2012,
http://www.k-meyl.de/go/Primaerliteratur/Magnetic_Waves-Enable-Cell_Communication.pdf
- Konstantin Meyl, About Vortex Physics and Vortex Losses, Journal of Vortex Science and Technology,
Vol. I, 2012,
http://omicsonline.com/open-access/about-vortex-physics-and-vortex-losses-20908369.1000101.pdf?aid=15110
principali manifestazioni della dinamica del vivente che appaiono incomprensibili nel quadro
concettuale di una chimica governata dal regime diffusivo e dagli urti casuali. La dinamica
complessiva del vivente appare in ultima analisi emergere dal ritmo oscillatorio dell’acqua e
dalle manifestazioni energetiche connesse.
Negli organismi viventi, l’acqua può essere considerata come acqua interfacciale, per il fatto che
non vi è quasi nessun punto di un organismo che non sia lontano più di una frazione di micron da
una superficie (membrane cellulari, scheletro delle macromolecole, ecc). L’acqua interfacciale
assume un aspetto vetroso ed è stata studiata da numerosi ricercatori [32], lasciando intravedere la
possibilità che si tratti di una fase diversa da quella della normale acqua allo stato liquido. In
particolare, si è scoperto che spessi strati viscosi di acqua contigui alle superfici biologiche
(chiamate EZ, Exclusion Zone), in cui i soluti non sono in grado di penetrare e la cui esistenza nelle
cellule eucariotiche è stata rilevata per la prima volta da Mollenhauer e Morre nel 1978 [33],
restano statici quando il fluido circostante viene vigorosamente agitato [34].
Come Pagnotta e Bruni osservano42: …..interfacial and intracellular water is directly involved in
the formation of amorphous matrices, with glass-like structural and dynamical properties. We
propose that this glassiness of water, geometrically confined by the presence of solid intracellular
surfaces, is a key characteristic that has been exploited by Nature in setting up a mechanism able
to match the quite different time scales of protein and solvent dynamics, namely to slow down
fast solvent dynamics to make it overlap with the much slower protein turnover times in order to
sustain biological functions. Additionally and equally important, the same mechanism can be
used to completely stop or slow down biological processes, as a protection against extreme
conditions such as low temperature or dehydration…
Recentemente, l’esistenza di una pluralità di fasi dell’acqua allo stato liquido ha ricevuto
importanti conferme [35]. Sono state fornite prove sperimentali del fatto che sottoponendo l’acqua
liquida a trattamenti fisici ben definiti (irradiazione di onde elettromagnetiche; sospensione di
microsfere di materiali inerti; scioglimento di macromolecole di fullerene, una forma allotropica
del carbonio scoperta nel 1985), si ottengono varietà speciali di liquido che presentano proprietà
diverse da quelle dell’acqua normale e simili all’acqua interfacciale delle EZs [36]. Inoltre, una
varietà di acqua avente proprietà simili all’acqua presente negli organismi biologici, è stata
ottenuta eseguendo particolari processi biologici sull’acqua normale, connessi essenzialmente con
il processo della fotosintesi [37]. Un risultato questo, che avvalora la tesi sostenuta da A. SzentGyorgyi [38], secondo il quale l’energetica degli esseri viventi può essere compresa in termini di
fotosintesi e del suo processo inverso, la bioluminescenza43.
Tutti gli involucri biologici, dalla membrana cellulare al tessuto epiteliale, contengono questa fase
acquosa allo stato semi-cristallino (paragonata al ghiaccio liquido) o ne sono perfusi (surfactante
alveolare; liquor cerebrospinale; liquido amniotico, etc.). Si tratta di acqua allo stato liquido in una
fase di organizzazione quantistica [39] (supercoerenza oscillatoria) che le conferisce una elevata
capacità di:
(i)
trattenere cariche elettroniche, sotto forma di eccitazioni vorticose di elettroni
liberi44, immagazzinabili come riserva energetica;
S. Pagnotta, F. Bruni, The glassy state of water: A “stop and go” device for biological processes. In: G.H.
Pollack et al., Water and the Cell, Eds. Springer Verlag: Heidelberg, German, 2007, pp. 93-112.
43
La costituzione e il mantenimento delle strutture biologiche si basa sul processo di fotosintesi, grazie al
quale il surplus di energia fornita dal fotone all'elettrone nella eccitazione elettronica, viene convertito in
energia di legame. Il processo inverso è chiamato bioluminescenza. In questo caso si ha un trasferimento di
energia da un legame ad un elettrone eccitato, con conseguente emissione di un fotone.
44
Tutti i processi cellulari sono supportati da energia derivante dalla rottura dei legami chimici (cessione di
fotoni) e dalla eccitazione di elettroni (acquisizione di fotoni). A seconda dell'ambiente e delle circostanze,
42
(ii)
(iii)
indurre una eccitazione elettronica e protonica a lungo raggio e di lunghissima
durata delle diverse specie molecolari presenti, rendendo possibile la loro selettiva
attivazione e attrazione reciproca (→assorbimento enantioselettivo);
convertire le vibrazioni meccaniche (phononi) in quanti di energia elettromagnetica
(fotoni) e viceversa (effetto piezoelettrico).
5.4 Ipotesi sull’origine del fenomeno biologico
È ipotizzabile che la centralità dei fenomeni di risonanza innescati dal campo elettromagnetico
nella strutturazione della materia e nella transizione dell’acqua liquida dalla fase di ordinaria
coerenza oscillatoria a quella di supercoerenza oscillatoria, possa risultare valida anche nella
spiegazione dell’origine del fenomeno biologico, ovvero nella spiegazione di come sia avvenuto il
passaggio dalla materia inanimata-inorganica alla materia animata-biologica.
L’ambiente naturale entro cui si realizzò questo evento straordinario fu l’ambiente acquatico
prebiotico, ricco dei derivati dell’acido carbonico (sali carbonati), e verosimilmente anche
dell’isotopo stabile non radioattivo del carbonio, il più abbondante in natura (98,98%), il carbonio12, le cui caratteristiche vengono considerate ideali per la costituzione, in acqua, di strutture
proteiche 45.
l'eccitazione dell'elettrone da parte di un quanto di energia elettromagnetica (fotone) può essere convertita in
tre modi diversi: (1) in calore e dissipazione (2) nella definizione di molecole o di ioni cellulari, o (3) nella
trasformazione della forma molecolare con conseguenze dirette sulla sua reattività biologica. La formazione
di un certo tipo di legame chimico noto come legame di risonanza, porta ad una situazione particolare in cui
alcuni elettroni vengono liberati dalla particolare posizione che occupano nella molecola. Essendo liberi di
viaggiare per tutta la molecola, questi elettroni vanno ad occupare un guscio od orbitale di energia che
riguarda l'intera molecola e non un particolare atomo della molecola, per diventare vortici coerenti di
elettroni quasi liberi. Le molecole che contengono questi vortici elettronici sono conosciute come sistemi
coniugati. Molecole di questo tipo possono interagire in vari modi. Uno di questi consiste nella
compenetrazione dei rispettivi vortici elettronici e nel conseguente accoppiamento elettromagnetico tra
molecole, che equivale alla formazione di un dominio trans-molecolare di coerenza oscillatoria che accorpa i
dominii di coerenza oscillatoria di più molecole. Questo accoppiamento può consentire all'energia di
attivazione di un elettrone di passare da una molecola a un'altra, nello stesso modo in cui un segnale radio
può passare da un trasmettitore ad un ricevitore, o consentire il trasferimento di un intero vortice elettronico
da una molecola all'altra, un fenomeno noto come trasferimento di carica.
45
Come scrive Richard Merrick (Harmonically Guided Evolution, 2010,
http://interferencetheory.com/files/Harmonic_Evolution.pdf: All life on Earth is composed mostly of
carbon-12 and water. This is the case because carbon-12 bonds or resonates with more simple elements
than any other element in the universe. It is for this very reason that carbon-12 is the international standard
for atomic weight and all other elements are measured against it. With 6 protons + 6 neutrons in its nucleus
and 6 electrons orbiting in two shells, carbon-12 exhibits the lowest possible energy of all the elements and
is said to be ‘unbound’, thereby creating the most stable atomic geometry possible. When mixed with water,
carbon-12 creates endless chains of sticky amino acids capable of crystallizing into life. This idea of life as a
crystallization process is a good one because just as minerals align under pressure into lattices, coils of
amino acids fold under pressure into three-dimensional protein structures, aligning into the familiar helical
lattice of DNA. It is the geometric pressure of hydrogen atoms in water that helps create the lattice and give
DNA its twist. When the 5-fold icosahedral superclusters of water is then combined with the complementary
dodecahedral structures of carbon, something very interesting occurs - they resonate with one another to
produce the characteristic geometry of life. There is nothing random or arbitrary about this – it is an
inevitable outcome of the physics of harmonics acting at the atomic level. Carbon vibrates or resonates with
Il fenomeno biologico è un processo non-lineare e indeterministico di eventi autopoietici e
autosimilari, che fa della filogenesi una successione debole, paradossale e caotica (non
computazionale, non prevedibile, non riproducibile, irreversibile), di relazioni (tensoriali,
energetiche, cosmologiche, geologiche, biologiche, biofisiche, biochimiche, genetiche) che
prescrivono ma non descrivono le possibili alternative (→problematizzazione delle soluzioni)
strategiche e strutturali adottabili da un sistema biologico (inteso come sistema tenso-energetico
integrato in una rete di interazioni multimodali con l’ambiente tensoriale e energetico, biotico e
abiotico, di cui fa parte), nel tentativo di conciliare la necessità di assolvere al proprio fabbisogno
tenso-energetico, con la necessità di far fronte alla pressione ambientale, e riprodursi: nella realtà
della filogenesi, non è mai il soggetto più forte ad avere la meglio nella sfida competitiva per la
riproduzione (la sistematica applicazione del caso contrario è una eventualità che si rende possibile
solo grazie all’esercizio della stupidità tipica dei componenti delle comunità animali di Homo
sapiens et faber), ma è sempre il o la meglio accordato/accordata all’ordito tensoriale e alla trama
energetica delle relazioni specie-specifiche di cui gli individui fanno parte, perché è in ciò solo che
si appalesa l’unica variabile dipendente, favorevole alla continuità della specie, su cui sia
consentito agire epigeneticamente.
Sotto l’aspetto termodinamico, la biforcazione filogenetica del Cambriano è un evento comune ai
sistemi dinamici che si reggono sulla termodinamica del non-equilibrio.
La termodinamica del non-equilibrio interessa quei sistemi per i quali il raggiungimento
dell’equilibrio termodinamico (morte termica) è impedito dalle interazioni con l’esterno, ovvero
dal continuo scambio di materia ed energia (sistemi aperti) con l’ambiente circostante, come
accade nel caso dei sistemi biologici.
In ogni processo meccanico macroscopico, almeno una parte dell’energia implicata nel processo
viene dissipata come calore. Quando nel 1850 il fisico tedesco Rudolf Clausius vide per primo le
possibili implicazioni di questa semplice osservazione, introdusse il concetto di entropia, ovvero di
una quantità che cresce incessantemente in conseguenza di questa dissipazione di calore. Il calore
è dato dal moto delle singole particelle che costituiscono un sistema, per cui l’entropia, indice di un
potenziale termodinamico, è stata interpretata come la quantità di disordine contenuta nel
sistema.
Nel 1945, Ilya Prigogine, un fisico teorico e fisico chimico dell’Università di Bruxelles, formulò il
teorema della minima produzione di entropia, in cui si afferma che i sistemi prossimi all’equilibrio
termodinamico evolvono verso uno stato stazionario in cui la dissipazione è minima.
Successivamente, con il collega Paul Glansdorff ed altri collaboratori a Bruxelles, egli iniziò ad
esplorare sistemi più lontani dall’equilibrio, per verificare se il teorema potesse essere esteso a
criterio generale valido anche per sistemi non lineari lontani dall’equilibrio.
Glansdorff e Prigogine formularono un’ipotesi generale sulla stabilità degli stati stazionari lontani
dall’equilibrio, affermando che possono divenire instabili se condotti ancor più lontani
dall’equilibrio: a quel punto può sorgere una crisi o punto di biforcazione, in cui il sistema
preferisce allontanarsi dallo stato stazionario evolvendo verso qualche altro stato stabile. La novità
consiste nel fatto che al di là del primo punto di crisi si possono manifestare improvvisamente stati
estremamente organizzati. Questi stati dinamici non sono associati ad una produzione minima di
entropia da parte del sistema, tuttavia l’entropia prodotta viene trasferita all’ambiente esterno.
Il criterio Glansdorff-Prigogine [40] non è un principio guida universale, esistono infatti
innumerevoli comportamenti possibili quando il sistema è lontano dall’equilibrio: l’evoluzione nel
tempo di un sistema lontano dall’equilibrio può dipendere fortemente dalle sue proprietà
microscopiche (il moto degli atomi e delle molecole che lo compongono per esempio) e non solo da
parametri su larga scala come la temperatura e la pressione. Lontano dall’equilibrio, le più piccole
fluttuazioni possono portare a comportamenti completamente diversi su scala macroscopica. Una
itself and other simple elements to form a wave-like spine while water acts to deaden or ‘damp’ everything
into a pentagonal framework.
miriade di biforcazioni può portare il sistema, in modo apparentemente casuale, a nuovi stati
stazionari. Questi stati non uniformi di organizzazione strutturale, variabili nel tempo o nello
spazio (o in entrambi), furono chiamati da Prigogine strutture dissipative, e la loro evoluzione
spontanea, auto-organizzazione.
Sotto il profilo termodinamico, le innumerevoli soluzioni funzionali e strutturali che caratterizzano
le varietà biologiche prodotte nel corso della diversificazione filogenetica in generale, e di quella del
Cambriano in particolare, rappresentano altrettante strutture dissipative lontane dall’equilibrio
termodinamico. Stati stazionari al limite di fase tra ordine e caos, che se condotti ancora più
lontani dall’equilibrio termodinamico (→ estinzioni di massa) possono andare incontro ad una
crisi o punto di biforcazione, in cui il sistema preferisce allontanarsi dallo stato stazionario
evolvendo verso qualche altro stato imprevedibile di stabilità.
Seguendo questa linea interpretativa e ricordando che dall’acqua liquida sottoposta a particolari
trattamenti fisici si ottengono varietà speciali di liquido che presentano proprietà diverse da quelle
dell’acqua normale e simili all’acqua interfacciale delle EZs, è ipotizzabile che l’esposizione (tra i 4
e i 3 miliardi di anni fa, periodo di formazione del nucleo terrestre) dell’acqua prebiotica alle
intense fluttuazioni del campo magnetico terrestre prebiotico46, associata all’abbondante
disponibilità di carbonio-12, possa avere innescato la transizione di fase dal dominio ordinario di
coerenza oscillatoria dell’acqua a quello di supercoerenza oscillatoria, dando avvio alla formazione
di microdominii di acqua supercoerente delimitati da una lamina proteica semi-cristallina,
contenenti una varietà limitata di macromolecole (come proteine e acidi nucleici) che vibrano sulle
frequenze di risonanza del campo elettromagnetico intrappolato nel dominio di supercoerenza.
Le particolari proprietà strutturali e funzionali di questi microdominii di acqua nella fase di
supercoerenza oscillatoria, fanno di essi dei veri e propri proto-organi con funzioni di trasduzione
(conversione di energia meccanica in energia elettromagnetica e viceversa) e di trasmutazione
(trasformazione di un elemento chimico-fisico in un altro), e degli ottimi candidati al ruolo di
protosistemi autopoietici, ovvero sistemi intermedi tra l’inorganico e il biologico, tra il reagente e il
vivente.
In questo caso, si pone il problema di spiegare se e come potessero essere in grado di
autoriprodursi. Un problema di difficile soluzione, tanto più se ci si limita a prendere in
considerazione il solo aspetto chimico del fenomeno, tralasciando l’aspetto fisico, che al contrario è
ineludibile e determinante.
Forse la risposta risiede nel fatto che la matrice elettronica di un Dominio di Supercoerenza
Oscillatoria sussiste al decadere della sua struttura molecolare.
Per loro natura tutti i sistemi dinamici, compresi quelli autopoietici, esplicano il loro dinamismo
entro limiti di tempo e di spazio definiti, in caso contrario sarebbero eterni nel tempo e infiniti
nello spazio. Stabilendo i confini della variabilità temporale e spaziale a cui è vincolata l’esistenza
46
Specifically, the field may have been strong through the Archaean as the geodynamo was driven by
vigorous thermal convection, it may then have became weaker as the thermal convection ebbed through the
Proterozoic, and finally, it may have become re-established at higher values as compositional convection
was initiated by inner core nucleation at some point in the late Proterozoic or Phanerozoic.
[In: Andrew J. Biggin, The intensity of the geomagnetic field in the late-Archaean: new measurements and
an analysis of the updated IAGA palaeointensity database, Earth Planets Space, 61, 9–22, 2009,
http://www.uu.nl/SiteCollectionDocuments/GEO/Peleomagnetism/Biggin_2009_EPS.pdf ]
See also:
- David J. Dunlop, Palaeomagnetism: A more ancient shield, Nature, 2007,
http://www.nature.com/nature/journal/v446/n7136/full/446623a.html
- John A. Tarduno, Geodynamo, Solar Wind, and Magnetopause 3.4 to 3.45 Billion Years Ago, Science,
2010, http://www.sciencemag.org/content/327/5970/1238.abstract
del sistema, questi limiti rappresentano la variabilità limitata del sistema stesso. Parte di questa
variabilità, specie quella che attinge agli estremi (i limiti di fase), non si appalesa nel dinamismo
ordinario del sistema. Questa porzione di variabilità è detta variabilità di riserva e coincide con la
capacità di adattamento e/o di reazione del sistema dinamico alla evoluzionarietà ed alla
perturbabilità. In altri termini, la variabilità complessiva (variabilità limitata più variabilità di
riserva) indica il limite di capacità del sistema di autoregolarsi, e stabilisce i limiti di stress
specifici del sistema, oltre i quali la sua dinamica non è più controllata.
In un sistema oscillante in continuum (sistema ritmico continuo), come un dominio di coerenza
e di supercoerenza oscillatoria:
la variabilità di riserva del sistema si identifica con i limiti di stress di ciascuna delle
proprietà ritmiche di cui il sistema oscillante è dotato,
la variabilità limitata coincide con la sua capacità oscillatoria,
la capacità oscillatoria corrisponde alla capacità di modulazione delle proprietà
ritmiche del sistema.
La capacità di modulazione delle proprietà ritmiche del sistema comprende:
la modulazione tonica o modulazione del livello medio oscillatorio,
la modulazione della ampiezza,
la modulazione della fase,
la modulazione della frequenza.
Ne deriva che quando si oltrepassano i limiti di stress di un sistema ritmico continuo, cioè quando
si ha una sovramodulazione di una o più di una delle proprietà oscillatorie, il ritmo continuo del
sistema oscillante perde il suo comportamento ciclico autoregolato per entrare in un dinamismo
irregolare, randomizzato.
Un sistema dinamico autopoietico deve poter cambiare nel tempo rimanendo simile a se stesso.
Questa facoltà gli viene conferita dall’azione prescrittiva e sintropica dell’attrattore strano (ASO)
che presiede alla sua dinamica, ma è solo grazie all’azione modulante (capacità di modulazione
delle proprietà ritmiche del sistema) esercitata dal campo elettromagnetico intrappolato nel
dominio di supercoerenza oscillatoria che questa facoltà si trasforma in capacità di trasformare i
pattern tensoriali in pattern isomorfici di spin e quindi in pattern frequenziali e viceversa.
In condizioni normali, l’azione combinata che si instaura tra l’attrattore strano e il campo
elettromagnetico mantiene la ciclicità del sistema sul piano della autosimilarità e della invarianza
di scala, condizione necessaria affinché la funzione e la morfologia dei processi e delle strutture
del dominio di supercoerenza oscillatoria pur trasformandosi restino complessivamente aderenti al
ruolo loro assegnato (nel processo di invecchiamento, ad es., strutture e processi cambiano pur
rimanendo sempre simili a se stesse).
A questo scopo l’attrattore strano subisce una costante trasformazione passando da attrattore
strano ad attrattore a ciclo limite 47 (quasi periodico) ad attrattore a punto fisso (periodico) e
viceversa48.
47
Il principio del ciclo limite (Mitchel J. Feigenbaum) indica il limite oltre il quale un sistema dinamico a
ciclo continuo, come la dinamica cellulare, può passare (transizione di fase) da uno stato caotico a uno stato
ordinato, e viceversa. Nella transizione tra i due stati l’attrattore strano che governa sulla dinamica del
sistema viene detto attrattore a ciclo limite.
48
(…)The stable limit cycle of the original trimolecular two-variable model becomes unstable (and the
system diverges) if the velocity constant of the autocatalytic reaction is sufficiently small. If one simply adds
a further intermediate variable as a storage substance, the stable limit cycle exhibits a period doubling
cascade into chaos when lowering the autocatalytic reaction rate. If the rate is lowered even further, the
stable chaotic attractor becomes unstable and the system diverges again. In contrast, in system we observed
the same (two-dimensional) behaviour than in the original two-variable model. Of course the period
Sino a quando il grado di indeterminatezza dell’attrattore e la sua funzione sintropica sono
preservate la sua autotrasformazione è reversibile (processi fisiologici, processi di
autoriparazione), ma quando il grado di indeterminatezza e/o l’efficacia della funzione sintropica
vengono compromesse da cause interne all’attrattore o esterne ad esso (alterazione o perdita della
capacità di mantenere le proprietà ritmiche del sistema) il processo di autotrasformazione può
arrestarsi al livello dell’attrattore a ciclo limite o dell’attrattore a punto fisso, con una ricaduta sui
processi e/o sulle strutture che sono sotto il suo controllo. Oltre una certa soglia (superamento
irreversibile dei limiti di stress), la perdita di indeterminatezza e/o di capacità sintropica
dell’attrattore determina una locale o diffusa riduzione del grado di libertà funzionale (danni
strutturali e/o funzionali permanenti) o la perdita di una o più funzioni che può portare alla morte
del sistema, ma non alla scomparsa della sua matrice elettronica, che anzi continua ad essere
presente nel mezzo ambiente e spendibile per la formazione di un nuovo sistema proto-biologico la
cui dinamica è riconducibile a quella dei sistemi che lo hanno preceduto.
Da qui avrebbe preso il via il lungo processo di integrazione e diversificazione di strutture e
funzioni, che ha portato alla costituzione dei precursori delle protocellule fino alla costituzione
delle cellule procariote, delle cellule eucariote e degli organismi pluricellulari sino a noi.
Se questa ipotesi si dimostrasse corretta, saremmo indotti a concludere che il fenomeno biologico
non solo ebbe origine nell’ambiente acquatico prebiotico, ma che ebbe origine grazie ad un
processo non-lineare (iniziato 4 miliardi di anni fa e mediato sul piano quantistico dal campo
elettromagnetico) di formazione, stabilizzazione e integrazione di particolari dominii di
supercoereza oscillatoria dell’acqua allo stato liquido, delimitati da una pompa elettronica selettiva
(lamina proteica→membrana) e costituiti, almeno stando al Modello Endodynamotensivo, da una
trama frattalica di creste di interferenza e di reti spinoriali (involucro energetico) in uno stato di
accoppiamento non-locale (entangled) con un ordito di tensioni differenziate e indifferenziate
(nucleo tensoriale), che presiede e orienta (prescrive ma non descrive) la strutturazione del
fenomeno energetico in tutte le sue forme, inclusa quella biologica. In questo senso, l’ipotizzata
capacità del dominio di supercoerenza oscillatoria di autoriprodursi sia al proprio interno, sul
piano orizzontale della sua durata temporale, che sul piano verticale della discendenza filetica, fa
del fenomeno biologico, dalle sue origini, un unico spettacolare ecosistema auto poietico legato da
catene energetiche e tensoriali.
Un organismo vivente, allora, non può essere considerato una tessera del mosaico della vita ma
una entità vibrante che dinamicamente dialoga con il proprio ambiente, costituito non solo da altri
organismi viventi (ambiente biotico) ma anche da materia inanimata (ambiente abiotico). Il
risultato di un dialogo in fieri (relazioni di interferenza sul piano energetico e tensoriale), che lo
coinvolge e che coinvolge tutte le variabili ambientali (nello spazio, nel tempo e nello spaziotempo)
da cui dipende la sua esistenza e sussistenza.
doubling and the chaotic region in the parameter space could be so narrow that we did not find it
numerically, but it seems that the trajectories of the whole three-dimensional model are in fact confined to a
two-dimensional surface in the long time limit.
[Thomas Wilhelm and Peter Hanggi, What can be stated by the Glansdorff–Prigogine criterion concerning
the stability of mass-action kinetic systems?, Journal Of Chemical Physics, volume 110, number 13, 1999,
http://www.physik.uni-augsburg.de/theo1/hanggi/Papers/229.pdf ]
6. L’organismo pluricellulare
Chuang Tzu livella tutte le cose
E le riduce alla stessa monade;
Ma, dico io, in questa identità
Possono sorgere diversità:
S’anche nel cedere alla natura
Mostrano entrambi tendenze simili,
Pure mi sembra che in qualche modo
Una fenice sia più d’un rettile.
Po Chu-I (772-846 d. C. )
Per sopravvivere e per non estinguersi tutti i sistemi biologici dai più semplici ai più complessi
utilizzano e sviluppano due tipologie strettamente interrelate e interdipendenti di strategie
energetico/adattive:
- una tende ad adattare il sistema alle variabili incondizionate imposte dall’ambiente (forza
di gravità e campo magnetico terrestre, macrosistema geo-climatologico, sistema solare, ere
geologiche, etc.),
- l’altra tende ad adattare le variabili condizionate dell’ambiente alle esigenze di
sopravvivenza del sistema (conformazione delle terre emerse, degli ambienti sommersi e
dell’atmosfera, disponibilità di risorse energetiche biocompatibili, eventi metereologici e
climatici ciclici, etc.).
La variabilità ambientale, spaziale e temporale, rappresenta lo scenario con il quale la biodinamica
energetico/adattiva deve misurarsi. Ai fini della sopravvivenza questo significa che le strategie
energetico/adattive:
- non possono basarsi su processi lineari (feedback loops) di problem solving, che sono
poveri di informazione e limitano la tolleranza del sistema alla pressione ambientale, ma
devono problematizzare le soluzioni (feedforward) sfruttando la non linearità dei processi
naturali [41], che è ricca di informazione (capacità di generare interferenza) e capace di
garantire plasticità funzionale e tolleranza strutturale al sistema (la problematizzazione
non lineare – frattale – delle soluzioni è il motore dell’apprendimento e si contestualizza
attraverso di esso),
- non possono realizzarsi come fatti indipendenti slegati dal contesto ma devono realizzarsi
come fatti dipendenti dal contesto perché parte di esso e della sua dinamica (la dipendenza
dalle variabili ambientali richiama variabilità biologica che si traduce nella costituzione di
ecosistemi).
La formazione di organismi pluricellulari contestualizza uno straordinario passaggio:
- dal modello territoriale di organizzazione ecosistemica (che vede come protagonisti interi
agglomerati di organismi unicellulari distribuiti su uno o più territori e legati da un guadagno
bioenergetico e adattivo comune) al modello pluricellulare di organizzazione ecosistemica, che
vede come protagonisti colonie di cellule specializzate e riunite da un legame funzionale e
strutturale comune delimitato e identificato nella costituzione di un tessuto,
- e dal modello territoriale di comportamento unitario di interi gruppi di cellule (dove il
comportamento del singolo è prescritto da quello del gruppo e descritto da una dinamica corale,
come quella che osserviamo nei movimenti sincronizzati di branchi di pesci, stormi di uccelli,
comunità di formiche e di termiti, sciami di api, etc.), al modello tissutale dove organi e sistemi di
organi operano in sincronia per la sopravvivenza e l’unità del sistema.
L’organismo biologico unitario (cellula) da sistema autopoietico integrato delimitato da una
membrana e composto da una moltitudine di strutture subcellulari e di unità molecolari, diviene
una pluralità autopoietica ecosistemica (organismo pluricellulare) circoscritta e costituita da un
sistema integrato di cellule differenziate e specializzate in base al ruolo che devono occupare e alla
funzione che devono svolgere (tessuto→organo→sistema).
Fino al Cambriano la diversificazione biologica orbitò attorno alla messa a punto di strategie
biofisiche e biochimiche destinate all’assolvimento del fabbisogno energetico.
Con l’epocale biforcazione filogenetica del Cambriano, che determinò una vera e propria
esplosione di varietà pluricellulari, venne introdotta una nuova variabile nella diversificazione
adattiva: il ricorso a strategie comportamentali.
6.1 Metazoi: eterotrofia, mobilità, irritabilità, neuroni
L’organizzazione corporea di organismi pluricellulari eucarioti del regno animale come i
celenterati a simmetria radiale, meduse e anemoni di mare, consiste di tessuti derivati da due
foglietti embrionali, l’endoderma e l’ectoderma. Un grado maggiore di integrazione tissutale e
funzionale lo si riscontra nei platelminti, che hanno tre foglietti embrionali, comprendenti anche il
mesoderma, simmetria bilaterale e organi di senso concentrati a un’estremità. I celomati, che
includono quasi tutti gli altri animali, hanno tessuti derivanti da tre foglietti embrionali e una
cavità, il celoma, rivestita da epitelio di origine mesodermica. Entro questo vasto raggruppamento
si situano le organizzazioni corporee inconfondibili degli anellidi (vermi metamerici), degli
echinodermi (stelle di mare, oloturie, ofiure e altri organismi a simmetria pentamera), degli
artropodi (insetti, crostacei, aracnidi), dei molluschi e di un numero esorbitante di altri organismi
meno noti.
Caratteristica unificante di tutti gli animali, è il loro modo di nutrirsi: a differenza delle piante, che
ricevono passivamente l’energia solare, gli animali debbono cercarsi il nutrimento o,
alternativamente, escogitare nel tempo filetico strategie adeguate per assicurarsi l’apporto di cibo.
La mobilità, perciò, di tutto l’organismo, delle sue parti o di entrambi è una condizione
indispensabile per la loro sopravvivenza. La mobilità in generale e l’inseguimento delle prede in
particolare richiedono sistemi efficienti di integrazione e controllo. Generalmente si muovono per
l’azione di cellule specializzate (cellule contrattili e cellule muscolari), e tendono a integrare il
controllo e l’organizzazione della loro attività facendo ricorso a particolari sostanze (gli ormoni) o
cellule (neuroni). Gli animali più complessi, come i cefalopodi, gli insetti e i vertebrati, hanno
molti tipi di tessuti specializzati ed elaborati meccanismi sensoriali e neuromotori che non si
trovano negli altri regni, e che hanno la loro origine nella eterotrofia.
Ci sono pochi modi fondamentali per realizzare la locomozione, la presa di cibo, l’autodifesa e la
coordinazione motoria. Nel corso della diversificazione filogenetica, tuttavia, parallelamente
all’adattamento degli animali ad ambienti nuovi e mutevoli, quelle poche modalità di base sono
state reinventate, perfezionate, rielaborate in un processo di integrazione e diversificazione
strutturale e funzionale culminato nella grande varietà di strategie adattive che osserviamo oggi.
Una delle proprietà generali del protoplasma (composto da acqua, elettroliti, proteine, lipidi e
carboidrati), cioè della materia biologica di cui sono costituite le cellule, è l’irritabilità, ovvero la
capacità di avvertire uno stimolo esterno e di reagire ad esso. Un organismo costituito da un’unica
cellula (come l’ameba) reagisce a un contatto contraendo il proprio citoplasma. L’irritabilità,
tuttavia, non è una risposta, ma una cellula deve essere irritabile per poter rispondere ad uno
stimolo. Nei vertebrati, ad esempio, le cellule epiteliali, se stimolate, possono rispondere
secernendo, le cellule muscolari contraendosi e le cellule nervose (neuroni) producendo e/o
conducendo impulsi neuro-elettro-chimici o potenziali d’azione49 che si propagano lungo i loro
prolungamenti (assoni e dendriti) a velocità variabile.
Negli organismi pluricellulari del regno animale (dai Metazoi sino a noi), in cui le varie funzioni si
ripartiscono sempre più fra tessuti diversi e specializzati, questa proprietà caratteristica
dell’irritabilità viene acquisita e perfezionata al massimo grado dalle cellule nervose (neuroni) che,
assieme alle cellule della nevroglia, formano il Tessuto Nervoso (TN), la cui diversificazione e
integrazione morfologica, anatomica e funzionale porta alla costituzione del Sistema Nervoso (SN).
In animali con un grado neurologico di integrazione strutturale e funzionale perfettamente
efficiente e relativamente diversificato, come i Celenterati, per esempio le meduse e i polipi, il SN è
limitato a una rete di elementi neuromuscolari, dotati al tempo stesso di capacità sensitiva e
contrattile. In animali con un grado maggiore di diversificazione funzionale e strutturale, come in
alcuni Molluschi, il SN si organizza in strutture più complesse e selettive, costituite da cellule
differenziate (cioè che hanno acquisito particolari caratteristiche strutturali rispondenti alla
funzione da svolgere) raggruppate in profondità, sotto i tegumenti, a formare una catena di gangli
(raggruppamenti neuronali) a lato del tubo digerente. Con la comparsa dei vertebrati la
suddivisione del SN in organi centrali (notocorda→ tubo neurale) e strutture periferiche (fibre
nervose e organi recettoriali), prefigurata in alcune specie di animali marini al confine tra
invertebrati e vertebrati (come il Pikaia gracilens, considerato l’antenato fossile dell’attuale
Anfiosso), subisce una decisiva stabilizzazione e gli organi centrali di esso (encefalo e midollo
spinale) vengono accolti entro un astuccio osteo-fibroso rappresentato dalla scatola cranica e
dallo speco vertebrale.
Caratteristica degli animali a simmetria bilaterale (come la specie Homo) è un piano strutturale
corporeo organizzato lungo un asse longitudinale, con la metà destra che è approssimativamente
l’immagine speculare (ma non sovrapponibile→chiralità) della metà sinistra. Un animale a
simmetria bilaterale può muoversi più efficacemente di un animale a simmetria radiale o raggiata
(come i Celenterati) che, a sua volta, è meglio adattato ad una vita sedentaria.
Altra caratteristica degli animali a simmetria bilaterale è l’avere un orientamento spaziale di tipo
assiale, cioè organizzato in senso longitudinale tra due estremità, una anteriore (cefalica o rostrale)
ed una posteriore (caudale).
Avere una estremità anteriore è una caratteristica degli animali molto attivi. In tali organismi
molte delle cellule sensoriali (cellule nervose specializzate in funzioni recettoriali stimolospecifiche) sono concentrate nell’estremità anteriore del corpo insieme a una maggiore
concentrazione di cellule nervose specializzate in funzioni diverse da quelle stimolo-specifiche:
grazie a questa particolare organizzazione neuroanatomica l’organismo si trova ad essere
praticamente orientato in una direzione preferenziale, in avanti, sulla base della quale l’animale
organizza il proprio comportamento motorio.
Un impulso neuro-elettro-chimico o impulso nervoso o potenziale d’azione è un’onda solitonica [42] che
si propaga lungo tutta la membrana cellulare (grazie ad un processo a catena di modificazione della
permeabilità transmembranaria che coincide con variazioni transitorie della concentrazione ionica di
membrana), con ampiezza ed intensità costanti e con frequenza e velocità variabili (la velocità di
propagazione è direttamente proporzionale al diametro ed al grado di mielinizzazione della fibra nervosa; la
frequenza è direttamente proporzionale allo stato eccitatorio del neurone). Nei vertebrati, l’attività neuroelettro-chimica dipende in misura sostanziale dall’ambiente dielettrico costituito dalla sostanza bianca (o
nevroglia) e dal liquido cefalo rachidiano.
49
7. Le basi paradigmatiche per un nuovo modello delle neuroscienze
Recentemente mi sono trovato a dover spiegare
il modo in cui percepiamo le cose, ma non riuscivo a trovare
le parole adatte. Alla fine, per disperazione, chiesi al mio interlocutore
come egli ritenesse di vedere il mondo. Rispose che nella sua
testa doveva esserci, in qualche punto, qualcosa come una sorta
di piccolo televisore. ‘E allora – chiesi – chi è che lo guarda? ‘.
A questo punto, improvvisamente, si rese conto del problema.
F.H.C. Crick50
Tutta la fisica classica e la quasi totalità della fisica quantistica e relativistica continuano ad
occuparsi della frazione deterministica e quasi-deterministica della realtà, o sono orientate a
prediligere la versione quantizzata (→una grandezza fisica può assumere solo valori discreti) della
realtà, trascurando o sottovalutando il fatto che tanto la quantizzazione quanto la realtà del
continuo spaziotemporale (Teoria della Relatività Generale), implicano l’esistenza di una frazione
di realtà intrinsecamente indeterministica (tensoriale), non misurabile e caotica 51.
Il caos rappresenta una nuova sfida per il punto di vista riduzionistico, secondo cui un sistema può
essere compreso scomponendolo e poi studiandone le singole parti. Questo punto di vista è stato
largamente seguito nella scienza anche se sono moltissimi i sistemi per i quali il comportamento
del tutto è apparentemente la somma delle parti. Il caos, tuttavia, dimostra che un sistema può
manifestare un comportamento complicato come risultato di un’interazione non lineare semplice
tra poche componenti soltanto. Il problema si è già reso evidente in un’ampia gamma di discipline
scientifiche, dalla descrizione della fisica microscopica alla costruzione di modelli per il
comportamento macroscopico degli organismi biologici. Negli ultimi anni la capacità di ricavare
conoscenze particolareggiate sulla struttura di un sistema ha compiuto progressi formidabili, ma la
capacità di integrare queste conoscenze è stata ostacolata dall’assenza di una cornice concettuale
adatta, entro la quale descrivere il comportamento qualitativo. Anche quando si possegga una
mappa completa del sistema nervoso di un organismo semplice, come il nematode, non è possibile
ricavarne il comportamento.
Analogamente, la speranza che la fisica possa raggiungere la compiutezza grazie a una
comprensione sempre più particolareggiata delle forze fisiche e dei costituenti fondamentali è
infondata. L’interazione delle componenti a una data scala può provocare su scala più vasta un
comportamento globale complesso che in generale non può essere ricavato dalla conoscenza delle
singole componenti. Spesso il caos è visto in termini delle limitazioni che comporta, come la
mancanza di prevedibilità. Ma accade che la natura sfrutti il caos in modo costruttivo. Grazie
all’amplificazione di piccole fluttuazioni, esso può consentire ai sistemi naturali di deviare
(biforcazione) da quella che appare come la linea maestra. La filogenesi richiede variabilità
genetica, e il caos offre un mezzo per la strutturazione delle variazioni aleatorie, fornendo così la
possibilità di porre la variabilità sotto il controllo della diversificazione biologica.
Tutta la neuroscienza contemporanea è in larga misura vincolata all’idea che un sistema fisico è
50
F. H. C. Crick, Riflessioni sul cervello. In: Le Scienze quaderni, N 31, 1986, pag 92
A qualsiasi scala la si consideri, la parte caotica (non misurabile e impredicibile) della realtà è sempre
riscontrabile nell’intertempo e nell’interspazio tra le misure fattibili (deterministiche) che utilizziamo per
codificarla.
51
fatto di parti macro e microscopiche indipendenti che interagiscono solo con le parti adiacenti,
sviluppando un comportamento che nel tempo è deterministico. Questo è il principio su cui si
basano tutti i modelli computazionali del cervello. Secondo questo paradigma, una mente è il
prodotto di un cervello, che è un sistema, come gli altri che popolano l’Universo, regolato da leggi
meccaniche, ma particolare. Questa visione si fonda sulla fisica newtoniana, la scienza della
materia (res extensa), che esclude a priori l’investigazione della mente (res cogitans). Ai
neuroscienziati che si occupano di investigare il fenomeno mentale, sfugge questo semplice
sillogismo: sono alla ricerca di una spiegazione della mente utilizzando strumenti che sono stati
concepiti per non occuparsi della mente. Strumenti che, oltretutto, si sono dimostrati errati anche
nello studio della materia. Niente di strano, allora, se le menti offuscate dall’ombra di Dio dei neoseguaci della dottrina della fede nella Scienza siano sedotte dall’idea che la coscienza sia una
proprietà inerente della materia.
Le stranezze evidenziate dalla fisica delle particelle, tuttavia, e in particolare il fatto che l’attività
mentale dell’osservatore interferisce con l’oggetto della sua osservazione, ci obbligano a
considerare la possibilità che: il fatto mentale “osservatore” interferisca con il fatto energetico
“particella” perché il fatto mentale è la forma tensoriale della interazione neuro-logica
che si instaura tra il territorio dell’energia e il territorio della tensione
(TI/dynamis).
In questo senso, il fatto mentale va considerato a tutti gli effetti un evento fisico, un fenomeno
dinamico in continua trasformazione, non energetico ma tensoriale.
Questo, tuttavia, non significa affatto che la materia possegga un nucleo mentale, né che le leggi
naturali debbano prevedere e consentire l’esistenza di esseri intelligenti capaci di interrogarsi su di
esse (principio antropico), né che da una certa combinazione di reti neurali artificiali possa
emergere un flusso di pensieri: un flusso di pensieri sta a una rete neurale, come Edipo sta alla
propria immagine riflessa da uno specchio d’acqua. Così come non significa che il fatto mentale e
la coscienza coincidano: il fatto mentale sta alla coscienza come l’impulso di moto sta al Cante
Jondo andaluso.
Significa invece che i due territori, energetico e tensoriale, si integrano e interagiscono l’uno con
l’altro, ognuno con le proprie caratteristiche fisiche e le proprie dinamiche, con modalità ed effetti
che variano in base alla loro localizzazione e integrazione spazio-temporale.
Le caratteristiche neurologiche, genetiche ed epigenetiche, dell’animale Homo fanno sì che la
esplicazione della relazione tra il territorio energetico e il territorio tensoriale assuma la forma di
ciò che sperimentiamo come fenomeno mentale umano, una quota di realtà non fattorizzabile
estranea al territorio dell’energia, ma non per questo fittizia bensì virtuale: in fisica si parla di
dimensione virtuale (e di particelle virtuali) come di quella dimensione (o particelle) non
direttamente osservabile, ma la cui influenza si fa sentire e conferma le previsioni teoriche.
Sul fatto che l’influenza del fenomeno mentale si faccia sentire non credo ci siano obiezioni, ma
non disponiamo ancora di un metodo scientifico (che non può essere quello galileianonewtoniano) e degli strumenti teorici che ci consentano di fare delle previsioni 52 (ammesso che se
ne possano fare).
52
In realtà non è esatto, gli strumenti teorici che potrebbero essere opportunamente trasformati allo scopo, ci
sono. Mi riferisco, ad es., alla estensione relativistica della Meccanica dei continui, o meccanica tensoriale;
alla Teoria della Elasticità Relativistica (vedi ad es: J. Kijowski, Elasticità Finita e Relativistica:
introduzione ai metodi geometrici della Teoria dei Campi, 1991, www.cft.edu.pl/~kijowski/Odbitkiprac/TUTTO.pdf ); alla Teoria quantistico-relativistica del Campo Torsionale di Riemann-Cartan, nota
anche come Teoria U4 o Teoria di Einstein-Cartan-Sciama-Kibble (vedi ad es.: J.B. Fonseca-Neto, C.
Romero, S.P.G. Martinez, Scalar Torsion and a new Simmetry of General Relativity, Gen.Rel.Grav. 45
(2013) 1579.1601, 2012, http://arxiv.org/abs/1211.1557 ).
E di cosa sarebbe fatta la mente?
Stando al Modello Endodynamotensivo [Messori 2013] il territorio fisico a cui appartiene il
fenomeno mentale, sia umano che animale, è costituito da un ordito
(i)
di eventi tensoriali indifferenziati, che mantenendo la terminologia già in uso
chiamo qualia, definendoli come le più piccole e irriducibili frazioni (intertempi)
indifferenziate di tensione, i meta-pixel53 che compongono l’ordito temporale del
territorio della tensione, e
(ii)
di eventi tensoriali differenziati, che chiamo tensioni tangenti, un frame di
deformazioni (interspazi) tangenti al piano di simmetria tensoriale TI, i metatexel54 che compongono l’ordito spaziale del territorio della tensione.
La strutturazione degli eventi mentali, di cui sono partecipi, passivamente o attivamente (specie
umana → nascita psicologica) e con modalità, gradi di integrazione e di complessità (stereotipia vs
superamento della stereotipia) diverse tutti gli organismi (invertebrati e vertebrati) dotati di
Sistema Nervoso (SN) 55, avviene per accoppiamenti del tipo frequenza-fase→ fasetensione→tensione-tensione [Messori 2012, 2013] e viceversa, operati da un Attrattore
Strano56 Olografico (ASO) [Messori 2011, 2012, 2013] su una frequenza-fase-tensione portante
(specie specifica).
L’ASO (Holographic Strange Attractor, HoSA) è: un centro spaziotemporale di stabilità
tensoriale, dimensionato come frattale e configurato come ologramma, intorno a cui si verifica la
variabilità indeterministica delle relazioni di accoppiamento (frequenza-fase sul piano
quantistico; fase-tensione sul piano quantistico-relativistico; tensione-tensione sul piano
53
Le deformazioni temporali che si creano, per effetto della de-simmetrizzazione di riflessione, attorno ai
più piccoli elementi (tracce mnesiche o dominii tensoriali di coerenza isteresica) di un pattern tensoriale.
Meta-pixel e tracce mnesiche formano, sul piano temporale, una singolarità caotica non-casuale (Rene
Thom), o evento catastrofico non-casuale, una realtà ontica meta-stocastica potenzialmente predicibile sulla
base delle equazioni (matematica dei frattali) che descrivono la caoticità del processo di trasduzione del
fenomeno tensoriale in fenomeno energetico, responsabile della attualizzazione di ciò che resta implicato
(pattern tensoriale). L’evento catastrofico non-casuale pattern tensoriale è così una entità logica che non
prescinde, nello spazio-tempo, dal prima e dal dopo energetico in cui esso si attualizza e, come tale, è in un
rapporto di causa-effetto con la natura caotica del processo (T-PHL) in cui si inscrive.
54
Le deformazioni spaziali (texture) che si creano, per effetto della de-simmetrizzazione di riflessione,
attorno ai più piccoli elementi (tracce mnesiche o dominii tensoriali di coerenza isteresica) di un pattern
tensoriale. Meta-texel e tracce mnesiche formano una singolarità caotica non-casuale sul piano spaziale
(frazioni volumetriche o regioni fratte spaziotemporali).
55
Da quello di un anemone di mare, composto da una rete di poche cellule neuro-epiteliali, a quello
dell’animale Homo.
56
Un attrattore strano (David Ruelle) è una zona di tempo e/o di spazio di dimensioni minimali assimilabili
allo zero intorno a cui si verifica la variabilità imprevedibile temporale e/o spaziale di un fenomeno
dinamico caotico: il polo dell’attrattore strano è un momento temporale e/o un volume spaziale di stabilità
attorno al quale orbita la dinamica del fenomeno caotico. L'attrattore strano, scrive Pietro Cugini
(http://www.seuroma.com/clinica_terapeutica/cugini/critica_1.htm) è dunque un analizzatore della
variabilità caotica che non ha la presunzione di misurarla per grandezze definite. Di essa può conoscere il
grado relativo in base alla correlazione numerica dei punti circumpolari che giacciono entro i vari cerchi
concentrici che s'incentrano sul polo, aventi un raggio unitariamente crescente sino ad includere l'intera
figura (correlazione di dimensione secondo P. Grassberger e I. Procaccia).
Va notato che la capacità descrittiva della variabilità caotica da parte dell'attrattore strano è cosi forte che
una dispersione peripolare la si ritrova anche nel caso del più apparentemente ordinato degli eventi dinamici,
il moto pendolare. Ciò si verifica a causa dei gradi di liberta che il movimento di un pendolo può avere nei
vari piani dello spazio rispetto all'asse del moto oscillatorio, sicchè la proiezione di questo moto nello spazio
non determina un'immagine rettilinea su un unico asse ma un'immagine capricciosa imprevedibile.
relativistico).
La funzione assegnata dalla filogenesi al SN rientra tra le possibili soluzioni adottate dal modus
operandi filogenetico (la problematizzazione e diversificazione delle strategie adattive), per far
fronte alla pressione ambientale e assicurare continuità al fenomeno biologico. Attraverso il SN
viene resa operativa la capacità di interfacciare biunivocamente il territorio della tensione con il
territorio dell’energia, così da dare corso a nuove strategie relazionali e adattive (nuove rispetto
alle strategie relazionali e adattive non o pre-neurologiche).
In questo senso il SN è una interfaccia selettiva tra i due territori, energetico/quantistico ↔
tensoriale/relativistico [43], e la funzione originaria assegnata dal differenziamento cellulare57 alla
cellula nervosa è recettoriale e meta-fisica (di collegamento tra un piano e l’altro di realtà).
Rispetto al territorio dell’energia il SN opera una selezione (funzione recettoriale) specie-specifica
sulle variazioni di stato (stimoli) provenienti dall’ambiente esterno e interno, rendendo
l’organismo opportunamente sensibile (sentire è una funzione meno integrata del percepire ma è
più integrata del reagire che a sua volta è una funzione più integrata della irritabilità) a una certa
gamma di variazioni di stato e non ad altre.
Rispetto al territorio della tensione il SN trasforma le variazioni di stato (stimoli) da pattern
frequenziali (attività recettoriale ↔ attività neuro-elettro-chimica) in pattern isomorfici di spin 58
[44], sui quali opera l’ASO, che trasmuta i pattern di spin in pattern tensoriali e stabilisce tra di
essi delle correlazioni funzionali valide sotto il profilo biologico e/o neurologico e/o mentale.
La costituzione di specifici pattern tensoriali avviene per attrazione delle perturbazioni temporali
(qualia) e delle perturbazioni spaziali (tensioni tangenti) disciolte nell’ordito tensoriale di fondo,
all’interno di una specifica orbita tensoriale, dove acquistano l’identità del pattern di cui entrano a
fare parte. In questo modo, un dato pattern tensoriale rimane discolto nell’ordito tensoriale di
fondo ma è sempre evocabile (se le condizioni per la sua evocabilità sono soddisfatte) dalla
opportuna attivazione della corrispondente orbita tensoriale, associata a un determinato pattern di
spin.
Ciò che caratterizza la peculiarità della relazione di un organismo neurologico con l’ambiente
endogeno ed esogeno, è la disponibilità di un flusso di configurazioni tensoriali (attività
mentale) supportato dalla relazione neuro-isomorfica tra i pattern di spin e i pattern di tensioni:
fuori da questa relazione, ovvero fuori dalla relazione tra l’organismo neurologico e
l’ambiente, non esiste nulla che possa essere chiamato flusso di configurazioni tensoriali-attività
mentale!
Una possibile esemplificazione metaforica del processo di trasmutazione biunivoca dei pattern di
spin in pattern di tensioni, potrebbe essere quella suggerita da Augusto Sabbadini nella sua
prefazione al libro di David Bohm Universo mente materia59, dove, in accordo con il concetto
57
Il differenziamento cellulare è quel processo mediante il quale le cellule si specializzano, acquistando o
esaltando la capacità di compiere una funzione specifica. Tutte le cellule hanno le proprietà fondamentali del
protoplasma vivente, cioè l’attività metabolica (sintesi, respirazione), l’eccitabilità, la conduzione degli
eccitamenti, la capacità di ricevere stimoli dall’ambiente e di reagire con il movimento, con la secrezione o
in altri modi, la capacità di riprodursi. Quando una cellula si specializza non perde nessuna di queste
proprietà fondamentali inerenti alla vita biologica, ma si diversifica in quanto potenzia una di queste
proprietà. In genere una cellula, quando si specializza in una funzione, modifica anche la sua morfologia.
58
Nel modello Orch OR (Orchestrated Objective Reduction) proposto da Stuart Roy Hameroff e Roger
Penrose, la trasformazione dei pattern frequenziali in pattern isomorfici di spin avverrebbe all’interno dei
microtubuli, polimeri citoplasmatici dell’ordine di 100/270 angstroms di forma cilindrica le cui pareti sono
costituite da filamenti proteici spiraliformi di tubulina, che si comporterebbero come risonatori di cavità
quantistici.
59
D. Bohm, Universo mente materia, Red Edizioni, 1996, pagg. 11-12-15-16
bohmiano di olomovimento, al posto della tensione compare appunto il movimento. Scrive
Sabbadini [il grassetto è mio]:
Immaginiamo uno stagno fangoso in cui stiamo pescando. Nello stagno nuota un pesce, ma non
siamo in grado di vederlo né l’acqua è torbida. A un certo punto il pesce abbocca. Solleviamo la
canna e lo vediamo attaccato all’amo. In una situazione del genere supponiamo naturalmente
che, un attimo prima di abboccare, sia venuto a trovarsi precisamente nel punto in cui c’era
l’amo. Fino a un attimo fa non eravamo in grado di dire dove si trovasse: la sua posizione era per
noi in un certo senso indeterminata. Ma non si trattava di una indeterminazione intrinseca,
irriducibile. Essa era legata soltanto a una incompleta informazione da parte nostra su una
realtà che era in se stessa determinata. (. . . . . )
Possiamo immaginare un gran numero di stagni identici con dentro l’identico pesce in tutte le
posizioni possibili. Finché il pesce non abbocca, non sappiamo precisamente con quale degli
stagni possibili abbiamo a che fare. Ma ciò non toglie che in ciascuno stagno possibile il pesce
occupi una posizione ben definita. L’insieme degli stagni possibili si ripartisce in sottoinsiemi di
stagni in cui il pesce occupa la stessa posizione. Quando il pesce abbocca, sappiamo a quale
sottoinsieme appartiene lo stagno reale in cui stiamo pescando. Tutto questo è molto naturale.
Immaginiamo ora che il pesce sia una particella quantistica e la canna, la lenza e l’amo siano un
apparecchio che ne misura la posizione. Anche in questo caso, finchè non eseguiamo la misura, la
posizione del pesce è indeterminata. Ma si tratta di una indeterminazione diversa e più radicale.
Piuttosto che a un pesce normale, la particella assomiglia a un pesce solubile, che, prima di
abboccare, si trova diffuso in tutto lo stagno, più densamente in certi punti, meno
densamente in altri. L’indeterminazione della sua posizione non è soltanto una carenza di
informazione da parte nostra.
Se (. . . . . ) immaginiamo un insieme di stagni identici, questa volta non c’è modo di ripartire
l’insieme in sottoinsiemi di stagni con una posizione del pesce ben determinata. L’insieme è
assolutamente omogeneo, rappresenta uno stato puro: in ciascuno degli stagni possibili il pesce è
disciolto in tutto lo stagno. La situazione non è ulteriormente riducibile. Dove è più addensato
abbiamo più probabilità di pescarlo, dove è meno addensato ne abbiamo meno. Ma la sua
posizione è intrinsecamente indeterminata. Ciononostante, miracolosamente, nel momento
in cui il pesce solubile viene pescato la sua natura diffusa istantaneamente si condensa e
precipita in un pesce reale, perfettamente localizzato, appeso all’amo.
(. . . . ) In questa visione l’esistenza separata di oggetti e soggetti, osservatori e sistemi osservati, è
solo un’approssimazione pratica, che vale esclusivamente a un certo livello ed entro certi limiti.
Già la teoria della relatività per certi versi suggeriva una visione unitaria della realtà, in termini
di campi estesi attraverso tutto lo spaziotempo. La fisica quantistica rafforza questa visione, in
quanto in essa sistemi che abbiano interagito fra loro a un certo istante restano per
sempre inseparabilmente accoppiati. Nella teoria di Bohm la visione unitaria della realtà
diviene ancora più radicale: i singoli sistemi, le particelle o gli insiemi di particelle, non esistono
affatto. Essi non sono pensabili come enti separati interagenti fra loro. Sono piuttosto simili a
immagini che si formano e si disfano in un caleidoscopio, o a vortici che si formano e si disfano
nella corrente di un fiume. I vortici esistono solo temporaneamente e sono solo una realtà in una
certa misura fittizia e arbitraria ritagliata nel flusso continuo della corrente. La sola realtà
ultima è la corrente indivisibile del movimento universale.
In seno a questo movimento esistono vari livelli di ordine, in generale implicati, ripiegati
all’interno della corrente, non percettibili dai nostri sensi. Ma il flusso ininterrotto del movimento
porta continuamente alcuni aspetti a dispiegarsi, a divenire esplicati o manifesti, percettibili,
per poi tornare a immergersi nel tutto, mentre altri aspetti implicati emergono e divengono
esplicati. La fisica classica, quella che studia gli oggetti macroscopici, percettibili dai nostri sensi,
prende in considerazione solo il livello esplicato o manifesto del movimento della realtà. Questo
livello non è ovviamente autonomo, non è retto da una legge propria: esso dipende in primo
luogo dal livello sottostante, che è quello studiato dalla fisica quantistica. Ma neppure
quest’ultimo, dice Bohm, rappresenta una descrizione autonoma della realtà, né dipende da
livelli implicati ancora più profondi. Il passaggio da pesce solubile a pesce reale, per
esempio, è incomprensibile al livello della fisica quantistica né entrambe le forme, pesce
solubile e pesce reale, sono soltanto aspetti emergenti di una realtà implicata sottostante ed è
in questa realtà implicata sottostante che va cercata la legge del loro movimento.
Seguendo la traccia metaforica suggerita da Sabbadini, ho chiamato le configurazioni tensoriali
coerenti “pescate” all’amo dalla relazione isomorfica tra i pattern di spin e i pattern di tensioni,
immagini spaziotemporali, e in ragione della loro permanenza (“pesce solubile”) nel substrato
tensoriale di fondo, le considero a tutti gli effetti delle tracce mnesiche (dominii tensoriali di
coerenza isteresica) [Messori 2012, 2013].
Rispetto al piano meso e macroscopico della dinamica di interfacciamento mediata dalla attività
neuronale, questi dominii tensoriali di coerenza isteresica portano alla stabilizzazione, per
similitudine dinamica, di mappe correlative neurosensoriali, o mappe sensoriali, e per
similitudine geometrica di mappe correlative somatotopiche, o mappe neuronali.
La mente-stagno, allora, potrebbe essere pensata come: lo stato tensoriale implicato nel sistema di
relazioni non-locali che si appalesa nella disponibilità correlativa e funzionale di una serie
complessa di processi energetici e tensoriali evocati dalla e nella interazione tra bacino di
attrazione ambientale e bacino di attrazione neurologico.
Sensazione e percezione, così come impulsi, inclinazioni, desideri, stati emotivi e forme
inconsce di apprendimento sono, in senso lato, fenomeni mentali corrispondenti a gradi diversi e
variabili di integrazione del materiale mnesico implicato e generato dalla e nella relazione tra
l’individuo che sente/percepisce e l’ambiente sentito/percepito.
Dentro a chi sente/percepisce non c’è niente e nessuno che vede o sente o pensa l’oggetto reale o
mentale visto, sentito, pensato: la sensazione/percezione letteralmente e fisicamente è implicata
nella relazione tra individuo e ambiente.
Con la linea zoologica umana il processo percettivo si apre al superamento del vincolo imposto
dalla interazione tra bacino di attrazione ambientale e bacino di attrazione neurologico fino a
staccarsi, con Homo Sapiens, dalla strada zoologica maestra della continuità (continuità vs
contiguità), per imboccare la via della sua progressiva scomposizione in un prima-dentro
(before-inside) e un dopo-fuori (after-outside): il prima-dentro rimane implicato nella
relazione tra individuo e ambiente sotto forma di materiale psichico inconscio, mentre
l’individuo che percepisce esce dalla relazione per trasformarsi nel dopo-fuori del
materiale psichico conscio. In questo modo, la spirale temporale che va dal tempo-spazio
cosmologico al tempo-spazio sentito/percepito passando per il tempo-spazio biologico genera un
tempo-spazio soggettivo.
Con la nascita psicologica della individualità umana [Messori 2012] questa possibilità di uscire
(fuori nel dopo) dalla stretta della relazione percettiva con l’ambiente, per guardare sé stessi e
l’ambiente come se ci fosse un Io che può percepire e un Altro dall’Io che può o non può essere
percepito dai sensi, si contestualizza in uno stravolgente sdoppiamento della personalità: una
parte di essa resta dentro (nel prima) la relazione con l’ambiente (l’Altro dall’Io che non può
essere percepito dai sensi, l’inconscio, l’irriducibilmente irrazionale, il simbolo, il senza soluzione
di continuità, il tempo-Aion, l’assente-morte) mentre l’altra parte esce fuori (nel dopo) da
questa relazione e inizia a supporla (l’Io, il conscio, il razionale, il segno, il discontinuo, il
tempo-Kronos, il presente-vita).
Nella tensione creata da questo sdoppiamento della personalità umana nasce la coscienza
(dualistica) e la sua antitesi. La nascita della coscienza diventa l’atto fondativo del pensare e
il pensiero, non potendo fare altro che supporre attraverso l’immagine, farà della ritenzione
dell’assente il proprio punto di forza e il proprio limite: al di fuori della linea adattiva tracciata
dalla assegnazione filogenetica di autonomia relazionale al comportamento neuro-logico, il fatto
mentale non avrebbe avuto modo di esistere. In questo senso, la dirompenza dell’evento
epigenetico legato al territorio del comportamento e non al territorio dell’energia, che chiamiamo
fatto mentale umano, è tale da riuscire ad entrare in competizione con la potenza del fatto
energetico biologico.
Dal Paleolitico Medio in poi, la dinamica psico-percettiva (il percepire è una funzione più integrata
del sentire che è una funzione più integrata del reagire che è una funzione più integrata della
eccitabilità, e il fatto psico-percettivo è una funzione meno integrata dell’atto mentale umano)
dell’animale umano viene così avvolta dal pensiero e nel pensiero nasce l’essere culturale umano
[45].
L’atto mentale-pensiero è la contestualizzazione neuro-psico-logica nata dallo sdoppiamento della
realtà in un Io e un Altro dall’Io, che l’Io non potrà mai cogliere nella sua interezza. Come scrive
Spencer-Brown60: Un universo capace di produrre osservatori è un universo scisso. Infatti, non
possiamo sfuggire al fatto che il mondo che conosciamo è costruito con il fine (e quindi in modo
tale che sia capace di) vedere se stesso. Questo è veramente stupefacente. E non tanto per quello
che vede, benchè questo possa sembrare abbastanza fantastico, ma per il fatto che in qualche
modo può vedere. Tuttavia, a tale scopo deve innanzi tutto scindere se stesso in almeno uno stato
che vede e per lo meno uno stato che è visto. In questa condizione lacerata e mutilata, qualunque
sia la cosa che vede, vede solo una parte di se stessa. Il mondo è certamente se stesso (vale a dire,
in-distinto da se stesso), ma, ogni qualvolta tenta di vedersi come oggetto, deve, altrettanto
certamente, fare in modo di rendersi diverso da (e, perciò, falso rispetto a) se stesso. In questa
condizione sempre sfuggirà in parte da se stesso .
Cercare un dove sono o un chi guarda ciò che chiamiamo pensieri è semplicemente illusorio,
sarebbe come cercare di dividere se stessi dalla propria immagine riflessa nello specchio: il
pensiero è il risultato di un gioco di specchi, di una tensione, tra un Io che desidera percepire e
un Altro dall’Io che sfuggirà sempre, almeno in parte, alla percezione.
Conclusioni
Il fenomeno biologico e neurologico possono essere considerati come sistemi dinamici non lineari
di tipo caotico, dove la dinamica del non equilibrio garantisce la trasformazione e l’esistenza stessa
del sistema. Il caos, ad esempio, è inerente alla salute, non alla malattia: la non linearità dei flussi
fisiologici (aria, sangue, impulsi nervosi, ecc.) corrisponde alla natura frattale (frazionaria) delle
geometrie dei suoi supporti anatomici (polmoni, vasi sanguigni, reti neurali, ecc.) e garantisce la
sua autoregolazione. Viceversa, la malattia è una forma di ordine, che trova nella morte la sua
espressione definitiva. Il caos non minaccia i sistemi biologici dall’esterno, è una proprietà dei
sistemi stessi: fa parte del loro essere sistemi autopoietici. La perturbazione risiede nell’equilibrio
lineare: l’agente patogeno introduce nell’in-formazione caotica del sistema una in-formazione di
ordine, un comportamento condizionato.
Un attrattore potrebbe essere la metafora che indica un singolo flusso di immagini mentali
(percezione, sensazione, emozione, pensiero, ricordo) immerso nella corrente della relazione di
continuità che resta implicata nell’apparente discontinuità tra lo sperimentatore e l’oggetto della
sua sperimentazione, tra il territorio dell’energia e il territorio della tensione, e il continuo
cambiamento delle immagini mentali potrebbe essere paragonato al passaggio di una traiettoria
relazionale da un bacino di attrazione a un altro.
60
Citato da: Jesus Ibanez, Il centro del caos, in Il pensiero eccentrico, Edizioni Volontà,4/91-1/92
La corrente della relazione di continuità che resta implicata nell’apparente discontinuità tra lo
sperimentatore e l’oggetto della sua sperimentazione, tra il territorio dell’energia e il territorio
della tensione, tra la dimensione corporea e la dimensione psichica, potrebbe essere paragonata a
un sistema dinamico, fluido, non lineare di tipo caotico che si autorganizza intorno all’azione
prescrittiva ma non descrittiva di un bacino di attrazione (ASO), la cui contestualizzazione nel
tempo soggettivo lo fa apparire come frammentato in una molteplicità integrata di bacini di
attrazione, dove: anche la più piccola variazione nell’andamento del flusso o la più piccola
perturbazione che agisca su di esso, mediata dall’azione selettiva e discriminativa del filtro
neurologico, è in grado di interferire in misura non trascurabile con il comportamento complessivo
del sistema.
Nello spazio delle fasi, o degli stati (la risoluzione grafica dell’andamento di un sistema non lineare
di tipo caotico), le orbite situate sull’attrattore caotico subiscono un continuo processo di
stiramento e di piegatura che mescola le orbite in modo imprevedibile conferendo al sistema un
carattere intrinseco di aleatorietà.
L’operazione di stiramento e piegatura di un attrattore caotico trasforma sistematicamente
l’informazione iniziale e la integra con l’informazione successiva: lo stiramento amplifica le
indeterminazioni su piccola scala, la piegatura avvicina traiettorie (orbite) molto lontane tra loro e
nasconde l’informazione su grande scala. Il risultato di questa continua amplificazione e
sovrapposizione delle diverse oscillazioni che costituiscono il moto complessivo del sistema, è
appunto l’imprevedibilità del suo comportamento futuro, il modus operandi (la
problematizzazione delle soluzioni) di ciò che in relazione alla filogenesi chiamiamo
diversificazione, di ciò che in relazione al modulo comportamentale neurologico chiamiamo
superamento della stereotipia e di ciò che in relazione al comportamento umano chiamiamo
apprendimento e creatività.
I sistemi biologici sono particolari sistemi dinamici non lineari la cui stabilità strutturale deriva dai
processi sottostanti. Processo e stabilità sono però compatibili solo se i processi formano modelli
ritmici. Il ritmo non è il tempo, ma un modo di essere del tempo fisico, non una proprietà della
materia vivente, ma un fenomeno che la materia vivente deriva dal tempo fisico, cioè un fenomeno
partecipato, riprodotto, ricavato: fluttuazioni, oscillazioni, vibrazioni, onde. Le fluttuazioni, ovvero
il meccanismo di reiterazione del processo e/o della struttura che descrive le fluttuazioni, sono
cruciali nella dinamica dei sistemi non lineari in generale e di quelli biologici in particolare. Esse
sono la base del nostro divenire: le strutture coerenti derivano da modelli ritmici. Modelli ritmici
sono manifesti a tutti i livelli. Gli atomi sono modelli di onde di probabilità, le molecole sono
sistemi vibranti, il DNA è un sistema fluttuante di tensioni, le cellule sono sistemi ritmici di
oscillazioni e gli organismi sono modelli multidimensionali, interdipendenti di fluttuazioni. Piante,
animali ed esseri umani sono soggetti a cicli di attività e di quiete, e tutte le loro funzioni
fisiologiche oscillano in ritmi di varia periodicità. I componenti di ecosistemi sono interconnessi
attraverso scambi ciclici di materia, di energia e di tensione; le civiltà ascendono e cadono in cicli
evolutivi, e il pianeta nella sua totalità ha i suoi ritmi e i suoi ricorsi mentre ruota attorno al suo
asse e orbita attorno al Sole. Quando vediamo, il nostro SN trasforma le onde elettromagnetiche
visive e le tensioni ad esse associate in pulsazioni elettrochimiche ritmiche dei neuroni61. La
nozione cartesiana di oggetti separati e la nostra esperienza con le macchine fotografiche ci hanno
condotti a supporre che attraverso i nostri sensi noi siamo in grado di crearci una rappresentazione
interna della realtà esterna tale per cui la prima possa essere considerata come una riproduzione
fedele, speculare, della seconda. In altre parole la realtà sarebbe come noi ce la rappresentiamo.
Ma la percezione non opera in questo modo. Immagini fedeli di oggetti separati esistono solo nel
nostro mondo interno di categorie mentali, di concetti, emozioni e idee, e dipendono comunque
dalle caratteristiche strutturali e funzionali del nostro SN, nonché dalle caratteristiche strutturali e
funzionali dei mezzi che utilizziamo per osservare e indagare la realtà. Le caratteristiche del mondo
61
György Buzsáki, Rhythms of the Brain, Oxford University Press USA, 2011:
http://www.amazon.it/Rhythms-Brain-Gyorgy-Buzsaki/dp/0199828237
variano da specie animale a specie animale, da individuo a individuo, da strumento a strumento, e
dipendono in ultima analisi dalle condizioni neuro-relazionali in cui opera chi sperimenta il
mondo. Tanto la percezione quanto l’osservazione strumentale operano una selezione sugli stimoli,
se così non fosse saremmo letteralmente travolti e sopraffatti dall’oceano di variazioni di stato in
cui siamo immersi: quelli utilizzabili possono essere solo quelli percepibili e rilevabili. La realtà
che ci circonda e di cui siamo parte altro non è che un intricato intreccio, senza soluzione di
continuità temporale e spaziale, di ritmi e strutture da essi derivate: i nostri sensi, e gli strumenti
di cui disponiamo e disporremo per indagare la realtà, traducono solo una quota delle sue
variazioni di stato, in modelli di frequenze e di tensioni che possono essere impiegate nella
relazione specie-specifica, e almeno per quello che ci riguarda anche nella relazione soggettiva, tra
il bacino di attrazione ambientale e il bacino di attrazione neurologico.
Il sogno recondito di una verità assoluta62, altro non è che l’illusione di una volontà di potenza che
non vuole rassegnarsi all’evidenza: l’assoluto può essere solo ed esclusivamente un assoluto
semantico!
Ma la realtà non è composta di assoluti e di relativi, né di veri e falsi. La realtà non è composta
affatto, se non nell’ordine della nostra composizione, fatta di tempi e spazi, di soggetti e oggetti, di
cause e di effetti, di significati e simboli, di santi e di mercanti.
RIFERIMENTI:
[1] Marcos Cruz et al., A Cosmic Microwave Background Feature Consistent with a Cosmic
Texture, Science 318 (2007) 1612-1614, http://arXiv:0710.5737
[astro-ph](2007):
http://arxiv.org/abs/0710.5737
[2] Eric J. Lerner, Evidence for a Non-Expanding Universe: Surface Brightness Data From
HUDF, 2005:
http://arxiv.org/ftp/astro-ph/papers/0509/0509611.pdf
Eric J. Lerner, UV surface brightness of galaxies from the local Universe to z ~ 5, 2014:
http://arxiv.org/ftp/arxiv/papers/1405/1405.0275.pdf
[3] Banded Iron Formation:
http://jersey.uoregon.edu/~mstrick/RogueComCollege/RCC_Lectures/Banded_Iron.html
[4] Giorgio Colli (1917-1979), La sapienza greca – vol. III – Eraclito, Adelphi Edizioni,1996, pag
198.
[5] D. Bohm, Universo mente materia, Red Edizioni, 1996, pag. 196.
[6] Stuart Roy Hameroff, Time, consciousness and quantum events in fundamental spacetime
geometry, http://www.quantumconsciousness.org/Time.htm
62
Chiunque affermi di aver trovato leggi assolute per un sistema di comprensione del mondo, dice in realtà
semplicemente di aver compreso se stesso rappresentato in una inconsapevole proiezione sul mondo. [Aldo
Carotenuto, introduzione a Elementi di Psicologia, di C. G. Jung, Newton Compton Ed. , 1995, pag. 10]
[7] Hu H. and Wu M. Spin-Mediated Consciousness Theory: An Approach Based On PanProtopsychism, 2002, http://cogprints.org/2579/1/SpinMind2.pdf
[8] On the discovery of symmetry violations and their effect on the trajectory of elementary
particle physics research, 2013,
http://mtdevans.com/wp-content/uploads/2012/12/OnTheDiscoveryOfSymmetryViolations.pdf
[9] V. Avetisov, V. Goldanskii, Mirror symmetry breaking at the molecular level, 1996,
http://www.pnas.org/content/93/21/11435.full.pdf
[10] Johnson Louise N., Asymmetry at the molecular level in biology, European Review, Vol. 13,
Supp. No. 2, 77–95 (2005),
http://www.acadeuro.org/fileadmin/user_upload/publications/ER_Symmetry_supplement/John
son.pdf
[11] Haramein N. and Rauscher E. A., The Origin of Spin: a Consideration of Torque and Coriolis
Forces in Einstein’s Field Equations and Grand Unification Theory, 2004, at:
http://theresonanceproject.org/wp-content/uploads/torque_paper.pdf
[12] Flip Tanedo, Helicity, Chirality, Mass, and the Higgs,
http://www.quantumdiaries.org/2011/06/19/helicity-chirality-mass-and-the-higgs/
[13] Maturana e Varela (Autopoiesis and Enaction), at:
http://www.enolagaia.com/AT.html
[14] Prigogine Ilya, Kondepudi Dilip, Termodinamica. Dai motori termici alle strutture
dissipative, Bollati Boringhieri, 2002.
[15] Pietro Cugini, Biostatistica Cronobiologia Caosbiologia nella Metodologia Medica, Parte III,
Società Editrice Universo, Roma, 2006.
[16] Cfr.: Physics and Human Energy, 2004:
http://www.istc.ru/istc/db/projects.nsf/All/F725570AD545AA13C3256E320042F0A5?OpenDocu
ment
[17] Apparato del Golgi e centrosoma o Microtubule Organizing Center (MTOC):
- I. Kaverina et Coll., Surprising origin of cell’s internal highways, 2007, at:
http://www.physorg.com/news101566683.html
- M. Stone, M. Rolls, Fruit fly neuron can reprogram itself after injury, 2009, at:
http://www.physorg.com/news179328565.html
[18] M. Stone, M. Rolls, Fruit fly neuron can reprogram itself after injury, 2009,
http://www.physorg.com/news179328565.html
[19] Robert Blankenship, Orientation of antenna protein in photosynthetic bacteria described,
2009 at:
http://www.sciencedaily.com/releases/2009/04/090402171438.htm
[20] - Fritz-Albert Popp, Nuovi orizzonti in medicina. La teoria dei biofotoni, IPSA Editore, 1985
- Guglielmo Arcieri Introduzione alla medicina cibernetica e quantistica, IPSA Editore, 1988.
[21] Graham Fleming et Coll. (2007), Quantum secrets of photosynthesis revealed, at:
http://www.physorg.com/news95605211.html
[22] Chris C. King, Evidence for Chaos and Fractal dynamics in excitable cells (e paragrafi
seguenti) in: Fractal and Chaotic Dynamics in Nervous System:
http://www.math.auckland.ac.nz/~king/Preprints/pdf/BrChaos.pdf
[23] E.H. Zhou, et al., Universal behavior of the osmotically compressed cell and its analogy to
the colloidal glass transition, Proc. Natl. Acad. Sci. USA 2009.
[24] Ho MW, Large Supramolecular Water Clusters Caught on Camera - A Review, Water
Journal, 2014,
http://www.waterjournal.org/uploads/vol6/ho/WATER.2013.12.Ho.pdf
[25] De Ninno A., Del Giudice E., Gamberale L., Congiu Castellano A., The Structure of Liquid
Water Emerging from the Vibrational Spectroscopy: Interpretation with QED Theory, Water
Journal, 2014,
http://www.waterjournal.org/uploads/vol6/deninno/WATER.2013.13.DeNinno.pdf
[26] Giuliano Preparata, QED Coherence in Matter, Ed. World Scientific, 1995. Dello stesso
autore: Dai Quark ai cristalli - Breve storia di un lungo viaggio attraverso la materia, inedito.
[27] Frank N. Keutsch, Richard J. Saykally, Water clusters: Untangling the mysteries of the liquid,
one molecule at a time, Inaugural Articles by members of the National Academy of Sciences, 2001,
http://www.pnas.org/content/98/19/10533.full.pdf
[28] Murugan NJ, Karbowski LM, Persinger MA, Serial pH Increments (~20 to 40 Milliseconds)
in Water During Exposures to Weak, Physiologically Patterned Magnetic Fields: Implications for
Consciousness, Water Journal, 2014, http://www.waterjournal.org/volume-6/persingersummary-2
[29] - E. Del Giudice, Role of the electromagnetic field in the formation of domains in the process
of symmetry-breaking phase transition, 2006: http://arxiv.org/abs/cond-mat/0607594
- E. Del Giudice, Water Respiration - The Basis of the Living State, 2009:
http://www.waterjournal.org/uploads/vol1/voeikov/WATER-Vol1-Voeikov.pdf
- E. Del Giudice, Water Dynamics at The Root of Metamorphosis in Living Organisms, 2010,
http://www.mdpi.com/2073-4441/2/3/566
[30] E. Del Giudice, A. Tedeschi, La respirazione dell'acqua come base della dinamica della vita,
Atti del XXIV Congresso di Omeopatia, Omotossicologia e Medicina Biologica, Milano, 16 Maggio
– Roma, 23 Maggio 2009 – Sessione di Ricerca Scientifica sull’Acqua,
http://www1.medibio.it/uploads/pubblicazioni/medibio/MB0904_01.pdf?phpMyAdmin=9OR7V
so-5ieefYjm1jmbrSkpQUa
[31] - Del Giudice E., Tedeschi A., Water and the autocatalysis in living matter, Electromagnetic
Biology and Medicine, 2009, http://www.ncbi.nlm.nih.gov/pubmed/19337894
- Voeikov VL., Del Giudice E., Water Respiration – the Basis of the Living State, Water Journal, 12009, (waterjournal.org).
- Brizhik Larissa S., Del Giudice E., Tedeschi A., Voeikov Vladimir L., The role of water in the
information exchange between the components of an ecosystem. In: Ecologicall Modelling, 2011:
https://www.researchgate.net/publication/229327908_The_role_of_water_in_the_information
_exchange_between_the_components_of_an_ecosystem
[32] - Clegg, J.S., Alternative views on the role of water in cell function. In: Biophysics of Water,
F. Franks, S.F. Mathias, Eds. John Wiley and Sons, New York, NY, USA, 1982.
- Y.N. Antonenko, P. Pohl, , E. Rosenfeld, Visualisation of the reaction layer in the immediate
membrane vicinity, Arch. Biochem. Biophys. 1996.
[33] H.H. Mollenhauer, D.J. Morré, Structural compartmentation of the cytosol: zones of
exclusion, zones of adhesion, cytoskeletal and intercisternal elements. In: D.B. Roodyn,
Subcellular Biochemistry, Ed. Plenum Press, New York, NY, USA, 1978; volume 5.
[34] - P.H. Barry, J.M. Diamond, Effects of unstirred layers on membrane phenomena, Physiol.
Rev. 1984, 64, 763-871- G.H. Pollack, J. Clegg, Unexpected linkage between unstirred layers, exclusion zones, and water.
In: G.H. Pollack, W.C. Chin, Phase Transitions in Cell Biology, Eds. Springer Science & Business
Media, Berlin, Germany, 2008.
[35] A. Kurcz, A. Capolupo, A. Beige, E. Del Giudice, G. Vitiello, Energy concentration in
composite quantum systems, Phys. Rev., 2010.
[36] - Y. Katsir, L. Miller, Y. Aharonov, B.J. Eshel, The effect of rf-irradiation on electrochemical
deposition and its stabilization by nanoparticle doping, J. Electrochem. Soc., 2007.
- K. Korotkov, E. Krizhanovsky, M. Borisova, The research of the time dynamics of the gas
discharge around drops of liquid, J. Appl. Phys. 2004.
[37] A. Tedeschi, Is the living dynamics able to change the properties of water?, Int. J. Des. Nat.
Ecodyn., 2010.
[38] Szent-Gyorgyi A., Bioenergetics, New York, Academic Press, 1957.
[39] M. LaHaye, M. L. Roukes, K. Schwab, New method to detect quantum mechanical effects in
ordinary objects, 2007, at:
http://www.sciencedaily.com/releases/2009/06/090622103909.htm
[40] Christian Maes, Revisiting the Glansdor_-Prigogine criterion for stability within irreversible
thermodynamics, 2013,
https://itf.fys.kuleuven.be/~christ/pub/talkSolvay16dec2013.pdf
[41] Pietro Cugini, Caosbiologia: razionale e metodologia per studiare il disordine, la complessità
e la singolarità dei fenomeni bio-medici mediante analisi matematica non-lineare, La Clinica
Terapeutica, 2007,
http://pietrocugini.seuroma.it/Pietro_Cugini_Pubblicazioni_EPUB/Pietro%20Cugini%20Clin%20Ter%202007/Caosbio
logia%20Clin%20Ter%20fasc.%205_2007.pdf
- M. Annunziato, Caos, complessità ed autorganizzazione, ENEA:
http://www.plancton.com/papers/chaos.pdf
[42] - Thomas Heimburg, Andrew D. Jackson, On soliton propagation in biomembranes and
nerves, PNAS, Vol. 102, n°28, 2005,
http://www.pnas.org/content/102/28/9790.full
- Larissa S. Brizhik, Alexander A. Eremko, Nonlinear Model of the Origin of Endogenous
Alternating Electromagnetic Fields and Selfregulation of Metabolic Processes in Biosystems. In:
Electromagnetic Biology and Medicine, 2003,
https://www.researchgate.net/publication/232052225_Nonlinear_Model_of_the_Origin_of_En
dogenous_Alternating_Electromagnetic_Fields_and_Selfregulation_of_Metabolic_Processes_in
_Biosystems
- F. Contreras, H. Cervantes, M. Aguero and M. Najera, Classic and Non-Classic Soliton Like
Structures for Traveling Nerve Pulses, International Journal of Modern Nonlinear Theory and
Application, Vol. 2 No. 1, 2013, pp. 7-13
http://www.scirp.org/journal/PaperInformation.aspx?PaperID=28678
- Soliton model in neuroscience,
http://en.wikipedia.org/wiki/Soliton_model_in_neuroscience
[43] - D. V. Ahluwalia, Interface of Gravitational and Quantum Realms, 2002,
http://cds.cern.ch/record/555290/files/0205121.pdf
- D.V. Ahluwalia-Khalilova, A freely falling frame at the interface of gravitational and quantum
realms, 2005, http://arxiv.org/abs/hep-th/0503141
- Natalie Wolchover, Physicists Eye Quantum-Gravity Interface, 2013,
http://www.quantamagazine.org/20131107-physicists-eye-quantum-gravity-interface/
[44] Peter P. Gariaev, Uwe Kaempf, Peter J. Marcer, The DNA-wave Biocomputer, CASYS 2000,
the Fourth International Conference on Computing Anticipatory Systems, August 7-12th HEC
LIEGE, Belgium:
http://www.bcs.org/content/ConWebDoc/16170
[45] - C. Messori, Il Sole e la Luna. Sulla Natura dei Simboli e della Mente Umana , Federico
Ceratti Editore, 2000, ISBN: 9788886559553
- C. Messori, Le Metamorfosi della Meraviglia , Maremmi Editori Firenze Libri, 2004, ISBN: 13:
9788851704988
- C. Messori, Cells, Neurons, and Qualia: The Holographic Strange Attractor Model Journal of
Consciousness Exploration and Research, 11/2011
- C. Messori, A Cosmogonic Model of Human Consciousness , Journal of Consciousness
Exploration and Research, 12/2012
- C. Messori, Dalla Facoltà Acustico-Musicale alle Origini del Linguaggio Orale Fino al
Predominio della Cavità Orale che Genera il Mondo sulla Cavità Uterina che Genera la Vita. ,
Rivista Il Minotauro, 12/2012
- C. Messori, L'Antropologia della Coscienza Incontra la Fisica Quantistico-Relativistica: Modello
Cosmogonico EndoDynamoTensivo (EDT) e Mnemopoiesi (MOPS) , Rivista Il Minotauro,
06/2013
- C. Messori, Near-Death Experience nell'Epoca di Transizione da Homo Technologicus a Homo
Artificialis. [Near-Death Experience in the Age of Transition from Homo Technologicus to Homo
Artificialis] , Rivista Il Minotauro, 12/2013
APPENDICE
Dall’Eugenica al Ricapitolazionismo
L’eugenetica, o eugenica, nasce con Francis Galton (1822-1911), cugino di Darwin e anch’egli
animato dallo stesso spirito positivista.
Se per Darwin la selezione naturale selezionava tra le possibili variazioni casuali emergenti tra
individui di una specie quelle più favorevoli alla sopravvivenza e perciò alla riproduzione in un
particolare contesto ambientale, garantendo la sopravvivenza ai soli individui più adatti nella lotta
per la vita, per Galton il concetto assumeva valenze più marcatamente sociali e ideologiche. Galton
usa argomentazioni scientifiche che rivelano l’adesione a un preciso sistema di valori, quello di una
precisa classe sociale, la ricca borghesia di cui egli stesso faceva parte, e di una nazione, la Gran
Bretagna, che in quel periodo iniziava un lento processo di declino, sotto l’aspetto economico,
sociale e politico, minacciata all’interno dalle lotte sociali e all’esterno dai nascenti movimenti di
indipendenza e dalla ascesa di stati come la Germania e gli Stati Uniti. In questo senso in Galton i
concetti di evoluzione e di adattamento sono usati per legittimare una precisa leadership, quella
della ricca borghesia dell’industria e del commercio, che aveva fatto grande la nazione inglese nello
scenario internazionale e nei rapporti culturali tra razze. La teoria della selezione naturale,
insomma, è usata in funzione ideologica e conservatrice, come criterio di distinzione tra adatti e
non adatti, avendo però già deciso il criterio di individuazione degli adatti, come stabilirne le
caratteristiche distintive, in rapporto a chi o che cosa. Galton esprime una valutazione di merito
quando individua le qualità di coloro che meglio esprimono la capacità di eccellere in campo
sociale. Rispecchia cioè il punto di vista, i valori e gli interessi di quel ceto borghese che aveva
decretato la grandezza economica e politica della nazione. L’eugenica, come la scienza e come la
tecnica di cui era espressione, poteva contribuire al perfezionamento dell’umanità, liberandola dal
dominio del caso e della necessità.
Una patologica, oltre che ideologica, volontà di perfezionamento che dalla seconda metà
dell’ottocento prese corpo in una ondata di programmi di igiene razziale, la cui idea di razza pura
può contare ancora su numerosi attivisti e su un non trascurabile consenso.
Non tutti sanno, ad esempio, che le abominevoli pratiche di epurazione razziale adottate negli
anni Trenta dai nazisti, dagli stalinisti e dai loro alleati, erano già in uso da tempo in tutto
l’Occidente, dalla Svezia all’Italia, dall’Inghilterra al Portogallo, dalla Germania agli Stati Uniti
d’America, dal Canada alla Russia, dal Sudafrica all’Australia.
Hitler, che approfondì la sua conoscenza dell'eugenetica durante il periodo di detenzione nel
carcere di Landsberg, tra l’Aprile del 1924 e il Maggio del 1925, durante il quale scrisse il Mein
Kampf, estese la loro applicazione a milioni di persone inquinanti.
Soltanto nel corso della prima metà del ‘900, i governi occidentali, con il consenso quasi unanime
di tutte le forze politiche, culturali, sociali, religiose, avevano destinato decine di migliaia di
persone di pelle bianca ma appartenenti alle sottospecie di individui, per usare la terminologia
darwinista, che deviavano dagli standard della sana normalità, a misure di igiene razziale che
prevedevano, tra l’altro, la sterilizzazione forzata (soprattutto maschile per la facilità
dell’intervento), l’internamento nei lagher psichiatrici, la lobotomia frontale (una pratica talmente
diffusa e prestigiosa che nel 1941 il padre di John Fitzgerald Kennedy, Joseph P. Kennedy,
lamentando con i medici gli sbalzi di umore della figlia e il suo inopportuno interesse per i ragazzi,
fece sottoporre la figlia Rose Marie Kennedy, all’età di 23 anni, a un intervento di lobotomia
transorbiale, il cui esito fu la sua regressione ad uno stadio infantile, confabulazione,
deterioramento cognitivo, incontinenza), l’elettroshock e altre pratiche restrittive e medicochirurgiche che non hanno niente da invidiare a quelle utilizzate nei campi di sterminio nazisti e
stalinisti.
La prima classificazione delle razze umane fu di Linneo che, come altri suoi contemporanei, nel
Systema naturae (1735) cominciò a confondere il piano dell’aspetto fisico con quello delle qualità
psichiche sostenendo, tra l’altro, che gli europei fossero più intelligenti e razionali degli altri gruppi
razziali. Diversi studiosi si cimentarono con il problema di dare un’impostazione scientifica alla
classificazione. In analogia con la suddivisione mendeliana delle razze canine, equine, bovine,
ovine, etc. si cercò di basarsi su caratteri somatici e strutturali (antropometrici) come le dimensioni
o la forma del cranio o degli arti. Per esempio, André Retzius (1796-1860) suggerì di utilizzare
l’indice cefalico, cioè il rapporto tra la larghezza e la lunghezza del cranio, che diventò ben presto
un parametro internazionalmente riconosciuto non solo come connotato fisico, ma come elemento
di valutazione intellettuale e morale.
Nel 1854 Emil Huschke (1797-1858), noto anatomista che per primo descrisse diverse strutture
anatomiche umane (che portano il suo nome), scriveva: Il cervello del negro possiede un midollo
spinale del tipo trovato nei bambini e nelle donne, e oltre a ciò, si avvicina al tipo di cervello
trovato nelle scimmie antropomorfe superiori.
Tra le principali tesi deterministiche formulate in tale contesto, merita di essere citata, per la
rilevanza che tutt’oggi occupa nell’ambito delle neuroscienze, la teoria della ricapitolazione.
Secondo tale teoria, lo sviluppo embriologico delle forme di vita superiori ricapitola, in senso
darwiniano, lo sviluppo evolutivo filogenetico.
Nel XIX secolo, la ricapitolazione servì da teoria generale del determinismo biologico, utilizzata per
giustificare un ordinamento gerarchico e lineare della variazione umana: i gruppi giudicati
inferiori (in particolare, adulti neri, bianchi delle classi svantaggiate e donne) vennero equiparati,
per caratteristiche anatomiche e mentali, ai bambini maschi bianchi dei gruppi ritenuti superiori, e
presentati come esemplari viventi di fasi primitive dell’evoluzione lineare, progressiva e
ascendente di questi ultimi. La ricapitolazione influenzò numerose discipline. In ambito
psicoanalitico, ad esempio, Freud fu un ricapitolazionista, ritenendo che il bambino ricapitoli le
fasi della sessualità adulta dei propri antenati e che, in particolare, il complesso edipico infantile
rappresenti la ripetizione di un evento filogenetico (il parricidio originario) realmente avvenuto
tra adulti ancestrali (idea ampiamente sviluppata in Totem e tabù, del 1913, nell’ambito di
un’operazione di parallelismo tra psicologia del bambino e del nevrotico della società moderna e
psicologia dei popoli ritenuti primitivi).
Molti scienziati di ieri e di oggi sono ricapitolazionisti. Secondo lo psichiatra, anatomista e
patologo tedesco Paul Emil Flechsig (1847-1929) il neonato umano è un essere decerebrato dotato
di riflessi. Per il biologo, zoologo e filosofo tedesco Ernst Heinrich Haeckel (1834-1919) lo sviluppo
ontogenetico del bambino è la ricapitolazione delle principali tappe filogenetiche dalla comparsa
della vita sulla terra alla cronospecie umana attuale. Per il noto neurologo e neurochirurgo
statunitense Temple Fay (1895-1963), analizzando e comparando lo sviluppo locomotore dei
bambini e degli animali, nel corso dell’evoluzione della specie, possiamo selezionare vari livelli di
sviluppo: un livello spinale di locomozione ondulatoria, simile a quello dei pesci; un livello bulbare
di locomozione anfibia nell’acqua; un livello mesencefalico di locomozione anfibia a terra; un
livello sottocorticale di locomozione quadrupedica; un livello corticale di locomozione a stazione
eretta simile a quella dei primati; un livello neocorticale di locomozione eretta tipicamente umana.
Secondo il neuroscienziato statunitense Paul D. MacLean (1913-2007) il cervello sarebbe suddiviso
in tre macro-strutture adibite ad altrettante funzioni (Triune Brain): un cervello istintivo
rettiliano, un cervello pulsionale paleo-mammaliano e un cervello cognitivo neo-mammaliano.
Crystalline Water Dynamics in Biological Systems
Water is a polar molecule, it has positive and negative charges separated by a dipole length and
thus exists as an electric dipole. This is due to the 104.5o angle of the hydrogen bonds to the
oxygen atom. The electronegativity of the oxygen atom attracts the electron of the hydrogen atom.
Thus the region about the oxygen is negative compared to the region around the hydrogen atoms,
which are comparatively positve. Because of this molecular configuration, water molecules
mutually attract one another due to the (-) and (+) regions.
Individual water molecules are linked by these hydrogen bonds and form what are called clusters
(structural water). In addition, water at an interface, as with the atmosphere, has a surface tension
due to the polar interactions of water with other water molecules at the interface surface. Water
has the capacity to align into 400-500 hydration layers (Gerald H. Pollack, 2001). At body
temperature, there are about 300-400 water molecules cross-linked into a cluster. This clustering
imparts a crystalline like property to the water. Water is known to crosslink in arrays from linear to
helical. In the bodies of living organisms, the clusters form hydration layers around biological
molecules. The entropy of "structural" water is not as great as that of solid water as ice, due to the
greater content of thermal energy at body temperature. The water molecules of ice are aligned in a
linear array, with some branching, yielding a more rigid structure of expanded intermolecular
domains than that of liquid water. For this reason, ice is less dense than water and as such floats.
It is known from electronics that different patterns which contain information result within a
cluster depending upon its structure. An example of this is gamma-iron that is used for the
recording of information in digital form as discrete, local magnetic domains. Thus, depending on
its structure, each molecule has an oscillatory pattern (resonance frequency) that can be
determined by spectroscopy. It is known, through spectrographic analysis, that water and other
dipole molecules are able to be entrained to exogenous oscillatory patterns by rearranging their
cluster patterns. The cluster rearrangements then resonate with the entraining frequency.
Quantum electrodynamics calls for the existence of long range electromagnetic fields that can be
transmitted by large, hundreds of angstroms, coherent domains present in water (E. Del Giudice &
E. Preparata, 1994). Electromagnetic field (EMF) interactions afforded by the capacity of water to
support long range EMF fields yield the specific and rapid long distance attraction of coresonating
mates. Coherent domains with laser-like properties have been described in water63 (E. del Giudice,
G. Preparata, G. Vitiello, 1988) .
More recently, a unique type of stable (non-melting) ice crystal that maintains an electrical field
has been identified and characterized in water. In the example of living organisms, it is the
biological molecules of cellular architecture, membrane systems, cytoplasmic and nucleoplasmic
components and cellular organelles that entrain the water of hydration surrounding them. All
biological interactions occur in water, since, on the average, there are ten thousand molecules of
water per molecule of protein. These patterns persist through time, although not indefinitely
without continued entrainment. This entrainment is able to be determined by various types of
spectroscopy. These include quanta of electromagnetic waves (photons), quanta of the weak
interactions (bosons) and of sound (phonons).
Water molecules must line up in an electric field because of their bipolar nature. If the field
direction is reversed, the molecules will about-face. As long as the frequency of the imposed field is
not too high, water molecules will continue to flip with the imposed frequency. When the frequency
is raised beyond a critical value, the water molecules will no longer be able to respond in timely
fashion. For ordinary water, the critical frequency for this weakening is 20 GHz. In structural
water, the critical frequency drops to 10 KHz. Frequencies below these limits allow the structural
water to move in resonance with the entraining frequency. Alternating current frequencies (50 Hz,
60 Hz) are well within this range and are known to deleteriously affect many biological processes
63
See also: Quantum Coherent Water and Life, ISIS Report, 25/07/2011,
http://www.i-sis.org.uk/Quantum_Coherent_Water_Life.php
(E. F. Block, 1994).
The principle of Magnetic Resonance Imaging takes advantage of the orientation of the hydrogen
nuclei of water (by absorbing exogenously applied electromagnetic energy) to orient in an
exogenously applied stable magnetic field. Upon release from magnetic orientation, the hydrogen
nuclei emit relaxation quanta as photons that are recorded and yield a picture of the "structural"
water in the body. Water is thus known to orient to the presence of magnetic fields as well as
electric fields. This is particularly important when you understand that those persons with
"healing" abilities are able to charge water by the application of emitted electromagnetic fields
from their body, most usually the hands (R. Gerber, 2001).
Interface Water Clusters
http://oscillatorium.com/sitebuildercontent/sitebuilderfiles/interfacialwateremf052514.pdf
Fly UP