...

Caos e Complessità nel Vivente

by user

on
Category: Documents
96

views

Report

Comments

Transcript

Caos e Complessità nel Vivente
Corso SUS 2003
Caos e complessità nel vivente
FT Arecchi
Università di Firenze
e
Istituto Nazionale di Ottica Applicata
[email protected]
Prefazione
Questo libro è nato da un corso interdisciplinare con il titolo “Caos e
Complessità nel Vivente” indirizzato a un gruppo selezionato di studenti
universitari del IV anno di corso nella classe di Scienze (Medicina, Ingegneria,
Fisica Chimica, Matematica; mi riferisco al vecchio ordinamento, soppiantato
recentemente dal cosiddetto esperimento 3+2, che per ora suscita cautele e
perplessità). Il corso è stato organizzato nell’ambito della SUS (Scuola
Universitaria Superiore) dell’Università di Pavia in novembre-dicembre 2003.
Il libro si riferisce a temi di ricerca a cui ho dedicato il mio impegno di
investigatore e docente da decenni.
Nello svolgere il corso SUS ho avuto l’assistenza preziosa del mio collega ed
amico Marco Malvezzi, con cui avevo già condiviso una parte della mia
avventura intellettuale avendolo avuto come studente e giovane ricercatore. È
stato un piacere enorme ritrovarci dopo decenni, ciascuno col proprio bagaglio
di colpi messi a segno e…di buchi nell’acqua; Marco ha proiettato le mie
proposte sul suo spazio privato di cultura ed esperienza, ed ha reagito con
consigli preziosi che hanno aiutato la stesura di queste note, facendo inoltre da
interfaccia con gli studenti, di cui ha interpretato i dubbi e le perplessità.
Sono estremamente grato a Claudio Ciamberlini, dell’Istituto Nazionale di
Ottica Applicata, per il suo competente contributo di esperto di software che ha
permesso a queste note di assumere una forma decente.
INDICE GENERALE
0 INTRODUZIONE................................................................................................................................... 1
0.1 SCOPO DEL LIBRO ................................................................................................................................ 1
0.2 FISICA IN NUCE .................................................................................................................................... 4
0.3 COMPLESSITÀ FORMALE, ALGORITMICA, SEMANTICA - COME TRADURRE IL VISSUTO PERCETTIVO IN
UNA LINGUA CON LESSICO LIMITATO. ..................................................................................................... 8
0.4 CAOS DETERMINISTICO: ESEMPI DI APPLICAZIONE A PROCESSI PERCETTIVI E AD OROLOGI BIOLOGICI ... 10
0.5 FISICA E FISIOLOGIA .......................................................................................................................... 16
0.6 BIBLIOGRAFIA ................................................................................................................................... 18
PARTE I IL LESSICO DELLA FISICA............................................................................................... 19
1 LA FISICA DELL’ORDINE ............................................................................................................... 20
1.1 DINAMICA-ENERGIA.......................................................................................................................... 20
1.2 PARTICELLE E FORZE ......................................................................................................................... 28
1.3 ONDE ................................................................................................................................................ 31
1.4 BILANCI ENERGETICI. CHIMICA E VITA ............................................................................................... 34
1.5 I QUANTI ........................................................................................................................................... 37
2 LA FISICA DEL DISORDINE............................................................................................................ 44
2.1 LE MACCHINE TERMICHE E L’ENTROPIA.............................................................................................. 44
2.2 PROBABILITÀ .................................................................................................................................... 47
2.3 L’INFORMAZIONE .............................................................................................................................. 50
2.4 TERMODINAMICA E MECCANICA STATISTICA: DALL’INDIVIDUALE AL COLLETTIVO .............................. 52
3 LA FISICA DELL’ORGANIZZAZIONE .......................................................................................... 57
3.1 IL LIVELLO MESOSCOPICO - LE TRANSIZIONI DI FASE .......................................................................... 57
3.2 SINERGETICA E AUTO-ORGANIZZAZIONE ............................................................................................ 66
3.3 COME INDIVIDUARE I SOTTOSISTEMI .................................................................................................. 68
3.4 CALCOLATORI, COGNIZIONE E PENSIERO ............................................................................................ 69
4 I FATTI DELLA VITA ........................................................................................................................ 78
4.1 I FATTI DELLA VITA PER NON-BIOLOGI................................................................................................ 78
4.2 I FATTI DEL CERVELLO PER NON-NEUROLOGI ...................................................................................... 86
PARTE II GLI STRUMENTI FORMALI ............................................................................................. 92
5 LA DINAMICA LINEARE E LA SOVRAPPOSIZIONE DEGLI EFFETTI................................. 93
5.1 ALCUNE FUNZIONI DI AREA 1 ............................................................................................................. 93
5.2 LA TRASFORMATA DI FOURIER ........................................................................................................... 94
5.3 COME FOURIER SEMPLIFICA DERIVATE ED INTEGRALI ......................................................................... 97
5.4 GRADI DI LIBERTÀ DI UN SEGNALE ................................................................................................... 102
5.5 RISPOSTA LINEARE, CONVOLUZIONE, CORRELAZIONE....................................................................... 107
5.6 OPERAZIONI NON LINEARI: ETERODINA E OLOGRAFIA ....................................................................... 111
5.7 APPENDICI....................................................................................................................................... 114
A.1 RICHIAMI DI MATEMATICA .............................................................................................................. 114
A.2 ONDE ............................................................................................................................................. 117
A.3 FUNZIONI IN 2D.............................................................................................................................. 121
6 LA FISICA STATISTICA ................................................................................................................. 126
6.1 EQUILIBRIO TERMODINAMICO E CINETICA CHIMICA .......................................................................... 126
6.2 DIFFUSIONE..................................................................................................................................... 129
6.3 VARIABILI STOCASTICHE, PROBABILITÀ, MOMENTI E CUMULANTI..................................................... 132
6.4 PROCESSI STOCASTICI, PROCESSI DI MARKOV, EQUAZIONE DI FOKKER-PLANCK ............................... 134
6.5 DISTRIBUZIONI NON-GAUSSIANE, A CODA LUNGA (A LEGGE DI POTENZA).......................................... 139
7 DINAMICA NON LINEARE E CAOS............................................................................................. 144
7.1 DINAMICA LINEARE: SPAZIO DELLE FASI, EQUILIBRI STABILI E INSTABILI. ......................................... 144
7.2 DINAMICA NON LINEARE E LINEARIZZAZIONE ATTORNO AI PUNTI DI EQUILIBRIO; BIFORCAZIONI. ...... 148
7.3 SISTEMI ECCITABILI. MODELLO DI FITZHUGH E NAGUMO ................................................................ 153
7.4 ESPONENTI DI LYAPUNOV E ATTRATTORI, IL CAOS DETERMINISTICO................................................. 155
7.5 ATTRATTORI STRANI E DIMENSIONI FRATTALI .................................................................................. 158
7.6 SEZIONI DI POINCARÉ E MAPPE ITERATIVE ........................................................................................ 160
7.7 INFORMAZIONE DI UN SEGNALE CAOTICO ......................................................................................... 161
7.8 I QUATTRO LIVELLI DI DESCRIZIONE DI UN SISTEMA FISICO. .............................................................. 162
PARTE III LA FISICA DEL VIVENTE .............................................................................................. 163
8 LA COMPLESSITÀ BIOLOGICA .................................................................................................. 164
8.1 ORDINE E COMPLESSITÀ .................................................................................................................. 164
8.2 MODELLI DI VITA ............................................................................................................................ 180
8.3 LA COMPLESSITÀ BIOLOGICA. .......................................................................................................... 182
8.4 MOTORI MOLECOLARI, METABOLISMO ............................................................................................. 186
8.5 DALL’INDIVIDUO AL COLLETTIVO: LE FORME REGOLARI................................................................... 190
8.6 LE RETI ........................................................................................................................................... 192
8.7 BIBLIOGRAFIA ................................................................................................................................. 196
9 PROCESSI PERCETTIVI: SINCRONIZZAZIONE DI RETI E ASPETTI QUANTISTICI..... 197
9.1 FISICA DELLE PERCEZIONI ................................................................................................................ 197
9.2 FEATURE BINDING E CODICE TEMPORALE ......................................................................................... 203
9.3 ART (TEORIA DELLA RISONANZA ADATTIVA)................................................................................. 209
9.4 CAOS E DINAMICA NEURONALE: IL CAOS OMOCLINICO E LA PROPENSIONE ALLA SINCRONIZZAZIONE. 213
9.5 CHI LEGGE L’INFORMAZIONE CODIFICATA IN UNA RETE DI NEURONI: LA FUNZIONE DI WIGNER
RIMPIAZZA L’HOMUNCULUS ............................................................................................................... 222
9.6 IL RUOLO DEL TEMPO DI DECISIONE: ASPETTI QUANTISTICI NEI PROCESSI PERCETTIVI. ....................... 227
9.7 BIBLIOGRAFIA ................................................................................................................................. 233
10 CONCLUSIONI: LINGUAGGI E COMPLESSITÀ..................................................................... 234
10.1 I PROBLEMI APERTI ........................................................................................................................ 234
0 Introduzione
0.1 Scopo del libro
Un fisico si appoggia sul formalismo matematico e, anche se non si
preoccupa dell’eleganza delle derivazioni formali, si sente molto rassicurato
quando un pezzo di mondo, tradotto in un modello matematico, dà luogo a
equazioni risolubili, le cui soluzioni anticipano comportamenti futuri.
Robert Rosen, un biologo teorico, ha definito il cervello come un sistema
anticipatore, che estrae dal mondo un modello risolubile in un tempo più breve
di quanto quel pezzo di mondo ci metta ad evolvere effettivamente,
preparandosi così in anticipo ad intervenire con un controllo. È quel che
facciamo quando guidiamo l’auto e ci prefiguriamo come sterzare o frenare alla
vista di un ostacolo. Questa modellizzazione anticipatrice è tipica di ogni
cervello, come si può vedere quando un gatto cerca di catturare un topo e
questo cerca di sottrarsi.
Il fisico ha sublimato questi meccanismi anticipatori estraendo delle quantità
che descrivono al meglio il comportamento di un oggetto, e coordinando queste
quantità all’interno di un modello matematico risolubile.
Il piatto forte di questo libro è la Parte III, dove questa strategia, distillata in
alcuni secoli dai fisici, viene applicata ai fenomeni della vita. Un tale approccio
è parso alquanto ostico agli studenti di medicina e di biologia, dato che la loro
ratio studiorum non prevede un’adeguata preparazione matematico-fisica (a
differenza di quanto avviene, ad esempio, nelle scuole di medicina e biologia in
altri Paesi). Pertanto, a costo di offendere la sensibilità estetica degli studenti di
matematica e fisica, tutte le procedure formali sono state ipersemplificate, senza
esplorarne i limiti di validità, ma utilizzandole quando ciò era possibile, senza
discutere gli altri casi. Malgrado ciò, gli studenti di medicina hanno continuato
a provare disagio anche di fronte alle derivazioni matematiche più semplici.
D’altronde queste, oltre che rassicuranti (perché anticipatrici nel senso di
Rosen) sono anche belle, perché mettono in evidenza un parallelo fra le cose del
cosmo e le procedure del mondo matematico che apparentemente è una nostra
invenzione mentale; tant’è che – se volessimo applicare il linguaggio poetico di
un umanista come Nicola Cusano – parleremmo di armonia fra macro-cosmo (il
mondo fuori) e micro-cosmo (il mondo delle nostre invenzioni matematiche).
Per mitigare il traumatico impatto con un linguaggio esoterico, si è deciso
allora di presentare i fatti della fisica in maniera colloquiale (Parte I) con
2
F.T. Arecchi, Caos e Complessità nel Vivente
dovizia di figure e senza equazioni, o per lo meno, presentando un’equazione a
parole come il sommario di un precedente ragionamento, ad esempio al par.1.1:
lavoro = forza x spostamento
Con questo approccio discorsivo, un lettore proveniente da un’estrazione
culturale diversa (perché no? un poeta o un filosofo) può familiarizzarsi con
fatti assodati e universalmente noti della cultura scientifica – quali ad esempio
l’interferenza delle onde, o lo spettro di emissione del sole, o il rendimento di
un motore d’auto – e quindi procedere alla Parte III, che è il cuore del libro,
con un’informazione di base presentata peraltro in modo sufficientemente
critico da non ingenerare eccessivi ottimismi o pessimismi sul ruolo che la
scienza può avere come strumento interpretativo del reale.
Nel 1991 avevo scritto con mia moglie il libro “I simboli e la realtà”, Jaca
Book, Milano, (che d’ora in poi citeremo come SR), indirizzato a filosofi e
teologi, perché si rendessero conto dei poteri e dei limiti dei nostri simboli
concettuali nel rappresentare la realtà in modo così potente da non solo
anticiparne aspetti fenomenici ma da poter costituire la base per un’ontologia.
Ho qui ripreso largamente la parte centrale di quel libro, depurandola di tutte
quelle considerazioni critiche che in SR rimandavano alle analisi
epistemologiche sviluppate nelle altre due parti. Chi fra i lettori trovi troppo
tecnica questa fisica del vivente e voglia inserire le derivazioni presentate in
questo libro in un contesto più critico, confrontandosi con altri linguaggi, è
consigliato di consultare SR.
Qui mi sono messo strettamente dal punto di vista del fisico e ho evitato
qualunque considerazione meta-fisica.
Molte idee cruciali per il vivente, quali l’informazione o le transizioni di fase,
sono presentate a un livello euristico nella Parte I e poi ridiscusse con un
apparato formale nella Parte III. Per chi ritenesse sufficiente fermarsi
all’euristica, devo far presente che l’ordine in cui si consolidano le nostre
visioni del mondo è spesso invertito: prima cioè formuliamo il modello
matematico di un fenomeno non ancora capito, e solo dopo – una volta che
giocando con varianti dei parametri a disposizione abbiamo esplorato
teoricamente diverse situazioni possibili e verificato se nella realtà si realizzano
– siamo in grado di distillare una spiegazione euristica, da Parte I per
intenderci. Il tentare con parametri diversi corrisponde, nell’indagine
scientifica, a quanto facciamo per catturare gli aspetti di un oggetto nuovo: gli
giriamo attorno per apprezzarne punti di vista diversi; in effetti ogni nostra
percezione visiva è il risultato di una proiezione 2D (bidimensionale) sulla
Capitolo 0: Introduzione
3
retina. Solo il confronto tra le varie percezioni 2D memorizzate ci permette di
ricostruire l’oggetto in 3D, cioè nello spazio tridimensionale in cui sia noi sia
l’oggetto siamo immersi: si tratta di un metodo tomografico. È così che si è
sviluppato ad es. il cammino della genetica da Mendel al DNA. Oggi, sia
sull’origine della vita sia sui processi percettivi e astrattivi nel cervello, non
abbiamo completato il percorso; pertanto il racconto che ne facciamo è ancora
carente e dobbiamo pesantemente ricorrere all’ausilio formale. La sequenza dei
processi scientifici creativi dunque non è: prima la comprensione euristica di
Parte I e poi, con funzione decorativa, il formalismo, ma semmai il contrario:
prima ci rassicuriamo che le nostre protesi mentali (gli strumenti matematici) ci
permettano di controllare una situazione, e solo dopo cerchiamo il perché.
Demandare ad altri la parte formale ed accontentarsi dell’euristica vuol dire non
partecipare al processo creativo ma guardare come altri lo fanno, da spettatori,
come se fosse una divulgazione televisiva. Ricordo al riguardo, nell’Antonio e
Cleopatra di Shakespeare, Cleopatra che maligna su che cosa possa provare
l’eunuco di guardia nel pensare agli amori di Venere e Marte (W Shakespeare,
The tragedy of Antony and Cleopatra, Atto I, Scena V).
In ogni caso, anche se uno non si prefigge di contribuire in modo creativo a
un capitolo della scienza, ne può cogliere gli aspetti euristici solo dopo che
questo si sia consolidato. Ora molti aspetti fisico-chimici della vita sono stati
affrontati e sistemati nei decenni passati, ma quale sia il ruolo di caos e
complessità sui processi vitali è ancora un discorso aperto. Ad esempio esistono
classi di malattie, dette dynamical diseases, che non dipendono dai componenti
elementari ma sono il risultato di un malfunzionamento del sistema: tale è ad
esempio la perdita di sincronizzazione fra sistema cardiaco e respiratorio che
può portare alla morte i neonati; tale è l’instabilità glicolitica in base a cui un
muscolo sotto sforzo può dare contrazioni oscillatorie; tale sembra essere il
comportamento individuale di un neurone, pur essendo congruente il
comportamento di insieme di una folla di neuroni impegnati nello stesso
compito. Trattandosi di work in progress, non esiste per questi aspetti un
racconto divulgativo come fatto in Parte I. Spero dunque di aver persuaso il
lettore che vale la pena affrontare la fatica della Parte III.
La Parte II è una presentazione, alquanto semplificata, degli strumenti
formali necessari per affrontare la Parte III. Questi strumenti sono descritti in
modo intuitivo e con riferimento a situazioni concrete.
In questo capitolo definiamo in modo euristico i due termini, complessità e
caos, introdotti nel titolo; le proprietà formali saranno considerate in seguito.
4
F.T. Arecchi, Caos e Complessità nel Vivente
0.2 Fisica in nuce
La fisica (dal Greco physis, che in Latino fu tradotto con natura) indica la
scienza delle cose osservate; useremo pertanto il termine generico di fisica per
scienza, includendovi biologia ecc.
La fisica moderna nasce col programma di Galileo, enunciato nella lettera a
M.Welser del 1610: “non tentare le essenze (cioè non cercare di descrivere le
nature delle cose, con le conseguenti ambiguità legate a punti di vista
soggettivi) ma contentarsi delle affezioni quantitative”. Il programma è
esemplificato nella fig.0.1.
Figura 0.1: Frammentazione di un oggetto di esperienza nella collezione di quantità misurabili.
Ogni quantità misurata (sapore, colore, …) è codificata da un numero, che
corrisponde a un punto di una retta graduata dove si classificano le misure della
quantità; una collezione di numeri (come le barre del codice dei prezzi al
mercato) individua un oggetto: discuteremo in seguito il problema se questa
frammentazione sia esauriente, cioè assicuri una descrizione completa
dell’oggetto.
Dopo Newton, si tenta di descrivere l’oggetto solo con posizione e velocità
delle particelle costituenti.
Le correlazioni osservate fra quantità diverse suggeriscono relazioni
matematiche fra i numeri corrispondenti (induzione) o fra il numero di una
quantità n(t) a un certo tempo t e il valore n(t’) a un tempo successivo t’
(predizione).
Capitolo 0: Introduzione
5
Il modello è l’insieme delle quantità misurate e codificate in numeri n,
m…(concetti) più le relazioni matematiche (leggi) che collegano questi numeri,
e le cui soluzioni anticipano lo stato futuro del pezzo di mondo che stiamo
investigando.
Si pone allora la domanda: la fisica è modello o metafora del mondo?
Abbiamo visto che modello = collezione di termini univoci, dal cui gioco
mutuo emergono predizioni affidabili.
Invece metafora = parola con più significati, che si può adattare a circostanze
diverse.
Prendiamo ad esempio l’apprendimento di una lingua; può realizzarsi
- per modello: con grammatica e vocabolario;
- per metafora: direttamente nel vissuto, come fanno i bambini.
Vedremo che la fisica non può ridursi a modello; è questo il cuore della
complessità.
Intanto elenchiamo le modalità di interrogazione del mondo, per estrarre le
affezioni quantitative.
Sono veicoli di informazione per percezioni sensoriali:
- molecole (olfatto, gusto);
- contatto (tatto);
- onde (udito, vista).
Nel caso di apparati di misura, possiamo in più usare fasci di particelle
(elettroni, neutroni, ecc.).
Limitiamoci alla vista; nei cap.1 e 9 descriveremo aspetti del processo della
visione, intanto anticipiamo che – per il fenomeno della diffrazione – non
possiamo risolvere oggetti di taglia inferiore alle lunghezze d’onda a cui il
nostro occhio è sensibile.
Dobbiamo perciò distinguere fra visione diretta (anche se mediata da
strumenti che magnificano l’oggetto, quali i microscopi e telescopi) e visione
indiretta.
6
F.T. Arecchi, Caos e Complessità nel Vivente
Come vediamo
Figura 0.2: L’universo osservabile, o direttamente o indirettamente.
Nella visione diretta ad esempio della mela, catturiamo un’immagine bidimensionale sulla retina dell’occhio o sulla superficie sensibile della macchina
fotografica. Confrontando diverse immagini catturate da prospettive diverse, ci
costruiamo culturalmente l’aspetto tri-dimensionale: in effetti, ”girando”
attorno alla mela, le varie immagini sono compatibili e si raccordano fra loro.
Invece nella visione indiretta dobbiamo bombardare l’oggetto non visibile
con proiettili sonda, e osservare il ventaglio di direzioni su cui questi proiettili
sono sparpagliati dopo avere interagito con l’oggetto. La stessa sonda può dare
luogo a risposte diverse; quindi la singola risposta non è significativa, ma
bisogna accumularne una gran quantità e associare l’informazione alla
distribuzione dell’insieme delle risposte. E qui nasce una limitazione di
principio a qualunque nostra osservazione. Semplifichiamo l’oggetto ignoto
come una pallina senza struttura interna; vogliamo allora saperne posizione e
velocità per utilizzarle in una ricostruzione newtoniana del mondo (vedi
fig.0.1).
Ma per un’accurata localizzazione della posizione, dobbiamo usare proiettili
energetici, che disturbano la velocità; e viceversa per misurare la velocità
perdiamo di accuratezza nella posizione. Si ha cioè la relazione di
indeterminazione di Heisenberg: il prodotto dell’incertezza in posizione e di
quella in velocità non può scendere sotto un valore minimo. Se costruiamo un
Capitolo 0: Introduzione
7
piano posizione-velocità e cerchiamo di individuare una coppia di valori (x,v),
non possiamo localizzare il punto corrispondente ma abbiamo una curva a
campana di probabilità che si appoggia sull’area di Heisenberg. Se cerchiamo di
migliorare la risoluzione in una direzione, la peggioriamo nell’altra (fig.0.3)
Figura 0.3: Incertezza posizione-velocità nelle misure indirette.
Il limite vale per qualunque misura; solo che l’area di Heisenberg è così
piccola che nelle misure dirette non ce ne accorgiamo e reputiamo di aver
misurato la coppia senza che una misura disturbi l’altra.
Conclusione generale: il lessico della fisica è accurato solo a “grana grossa”;
se scendiamo a grana fina, ci sono sovrapposizioni fra le campane di incertezza
legate a misure distinte (che dovrebbero codificare concetti distinti, cioè termini
distinti del lessico della fisica).
Il formalismo in tal caso non è più sufficiente: occorre introdurre anche
un’informazione contestuale, così come avviene nel linguaggio ordinario.
Nel discorso scientifico rimane una componente metaforica ineliminabile,
che peraltro è il segreto della creatività, in quanto permette di esplorare scenari
non inclusi nella formulazione di partenza. È per questo che il programma della
fisica appare come aperto e non ha senso porsi la domanda: dove finisce
l’indagine fisica?
8
F.T. Arecchi, Caos e Complessità nel Vivente
0.3 Complessità formale, algoritmica, semantica - Come tradurre
il vissuto percettivo in una lingua con lessico limitato.
La complessità nasce dal tentativo di una costruzione logica del mondo a
partire dalle “affezioni quantitative” in cui frantumiamo un oggetto di
esperienza, piuttosto che “tentarne l’essenza” (Galileo, 1610).
Il tentativo è motivato dalla convinzione che si possa raggiungere una
descrizione completa di un oggetto di esperienza attraverso i suoi “atomi di
significato” (es. della mela: odore, colore, sapore, forma etc, oppure, più
radicalmente, gli atomi di cui è composta la mela). Ogni oggetto diventa così un
elemento definito di un insieme di Cantor (vedi R.Carnap, 1931: La costruzione
logica del mondo).
Tre limiti a questo programma riduzionistico corrispondono a tre possibili
caratterizzazioni della complessità, formale, algoritmica e semantica.
a) formale
(1931, Goedel). Teorema di indecidibilità:
estraendo tutti le possibili conseguenze da un corpo finito di assiomi, prima o
poi si arriva a una proposizione indecidibile all’interno della teoria (cioè
basandosi sul corpo di assiomi); l’equivalente “macchinistico” fu enunciato da
Turing 1936, come impossibilità di una macchina universale di calcolo (cioè un
computer) di fermarsi completando l’esecuzione per un generico input.
Dunque, non possiamo costruire una teoria chiusa del mondo, cioè dedurre
tutti gli aspetti della nostra esperienza a partire da un numero finito di assiomi.
b) algoritmica
(~1970, Kolmogorov e Chaitin). La complessità è il costo di un calcolo; ha
pertanto due aspetti:
- spaziale: quantità di risorse di macchina da impegnare;
- temporale: tempo necessario all’esecuzione.
Esploriamo questo secondo aspetto. Sia t1 l’unità di tempo necessaria per
descrivere un singolo elemento, e si abbiano N elementi. Se le loro proprietà si
sommano (come i fagioli in un sacco) cioè se l’oggetto composto di N elementi
è cresciuto per “giustapposizione”, allora il tempo totale necessario T è:
T = N t1
Se invece la crescita è per “intussuscezione” (uso un vecchio termine della
filosofia della natura che vuol dire che gli elementi non si limitano a
giustapporsi, ma si accoppiano fra di loro con modalità non prevedibili a partire
da un’ispezione del singolo elemento; es. tipico: una collezione di vocaboli di
Capitolo 0: Introduzione
9
un lessico, disposti convenzionalmente in ordine alfabetico nel dizionario, e
come invece si organizzano nel verso di un poeta) allora il tempo totale non è la
semplice somma dei tempi individuali, e addirittura l’estensione (“size”) N del
sistema composto può figurare ad esponente:
T’ = (t1) N
P. es. sia t1 =1 microsec = 10–6 sec e N=10, allora:
T = 10 t1 = 10-5 sec
e
T’= t110 = 10+4 sec
Che è ancora praticabile (si tratta di meno di tre ore), ma se N=100, allora
T=100 t1 = 10-4 sec
e
T’ =t1100 = 1094 sec
Molto più lungo dell’età dell’universo che è circa:
107 sec/anno x1010anni = 1017 sec.
c) semantica
La complessità semantica è la più fondamentale; essa rappresenta il limite
della presunzione ideologica della fisica dei componenti elementari di essere
l’unica descrizione rilevante del reale: il cosiddetto riduzionismo.
Supponiamo di scomporre una mela nelle sue affezioni quantitative, cioè
nelle proprietà distinte che possiamo misurare: sapore, odore, colore, forma etc.
Ognuno di questi punti di vista corrisponde ad un apparato di misura che
fornisce un numero. Se abbiamo scelto un numero adeguato di indicatori, la
collezione ordinata dei numeri corrispondenti a ciascuna misura dovrebbe
caratterizzare una mela. Ciò può bastare per il rifornimento del magazzino di un
mercato, però non esaurisce la realtà della mela.
In effetti l’intero (la mela) precede le misure separate, che forniscono
quantità derivate, non primitive: si appoggiano alla mela ma una volta enucleate
(tecnicamente: astratte) non permettono la ricostruzione logica della mela. A
parte una indecidibilità di Goedel-Turing o un aumento esponenziale del tempo
di calcolo, non siamo mai sicuri che nel futuro non compaia un ulteriore punto
di vista inedito che sia misurabile e che arricchisca la descrizione della mela. Si
ricordi quanto detto sulla ricostruzione tomografica degli aspetti 3D di un
oggetto.
Prendiamo l’esempio del genoma umano. Sono stati individuati 30. 000 geni,
cioè tratti di sequenze di basi che codificano proteine; ma unendo tutti i tratti si
arriva all’1% della lunghezza totale del genoma; il 99% – non codificante –
espleta delle funzioni che stiamo appena cominciando a chiarire. L’insorgere di
correlazioni tra tratti diversi (per esempio un gene la cui espressione dipende
10
F.T. Arecchi, Caos e Complessità nel Vivente
dalle proteine codificate da altri geni) rende complesso il problema nel senso
che non ne abbiamo esaurito il significato con il semplice elenco dei geni.
Gli esempi più convincenti vengono dalla linguistica. Sappiamo bene che
prima nasce il linguaggio articolato, la poesia, le favole, e poi da queste si
estrae un lessico. L’operazione inversa, partire dal vocabolario e programmare
al computer un testo letterario, è fallimentare. In questo ordine di complessità
rientra la traduzione da una lingua all’altra. Esistono macchinette per cavarsela
alla stazione o al ristorante in Cina; ma per un testo elaborato, per esempio
Omero, il traduttore non è automatico: piuttosto è un bilingue che vive le
situazioni di Ulisse in Greco e le racconta in Italiano. Questo ruolo del
traduttore è discusso in un bel libro: Il grande codice (la Bibbia e la letteratura)
di Northrop Frye (Einaudi, 1986); l’autore si pone il problema: come mai la
Bibbia scritta in Ebraico (lessico di 5.000 vocaboli) può essere tradotta in
Inglese (il cui lessico comprende 500.000 vocaboli)? La risposta è che una
procedura complessa come la traduzione letteraria non può essere tradotta in un
elenco di operazioni di macchina, e perciò non può essere automatizzata.
0.4
Caos deterministico: esempi di applicazione a processi
percettivi e ad orologi biologici
Il caos deterministico è legato alla mancanza di stabilità trasversa delle
traiettorie. Rappresentiamo una traiettoria, di quelle che abbiamo imparato a
calcolare con le regole nate con Newton e sviluppate nei secoli successivi, con
un tratto di retta (fig.0.4).
In direzione ortogonale alla traiettoria possiamo avere un paesaggio
dell’energia a valle o a colle. È un modo figurato per rispondere alla domanda:
quanto costa in energia (che rappresentiamo in questo schema come altezze)
turbare la traiettoria a partire da un certo punto? Nel paesaggio a valle, un
eventuale errore nella condizione iniziale viene riparato al passare del tempo;
nel paesaggio a colle, viene amplificato e rende incerta la previsione sul resto
della traiettoria; donde l’apparente ossimoro: caos perché non si può prevedere
il futuro al di là di un tempo limitato (corrispondente alla caduta dal colle),
deterministico perché non è l’effetto statistico di una folla di perturbazioni
incontrollate, ma insorge in sistemi semplici, descritti da un numero piccolo di
equazioni dinamiche.
Precisamente, Poincaré (1890) mostrò che basta passare da 2 a 3 equazioni
(diremo: da 2 a 3 dimensioni dinamiche, abbrevieremo con 2D e 3D) perché
possa insorgere il passaggio da valle a colle. Vedremo nella parte II che è
essenziale avere forze non lineari (il termine gergale sarà chiarito ad
Capitolo 0: Introduzione
11
abundantiam nelle Parti I e II) altrimenti qualunque sistema, per ricco che sia di
componenti, può dinamicamente scomporsi in sistemi regolari giustapposti.
Figura 0.4: In alto a sinistra: una traiettoria dinamica per un sistema dinamico a due gradi di
libertà (2D), schematizzata dalla linea solida con freccia, ha stabilità traversa, nel senso
che, se esploriamo punti vicini alla traiettoria, i moti che nascono da essi tendono a
convergere verso la traiettoria originale; rappresentiamo ciò come il confinamento dei
punti sulla linea di fondo-valle. In alto a destra: da 3D in su, Poincaré mostrò che è
possibile un’instabilità traversa, simbolizzata da una traiettoria pericolosamente arroccata
sulla cima di un colle; qualunque incertezza ad un certo istante si trova amplificata nei
tempi successivi dalla caduta a destra o a sinistra del colle: questa incertezza che cresce
nel tempo è detta caos deterministico. Quanto detto vale per un singolo sistema isolato,
retto da equazioni semplici; se ora il sistema è immerso in un ambiente esterno, esso
riceve perturbazioni non descrivibili con una formula matematica precisa, ma
caratterizzate solo da medie statistiche. Il risultato (in basso a sinistra) è che non avremo
una traiettoria definita ma un insieme di traiettorie, che rappresentiamo come la superficie
di un fiume più o meno profondo, a seconda dell’entità del disturbo ambientale (il
cosiddetto noise). Nel caso caotico, sembrerebbe non aver senso applicare il noise, perché
la traiettoria si sparpaglia già di suo; in effetti vedremo al cap.7 che esistono situazioni di
ipercaos in cui coesistono traiettorie caotiche diverse, ed ognuna con una sua stabilità; per
cui, il noise in tal caso può stimolare il salto da una situazione caotica a un’altra.
Descriviamo un’applicazione del caos al sistema solare. Finché consideriamo
il problema a due corpi Terra-Sole siamo nel caso stabile; ma se teniamo conto
12
F.T. Arecchi, Caos e Complessità nel Vivente
di altri corpi la dinamica di un qualunque pianeta è instabile, con una fuga
dall’orbita ideale su tempi dell’ordine di 500 mila anni: è perciò che non ce ne
siamo accorti nei 3 mila anni di osservazioni astronomiche! Una possibile
conseguenza è che 65 milioni di anni fa un asteroide, che fino ad allora aveva
orbitato fra Marte e Giove, intraprendendo un’orbita allungata sia caduto sulla
Terra, causando una catastrofe ecologica che ha determinato l’estinzione di
massa dei dinosauri.
Il caos e la complessità sono oggi applicati a molti fenomeni e ne spiegano
l’insorgenza di apparenti anomalie, quali un tornado in meteorologia, o una
crisi nei mercati finanziari, o un black-out nella distribuzione di energia
elettrica in una regione. Una volta scoperto il caos nel singolo sistema
dinamico, che succede se ne mettiamo insieme un numero grande, con
accoppiamenti mutui, con reti di feedback (chiamiamo feedback il fatto che un
sito A, ricevendo un segnale da B, reagisca mandando indietro un segnale
risposta che a sua volta modifica B). La grossa sfida è il controllo del caos, che
permette di trasformare un singolo oggetto imprevedibile in una rete di oggetti
accoppiati con comportamento regolare.
Nel cap.9 vedremo come un neurone, che è un sistema dinamico non lineare
e pertanto genericamente affetto da caos, si accoppia in rete agli altri di una
certa zona cerebrale, ad esempio la corteccia visiva o auditiva, contribuendo ad
una percezione definita
Anticipiamo dal cap.9 la presentazione del codice temporale che sta alla base
del feature binding (collegamento fra le attività di neuroni esposti a stimoli
localmente diversi, ma che devono contribuire a formare una percezione
significativa): vedi fig.0.5. Per collegarsi con gli altri, un neurone codifica
l’informazione che a sua volta ha ricevuto in un potenziale d’azione che viaggia
sull’assone e che consiste di brevi impulsi di durata 1 msec (spikes) separati in
media di 25 msec. Gli intervalli temporali fra spikes successive (ISI=inter spike
interval) dipendono dallo stimolo cioè codificano uno specifico segnale: un po’
come il codice a barre di un prodotto in base a cui paghiamo alla cassa. Come si
può vedere da fig.0.5, tutti quei neuroni nei cui campi recettivi (per la
definizione, andare al cap.9) entrino parti del gatto, (i cerchietti neri della
figura) hanno treni di spikes sincronizzati. Lo stesso accade per la donna (i
cerchietti bianchi).
Si noti che così stiamo introducendo un codice temporale (CT) ben più
sofisticato della semplice posizione dell’ago (PA) di uno strumento di misura
(più modernamente, invece di una presentazione analogica come sul cruscotto
di un’automobile, oggi abbiamo per lo più presentazioni numeriche:
Capitolo 0: Introduzione
13
indicheremo sempre la lettura finale con PA). Come vedremo in dettaglio nel
cap.9, CT permette una ricchezza di informazione. Supponiamo ad es. che la
minima distanza fra due spikes successive sia 3 msec e che il tempo di lettura
per avere una percezione sia 180 msec (sono dati abbastanza vicini a quelli
fisiologici); avremo pertanto 180/3= 60 finestre temporali 0/1 (c’è/non c’è
impulso) sull’intervallo totale di misura. Questo permette di costruire 260, cioè
circa 1020, possibilità diverse (messaggi), che differiscono uno dall’altro per le
posizioni e i numeri di 0 e di 1; di volta in volta, l’informazione è codificata
dalla sequenza binaria, ad es. 001011100…e così via per 60 volte. Invece in PA
l’ago dello strumento (o il display digitale) darebbe solo 60 posizioni diverse,
cioè 60 possibili messaggi, che differiscono uno dall’altro per la posizione (ogni
volta unica!) del cursore. A livello precedente la comparsa dei cervelli, già la
natura aveva sfruttato l’esplosione combinatoria per arricchire la panoplia
dell’informazione; in effetti con solo 92 atomi (anzi con molto meno) ha
combinato centinaia di migliaia di molecole.
Figura 0.5: Feature binding: la donna e il gatto sono rappresentati ognuno da un insieme di
neuroni, indicati rispettivamente dai cerchi vuoti e da quelli pieni. Questi insiemi
racchiudono i neuroni che rivelano i dettagli specifici degli oggetti visuali (come, ad
esempio, l’orientazione dei segmenti di contorno). Le relazioni tra i dettagli possono
essere codificate grazie alle correlazioni temporali: neuroni che fanno parte dello stesso
insieme scaricano impulsi elettrici in sincronia, mentre non ci sono relazioni temporali tra
neuroni che si riferiscono ad oggetti diversi.
Ma come fa un neurone ad adattare l’ISI al variare dello stimolo? Il segreto
sembra consistere in una dinamica detta omoclinica (HC=homoclinic chaos)
cioè nel continuo ritorno a una sella, come mostrato in fig.0.6 (per capire come
14
F.T. Arecchi, Caos e Complessità nel Vivente
la stabilità trasversa della traiettoria, legata in fig.0.4 a superficie cilindriche,
sia ora legata ad una sella, si vedano le proprietà di questo punto stazionario di
una superficie nell’appendice del cap.5): la traiettoria si avvicina alla sella da
una direzione a e ne scappa dalla direzione γ ; in 3D (altrimenti non c’è caos!)
il sistema rallenta più o meno attorno alla sella, pertanto il periodo del ciclo
omoclinico è variabile. Inoltre nella zona della sella il sistema è molto sensibile
alle influenze esterne (in gergo diciamo suscettibile) per cui il tempo di
permanenza può essere alterato per effetto di uno stimolo esterno. Ciò permette
a un gruppo di neuroni accoppiati di influenzare mutuamente i propri ISI e di
sincronizzarsi, oscillando tutti con lo stesso ritmo.
Figura 0.6: Un sistema dinamico abbia traiettorie chiuse, con il ritorno ad ogni giro ad una sella
S, a cui si avvicina più rapidamente di quanto ne scappi dalla parte trasversale. Se ora
rappresentiamo la posizione lungo la traiettoria con un segnale verticale in funzione del
tempo, i larghi percorsi P lontano dalla sella daranno impulsi P tutti uguali, separati però
da un intervallo più o meno lungo che rappresenta il tempo di permanenza nella zona di
sella. Conviene visualizzare il moto lungo l’orbita (detta in gergo omoclinica per indicare
che ritorna sempre alla stessa sella) come il moto di una pallina pesante: è intuitivo che
dopo l’avvicinamento ad S e prima della fuga da S, la pallina rallenta e diventa perciò
suscettibile a variare il suo tempo di permanenza attorno ad S in base ad uno stimolo
esterno: il sistema può perciò essere sincronizzato da un segnale. Su ciò torneremo in
dettaglio nel cap.9.
Capitolo 0: Introduzione
15
Come sappiamo da Hubel e Wiesel (cap.9), i neuroni dei primi stadi corticali
rivelano aspetti elementari del loro campo recettivo, quali ad esempio barre
orientate, quindi ci aspetteremmo che i vari neuroni di un gruppo abbiano ISI
diversi, a seconda dello stimolo che ciascuno riceve. Per combinare gli ISI in
una sola sequenza sincronizzata su tutti i neuroni esposti al gatto occorre
riaggiustare la soglia di ciascun neurone, in modo che l’emissione della singola
spike sia un compromesso fra lo stimolo che arriva dalla retina e la propensione
del neurone a sparare la spike, propensione stabilita appunto dalla soglia. Il
riaggiustamento avviene con segnali top-down corrispondenti ad aspettazioni
della memoria semantica, la quale fa riferimento ad apprendimenti pregressi in
cui ha immagazzinato la percezione del gatto (fig.0.7). È questa l’ipotesi più
plausibile, formulata da S.Grossberg nel 1976 e detta ART (adaptive resonance
theory).
Figura 0.7: Processi bottom-up e top-down nel sistema visivo e nell’attenzione focale.
Il meccanismo di sincronizzazione descritto si basa sul ruolo cruciale della
sella: quando un sistema dinamico si comporta così diciamo che ha una grande
propensione a formare una rete sincronizzata. In par.9.2 discuteremo la
propensione più in dettaglio; intanto sottolineiamo che tutti gli orologi biologici
devono essere adattabili a situazioni ambientali diverse, perciò è plausibile che
abbiano un comportamento dinamico simile a quello appena delineato. In tab.1
presentiamo i più importanti orologi biologici. I periodi indicati per ciascuno
sono medi, non vanno ritenuti dei valori fissi come sarebbe per un orologio a
16
F.T. Arecchi, Caos e Complessità nel Vivente
quarzo, in modo che possano modificarsi per rispondere ad esigenze diverse.
Ad esempio, il pace maker cardiaco ha un periodo medio di 1 s, ma se durante
uno sforzo fisico (una corsa) c’è richiesta di sangue ossigenato allora il periodo
può ridursi a 0,5 s o meno, e durante il riposo notturno può aumentare a 1,5 s o
più.
Come vedremo al par.8.2, l’adattabilità (fitness) è una delle tre caratteristiche
essenziali per la vita nella visione di Darwin.
0.5 Fisica e fisiologia
L’interesse del fisico ai processi fisiologici è di vecchia data, da Aristotele a
Helmholtz. In effetti, la distinzione tra fisica e fisiologia è recente, quando la
fisica – invece di essere la scienza di tutti i fenomeni naturali – si è organizzata
attorno ad un programma riduzionistico, limitandosi a studiare quei fenomeni
che siano riconducibili a interazioni tra componenti elementari.
La crisi del programma riduzionistico è legata allo studio dei fenomeni
complessi, in cui la dinamica non lineare induce comportamenti di sistema non
prevedibili a partire dalla descrizione dei componenti.
Per semplificare le tappe del processo di ricerca, possiamo dire che il
riduzionismo credeva di poter spiegare i comportamenti globali come somma di
comportamenti individuali; questa tendenza era appoggiata da successi
sperimentali nei campi più disparati, dalla fisica dei processi atomici e
subatomici alla descrizione dei processi di rivelazione della luce sulla retina,
alla trasformazione dell’assorbimento molecolare di un fotone nel blocco di un
canale ionico con la conseguente creazione di un impulso elettrico, e così via.
Per contro gli approcci olistici, di tipo psicologia della Gestalt, che insistevano
Capitolo 0: Introduzione
17
sull’unicità della percezione globale, il cui significato non può emergere dalla
semplice somma dei contributi particolari, sembravano arbitrarie petizioni di
principio in quanto non in grado di stabilire correlazioni logiche con i processi
elementari.
Se l’approccio riduzionistico avesse avuto una validità universale, allora
combinando elementi di percezione elementari si sarebbe dovuto riuscire a
modellizzare la percezione globale, o in un computer o come protesi di un
robot. I tentativi in questa direzione non hanno avuto molto successo. La
ragione è legata alla dinamica non lineare. Per un’interazione non lineare non
vale la regola della somma, ma possono emergere comportamenti globali nuovi,
non prevedibili dallo studio dei singoli componenti.
Sulla scia del successo nell’identificare procedure di riconoscimento
elementari, associate a singoli neuroni si pensò di avere risolto il problema della
conoscenza. Ma in un mondo siffatto in cui ogni neurone deve codificare una
specifica informazione ed essere deputato solo a quella (la teoria del “neurone
della nonna”) l’aumento di conoscenza implicherebbe una crescita spropositata
del numero di neuroni.
Invece, come visto nelle sezione precedente, la congettura vincente è che i
neuroni abbiano un’ulteriore libertà, cioè la possibilità di una codifica
temporale. Precisamente, essi si comportano come circuiti non lineari che, al di
sopra di una soglia, lanciano treni di impulsi nervosi la cui frequenza (cioè il
numero di impulsi per unità di tempo) è proporzionale alla distanza da soglia.
Questo suggerisce come spiegare una percezione unitaria di una figura con
differenti livelli di luminosità, colore, forma, eccetera: basta che i neuroni
elementari deputati a rivelare ciascuna di queste caratteristiche sincronizzino le
loro frequenze di scarica in modo da costituire un collettivo che in quel
momento porta a individuare quella configurazione (si veda il gatto di fig.0.5),
lasciando però i vari neuroni liberi di riorganizzarsi successivamente in altri
collettivi (feature binding).
Ma chi riaggiusta le soglie? Non certo gli stimoli che vengono dalla retina,
cioè dal “basso” (bottom-up) in quanto questi differiscono da un neurone
all’altro a seconda che i rispettivi campi ricettivi siano fonte di più o meno
segnale. Occorre che ci sia un ritorno, un “feedback”, dal bagaglio di memorie
pregresse, dove sono registrati riconoscimenti precedenti di figure significative.
Ciò può avvenire con un riaggiustamento delle soglie dovuto a segnali da aree
corticali superiori, cioè dall’”alto” (top-down). Secondo questa congettura le
categorie già memorizzate suggeriscono un’ipotesi interpretativa (aspettativa).
Se combinando le due correnti di stimoli (top-down e bottom-up) si finisce col
18
F.T. Arecchi, Caos e Complessità nel Vivente
sincronizzare stabilmente un collettivo di neuroni che così fornisce
un’immagine significativa, allora si crea una risonanza, cioè i valori di stimolo
vengono confermati e si arriva a una percezione coerente. Questo è il succo
della ART.
Feature binding e ART sembrano non appartenere all’universo del fisico, il
quale un tempo si limitava ai processi elementari precedentemente accennati.
Invece la fisica della complessità offre un quadro entro cui collocare
convenientemente anche queste congetture, a patto che quella parola misteriosa
(perlomeno: per la fisica) significativo, evidenziata due volte nella frase
precedente, acquisti un senso. Di questo parleremo al cap.9.
0.6 Bibliografia
Per i capitoli 0-4, mi riferisco al libro didattico: F.T.Arecchi e I.Arecchi, I
Simboli e la Realtà, Jaca Book, Milano1990, e all’apparato di note
bibliografiche ivi contenuto.
Per i capitoli 5-7, trattandosi di materiale didattico, ho attinto a vari miei testi
e dispense per studenti.
Per i capitoli 8 e 9, dove affronto argomenti non ancora trattati in
presentazioni didattiche, accludo una bibliografia specifica.
PARTE I Il lessico della fisica
1 La fisica dell’ordine
1.1 Dinamica-Energia
I Greci avevano sviluppato la geometria (specie con Euclide) e la statica, cioè
i legami; di equilibrio fra corpi fermi (con Archimede) ma non avevano capito
come un corpo si muove. Ciò era fra l’altro dovuto alla mancanza di buoni
orologi (provate a fare un esperimento misurando ripetutamente intervalli di
tempo con una clessidra a sabbia, e confrontate le misure con quelle fornite dal
vostro orologio!).
L’osservazione di Galileo (1581) dell’isocronismo delle oscillazioni del
pendolo fornì un orologio affidabile, e 50 anni più tardi, nei Discorsi (1638)
Galileo creava la Dinamica come scienza del moto, compito specifico della
fisica, da Galileo e Newton in poi, è stato - come si è detto - quello di isolare,
dalle osservazioni, pochi elementi quantitativi traducibili in numeri.
Rispetto alla ricchezza del reale, la scelta non poteva non essere difficile. Per
questioni di raccordo culturale, Galileo, Newton e i loro contemporanei
selezionarono fra i molti concetti correnti nei dibattiti scolastici sulla fisica
quelli che apparivano più sensati e tentarono di associare a ciascuno una
specifica operazione di misura. Ad esempio, l’idea intuitiva di «forza» come
causa del moto suscita subito due conseguenze:
a) Come si indica che si è creato un moto? Gli aristotelici dicevano: attraverso
la velocità. Galileo (ma pare che l’argomento fosse stato già sviluppato da un
suo maestro) obiettò che la velocità si conserva anche in assenza di forze; è
perciò la variazione di velocità, o accelerazione, che va presa come
proporzionale alle forze.
b) Se ci sono due forze opposte, queste si possono compensare (equilibrio) in
modo tale che non ci sia moto. Allora, per misurare una forza, basta misurare
una forza compensatrice più accessibile alla misura. Ciò si utilizza sia nei
dinamometri a molla, dove l’allungamento della molla misura quanto è
grossa la forza che sta tirando l’estremo della molla, e che perciò la forza
elastica della molla sta compensando, sia nella bilancia del fruttivendolo
(quella vecchia, a due piatti) dove si misurano i pesi da mettere sul piatto
destro per equilibrare il peso della verdura sul piatto sinistro.
Ricordiamo due termini, che sono entrati nell’uso corrente, perdendo la loro
aura di termini dotti:
cinematica = studio puramente geometrico del moto, indipendentemente
dalle cause che lo generano;
Capitolo 1: La fisica dell’ordine
21
dinamica = studio del moto correlato alle cause (le forze).
La fisica del ‘600 e del ‘700 è stata prevalentemente dinamica. Anzi il
successo dei primi modelli di Galileo e Newton generò la credenza che tutta la
fisica si potesse ridurre a moto reciproco delle particelle che compongono un
corpo per effetto delle forze mutue. Questa credenza (meccanicismo) ebbe un
supporto filosofico nel parallelo tentativo di riduzione delle «sostanze» (in
senso aristotelico) ad un’unica sostanza: la «res extensa» (Cartesio).
Prima di andare avanti è bene chiarire perché si è parlato dei «modelli» di
Galileo (piano inclinato, pendolo) e Newton (moto Terra-Sole). Il modello
rappresenta un possibile modo di operare della realtà. «Forse» è il modo vero,
ma di ciò saremmo sicuri solo se la nostra traduzione della Realtà nello spazio
dei Simboli fosse univoca.
Questa era la profonda convinzione di Galileo e Newton, ma la fisica
moderna ha esplorato modi alternativi di tradurre in simboli lo stesso pezzo di
mondo, e questi modi alternativi dimostrano spesso una fecondità notevole.
Diremo allora che per una stessa realtà esistono più modelli plausibili, e che la
scelta dipende dalla fecondità.
Ma torniamo alla dinamica, e consideriamo un moto molto semplice: quello
di una pallina che cade su un piano inclinato (fig.1.1-I). Rappresentiamo la
forza con vettori, cioè con segmenti orientati secondo la direzione delle forze e
di lunghezza proporzionale alle forze stesse. Nel caso della forza peso, avremo
un vettore verticale, che ha lo stesso valore in qualunque posizione, perché il
peso non dipende dall’altezza.
Ora, sappiamo fin da Archimede che se due forze tirano in direzione diversa,
la forza risultante si ottiene sommando con la regola del parallelogramma (cioè
è la diagonale del parallelogramma che ha per lati le due forze componenti).
Facciamo l’operazione opposta: decomponiamo il peso, verticale, in una
componente perpendicolare al piano (che non avrà nessun effetto, perché il
piano si considera rigido, cioè non deformabile) e una parallela, che sarà l’unica
parte effettiva. Questa parte varia con l’inclinazione, come mostrato in fig.1.1II. Nel caso invece che la pallina si muova sul fondo di una tazza, la forza
cambierà da punto a punto (fig.1.2). Disegniamo due assi graduati, uno
orizzontale su cui misuriamo gli spostamenti rispetto al fondo tazza {+ a destra,
- a sinistra) e uno verticale su cui misuriamo le altezze della pallina. Se la forma
della tazza è parabolica, si dimostra facilmente che la forza varia in modo
proporzionale allo spostamento, pertanto il suo grafico è una retta.
22
F.T. Arecchi, Caos e Complessità nel Vivente
Figura 1.1: a) Pallina pesante che cade su uno (I) o tre (II) piani inclinati privi di attrito. b)
Forze corrispondenti.
Quando un moto è indotto da una forza che è proporzionale allo spostamento,
diremo che la dinamica è lineare. Per le dinamiche lineari vale la
sovrapposizione degli effetti: cioè possiamo valutare tutte le proprietà
dinamiche per una forza unitaria, e se la forza aumenta o diminuisce di
intensità, limitarci ad alterare le proprietà di fattori di scala convenienti senza
dover rifare lo studio per ogni valore di forza.
Figura 1.2: a) Pallina pesante che si muove senza attrito in una tazza di forma parabolica. A
diverse posizioni corrispondono forze con diverse direzioni (+ se verso destra, - se verso
sinistra) e intensità (la lunghezza della freccia denota l’intensità). b) Diagramma delle
forze al variare dello spostamento del fondo della tazza.
Capitolo 1: La fisica dell’ordine
23
Torniamo alla fig.1.2, il fondo tazza è il punto di equilibrio dove la forza si
annulla. Se consideriamo anche l’attrito, dopo un po’ il moto si spegne e la
pallina rimane sul fondo. Se invece idealizziamo un mondo senza attriti (fu
questa la genialità di Galileo) allora il moto continua per sempre. Ma fra dove e
dove? Appoggiamo inizialmente la pallina sul lato sinistro della figura. Essa
cade e raggiunge il fondo. Qui ha sufficiente velocità per risalire fino a una
posizione simmetrica a quella da cui era partita. Qui si ferma e torna indietro,
eseguendo oscillazioni per sempre. Nella realtà, l’attrito smorza le oscillazioni,
sicché la pallina risale sempre meno, fino a fermarsi sul fondo.
Introduciamo ora un altro concetto: il lavoro. Nel cadere verso il fondo, la
pallina «può» fare lavoro: infatti se la facessimo cadere nelle pale di un
mulinello, questo si metterebbe a girare e potrebbe fare qualcosa di utile
(macinare farina o dare elettricità mediante una dinamo del tipo di quelle delle
bici). Misuriamo il lavoro come prodotto della forza per l’altezza di caduta, o
spostamento della pallina:
lavoro = forza x spostamento
Dove dello spostamento si intende la componente nella direzione della forza.
Ad esempio se debbo spostare un libro in uno scaffale più alto in libreria, debbo
fare un lavoro:
lavoro = peso x altezza
Viceversa se il libro cade, dallo scaffale alto, il lavoro conseguente alla
caduta si trasforma in danneggiamento del libro quando questo arriva sul
pavimento. Se un libro va spostato sullo stesso scaffale, in orizzontale, il lavoro
è nullo; si pensi al caso ideale di un libro che possa scivolare senza attrito sul
piano dello scaffale.
Definiamo «energia» la «potenzialità» di lavoro, cioè il lavoro in potenza.
Se la forza non è costante, come andranno le cose? Ebbene - e qui è1’enorme
vantaggio dell’usare il concetto di energia! - l’energia non dipende dalla forma
del declivio ma solo dallo stato iniziale e finale. Data qualunque ciotola, la
forma della ciotola dà il profilo dell’energia: infatti in qualunque posizione,
basta valutare quanto si dista dal fondo per sapere quanto lavoro si può fare
Anche alla velocità possiamo associare energia. Infatti possiamo fare lo
stesso danno al libro lanciandolo orizzontalmente (senza perdita di altezza)
contro il muro: chiameremo questa «energia cinetica». C’è però una differenza:
mentre l’energia di caduta cambia segno in risalita (in fig.1.2 in discesa la
pallina fa lavoro, in risalita deve ricevere lavoro) l’energia cinetica è sempre
24
F.T. Arecchi, Caos e Complessità nel Vivente
positiva quale che sia il segno della velocità (verso destra + o verso sinistra - ).
Ciò è possibile se questa energia è proporzionale al quadrato della velocità
(infatti (+2 )2=(- 2 )2=+4). Inoltre è proporzionale alla massa: a pari velocità, un
camion fa più danno di una bicicletta sbattendo contro un ostacolo.
Se chiamiamo «energia potenziale» quella che si attualizza nella caduta,
possiamo allora leggere il moto della pallina nella ciotola come segue (fig.1.3):
Figura 1.3: Suddivisione dell’energia totale tra cinetica e potenziale per ogni posizione x. In
posizione 0 l’energia è tutta cinetica. In A e B è tutta potenziale, perciò ivi la velocità è
nulla e la pallina torna indietro.
In A e B l’energia è tutta potenziale. Quando si cade da A ad O, l’energia si
trasforma tutta in energia cinetica, e l’energia potenziale si annulla. In una
posizione generica X avremo parte cinetica e parte potenziale. Risalendo a B la
cinetica si trasforma tutta in potenziale e la pallina si ferma. Essa non può
superare B perché l’energia totale non si può creare. Dunque avremo il seguente
principio di conservazione dell’energia:
energia totale = en. potenziale + en. cinetica = costante
Se ora capovolgiamo la ciotola (fig.1.4) e depositiamo la pallina sulla cima
(in O), sia che cada verso sinistra (S) sia verso destra (D) la pallina guadagna
energia cinetica allontanandosi da O. Infatti il segmento tratteggiato che misura
la differenza fra energia totale (costante) e energia potenziale (corrispondente
alla posizione sulla curva del punto S o D) aumenta sempre durante la caduta. Il
corrispondente diagramma di forza è una retta di inclinazione invertita rispetto
a fig.1.2. In S la forza è negativa, cioè tira verso destra: da ambo i lati, la forza
Capitolo 1: La fisica dell’ordine
25
tende ad allontanare vieppiù da O, mentre in fig.1.2 tendeva a riportare la
pallina in O.
Figura 1.4: Equilibrio instabile: in O, dove la forza è nulla, la pallina con velocità nulla tende a
cadere a destra o sinistra appena subisca un piccolo spostamento. La forza (+ verso
destra) e (– verso sinistra) cresce sempre.
Questa situazione è ovviamente instabile e non può andare avanti per sempre,
come invece accadeva in fig.1.2a un certo punto occorre interrompere la curva
di potenziale e quindi azzerare in corrispondenza la forza. Ma allora la forza
non è più una retta continua.
Quando la forza è rigorosamente rettilinea, la dinamica si dice lineare,
quando non lo è dappertutto, la dinamica si dice non lineare. Vedremo le
conseguenze di ciò nel cap.7.
Nel seguito, descriveremo qualunque dinamica mediante l’energia, cioè
diremo di poter fare previsioni sul futuro di un sistema (simbolizzato come una
pallina) quando lo avremo immesso in un opportuno paesaggio dell’energia,
come in fig.1.5, dove i punti di equilibrio sono tutti i punti S (stabili) e I
(instabili), in cui si ha un minimo o un massimo, cioè in cui si annulla la forza,
26
F.T. Arecchi, Caos e Complessità nel Vivente
invece punti come X o Y non sono di equilibrio perché si cade (nella direzione
della freccia).
Figura 1.5: Paesaggio dell’energia con cinque punti di equilibrio: tre minimi S e due massimi I.
La pallina rimane confinata in uno dei due bacini XY o X’Y’ dove è stata collocata al
tempo iniziale. La forza è approssimabile con un tratto rettilineo solo attorno ai punti di
equilibrio.
Si noti che localmente, cioè attorno ad ogni punto di equilibrio, la dinamica è
lineare, ma globalmente la legge di forza non è rettilinea. Per capire la portata
concettuale dei paesaggi dell’energia, supponiamo che l’energia totale di cui
dotiamo il nostro sistema corrisponda alla linea orizzontale tratteggiata. Se al
tempo iniziale il sistema ha una posizione fra X e Y, oscillerà per sempre fra X e
Y scavalcando l’ostacolo intermedio perché, anche quando arriva ad I, ha ancora
un residuo di energia cinetica. Se invece è posta fra X’ e Y’, rimarrà confinata in
quel bacino. In ambo i casi, sia che arrivi a Y da destra o a X’ da sinistra, deve
invertire il moto perché non ha energia sufficiente per superare la barriera.
Per sollevare un libro dalla tavola ad uno scaffale, dobbiamo fare lavoro
contro la forza di gravità; analogamente per «sollevare» la carica e di un
elettrone della differenza di potenziale elettrico di 1 Volt, occorre fornire un
lavoro che è dato dal prodotto della carica per 1 Volt Consideriamo questa come
l’unità di energia negli scambi microscopici e la abbreviamo con eV(elettronevolt). Se per esempio un elettrone cade di l0 Volt o l0 elettroni cadono di 1 Volt,
l’energia scambiata è l0 eV (fig.1.6).
L’energia descritta per la pallina, il libro e 1’elettrone è dovuta a
cambiamento. di posizione, e può essere restituita con la ricaduta alla posizione
Capitolo 1: La fisica dell’ordine
27
iniziale. È quello che accade all’acqua del mare elevata dalle nubi sulla cima
delle montagne, che di là ricade lungo il fiume facendo lavorare il mulino.
Figura 1.6: Processo di carica e scarica di una pila da 1 Volt. Nella carica ogni elettrone viene
«promosso» a un livello più alto. Nella scarica, l’elettrone ricade cedendo l’energia
accumulata.
L’universalità del concetto dì energia ci suggerisce delle considerazioni di
scala. Nella vita dì tutti i giorni, prendiamo come unità dì lavoro o energia una
quantità che ci è familiare: come spostare un libro che ha una massa dì 100
grammi (e perciò una forza peso attorno a 1 Newton) da uno scaffale alto un
metro. Definiamo l’unità dì energia joule (J) (dal nome dell’Inglese Joule)
come:
1 joule = 1 newton x 1 metro, cioè: 1 J = 1 Nm
Invece a livello microscopico abbiamo introdotto l’eV. Orbene, il legame fra
le due unità è circa:
1 J ~ 1019 eV
cioè occorre spostare 1019 elettroni da un polo all’altro dì una pila da 1 Volt,
per fare andare un motorino che sollevi il libro di un metro. Tenuto conto che
un liquido o solido ha 1022 atomi per cm3 (il volume contenuto in un cucchiaio)
e che nella soluzione elettrochimica di una pila ogni molecola sciolta può
fornire un elettrone, si vede che ce ne sono più che a sufficienza per fare il
lavoro di 1 joule.
-----------------------------------------------------Nota sulle unità di misura:
Conveniamo di prendere come unità di massa il kilogrammo (kg), come unità
di lunghezza il metro (m) e come unità di tempo il secondo (s), la velocità sarà
misurata in metri per secondo (m/s o ms-1), l’accelerazione che è la velocità
della velocità, in m/s2 o ms -2; ne consegue che in base alla legge di Newton:
forza = massa x accelerazione
l’unità di forza è quella che imprime l’unità di accelerazione all’unità di massa;
essa è chiamata newton (N) e vale: 1 N = 1 kg·m·s-2
28
F.T. Arecchi, Caos e Complessità nel Vivente
In elettricità, si conviene di chiamare potenziale elettrico il lavoro per unità
di carica e di misurarlo in volt (V). Si conviene inoltre di chiamare campo
elettrico la forza per unità di carica. Siccome la carica si misura in coulomb (C)
ne segue:
1V = 1 J/C = 1 JC -1
Il campo elettrico definito come una forza elettrica (N) per unità di carica
(cioè N/C) ma siccome abbiamo visto che V=J/C possiamo anche misurare il
campo come potenziale per unità di spostamento, cioè indicando con[…] la
misura
[campo] = N/C = (J/m )/C = V/m = 1 Vm -1
Le grandezze per unità di lunghezza, o grandezze specifiche, dipendono
ovviamente dallo spessore su cui vengono valutate. Una pila da 1V, fra i due
elettrodi posti a 10 cm, dà un campo di 10 V/m; lo stesso potenziale di 1V
applicato a una membrana biologica di spessore 1nm = 10 -9m, dà un campo di
109 V/m.
1.2 Particelle e forze
Il successo della dinamica di Galileo-Newton fece nascere la speranza di
poter descrivere tutta la realtà osservabile allo stesso modo: cioè come il moto
di un punto geometrico (a cui attribuiamo una massa) in un opportuno
paesaggio dell’energia. Il diagramma corrispondente ha sull’asse orizzontale
una coordinata del mondo reale in cui ci muoviamo (altezza, o distanza
orizzontale da un certo punto) oppure una coordinata di uno spazio astratto,
puramente mentale: ad es. in fig.1.6, destra e sinistra rispetto allo scalino
indicano due lati della pila. Il programma di riduzione al punto massa ha
funzionato per il libro, per il sistema Terra-Sole, per l’elettrone. Può funzionare
sempre?
Il successo del modello newtoniano ne fece il modo universale di fare la
fisica. Ciò implica una fede quasi religiosa in due concetti: determinismo e
riduzionismo.
La dinamica di una particella è deterministica perché la conoscenza della
legge di forza e delle sue condizioni iniziali ne determinano il futuro. Il grafico
della velocità di crescita di una variabile permette di stabilire come si comporta
la variabile. Ora, data la forza, questa è proporzionale all’accelerazione che è la
velocità della velocità: quindi possiamo conoscere come varia la velocità nel
tempo a partire da una velocità iniziale. Nota la velocità, possiamo stabilire gli
spazi percorsi a partire da una certa posizione iniziale. In conclusione, note
forze, più velocità e posizione iniziale, sappiamo tutto.
Nella tradizione aristotelica, per cui scienza è «conoscenza delle cose
attraverso le cause», si distinguevano quattro cause: materiale e formale (nel
Capitolo 1: La fisica dell’ordine
29
caso di un vaso di creta, rispettivamente la creta e la forma del vaso), efficiente
(o motrice) e finale (rispettivamente, l’opera del vasaio che costruisce il vaso e
lo scopo per cui il vaso è fatto). Orbene, vedremo che la ricerca delle particelle
corrisponde alla ricerca della causa materiale, mentre la causa formale è stata
sottovalutata dal riduzionismo, per cui la forma emerge automaticamente
«ammucchiando» i costituenti.
Circa la causa efficiente, questa fu identificata con le forze e le condizioni
iniziali che determinano il futuro. La causa finale fu considerata come un
equivoco antropomorfico privo di rilevanza nell’indagine della natura.
Torniamo alla causa materiale. Se ora possiamo decomporre (ridurre) un
corpo nei suoi costituenti, e ogni pezzo si comporta come la particella di
Newton, sapremo tutto sul corpo. Se abbiamo una palla da biliardo, questa ci dà
già l’idea del punto-massa di Newton; ma se abbiamo un fluido (gas o liquido)
o un corpo «molle», come un essere vivente, è meglio prima spezzare questo in
porzioni più piccole per cui possa valere il programma di Newton. Questo
programma di riduzione già presente a Newton (che faceva anche l’alchimista)
diventò il programma della chimica, con Lavoisier.
Si arrivò a classificare i componenti elementari o «molecole». In base ai
rapporti, degli ingredienti che entrano nelle reazioni chimiche (rapporti
stechiometrici) si arrivò a stabilire che le molecole sono fatte di atomi (Dalton).
Se prendiamo un numero di grammi pari al peso molecolare di una sostanza
cioè, come si dice, una grammo-molecola o mole (p. es. 2 grammi dì idrogeno,
o 18 grammi di acqua), ivi è contenuto un numero fisso dì molecole (numero di
Avogadro), pari a circa 6·1023, indipendentemente dalla sostanza.
Nel frattempo, si stabilivano le regole di attrazione e repulsione fra cariche
elettriche. Dunque non c’era più solo la forza gravitazionale di Newton, che
tiene insieme i corpi celesti, ma anche una forza di intensità molto maggiore
che lega le particelle dotate di carica elettrica. Più tardi si stabilì che i fenomeni
magnetici e ottici sono varianti delle forze elettriche, osservate in presenza di
grandi velocità relative fra le cariche; si parlerà allora di fenomeni elettromagnetici, che includono l’ottica, e di azioni elettrodinamiche.
Lo scambio di ingredienti nelle reazioni chimiche mostrava come le
molecole fossero particelle composte. Si chiamarono atomi (cioè «nontagliabili») le particelle elementari, di cui erano composte le molecole.
Ovviamente il peso di una molecola è la somma dei pesi atomici dei
componenti. Fatto uguale a 1 il peso dell’elemento più leggero (idrogeno),
Mendeleev classificò tutti gli elementi noti in una tabella a due entrate. Si
30
F.T. Arecchi, Caos e Complessità nel Vivente
stabilì che dovevano esserci 92 elementi. Non tutte le caselle corrispondevano
ad elementi noti, ma quelli mancanti furono trovati successivamente.
La scoperta dell’elettrone o particella elementare di carica negativa contenuta
nell’atomo, fece supporre che un atomo neutro avesse un ugual numero di
cariche positive per compensare gli elettroni (i quali si pensavano immersi
nell’atomo come i canditi nel panettone). Quando un atomo perde uno (o più)
elettroni diventa uno ione positivo. Tutte le proprietà elettriche delle soluzioni
sono spiegate in termini di ioni ed elettroni. Lo ione più elementare è costituito
dall’atomo di idrogeno, quando perde il suo elettrone, ed è chiamato protone.
La scoperta della radioattività (Becquerel e Curie) mostrò che gli atomi
trasmutano cioè non sono oggetti elementari ma possono acquistare o perdere
dei pezzi, cambiando posto nella tabella di Mendeleev. Il bombardamento di
atomi con microproiettili portò Rutherford a scoprire che l’atomo non è un
panettone, ma un sistema solare in miniatura con gli elettroni distribuiti come
pianeti, un enorme spazio vuoto, e un nucleo, dove sono concentrate le cariche
positive, che è 104 volte più piccolo del raggio dell’atomo.
Si scopersero poi particelle neutre con il peso del protone: i neutroni. Si può
capire così perché il peso atomico, rispetto all’idrogeno come unità, cresca più
rapidamente del numero atomico (cioè del numero di cariche elettriche
positive): ciò è dovuto all’aggiunta dei neutroni. Ma come tiene tutto ciò
assieme? Conosciamo la forza di gravitazione, che tiene assieme i corpi celesti.
Conosciamo le forze elettriche, che attraggono cariche di segno contrario.
Dobbiamo postulare che esistono forze nucleari che tengono vicini, ad es. i due
protoni di un nucleo di elio in modo più forte della repulsione elettrica fra le
due cariche positive. Queste forze sono scambiate anche tra protoni e neutroni,
cioè tra tutti i componenti del nucleo o nucleoni.
Finché l’energia di legame cresce {cioè dall’idrogeno al ferro) sono favoriti i
processi di fusione; per nuclei pesanti invece sono favoriti i processi di
scissione (o fissione). Le energie di legame sono sui 5 MeV (mega eV, cioè 106
eV) per nucleone, quindi dato un nucleo con qualche diecina di nucleoni, se lo
si bombarda con proiettili di energia oltre alcune centinaia di MeV, si
dovrebbero liberare protoni e neutroni non più legati. Invece con lo sviluppo
delle tecniche di accelerazione, andando a molte centinaia di MeV, si
evidenziarono particelle esotiche e non semplicemente protoni o neutroni a
grande energia cinetica. Ciò sembrava riportare la situazione alla chimica del
‘700. L’evidenza sperimentale ha mostrato che protoni, neutroni e le altre
particelle esotiche sono in effetti particelle composte di quarks. Oltre alle tre
Capitolo 1: La fisica dell’ordine
31
forze suddette, nei processi nucleari di fusione fra nuclei leggeri nelle stelle
gioca un ruolo fondamentale la forza debole.
Le forze sono mediatori fra particelle. Per Newton ciò avveniva mediante
azioni a distanza che istantaneamente giungono dal Sole alla Terra. Invece la
fisica dell’800 mostrò che le azioni sono contigue, fra posizioni spaziali vicine.
Nessun oggetto può spostarsi a velocità maggiore della luce, perciò le azioni
contigue implicano una velocità limitata di propagazione. Se per ipotesi il Sole
scomparisse istantaneamente, solo dopo otto minuti l’effetto si sentirebbe sulla
Terra. Parleremo di «campi di forza» per indicare che la forza esiste in ogni
parte dello spazio, come si può vedere con la limatura di ferro per i campi
magnetici. Se fra Terra e Sole non c’è un’azione istantanea, ma un campo che si
propaga a velocità finita e che riempie tutti i punti dello spazio, quali sono le
modalità di propagazione? Lo vedremo nella sezione successiva.
Intanto, è importante notare che le forze gravitazionali ed elettriche
producono i loro effetti anche a grandi distanze, mentre le forze nucleari e
deboli agiscono solo a distanze sui 10-12 cm: è perciò che non erano note prima
che la sperimentazione risolvesse queste distanze sub-atomiche.
1.3 Onde
La mente umana, nel fare schemi del mondo, si dibatte fra discreto e
continuo. Così la matematica, fin dagli inizi, si differenziò in aritmetica (numeri
discreti) e geometria (linee continue). Questo dilemma è sempre vivo, e accanto
alla ricerca di particelle c’è sempre stato il tentativo di dissolverle in un
continuo: da Leibniz che criticava il meccanicismo cartesiano, ai modelli che
cercano di spiegare le particelle come singolarità dei campi.
Ora, tutti abbiamo l’idea delle onde (le osserviamo ad esempio sulla
superficie dell’acqua). Possiamo, con una foto istantanea, rappresentare l’onda
nello spazio (fig.1.7a), oppure, ponendoci in una posizione fissa, misurare come
l’onda sale e scende nel tempo (fig.1.7b). In corrispondenza, si possono definire
le grandezze ivi indicate. Si noti che 1’onda è positiva o negativa rispetto alla
posizione di quiete (si pensi ad un tappo galleggiante nell’acqua: quando arriva
l’onda, si può elevare o scendere al di sotto del livello medio). La velocità a cui
la cresta dell’onda si vede muoversi è data da spazio diviso tempo, cioè
lunghezza d’onda diviso periodo, o moltiplicato frequenza:
velocità d’onda = lunghezza d’onda x frequenza
Si noti che l’onda corrisponde al passaggio di una perturbazione, non al moto
fisico di particelle. Se in un porto abbiamo molti tappi galleggianti in fila, e
32
F.T. Arecchi, Caos e Complessità nel Vivente
arriva un’onda, i tappi vanno su e giù, ma rimangono nella stessa posizione. Se
osserviamo come si muove la cresta, questa «salta» da tappo a tappo con la
velocità d’onda. Le onde sono longitudinali se la perturbazione è nella stessa
direzione in cui si propaga l’onda (come l’aria mossa da un tamburo) o
trasversali se la perturbazione è perpendicolare alla propagazione, come nel
caso dei tappi. A differenza delle particelle che si sommano sempre se
ammucchiate nello stesso posto, due onde possono sommarsi ma anche
distruggersi. Si dice che interferiscono: il risultato dipende dalla posizione
mutua delle creste che si chiama fase relativa (fig.1.8).
Figura 1.7: a) Onda nello spazio. Si ripete periodicamente dopo una lunghezza d’onda (che si
indica di solito con λ ). b) Onda nel tempo. Il periodo (o ciclo) si indica con T; l’inverso v
= l/T corrisponde a quanti periodi ci sono in un secondo: si chiama frequenza. L’unità di
frequenza è l/secondi ed è detta Hertz.
Figura 1.8: Interferenza fra due onde: a) fase relativa nulla: si ha interferenza costruttiva; b)
fase pari a mezza lunghezza d’onda: interferenza distruttiva; c) fase qualunque:
interferenza parziale.
Capitolo 1: La fisica dell’ordine
33
Fu appunto per l’evidenza di interferenza che Huygens sviluppò l’idea che i
fenomeni luminosi siano dovuti a propagazioni di onde, e non a flusso di
particelle come credeva Newton.
Un altro fenomeno importante delle onde è la diffrazione (cioè lo spezzarsi
dei cammini rettilinei di propagazione), descritto da Grimaldi nel ‘600, e che
consiste nel vedere luce dove si aspetta ombra, dietro un forellino illuminato dal
sole. L’effetto di diffrazione si spiega meglio con riferimento alle onde
dell’acqua che incontrano ostacoli (fig.1.9).
Figura 1.9: Onde in acqua che passano fra oggetti di dimensioni differenti: a) fili d’erba; b)
bastone; c) tronco di lunghezza grande rispetto alla lunghezza d’onda; d) tronco di
lunghezza piccola rispetto alla lunghezza d’onda. Si noti che la regione d’ombra appare
definita solo per piccole lunghezze d’onda. Ciò spiega i limiti risolutivi di un’ispezione
ottica sugli oggetti piccoli. Quando l’oggetto diventa confrontabile con la lunghezza
d’onda della luce con cui lo si illumina, la sua ombra non è più ben definita. Possiamo
vedere «bene» solo dettagli grandi rispetto alla lunghezza d’onda.
Fra l’altro il fenomeno di diffrazione suggerisce che noi perdiamo i dettagli
degli oggetti quando li osserviamo mandandoci contro un’onda di lunghezza
pari o maggiore alle dimensioni dell’oggetto. Per riassumere lo stato di quanto
sappiamo sui fenomeni luminosi, in fig.1.10 si riporta lo spettro delle onde
elettromagnetiche, con i vari nomi che le regioni prendono. Si sono segnate sia
le lunghezze d’onda sia le frequenze. Si noti quanto è limitata la regione
visibile, in cui i nostri occhi vedono colori, rispetto alle regioni a grande
lunghezza d’onda (infrarosso e oltre) e a piccole lunghezze d’onda (ultravioletto
e oltre).
34
F.T. Arecchi, Caos e Complessità nel Vivente
1.4 Bilanci energetici. Chimica e vita
La fisica moderna ha scoperto che la luce non è solo onda, ma la sua energia
è concentrata in corpuscoli o granelli (quanti o fotoni) la cui energia dipende
dal colore, cioè dalla frequenza. Se disponiamo i colori secondo l’arcobaleno:
rosso-giallo-verde-blu-violetto, spostandoci verso destra cresce la frequenza e
cresce anche l’energia del singolo quanto, da 2 eV a 4 eV, secondo la
proporzionalità:
energia del fotone = h x frequenza
dove attraverso la costante universale h (detta di Planck) la frequenza dell’onda
è tradotta in energia di ciascuno dei granelli (o fotoni) che costituiscono l’onda.
Figura 1.10: Lo spettro elettromagnetico. Riportiamo tre scale: lunghezze d’onda (in metri),
frequenze (in periodi al secondo o Hertz) e energie dei fotoni (in eV). Si noti la
proporzionalità inversa: la prima scala cresce verso sinistra, la seconda e terza crescono
verso destra. IR, Vis e UV indicano rispettivamente infrarosso, visibile e ultravioletto.
Un fotone può interagire con un singolo atomo o molecola cedendo la sua
energia in un processo di assorbimento; viceversa un atomo in uno stato
eccitato (cioè che abbia ricevuto energia in più rispetto al suo stato di riposo)
può cedere questa energia al campo elettromagnetico emettendo un fotone.
La molecola fotosensibile come la rodopsina (che è alla base di quei processi
fotochimici nella retina dell’occhio che danno luogo alla visione) ha due valli di
energia A e B (fig.1.11). Normalmente essa è situata in A. Nella figura, IR
(infrarosso) indica un fotone con energia al disotto del visibile, UV invece ne
indica uno al disopra. Per spostarsi da A in B occorre fornire un fotone con
energia superiore alla barriera da superare. Se le valli A e B fossero allo stesso
livello, nel passare da A a B non si guadagnerebbe energia; ma B è più alto di A.
Se la molecola viene colpita da un fotone intermedio fra 2eV (rosso) e 4 eV
Capitolo 1: La fisica dell’ordine
35
(violetto), essa può passare da A a B e l’eccesso di energia viene utilizzato per
mandare un impulso elettrico sul nervo ottico. Se invece mandiamo fotoni IR,
cioè più piccoli di 2eV, non si riesce a superare la barriera tra A e B.
Figura 1.11: Paesaggio dell’energia per molecola fotosensibile. La condizione di riposo è A.
L’energia dei fotoni (IR, Vis, UV) è indicata da frecce crescenti.
Domanda: accumulando l0 fotoni piccoli da 0,3 eV, è possibile ottenere
l’effetto che si otterrebbe con un fotone grande da 3 eV? Risposta: di solito solo
un fotone per volta può interagire con una molecola. I fotoni IR si limitano ad
agitare la molecola intorno ad A, cioè a scaldarla. Anche scaldare-agitare le
molecole attorno ad A vuol dire cedere energia, c’è perciò una «traduzione» da
energia a temperatura, precisamente un’energia di l eV scalda una molecola di
circa 10.000 gradi, cioè:
l eV = lO4 K
Al contrario, un fotone UV – per es. da 10 eV – permette alla molecola non
solo di superare la barriera ma di andare oltre C: ciò vuol dire che la distanza
fra parti della molecola diventa grandissima, cioè la molecola si spezza in due
tronconi (si dissocia). L’UV è dannoso per le molecole. Orbene, in base a
quanto visto, i fotoni Vis sono i migliori per la chimica delle molecole: né
troppo caldi (UV), né freddi (IR).
La fig.1.12 mostra perché una stella come il Sole può assicurare la vita.
Riassumendo: dando poca energia non basta alla chimica della vita, perché non
si supera la barriera fra due stati; troppa energia nuoce alla molecola (la
dissocia). La vita sulla terra può svilupparsi perché il nostro sole è nel giusto
mezzo.
In fig.1.11 si è mostrata una reazione chimica endotermica in cui A (stato
iniziale) è più basso di B: per spostarsi in B, A richiede energia dalla luce.
36
F.T. Arecchi, Caos e Complessità nel Vivente
Quanto avviene nei fotosensori (rodopsina) ha luogo anche nei fotoutilizzatori
delle piante (clorofilla). L’energia è fornita da un fotone che permette alla
molecola di essere promossa da A in B. Il salto di energia viene poi utilizzato
nella sintesi clorofilliana.
Figura 1.12: Spettri di emissione del Sole e di altre due stelle (calda e fredda) per mostrare
come solo stelle come il Sole permettono reazioni chimiche, e perciò la vita.
Chimica del vivente e chimica industriale
Chiamiamo reazioni esotermiche quelle in cui invece lo stato finale ha
energia più bassa dello stato iniziale, fig.1.13, e la differenza di energia EAB può
essere utilizzata (combustione). Nei processi di metabolismo (chimica del
vivente) le molecole cadendo da A a B cedono energia. Prima però devono
superare la barriera C con l’aiuto dell’enzima (come detto nella didascalia).
Figura 1.13: Reazione esotermica: la molecola passando da A a B può fare lavoro. Ma prima
deve vincere la barriera AC che può essere più alta dei fotoni IR disponibili a temperatura
ambiente. Si passerà da A a B o scaldando a una temperatura che favorisca il salto a C
(reazioni chimiche industriali) o deprimendo la barriera C con l’aiuto di una molecola
ausiliaria che non si consuma nel processo (catalizzatore, detto enzima nelle reazioni
biologiche.
Nella chimica biologica, gli enzimi permettono di superare la barriera tra le
due valli «a freddo», cioè alla temperatura corporea (37°C=300K). Nella
chimica industriale, invece, la molecola deve essere scaldata fino a migliaia di
Capitolo 1: La fisica dell’ordine
37
gradi per scavalcare la barriera (ricordiamo che 1eV=104K, e per attivare una
combustione occorre circa 0,1 eV cioè un migliaio di K (pari a circa 700°C).
1.5 I quanti
1.5.1 Il corpo nero e l’effetto fotoelettrico
La fisica dell’ordine, con l’unificazione fra fenomeni elettrici, magnetici e
ottici operata da Maxwell (1866) fa sì che si possa spiegare la luce emessa da
un atomo come un’onda elettromagnetica causata dall’avvicinarsi e allontanarsi
delle cariche positive e negative nell’atomo; la radiazione è cioè dovuta
all’accelerazione delle cariche. In ciò un atomo non differisce dall’antenna di
una radio (fig.1.14). L’antenna emette un’onda di frequenza pari alla frequenza
con cui vibrano le sue cariche elettriche. Se nell’antenna coesistono frequenze
diverse, l’antenna emetterà i vari “colori” corrispondenti.
Figura 1.14: Come avviene la conversione da corrente elettrica (provocata p. es. da un
microfono) a onda elettromagnetica, e la riconversione da onda a corrente (che,
nell’esempio, farà vibrare 1’altoparlante). Si noti che in trasmissione la vibrazione fra
cariche è provocata dalla corrente e genera l’onda; in ricezione la vibrazione è provocata
dall’onda, e genera la corrente.
Se ora pensiamo che i moti delle cariche differiscono da atomo ad atomo, ci
aspettiamo che ogni atomo emetta (in trasmissione) o assorba (in ricezione) una
specifica lunghezza d’onda, cioè uno specifico colore. In effetti gli spettri di
emissione e assorbimento sono specifici di ciascuna specie atomica, come le
impronte digitali per gli individui.
Tutto ciò vale purché, per restare confinati alla fisica dell’ordine, gli atomi
siano «diluiti» (gas tenue) in modo da potersi considerare come individui
isolati. Se invece li impacchettiamo in modo che si influenzino a vicenda con
urti, allora passiamo alla fisica del disordine. Anticipando quanto diremo nel
capitolo seguente, è intuitivo che i moti disordinati non daranno più colori
precisi: è come se esistessero antenne in grado di emettere onde disparate su
38
F.T. Arecchi, Caos e Complessità nel Vivente
molte frequenze. Si avrà invece uno spettro che non dipende più dagli individui,
ma solo dalla temperatura a cui gli individui sono stati portati. Questo spettro è
universale, e si chiama «spettro di corpo nero» (per analogia con l’interno di un
forno di cui si scaldino per via elettrica o a gas le pareti finché queste si
arroventino emettendo luce; se il buco di osservazione è piccolo, il forno perde
poco verso l’esterno e perciò se inviamo luce sull’ingresso, praticamente nulla
torna fuori, donde il nome nero).
La fig.1.15 mostra la «densità» di energia irraggiata da un corpo nero a una
certa temperatura. Chiamiamo densità il quoziente fra energia e l’intervallo di
frequenze su cui è stata emessa. Per avere l’energia totale, dobbiamo sommare
tutti i contributi di densità, moltiplicandoli per il corrispondente intervallo di
frequenze. Chiariamo questa idea:
densità = (energia emessa)/ frequenza
perciò:
energia = somma di tutti i prodotti «densità x frequenza».
Uno di questi addendi della somma è tratteggiato in figura e come si vede è
un’area. Per avere tutta l’energia dobbiamo perciò valutare tutta l’area
compresa fra la curva e l’asse orizzontale.
Figura 1.15: Spettro di emissione del corpo nero, cioè densità di energia irraggiata da un corpo
portato ad una temperatura T. a) Due esempi a temperatura diversa; b) curva tratteggiata
= teoria di Rayleigh e Jeans.
Ora la fisica classica dice che quando un oggetto è portato a temperatura T,
qualunque sua vibrazione riceve lo stesso rifornimento di energia, un
«boccone» proporzionale a T: indipendentemente dalla natura degli atomi che
compongono l’oggetto. Ma il numero di vibrazioni diverse cresce con la
Capitolo 1: La fisica dell’ordine
39
frequenza e perciò, se ciascuna contribuisce con la stesso boccone di energia
proporzionale a T, si avrebbe una densità come quella tratteggiata in figura, con
un’area sottostante (energia totale irraggiata) infinita!
Siccome la crescita del numero di vibrazioni con la frequenza è il risultato di
un calcolo incontrovertibile, per giustificare la curva sperimentale occorre
rinunciare all’ipotesi che ogni vibrazione possa avere la stessa energia,
dipendente solo da T e indipendente dalla sua frequenza. Max Planck introdusse
nel 1900 l’ipotesi che, pur essendo le onde elettromagnetiche un continuo,
l’energia che esse scambiano con le cariche, cioè con gli atomi della parete del
forno, sia «granulare», cioè sia fatta di zollette distinte ognuna delle quali
(quanto di energia) è proporzionale alla frequenza dell’onda con una costante di
proporzionalità chiamata h. Dunque l’ipotesi di Planck è:
quanto di energia = h x frequenza
Questa ipotesi porta a una legge di emissione che riproduce quella
sperimentale, eliminando il paradosso dell’energia totale infinita.
Ma che vuol dire che l’energia elettromagnetica si propaga a quanti? Lo
vediamo subito considerando l’effetto fotoelettrico (fig.1.16). La corrente di
elettroni emessi da un metallo, quando questo è investito dalla luce, è nulla per
certi colori, cioè a grande lunghezza d’onda (ad es. il rosso) anche se
illuminiamo con grandi intensità di luce; la corrente è non nulla se spostiamo il
colore verso il blu. La spiegazione di Einstein (1905) è la seguente: i quanti di
energia luminosa non si possono sommare, ma agiscono individualmente: uno
per ogni elettrone. Per superare 1’energia attrattiva che trattiene gli elettroni nel
metallo, occorre che ogni elettrone riceva un quanto di energia sufficiente
Figura 1.16: Effetto fotoelettrico: la corrente degli elettroni emessi da un metallo illuminato da
luce è nulla finché la luce non ha una frequenza superiore ad un valore di soglia.
Spiegazione di Einstein: emettere elettroni vuoi dire superare uno scalino di energia fra
dentro e fuori del metallo. Il quanto luminoso, o fotone, deve avere un’energia pari
almeno allo scalino.
40
F.T. Arecchi, Caos e Complessità nel Vivente
Dunque, Planck e Einstein hanno introdotto una dualità onda-corpuscolo: la
luce, che negli esperimenti di diffrazione e interferenza si comporta come onda,
va considerata come un insieme di granelli (i fotoni) per riuscire a spiegare il
corpo nero e l’effetto fotoelettrico.
1.5.2 L’atomo di Bohr
Abbiamo visto che l’atomo è come un sistema solare. Ma allora l’elettrone
legato a un nucleo atomico dovrebbe emettere un’onda, in quanto è accelerato
nel suo moto orbitale (fig.1.17). Ma allora deve perdere energia, e perciò cadere
a spirale sul nucleo. Invece esistono gli atomi stabili! Per spiegare ciò, Niels
Bohr postulò nel 1913 che l’elettrone non può assumere un continuo di valori di
energia, come la pallina sul piano inclinato, ma solo alcuni valori permessi,
come in una scala a pioli. I livelli permessi di energia furono calcolati come
segue. L’elettrone che si muove con velocità v ha un impulso mv (prodotto di
massa per velocità).
Figura 1.17: a) Atomo di Rutherford: l’elettrone irraggia un’onda. b) Di conseguenza perde
energia con continuità e cade sul nucleo. c) Ipotesi di Bohr: l’elettrone ha solo alcuni
valori permessi d’energia, e tutti gli altri sono proibiti (livelli quantizzati di energia}.
Solo quando salta fra due livelli c’è emissione. Quando permane su un’orbita non irraggia
(al contrario del caso classico).
Capitolo 1: La fisica dell’ordine
41
L’impulso è la quantità scambiata negli urti. Ad esempio si può ricavare un
impulso dannoso o urtando un oggetto pesante a bassa velocità (investimento da
un camion) o urtando un oggetto leggero ma ad alta velocità (un proiettile di
pistola). Orbene, Bohr collegò l’impulso dell’elettrone col raggio dell’orbita
permessa (e conseguentemente, con l’energia dell’orbita) mediante una
relazione di proporzionalità inversa che contiene la costante h di Planck:
circonferenza orbita=2p · raggio = n volte· h/ impulso
Sono permesse solo quelle orbite n=1, 2, 3.…. con raggi e impulsi tali da
soddisfare la relazione di Bohr. Ad esse corrispondono le energie discrete E1,
E2... Le altre energie sono proibite. Dunque l’atomo è stabile solo a questi
livelli di energia, E1, E2,… e quando scende (o sale) da un livello ad un altro
allora emette (o assorbe) un fotone pari al salto di energia. Questa relazione
misteriosa fra raggio atomico e impulso dell’elettrone fu spiegata da Louis De
Broglie (1922) invocando una dualità corpuscolo-onda. Come la luce è non
solo onda, ma anche quanti, così l’elettrone è non solo particella ma anche
onda, con lunghezza d’onda λ tale che:
λ = h / impulso
Vediamo come il fenomeno di interferenza spieghi l’atomo di Bohr. Quando
cerchiamo di confinare un’onda fra due specchi, ci riusciamo solo se la distanza
fra i due specchi è pari a un numero intero di mezze lunghezze d’onda,
altrimenti l’onda diretta e l’onda riflessa si cancellano per interferenza
(fig.1.18a). Ripetendo lo stesso discorso per un’onda che si chiude su se stessa
su un cerchio, vediamo che l’onda può esistere solo quando la circonferenza è
pari ad un numero intero di lunghezze d’onda. Pertanto dall’ipotesi di De
Broglie discende la condizione di Bohr (fig.1.18b).
1.5.3 I successi della fisica quantistica
La meccanica dei processi microscopici in cui le onde sono anche corpuscoli
(Planck) e le particelle anche onde (De Broglie) è stata chiamata, meccanica
quantistica. Abbiamo visto nella storia della scienza la dialettica fra continuo
(geometria) e discreto (aritmetica). Ebbene, le ipotesi di Planck e De Broglie
sembrano armonizzare questi due punti di vista contrastanti. Sia la struttura
discreta degli spettri emessi dagli atomi, sia la stessa costruzione della tabella
degli elementi atomici, con il ripetersi periodico delle proprietà chimiche, sono
spiegati da questo riempimento successivo di un’orbita atomica con una, due,
tre lunghezze d’onda.
42
F.T. Arecchi, Caos e Complessità nel Vivente
Ma se c’è un’onda associata ad ogni particella, la particelle dovrebbe dar
luogo a fenomeni di interferenza come visto in fig.1.8. Ripetiamo allora per un
fascio di elettroni l’esperimento fatto da Young nel 1810 per le onde luminose.
L’esperimento dimostra che c’è veramente un’onda associata, la cui
lunghezza d’onda si scala come previsto da De Broglie. Infatti, variando la
velocità del fascio di elettroni (e pertanto l’impulso) si sposta il sistema di
picchi e valli.
Si noti l’enorme rilevanza applicativa di questo fatto. Quando con la luce non
riusciamo più a vedere oggetti molto piccoli (come in biologia) perché la
lunghezza d’onda luminosa è diffratta, allora illuminiamo con fasci di particelle
(elettroni o neutroni) e costruiamo perciò microscopi elettronici o neutronici.
Ricordiamo che la luce visibile ci permette di risolvere fino a 0,5 micrometri;
invece con i microscopi a particelle possiamo risolvere fino a pochi Angstrom
(unità di misura pari a 10-10m, cioè a un raggio atomico).
Figura 1.18: a) L’onda lanciata dallo specchio a sinistra si riflette sullo specchio a destra;
l’ampiezza riflessa è uguale e di segno contrario a quella incidente, in quanto la somma
delle due deve dare ampiezza zero, visto che l’onda non può penetrare nello specchio.
Pertanto onda diretta e riflessa si distruggono per interferenza. Solo se λ /2 è contenuta
in L un numero intero di volte (figura in basso), cioè se l’onda ha ampiezza nulla su
entrambi gli specchi, si può mantenere un’onda stazionaria. b) Lo stesso; ma avvolgendo
il percorso su una circonferenza. Condizione per un’onda stabile: λ deve essere
contenuta un numero intero di volte nella circonferenza.
Capitolo 1: La fisica dell’ordine
43
1.5.4 Le difficoltà concettuali della meccanica quantistica
Abbiamo risolto i problemi che sembravano paradossali per la fisica classica
(corpo nero, effetto fotoelettrico, stabilità degli atomi) ma al prezzo di rendere
elusivi gli oggetti microscopici. Le onde luminose, in certi casi, si comportano
come corpuscoli (fotoni); le particelle, in certi casi, si comportano come onde
(regola di Bohr ed esperimenti di interferenza). Ma allora, che cosa sono? La
difficoltà è che siamo in possesso di un formalismo, la meccanica quantistica,
estremamente efficace per descrivere esperienze su scala atomica ma la cui
interpretazione è ambigua. In effetti, se ci domandiamo che cosa siano gli enti
che determinano le nostre misure, stiamo uscendo dalla logica della fisica, che
consiste nel connettere risultati di misure per fare previsioni, per domandarci
che cosa c’è dietro l’apparato di misura.
Potremmo dire che le idee di particelle e onde vengono dalle nostre
esperienze di tutti i giorni, idealizzate con i concetti di discreto e continuo, e
non è detto valgano per oggetti che non vediamo ma che percepiamo solo
attraverso apparati di misura. Bohr espresse nel 1928 questa situazione di
disagio con il cosiddetto principio di complementarità: un oggetto atomico o
sub-atomico non è solo particella (come le palle di biliardo), né solo onda
(come le onde nell’acqua). A seconda delle misure che si fanno, si evidenzierà
una o l’altra caratteristica, Si noti che, per effetto di questa dualità, non
possiamo determinare «con precisione» e simultaneamente due grandezze quali
posizione e impulso di un oggetto microscopico, Infatti, per misurare con
precisione la posizione, dobbiamo guardare la particella con un’onda di
lunghezza d’onda piccolissima, i cui fotoni trasferiscono un impulso
grandissimo. Viceversa, se vogliamo determinare con precisione la velocità,
dobbiamo vedere quanto tempo ci vuole ad attraversare una certa distanza L,
ma dentro L non possiamo localizzare la particella, perché se no l’atto di
osservazione ne altererebbe la velocità! Questa impossibilità di misura
simultanea precisa si chiama principio di indeterminazione di Heisenberg
(1927). Esso stabilisce che il prodotto delle due incertezze è uguale (o
maggiore) alla costante h.
Siccome il prodotto si deve mantenere costante, se un fattore diminuisce
l’altro deve crescere. La relazione di Heisenberg pone un limite di principio alla
precisione della nostra misura.
2 La fisica del disordine
2.1 Le macchine termiche e l’entropia
Verso la metà del 1800, l’indagine sulle prime macchine termiche portò ad
un nuovo capitolo della fisica, la termodinamica, che si occupa delle
trasformazioni di calore in lavoro e viceversa. Nella camera di combustione di
un motore entrano carbonio e idrogeno (cioè benzina) da una parte e ossigeno
(cioè aria) dall’altra (fig.2.1).
Figura 2.1: Valvole aperte: entrano benzina e aria.
Per fondere le molecole (C+02àCO2, H2+OàH2O), cioè per fare la
combustione, occorre vincere la barriera di potenziale tra le diverse molecole in
modo che si passi da A (C, H e O separati) a B (C, H e O fusi) (fig.2.2).
Figura 2.2: Diagramma energetico della combustione, o ossidazione.
L’energia EAB ottenuta passando dalla buca di potenziale A a B va in energia
cinetica (cioè in velocità) dalla molecola risultante (CO2, H2O) e questa spinge
il cilindro. Non tutta l’energia prodotta però viene utilizzata; gran parte viene
eliminata dalla marmitta sotto forma di calore (gas di scarico) inutilizzabile.
Come mai? Ricordiamo che:
energia cinetica + energia potenziale = costante
Nella camera di combustione sono state immesse delle molecole che si sono
poi fuse, mediante la temperatura che ha fornito l’energia di attivazione per
Capitolo 2: La fisica del disordine
45
superare la barriera, in una molecola di anidride carbonica (CO2) o acqua
(H2O). Questa molecola è diventata più veloce di quelle di partenza e perciò la
sua energia cinetica può fornire una grossa spinta. Il lavoro utile prodotto dalla
folla di molecole non è però uguale alla somma di tutte le energie cinetiche. Le
molecole non vanno tutte nella direzione utile, cioè verso lo stantuffo, ma si
disperdono in tutte le direzioni riscaldando le pareti del cilindro (fig.2.3).
Figura 2.3: Nell’esempio in figura, solo 2 molecole spingono nella direzione giusta.
Per questo è necessario raffreddare le pareti del cilindro, ed inoltre il gas di
scarico viene eliminato quando è ancora caldo, cioè ha ancora energia. Nelle
normali macchine termiche, si utilizza circa 1 molecola su cinque-sei per
fornire il lavoro che fa muovere il pistone. Si chiama diavoletto di Maxwell un
ipotetico essere in grado di orientare la velocità delle molecole in modo da
sfruttare tutta 1’energia cinetica sullo stantuffo.
Dall’osservazione del singolo processo, non si capisce lo sparpagliamento
delle molecole. La fisica dell’ordine non fornisce spiegazioni sufficienti a
capire le folle. Nel cilindro, tutte le molecole hanno la loro energia cinetica
«legittima». Ogni molecola considerata singolarmente si comporta in maniera
onesta, tutte le molecole però prese insieme - cioè considerate come folla hanno un comportamento disordinato perché vanno in ogni direzione in modo
tale che ne servono solo alcune, le altre danno fastidio, e alla fine tutte le
molecole sono espulse dallo scarico, lasciando un po’ di energia residua da
smaltire come calore. Se spostiamo 1’attenzione dalle molecole al rendimento
della macchina, si ha allora che:
rendimento=(energia utile)/(energia totale)=(en.utile)/(en.utile+en espulsa)
La «colpa» del rendimento limitato non è a livello della singola molecola che
dà il suo eV: è la folla che combina guai perché le molecole non sono concordi.
Si introduce così il concetto di disordine cioè il fatto che non tutte le molecole
si orientano nella direzione utile. Si chiama entropia il grado di disordine che
caratterizza un sistema termodinamico.
46
F.T. Arecchi, Caos e Complessità nel Vivente
Quando un sistema è all’equilibrio termico, cioè ha una temperatura
uniforme, esso si trova nella situazione di massimo disordine.
Una nuova legge fisica (2o principio della termodinamica) dice che l’entropia
tende ad aumentare, raggiungendo il massimo all’equilibrio. Si tratta di una
qualità in un universo di quantità: la freccia del tempo, una natura che evolve
solo in una direzione e non può tornare indietro. Infatti se raccogliamo delle
molecole di un gas in un contenitore chiuso, a contatto con un contenitore
vuoto, e apriamo la parete fra i due contenitori, si verifica una condizione di
massimo disordine: le molecole si sparpagliano ovunque e non è poi possibile
farle tornare tutte nel contenitore iniziale (fig.2.4).
Similmente, supponiamo di gettare una goccia d’inchiostro in un bicchiere
d’acqua. Col passare del tempo, la goccia si spande e, dopo un po’, l’acqua del
bicchiere è diventata uniformemente scura. Non è mai successo che, al passare
del tempo, una goccia d’inchiostro si riconcentri e l’acqua torni limpida.
Se riuscissimo ad orientare le velocità delle molecole in una stessa direzione,
otterremmo il massimo rendimento. Alla fine del 1800 quindi gli studi
sull’energia erano arrivati alla conclusione che 1’energia totale è costante ma se
ne utilizza solo una parte. Per esempio l’acqua tiepida a 40°C contenuta in una
vasca da bagno possiede molta energia, ma non posso utilizzarla per fare il
caffè. Per avere un buon caffè occorre poca acqua ma a 100°C e la quantità di
energia per scaldare poca acqua fino a 100°C è minore di quella necessaria per
una vasca piena d’acqua tiepida.
Figura 2.4: Perché l’entropia aumenta: all’aumentare del tempo.
Quanto detto per le molecole nella camera di combustione vale anche per le
singole onde emesse dagli atomi di una lampadina. Le varie onde sono
disordinate in fase, una rispetto all’altra, perciò in genere non avremo un’onda
globale, ma la somma di tante ondette con fasi a caso (cosiddetta emissione
spontanea). Il risultato sarà che avremo solo energia luminosa, ma non
osserveremo vistosi effetti ondulatori. Se ora invece ordiniamo le emissioni
atomiche, come oggi riusciamo a fare con il laser, allora avremo un’onda con
una singola fase.
Capitolo 2: La fisica del disordine
47
2.2 Probabilità
La parola probabilità viene usata per indicare numerosi concetti tra loro
diversi. Conviene pertanto procedere ad un esame di questi concetti per renderci
conto di quali siano i limiti dell’uso di ciascuno di essi.
Il concetto elementare di probabilità è nato quando si è cominciato a riflettere
su alcuni interrogativi posti dai giochi d’azzardo. Laplace (1812) definì la
probabilità come rapporto tra il numero dei casi favorevoli ed il numero dei casi
possibili. La definizione è idonea a teorizzare i giochi d’azzardo onestamente
giocati, ma del tutto impotente di fronte a situazioni più complicate. Come
servirsene, ad esempio, nel caso di una partita ai dadi con i dadi truccati?
Il concetto elementare di probabilità si basa sull’ipotesi implicita che il
sistema che dà luogo agli eventi alternativi soddisfi ad un ben determinato
«principio di simmetria». La difficoltà fondamentale sta nel fatto che è
necessario, in qualche modo, affermare che gli eventi alternativi possibili
debbono essere tutti equiprobabili, ma senza coinvolgere il concetto di
probabilità, che è appunto ancora da definire.
Per superare tale difficoltà, I.Bernoulli aveva introdotto il cosiddetto
«principio di ragione non sufficiente» (in seguito chiamato anche principio di
indifferenza), imparentato col principio di ragione sufficiente di Leibniz: «In
mancanza di ragioni che distinguano, in qualche modo privilegiandoli, alcuni,
tra più eventi alternativi, tali eventi debbono tutti considerarsi equiprobabili».
Oggi, tale principio verrebbe espresso in modo diverso: «Nulla nella fisica del
processo che dà luogo agli eventi alternativi deve cambiare, se ciò che
determina uno qualsiasi di tali eventi viene scambiato con ciò che determina un
altro qualsiasi di essi». Si tratta appunto, come si vede, di un principio di
simmetria.
Questo principio, se valido, giustifica il fatto che si attribuisca a tutti gli
eventi possibili la stessa probabilità a priori, per cui basta contare tali eventi per
ottenere la probabilità di ciascuno. Così, la probabilità di uno qualunque dei sei
esiti diversi di un dado non truccato risulta essere 1/6 e questi valori delle
probabilità rendono conto in modo soddisfacente dell’andamento delle vincite e
delle perdite in partite giocate onestamente. Ma se i dadi sono truccati, vincite e
perdite si discostano sistematicamente da quanto ci si aspetterebbe sulla base di
quelle probabilità.
Ciò porta all’idea che, in una situazione del genere, i singoli casi possibili
non siano più equiprobabili. A rigore, quest’ultima frase è priva di senso, se non
si dispone del concetto elementare di probabilità. Diremo allora che il desiderio
48
F.T. Arecchi, Caos e Complessità nel Vivente
di poter fare previsioni anche con dadi truccati pone l’esigenza di un nuovo
concetto di probabilità, in cui la probabilità possa anche risultare diversa per
diversi casi a priori possibili. Per far fronte a queste esigenze sono stati
introdotti altri tre concetti di probabilità: 1) il concetto statistico, 2) il concetto
logistico, 3). il concetto di probabilità soggettiva.
1) Secondo il concetto statistico, non si può parlare (al contrario di quanto si fa
nel linguaggio corrente) di probabilità a proposito di un singolo evento, ma
solo a proposito di una classe, o collezione di eventi dello stesso tipo,
ciascuno dei quali si presenti con una, tra due o più modalità alternative
diverse. La probabilità di ciascuna modalità viene ancora riportata al
rapporto fra il numero dei casi favorevoli e il numero dei casi possibili, ma
questi non vanno contati prendendo in considerazione a priori le alternative
disponibili, bensì a posteriori, esaminando l’insieme di eventi una volta che
questi si siano prodotti. Così nel lancio di un dado la probabilità del 4 non è
quella elementare; invece si deve eseguire una serie di N lanci (con N molto
grande), contare il numero dei 4 ottenuti e dividerlo per N: in tal modo si
ottiene «la frequenza» dei 4 nella serie di lanci. La probabilità del 4 è il
«limite» della relativa frequenza al tendere ad infinito del numero N. Qui la
parola limite non è usata nel senso rigoroso dell’analisi matematica e ciò
costituisce la difficoltà di questo concetto. A parte ciò, esso è evidentemente
utilizzabile anche per dadi truccati.
Il concetto statistico è stato introdotto da J.Venn nel 1800. Il suo aspetto più
importante è che presenta la probabilità come un dato oggettivo, ricavabile
dall’esperimento.
2) Il concetto logistico concepisce la probabilità di un evento come una
relazione logica fra 1’evento e le conoscenze di cui si dispone al riguardo.
Con maggior precisione, questa probabilità è una relazione fra proposizioni.
Così, non ci si deve chiedere «qual è la probabilità che domani piova?» ma
«qual è la probabilità che la proposizione - domani pioverà - sia vera?». La
probabilità dipende quindi dalle conoscenze di cui disponiamo, e siccome
anche queste sono espresse mediante proposizioni, la probabilità è una
relazione fra proposizioni, cioè una «relazione logica». Come tale è anche
una relazione oggettiva, ma ad un livello di oggettività diverso dalla
probabilità statistica: non già a livello degli eventi, ma a quello del nostro
discorso sugli eventi.
Il concetto logistico di probabilità è stato introdotto da G.Boole nel 1800,
ripresentato da Wittgenstein nel «Tractatus» (1921) e sviluppato criticamente
da J.M.Keynes (1921).
Capitolo 2: La fisica del disordine
49
3) La probabilità soggettiva corrisponde ad un apprezzamento quantitativo di
una situazione meramente soggettiva, cioè è l’ammontare della fiducia che il
soggetto pensante ha nel verificarsi di un certo evento. È pertanto un valore
soggettivo di regola variabile da individuo ad individuo. Questo concetto
risale al 1800 ed è stato ripreso nel 1900 da B.de Finetti. Secondo de Finetti,
non esistono eventi ripetibili e non ha quindi senso il concetto statistico di
probabilità. La probabilità, come grado di credenza nel verificarsi di un certo
evento, si valuta quantitativamente in base alla massima posta che il soggetto
è disposto a rischiare in una scommessa, posta espressa come frazione del
premio che riscuoterà se l’evento si verifica. Se l’evento non si verifica il
soggetto perde la posta e non vince niente. Questo concetto è pertanto di
pertinenza esclusiva della psicologia. Anche una frequenza sperimentale
(osservata ad esempio in una serie di lanci ripetuti di un dado) non va
confusa secondo questa concezione con una probabilità, poiché di fatto non
esistono eventi ripetibili ed il soggetto può benissimo non dare alcun peso a
tale frequenza come indicazione del grado di simmetria e bilanciamento del
dado. La probabilità così intesa non ha quindi alcun carattere di oggettività.
A questo punto siamo in grado di rispondere alla domanda: fra i vari concetti
di probabilità quale va utilizzato nelle scienze sperimentali?
Il calcolo delle probabilità è oggi un ramo della matematica che si sviluppa
per via deduttiva da un preciso sistema di assiomi; come tale, esso è
completamente indipendente dal significato intuitivo dei termini che compaiono
negli assiomi. Il calcolo della probabilità è dunque uno e uno solo; ma i termini
che compaiono in esso debbono prima di tutto essere interpretati, cioè
acquistare un significato nel campo di indagine in questione. È in questo campo
dunque, che si deve definire un conveniente concetto di probabilità e dimostrare
poi che tale concetto soddisfa gli assiomi del calcolo.
Se ne conclude che i tre diversi concetti di probabilità non corrispondono a
tre teorie, ma a tre diverse interpretazioni del calcolo delle probabilità.
Il problema è ora vedere quale serve nelle scienze sperimentali. Possiamo
senz’altro escludere le interpretazioni soggettiva e logistica. Il campo della
prima è privo di quei caratteri di obbiettività che si richiedono a ciò che è
oggetto di scienza. Né, d’altra parte, una relazione (logica) tra proposizioni può
dirci da sola alcunché degli aspetti del mondo: in modo analogo, la deducibilità
di un teorema in un sistema deduttivo non ci dice nulla sul fatto che il relativo
corpo di assiomi possa o meno essere usato per descrivere certi aspetti della
realtà.
50
F.T. Arecchi, Caos e Complessità nel Vivente
Ci resta così per le scienze sperimentali solo il concetto statistico.
L’interpretazione statistica del calcolo delle probabilità implica tuttavia
condizioni molto precise; in particolare, che gli eventi siano ripetibili. Ora,
secondo la concezione del mondo della scienza classica, è proprio la regolare
ripetitività di certi eventi che rende possibile la formulazione di leggi e quindi
la stessa costruzione di una scienza.
La ripetitività di certi eventi in dipendenza dalle loro cause è ciò che ha
suggerito che gli eventi siano in qualche modo concatenati. Un primo tipo di
concatenazione è quella storica: ciascun evento crea le condizioni necessarie
perché l’evento seguente possa verificarsi (un vaso non può cadere da un
terrazzo se prima qualcuno non ve lo ha messo). Ma l’idea suggerita dalla
costante riproducibilità di certi eventi in certe condizioni è quella della
possibilità di una concatenazione più stretta di quella storica: una
concatenazione in cui ogni evento non è solo necessario ma anche sufficiente
per il successivo. È questa propriamente l’idea di «causa».
D’altronde l’esempio mostra che esistono eventi (come l’esito del lancio di
un dado) che risultano non inseriti in una concatenazione più stretta di quella
storica. Un evento del genere è per definizione un «evento casuale». Nessuno
degli eventi che a priori potrebbero essere presi in considerazione come
possibili cause di esso risulta collegabile ad esso mediante un legame di
necessità.
È propriamente l’esistenza di eventi casuali che rende possibili le
applicazioni del calcolo delle probabilità allo studio dei fenomeni naturali.
2.3 L’informazione
È ben noto quale importanza abbia sempre avuto l’informazione nella vita
umana. Ma solo in epoca recente, con lo sviluppo della scienza e della
tecnologia, ci si è resi conto dell’assoluta priorità dell’informazione rispetto agli
altri beni di cui dispone l’uomo. In tutto l’ottocento e in parte del novecento ci
si è preoccupati soprattutto delle materie prime, delle risorse agricole, della
disponibilità di manodopera. Oggi si tende invece a dare un posto preminente
alle informazioni e «cognizioni», da quelle generali scientifiche, a quelle
tecnologiche più spicciole, chiamate «know how».
È chiaro che il primo problema da risolvere è quello di «misurare»
l’informazione, cioè quello di caratterizzare ragionevolmente con un numero,
con una grandezza fisica, la quantità di informazione.
L’informazione si trasmette mediante «messaggi». Daremo a questa parola
un’accezione molto larga. Per noi sarà messaggio una parola, un gesto, il suono
Capitolo 2: La fisica del disordine
51
di una campana, una lettera dell’alfabeto, un punto o una linea dell’alfabeto
Morse, una pagina stampata, un libro e ecc.. Chi trasmette un messaggio potrà
scegliere da un insieme costituito da un certo numero n di messaggi diversi. Per
chi trasmette «punto» o «linea» sarà n=2, per chi indica di andare a «destra» o
«a sinistra» o «diritto» sarà n=3, per chi batte un carattere a macchina sarà n=32
(ponendo che la macchina da scrivere abbia 32 tasti) e così via.
È chiaro che un determinato messaggio porterà tanta più informazione quanto
maggiore è il numero n dei messaggi tra i quali può essere scelto. Per esempio
un semplice «sì» o «no» (n=2) porterà un’informazione molto modesta; invece
un discorso di dieci parole può portare un’informazione enorme, perché enorme
è il numero n dei messaggi differenti che si possono formare con dieci parole.
Dunque, sembra opportuno che la misura dell’informazione sia rappresentata
da un numero che cresce con n. Tale è n stesso o n2, o n3, o log n, ecc. Per fare
una scelta opportuna dovremo porre qualche altra condizione. La condizione
più ragionevole consiste nel richiedere che la trasmissione di due, tre, ecc.
messaggi consecutivi scelti dallo stesso insieme, porti il doppio, il triplo, ecc.
d’informazione rispetto ad un singolo messaggio. Due pagine stampate
dovrebbero contenere il doppio d’informazione di una singola pagina, un libro
di cento pagine dovrebbe contenere cento volte tale informazione e così via.
Supponiamo di trasmettere una successione di messaggi elementari, scelti fra
n diversi. Se ne trasmettiamo due, ciascuna delle n possibilità del primo può
combinarsi con una delle n del secondo. Per esempio in una scelta binaria
(testa/croce nel lancio della moneta ovvero + o - ), abbiamo:
un messaggio 2 possibilità: +, due messaggi 22 possibilità: (+ +), (+ - ), (- +), (- - )
In genere perciò avremo W=n2 messaggi possibili, mentre l’informazione
deve essere doppia. Allora l’informazione è proporzionale all’esponente 2, cioè
al logaritmo di W.
Ricordando il grafico della funzione logaritmica, si vede che per W piccolo
l’informazione (che chiameremo I per brevità) cresce rapidamente, mentre per
W grosso, I cresce sempre più lentamente. Nell’esempio del lancio della
moneta, il messaggio corrispondente a l0 lanci deve avere I l0 volte più grande
del singolo lancio. Invece di classificare tutte le 210=1024 combinazioni di + e presi a l0 a 10 (ad es. [+ - + - - - + + - - ]), ci limitiamo a dire che I è di l0 cifre
binarie o come si dice in gergo di l0 bit (abbreviazione di binary digit).
Stabiliamo un legame fra informazione I e probabilità. Se i W messaggi sono
tutti equiprobabili, a ciascuno spetterà una probabilità p = l/W. Ricordiamo
52
F.T. Arecchi, Caos e Complessità nel Vivente
dall’aritmetica elementare che una divisione equivale a elevare alla potenza -1,
cioè al posto di W possiamo scrivere p-l; pertanto il logaritmo di W è «meno» il
logaritmo di p, cioè:
I = - log p
Questo secondo modo di scrivere si può generalizzare al caso in cui i vari
messaggi accadano con probabilità differenti. Introduciamo il concetto intuitivo
di media (la media fra 3, 5 e 7 è (3+5+7)/3 = 5), e indichiamo una media con
parentesi acute <>. Orbene, l’informazione è legata alla espressione media:
I = - < log p>
Abbiamo dunque collegato informazione a probabilità. Si tratta di un
concetto non riportabile immediatamente a un’operazione di misura, come
lunghezza o velocità, e il corrispondente apparato di misura non è uno
strumento in vendita (non esiste l’informometro). Per una definizione
quantitativa, è occorsa tutta una procedura complessa che è stata fonte di
discussioni. Tali discussioni nel caso di micro-oggetti (meccanica quantistica) o
dei viventi (biologia) non sono ancora finite.
2.4 Termodinamica e meccanica statistica: dall’individuale al
collettivo
La descrizione globale di un oggetto macroscopico con la sua energia,
entropia, volume e numero di particelle e la tendenza all’equilibrio termico,
cioè il degradarsi verso una condizione di massima entropia, si chiama
termodinamica.
Verso la fine del 1800 Boltzmann aveva tentato di spiegare il comportamento
globale mediante il comportamento individuale delle singole molecole. Nella
fisica dell’ordine questo programma è semplice. Ad esempio si dice che una
biglia si comporta come una particella in quanto tutti i suoi atomi si muovono
rigidamente insieme, cioè eseguono moti coerenti. Qui invece dobbiamo
riuscire a dare espressione matematica al fatto che ogni molecola si muove per
conto proprio, cioè che i moti sono incoerenti.
Questo programma (meccanica statistica) riuscì ad una condizione: integrare
le leggi dinamiche di Newton con un’ipotesi di incoerenza delle velocità (la
Stosszahl Ansatz, ipotesi di disordine completo delle. velocità molecolari, di
Boltzmann).
Questo «solipsismo» delle molecole è facilmente giustificabile in un gas,
dove le molecole sono lontane una dall’altra e si influenzano solo per urti, in
Capitolo 2: La fisica del disordine
53
cui, come le biglie, per un piccolissimo istante si perturbano reciprocamente le
velocità. Ma come estendere la meccanica statistica ai liquidi e solidi? Orbene,
la cosa è possibile nell’ambito della dinamica lineare. Accettiamo che le
molecole siano vicine e pertanto legate da forze reciproche, ma assumiamo che
queste forze siano «lineari», cioè come tante molle elastiche (fig.2.5).
Figura 2.5: Catena di atomi sul reticolo di un cristallo con accoppiamenti tra prossimi vicini.
Per piccoli spostamenti attorno alla posizione di equilibrio, vale un modello lineare (con
buca di energia parabolica).
La figura indica una fila di molecole in un cristallo. Per l’ipotesi lineare,
ognuna eseguirà dei moti all’interno della propria buca di potenziale e non si
accorgerà dell’esistenza delle altre, cioè del fatto che il potenziale si raccordi
con la parte tratteggiata, cessando di essere parabolico. Ciò sarà sempre
possibile purché i moti attorno alle posizioni di riposo (fondi buche) siano
piccoli, come accade in un cristallo a temperatura ambiente, in cui ogni
molecola è agitata dall’agitazione termica. Dunque, il moto sarà la
sovrapposizione di un moto ordinato, da calcolare con le regole della dinamica
dell’ordine, più un’agitazione sovrapposta, rispetto alla quale ogni molecola si
trova scorrelata dalle altre, come in un gas.
In definitiva, con l’ausilio ulteriore del metodo di Boltzmann, sembra che
possiamo mantenere il programma riduzionistico di spiegare un oggetto
macroscopico nei termini dei suoi componenti anche in presenza di moti
disordinati di tipo termico. Le quantità globali sono somme opportune delle
quantità individuali, p. es. l’entropia di un oggetto macroscopico sarà la somma
delle entropie di ciascuna molecola, e se queste in media si comportano allo
stesso modo, e ce ne sono N in totale, basta dire che:
entropia totale = N · (entropia individuale)
Quando però la dinamica è non più lineare, allora non si può più dire che le
molecole differenti si comportano allo stesso modo. La descrizione globale può
54
F.T. Arecchi, Caos e Complessità nel Vivente
diventare estremamente difficile, a meno che non si riesca a ricorrere a
semplificazioni convincenti. Ciò ha luogo quando si riesce a dividere
concettualmente un sistema in un piccolo numero di sotto-sistemi. Questi
interagiscono globalmente ma non individualmente. Facciamo un esempio.
Supponiamo di avere in un laghetto pesci che si nutrono di mangime fornito in
abbondanza. Questi non devono competere per il cibo e si limitano a fare figli:
tanti più quante più coppie ci sono. Questa velocità di crescita che aumenta col
numero di pesci corrisponde alla caduta lungo una china (fig.2.6a).
Figura 2.6: Rappresentazione di crescita di popolazione per riproduzione (a) e saturazione per
cibo limitato (b), come due dinamiche lineari distinte.
Il sistema globale di tutti i pesci è rappresentato da una caduta in un
paesaggio dell’energia unidimensionale, cioè a una crescita del numero di pesci
da A a B nel tempo. Si noti, siamo usciti dalla logica del meccanicismo, perché
non consideriamo più il moto locale (cioè nello spazio del laghetto) di ciascun
pesce, ma il moto in uno spazio astratto, in cui c’è sempre in verticale l’energia,
ma in orizzontale c’è il numero di pesci. Abbiamo mutuato dal meccanicismo il
formalismo matematico, ma lo stiamo applicando a un puro spazio mentale,
creato da noi per farci delle rappresentazioni.
Supponiamo ora che il cibo sia limitato, per cui ci sia posto solo per un
numero C di pesci e quelli in più muoiono rapidamente di fame. Ciò equivale a
dire che, da B in su, cambia la regola: invece che a fig.2.6a (potenziale
instabile) dobbiamo fare riferimento a fig.2.6b (buca stabile). Se poi la morte
per fame è più rapida del tempo di riproduzione, da B si cade in C e ci si ferma,
senza fare oscillazioni (la caduta BàC è «come» quella di una pallina con
attrito che dissipa l’energia cinetica e non ha velocità per risalire oltre C).
Capitolo 2: La fisica del disordine
55
Unendo a) e b), si ha una dinamica globale non lineare (fig.2.7).
Figura 2.7: Combinazione delle 2 dinamiche lineari distinte in un’unica dinamica non-lineare.
Abbiamo riportato la legge di crescita temporale con l’asse del tempo in
orizzontale, come si fa di solito per convenzione.
Dunque riusciamo a fare previsioni perché, in base alle regole di Galileo,
abbiamo trovato la giusta quantità di cui calcolare il futuro, ma il paragone con
la pallina che scivola su una china è solo un’analogia, non una riduzione
meccanicistica.
Se nel laghetto mettiamo pesci bianchi con cibo illimitato, questi crescono
come in fig.2.6a. Se però introduciamo anche pesci rossi, che si nutrono di
pesci bianchi, la cosa è più complicata. Avendo due specie, avremo anche due
coordinate nello spazio mentale. Dovremo perciò costruire un paesaggio a due
dimensioni X-Y, dove X è il numero di pesci bianchi e Y quello di pesci rossi
(fig.2.8).
Figura 2.8: Passaggio da un grado di libertà (una specie di pesci) e due gradi di libertà (due
popolazioni X e Y). La competizione (se Y cresce, X diminuisce) cioè la retro-azione
(feedback) da Y a X dà luogo a oscillazioni. Invece in fig.2.7 la quantità di cibo non
dipendeva dalla popolazione (non c’era feedback).
56
F.T. Arecchi, Caos e Complessità nel Vivente
In questo paesaggio X-Y, le due coordinate (X, Y) danno rispettivamente i
numeri di pesci preda e predatori. Per es. se partiamo da 1 (X alto, Y basso), i
bianchi sono numerosi per scarsezza di predatori. Ma i pochi rossi trovano
molto cibo e si riproducono rapidamente, distruggendo i bianchi più
rapidamente di quanto questi si riproducano a loro volta. Si arriva a 2. Ma qui i
rossi cominciano a morire per mancanza di cibo, i bianchi allora - avendo meno
predatori - tornano a crescere, e così via, con cicli che si alternano come si può
capire dai due diagrammi temporali proiettati a sinistra e in basso in a), e poi
riportati sovrapposti in b). Si noti che se avessimo esteso a questo caso la
soluzione unidimensionale di fig.2.7, avremmo sbagliato.
Diamo il nome di descrizione «mesoscopica» a questa dinamica che mutua le
tecniche della dinamica delle particelle, ma le riferisce ad oggetti astratti,
ognuno dei quali è un sistema. Nell’ultimo esempio, il punto che si muove nel
piano X-Y è il sistema: pesci bianchi con il loro cibo più pesci rossi.
3 La fisica dell’organizzazione
3.1 Il livello mesoscopico - Le transizioni di fase
3.1.1 Sistemi all’equilibrio termico
In questi ultimi decenni l’attenzione della scienza si è rivolta al livello che
abbiamo chiamato mesoscopico. Esso è intermedio fra il microscopico che
riguarda la singola particella elementare e il macroscopico in cui consideriamo
un oggetto come il puro risultato della somma dei componenti, come abbiamo
visto nel caso del cristallo di fig.2.5.
Vediamo un po’ meglio in che cosa un sistema differisce dalla pura somma
dei componenti. Prendiamo per esempio un gas di molecole con mutui legami
attrattivi. Finché ci sono solo urti ciascuna molecola fluttua per effetto degli urti
incoerenti che riceve da tutte le parti, ma rimane pur sempre «staccata» dalle
altre, cioè il gas resta gas.
Dal punto di vista energetico, essa si muove sul fondo di una buca di
potenziale, che rappresenta la sua velocità media. Se scarta in su o in giù,
l’insieme degli urti ve la riporta, cioè il moto è rapidamente smorzato. Alla
buca di energia possiamo associare una curva a campana che rappresenta la
probabilità di trovare le molecole (vedi fig.3.1a). La probabilità è massima nel
fondo buca, dove l’energia è minima.
Se gli urti che «omogeneizzano»il sistema sono impediti, cioè se il sistema è
congelato a bassa temperatura, allora prevalgono le mutue attrazioni e per
effetto di queste le molecole dovrebbero collassare in un mucchio compatto,
cioè il gas diventare solido. Invece, ad alta temperatura, gli urti reciproci danno
fluttuazioni che compensano i legami attrattivi, mantenendo lo stato gassoso.
Esisterà allora una temperatura critica alla quale legami attrattivi e fluttuazioni
termiche sono ugualmente importanti e si neutralizzano.
A questo punto si possono formare spontaneamente gruppi di molecole che,
per effetto delle maggiori dimensioni, esercitano un’azione attrattiva superiore a
quella della singola molecola, finendo per «orientare» il comportamento del
resto del sistema: si ha cioè l’instaurarsi di un «ordine a lungo raggio».
Quando ciò succede si avrà una transizione di fase gas-liquido.
Al punto critico in cui avviene la compensazione fra i due meccanismi
antagonisti (forze di legame e urti termici), cioè quando nasce l’ordine a lungo
raggio, si smussano i dettagli delle forze individuali scambiate fra due singole
molecole, con un comportamento universale, che si verifica indipendentemente
58
F.T. Arecchi, Caos e Complessità nel Vivente
dalla natura dei legami. Cioè liquefacendo vapori di ammoniaca, o anidride
carbonica, o acqua, varierà la temperatura a cui ciò avviene, ma il fenomeno
avrà le stesse caratteristiche.
Illustriamo più in dettaglio questo passaggio dal disordine del gas (posizioni
delle molecole a caso) all’ordine dello stato condensato (molecole con piccoli
spostamenti residui, ma fondamentalmente inamovibili, come nel liquido o nel
solido).
Si segue meglio il passaggio se si pensa a una calamita. Una calamita è tale
perché tutti i magnetini elementari (cioè i singoli spin atomici) si dispongono
paralleli. Ma accanto alla forza magnetica che tende. ad allinearli, c’è l’effetto
di agitazione termica, che tende a disorientarli. Chiamiamo con J l’energia
scambiata da uno spin con quelli contigui, e kT (dove T è la temperatura e k una
costante che traduce la temperatura in energia) il «boccone» di energia termica
che tocca allo spin.
Finché l’urto disordinato prevale sullo scambio magnetico che tende ad
allineare gli spin, cioè finché kT>J, è come se ci fossero solo urti, saremo cioè
in una fase disordinata, in cui i vari spin avranno orientamenti diversi, per cui
ognuno si neutralizzerà con uno opposto e, a due a due, daranno somma nulla.
Diremo che ad alta temperatura, il corpo è paramagnetico, cioè può acquistare
proprietà magnetiche, ma per il momento non fa da calamita.
Se ora abbassiamo la temperatura, finché kT<J allora il mutuo allineamento,
cioè l’ordine, prevale sul disordine e gli spin si ritrovano tutti paralleli. In
assenza di un corpo esterno che imponga una sua direzione, ciò avverrà con una
legge di «maggioranza»: tutti ad esempio con la punta in su o in giù, a seconda
di come la maggioranza abbia stabilito allorché passando per kT=J, le
fluttuazioni ancora contavano (a rigori, per spin con molte orientazioni
possibili, come in fig.3.1a, il collasso a spin paralleli può avvenire in qualunque
direzione: scegliendo la verticale – spin su o giù – stiamo tacitamente
applicando un piccolo campo magnetico verticale che orienta gli spin, senza
peraltro alterare la dinamica rappresentata in fig.3.1b).
Avremo perciò un paesaggio dell’energia con due buche, e pertanto con due
picchi di probabilità (fig.3.1b). Ora la magnetizzazione è non nulla, avremo –
convenzionalmente – un valore + o - a seconda che gli spin siano allineati tutti
in su o in giù. Chiamiamo ferromagnetica la fase della calamita con magneti
allineati.
Capitolo 3: La fisica dell’organizzazione
59
Figura 3.1: Paesaggio dell’energia e curva di probabilità per gli spin a) quando prevale il
disordine termico b) quando prevale l’allineamento ordinato.
Consideriamo allora fig.3.1a e 3.1b come due diagrammi energiamagnetizzazione per due diverse temperature. Variando con continuità la
temperatura, si può costruire un diagramma tridimensionale come in fig.3.2a. Il
fondo valle, alla temperatura per cui kT =J, cioè per compensazione fra ordine e
disordine, si biforca. Introduciamo il seguente gergo:
- magnetizzazione = parametro d’ordine (nullo in fase disordinata, non nullo in
fase ordinata);
60
F.T. Arecchi, Caos e Complessità nel Vivente
- temperatura = parametro di controllo (controlla la forma del paesaggio
dell’energia).
Figura 3.2: Paesaggio dell’energia con la transizione disordine-ordine all’abbassarsi della
temperatura. a) diagramma tridimensionale b) luogo dei minimi (linea intera) e massimi
(linea tratteggiata) che mostra la biforcazione alla temperatura critica per cui allineamenti
e fluttuazioni termiche si compensano.
Inoltre chiamiamo punto critico il punto di biforcazione, a cui i due
antagonisti (fluttuazione termica e interazione spin-spin) si compensano e il
sistema deve decidere se biforcare da una parte o dall’altra. La decisione è
pilotata da una fluttuazione: se per caso si forma un gruppo numeroso di spin
tutti allineati in su, allora questi faranno da seme iniziale e convinceranno tutti
gli altri ad orientarsi, poco a poco, allo stesso modo.
Queste situazioni critiche di passaggio dal disordine all’ordine sono comuni a
molti sistemi fisici; esse caratterizzano anche i sistemi biologici e sociali, e la
Capitolo 3: La fisica dell’organizzazione
61
competizione fra due processi antagonistici è stata la base di modelli ecologici
ed economici (vedi Tabella).
PASSAGGIO DISORDINE-ORDINE
(interazione non lineare fra due antagonisti)
ECOLOGIA: predatore-preda
BIOLOGIA, CHIMICA attivatore-inibitore
LASER, ELETTRONICA, ECONOMIA guadagno-perdite
FLUIDI spinta di Archimede-viscosità
ASTROFISICA gravitazione-reazioni nucleari
3.1.2 Sistemi aperti, fuori dall’equilibrio termico
Esiste però una differenza essenziale fra la transizione gas/liquido o
para/ferromagnetica e l’ordine nei sistemi elencati in tabella. Nei sistemi fisici
studiati in termodinamica ci si era limitati a condizioni di equilibrio termico,
cioè di temperatura uniforme, che evitano le complessità e permettono di
stabilire criteri generali quale il principio della massima entropia, cioè della
tendenza a una situazione di massimo disordine. Recentemente l’interesse si è
spostato sui sistemi aperti, cioè sistemi che scambiano energia al contorno
(esempi: un laser che riceve energia elettrica e cede energia luminosa, un essere
vivente che riceve cibo e ossigeno e compie lavoro, un liquido in un recipiente
scaldato dal fondo e raffreddato in alto che trasforma il flusso termico in moti
ordinati convettivi).
Come nel caso del magnete, possiamo descrivere il passaggio da una normale
sorgente luminosa (lampada) a un laser come un passaggio disordine-ordine.
Abbiamo già accennato in par.2.1 che, in una lampada, l’onda emessa da
ciascun atomo in genere ha una fase diversa da qualunque altro atomo. Nel
laser, l’equivalente della tendenza all’allineamento nel magnete è la tendenza
all’accordo di fase fra le onde emesse da atomi diversi. Questo accordo si
chiama emissione stimolata: tutti gli atomi stimolati l’uno dalla luce dell’altro,
emetteranno luce in ordine. Questo effetto d’ordine è contrastato dal fatto che la
luce scappa dalla regione della lampada, e perciò non può più esercitare il suo
effetto ordinatore. Lo scappare è equivalente a perdersi in un mare buio a bassa
temperatura, quindi è un effetto di disordine, cioè di crescita di entropia. Se
però agli estremi della lampada mettiamo specchi, la luce si riflette indietro e
può continuare a esercitare il suo effetto stimolante. Avremo perciò una
competizione, in cui l’ordine cresce con il numero di atomi in grado di dare
62
F.T. Arecchi, Caos e Complessità nel Vivente
luce (possiamo controllare ciò mediante una scarica elettrica in un gas) e il
disordine cresce con la perdita agli specchi. Quando prevale l’ordine, si ha il
laser. Ma se continuiamo ad aumentare l’eccitazione possiamo «rifornire»
diversi modi di emissione fra gli specchi (analoghi ai modi risonanti diversi
della cassa di uno strumento musicale). Quando ve ne sono tre, può nascere
caos deterministico. Se poi ve ne sono molti, può nascere una situazione
complessa che torna a somigliare al vecchio disordine al di sotto della soglia
laser. Tutto ciò è rappresentato in fig.3.3. I segnali racchiusi nei cerchi a destra
rappresentano i segnali elettrici che si vedrebbero all’uscita di un fotorivelatore
nei tre casi.
Figura 3.3: Il laser. Le frecce spezzate indicano dell’eccitazione fornita agli atomi: a)sotto la
soglia laser: abbiamo una lampada normale i cui atomi emettono luce con fasi
disordinate; b)sopra soglia laser: si ha un generatore di luce coerente, con fasi ordinate; c)
più modi laser coesistono: si può avere caos o complessità.
Capitolo 3: La fisica dell’organizzazione
63
Perché mai in questo caso possiamo applicare considerazioni quali quelle
usate per sistemi all’equilibrio, con riferimento a un paesaggio dell’energia che
cambia forma? La trattazione formale è rimandata al par.8.1. Qui sviluppiamo
considerazioni euristiche. Riandiamo alla scala dei livelli di energia discreti
dell’atomo di Bohr, mostrati in fig.1.17 e isoliamo la coppia di livelli fra cui c’è
un salto pari alla frequenza del laser che vogliamo realizzare, p. es. n=3 e n=2,
(fig.3.4). Se l’atomo è nello stato basso n=2 può assorbire luce sottraendo
energia al sistema campo elettromagnetico: questo è confinato in modo stabile
attorno al valore zero da cui può allontanarsi solo per fluttuazioni che però ve lo
riportano (situazione analoga a fig.4.1 in alto). Se ora l’atomo è stato portato
allo stato “innaturale” n=3, cioè fuori dall’equilibrio, da un meccanismo che in
gergo chiamiamo pompa, allora può emettere un fotone arricchendo l’energia
luminosa.
Un atomo può cedere il suo fotone spontaneamente senza sollecitazione
esterna; in tal caso i vari fotoni spontanei non avranno correlazioni mutue.
Invece un atomo, mentre è nello stato eccitato può cedere il suo fotone su
sollecitazione di un altro fotone (emissione stimolata) i due fotoni saranno
correlati e contribuiranno a costituire un campo elettromagnetico ordinato.
Entro una folla di atomi eccitati, questo processo può proseguire in cascata, ciò
equivale a dire che il campo crescerebbe senza apparente limite.
Rappresentando il campo al posto della magnetizzazione degli spin sull’asse
orizzontale di fig.3.1, siamo ora nel caso b) in cui la valle centrale è divenuta un
colle e il campo cresce o a destra o a sinistra (siccome i processi di emissione
stimolata generano segnali coerenti, se quello iniziale comincia a destra tutti gli
altri lo seguono e viceversa). Ma il precipitare dal colle ha un limite: come
mostrato in fig.3.4, quando si è accumulata un’alta popolazione di fotoni. allora
è probabile che un certo fotone, invece di dare emissione stimolata su un atomo
ad n=3, sbatta su un atomo esaurito ad n=2, lo riporti su per assorbimento, e
questo torni poi giù per emissione stimolata: ma con ciò tre fotoni danno il
risultato finale che inizialmente dava un fotone! Questo processo di disturbo
frena il precipitare dal colle e finisce collo stabilizzare il valore del campo ad
una posizione di equilibrio equivalente a ± M 0 in fig.3.1.
Dunque abbiamo giustificato:
i) l’allontanarsi del campo della luce dal valore nullo che è una transizione di
fase perché equivale a capovolgere il paesaggio dell’energia attorno
all’origine, ricordo che LASER vuol dire: light amplification (by) stimulated
emission (of) radiation;
64
F.T. Arecchi, Caos e Complessità nel Vivente
ii) un meccanismo competitivo ad alte densità di fotoni che blocca l’instabilità
in un minimo stabile.
Nella Parte II daremo una base formale sia alla biforcazione(passaggio da
valle a colle) sia alla successiva stabilizzazione del campo ad un valore non
nullo, che chiameremo “parametro d’ordine”
Figura 3.4: Rappresentazione dei due livelli d’energia la cui separazione è pari alla frequenza
della luce emessa. a) atomo ad n=2: assorbimento; b) atomo ad n=3 ma in assenza di
altri fotoni: emissione spontanea; nelle normali lampade gli atomi eccitati sono pochi e la
luce emessa è di questo tipo; c) atomo ad n=3 in presenza di altri fotoni: emissione
stimolata; d) atomo ad n=3 in presenza di molti fotoni: meccanismo riduttivo del
guadagno, per effetto di competizione (saturazione del guadagno).
Allo stesso modo possiamo dare la descrizione mesoscopica dell’instabilità
convettiva (Rayleigh-Benard) in un fluido confinato in una cella e scaldato dal
basso. Se la differenza di temperatura fra fondo e coperchio della cella è debole,
allora le molecole trasmettono l’agitazione per urti e si ha una situazione
disordinata (fig.3.5a). Se aumentiamo la differenza di temperatura, in basso si
formano dei volumetti più leggeri (liquido scaldato) che salgono come
palloncini per spinta di Archimede e fanno in tempo a raggiungere la parete
fredda in alto, senza disperdere la loro individualità per urti molecolari. Una
volta in alto, si raffreddano, si raddensano e cadono in giù. Vedremo dei rulli
Capitolo 3: La fisica dell’organizzazione
65
convettivi ordinati (fig.3.5b). Ma se scaldiamo troppo, avremo una
combinazione di rulli diversi, e il tutto diventerà caotico o complesso (fig.3.5c).
Figura 3.5: Instabilità di Rayleigh-Benard. a) Moto diffusivo (disordinato), b) Moto convettivo
(ordinato): due diversi tipi di rulli. c) Composizione di più moti convettivi, con rulli
diversi di forme diverse (caos e complessità).
In tutti questi casi, la caratteristica comune è la comparsa di comportamenti
ordinati su una scala molto più vasta di quella atomica, (ad esempio le onde
convettive nel fluido). Questo indica che la descrizione mesoscopica non
implica i singoli atomi, ma sotto sistemi estesi: come in una sinfonia, si
opporranno gli archi agli strumenti a fiato, ma non si isolerà il singolo violino
se questo è all’unisono con gli altri archi. Inoltre, l’effetto del contorno non è
prevedibile dalle interazioni elementari, ed è qualcosa da aggiungere ad hoc, in
più rispetto alla conoscenza degli individui.
Ad esempio l’informazione contenuta nel DNA in un embrione è la stessa per
tutte le cellule, ma la differenziazione di tessuti ed organi è guidata da messaggi
di posizione che variano da cellula a cellula.
Si noti che nelle didascalie di fig.3.3 e fig.3.5 si è parlato di caos e
complessità. Qual è la differenza? Finché si hanno pochi gradi di libertà in
66
F.T. Arecchi, Caos e Complessità nel Vivente
competizione (tre o pochi di più) si ha il caos deterministico. Quando invece si
considerano le distribuzioni nello spazio, cioè si hanno molti individui in
competizione sullo stesso territorio (come i differenti modi laser fra i due
specchi o i rulli nella instabilità collettiva) allora ognuno può delineare, la
propria «nicchia ecologica». In gergo fisico si dice che il dominio di
correlazione di una certa dinamica è più piccolo di tutto il territorio a
disposizione. La dinamica totale diventa allora una collezione di domini,
ognuno con la sua propria dinamica, o solo debolmente correlati o del tutto
scorrelati: nel primo caso parleremo di complessità, nel secondo saremo tornati
alla termodinamica, solo che ora gli individui non sono più le singole molecole
ma delle dinamiche collettive (modo laser o rullo idrodinamico). Una
definizione accurata di complessità sarà data in par.8.1.
In effetti le oscillazioni ideali del tipo di fig.2.8 non si osservano in natura. Se
per esempio studiamo per decenni le popolazioni di lepri e linci nella foresta
canadese, ritroviamo un andamento grossolanamente di tipo oscillante, ma con
forti variazioni rispetto alla media. Ciò perché il sistema ha molti sottosistemi
(il cibo, la durata degli inverni, le malattie da parassiti, etc.) e la nostra
schematizzazione è solo approssimativa.
È compito dell’analisi dei sistemi di isolare dai complessi fenomeni osservati
quelle regolarità suscettibili di essere descritte in termini di coppie di
antagonisti.
3.2 Sinergetica e auto-organizzazione
La dinamica dei sistemi considera l’evoluzione di un. sistema complesso
come dovuta all’interazione globale, cioè non fra singole particelle, ma fra
sottosistemi che agiscono ciascuno con una propria individualità. Per esempio,
in una gabbia con. due animali A e B, ciascun animale ha una sua dinamica e
interagisce come totalità con l’altro.
La descrizione sistemica supera il riduzionismo. È ovviamente legale dire che
quel che c’è nella gabbia è la somma degli atomi di A e B, ma sarebbe ridicolo
pretendere che la conoscenza delle interazioni elementari atomo-atomo sia in
grado di fare prevedere quel che succederà nella gabbia. Appena raggruppiamo
a tre a tre i costituenti di A e B, fra questi possono «scoppiare» situazioni di
caos deterministico. Inoltre, come visto, in un sistema «aperto» gioca un ruolo
essenziale l’influenza del contorno, cioè degli scambi globali col resto del
mondo, che mancano in un mondo chiuso.
Capitolo 3: La fisica dell’organizzazione
67
In sistemi chiusi è ancora possibile una descrizione riduzionistica: ad
esempio, dedurre la simmetria macroscopica del cristallo dalle simmetrie dei
legami atomici. In sistemi aperti, lo scambio al contorno è un «di più» rispetto
alle leggi interne. Ad esempio la forma dei moti in un liquido che bolle dipende
crucialmente dagli scambi termici alle pareti della pentola e non si può
attribuire solo alla natura delle molecole del liquido. In un vivente, i
comportamenti (fenotipo) sono un compromesso fra eredità (genotipo) e
ambiente, e non sono deducibili solo dal genoma (cioè dalla sequenza di basi
del DNA).
D’altronde il vitalismo di vecchio stampo pretendeva che esistessero delle
leggi globali del vivente differenti dalle leggi fisiche dei costituenti. La biologia
molecolare ha in effetti provato come non sia necessario ricorrere a leggi non
fisiche per discriminare la struttura del non vivente da quella del vivente, a
livello elementare.
Dunque, entrambe le posizioni, riduzionistica e vitalistica, sono insostenibili
La sintesi consiste nell’individuare unità definite che interagiscono fra di loro
globalmente come individui, senza che a questo livello vadano considerate le
interazioni atomiche. Un esempio familiare: la Divina Commedia di Dante e
tutta 1’opera di Shakespeare contengono, grosso modo, lo stesso numero di
lettere dell’alfabeto latino. Ciò non vuol dire che mescolando le 25 lettere
dell’alfabeto a caso sia possibile ottenere un’opera letteraria. Le unità rilevanti
sono diventate le parole, col loro valore grammaticale e semantico; quindi per
un’analisi del testo è inutile studiare le correlazioni fra singole lettere
dell’alfabeto, ma si deve fissare l’attenzione sulla dinamica delle parole nella
frase e, ad un livello gerarchico superiore, sulla dinamica delle frasi in un
capitolo (o in un canto, o in un atto, ecc.).
Per concludere, a dispetto del riduzionista, non bastano i singoli componenti
elementari; a dispetto del vitalista, d’altra parte, non è necessario aggiungere
nuove entità extra fisiche per capire aspetti globali di un sistema complesso, ma
basta descriverlo gerarchicamente, cioè ad un livello mesoscopico diverso da
quello microscopico, come fatto in par.3.4 per i pesci.
L’emergenza dell’ordine per effetto delle interazioni globali fra sotto-sistemi
è stata chiamata auto-organizzazione da I.Prigogine. La descrizione
mesoscopica di un sistema fisico aperto è stata chiamata sinergetica da
H.Haken. Quando si riduce ad un numero basso di personaggi (due negli
antagonismi, o pochi di più) essa risulta indipendente dai dettagli dei miliardi di
componenti atomici. Per esempio, la stessa descrizione «sistemica» o
68
F.T. Arecchi, Caos e Complessità nel Vivente
sinergetica è valida per un laser, per un fluido scaldato, per una reazione
chimica, e risulta sufficientemente universale da apparire utile per descrivere
sistemi sociali o biologici.
3.3 Come individuare i sottosistemi
Nel caso dei sistemi biologici, o sociali, o culturali, le sottounità (cellule,
apparati, città o nazioni, lingue e dialetti) finiscono con l’essere caratterizzate o
da un confine spaziale (membrana, mura di cinta) o da una loro stabilità o
persistenza nel corso della loro storia. Nel caso dei sistemi fisici, si introducono
variabili collettive mediando su variabili omogenee (per esempio, la velocità di
una nube è la velocità media di tutti gli atomi che la costituiscono). La dinamica
si può poi semplificare distinguendo fra le diverse scale temporali che
caratterizzano la «memoria» delle variabili collettive: le variabili veloci si
adeguano al moto imposto dalle variabili lente. In tal modo, su tempi lunghi,
una volta placate le fluttuazioni veloci, rimane il moto lento che può essere
associato a poche variabili anche in un sistema complicato. In gergo, diremo
che le variabili lente hanno schiavizzato le variabili veloci. Queste ultime sono
state eliminate adiabaticamente, cioè si adeguano ad ogni istante alla situazione
imposta dalle variabili lente, e basta seguire queste per studiare la dinamica
mesoscopica. Per esempio nel caso linguistico, la lingua di una regione è la
variabile lenta che varia solo su scala secolare, invece la parlata di ciascun
individuo si adegua velocemente (nell’arco della sua crescita) alla parlata
corrente. Studieremo allora la dinamica della lingua, ad esempio, della lingua
italiana, e non la dinamica della lingua di Tizio e Caio.
Altro esempio: malgrado un laser implichi miliardi di atomi, la sua
descrizione può essere ridotta a un numero bassissimo di variabili rilevanti.
Ricordiamo che un laser differisce da una lampada perché non tutta la luce
emessa dagli atomi fuoriesce, ma una frazione viene riflessa dagli specchi
all’interno della lampada (feedback) per mettere «d’accordo» gli atomi.
L’effetto globale della luce è come il messaggio sonoro scambiato fra un
gruppo di cantori, permettendo a questi di mantenere il passo. Se il numero di
variabili lente è minore di 3, allora vale la dinamica stabile di Newton, (cioè le
1 o 2 variabili evolvono nel tempo in modo prevedibile e stabile} e si parlerà di
un comportamento ordinato o coerente. Se il numero uguaglia o supera 3, allora
si potrà avere caos deterministico (cfr. par.0.2 e più avanti, il cap.7)
Se nel laser cessa l’effetto globale imposto dal contorno per effetto della
riflessione agli specchi, allora il laser diventa una normale lampadina, in cui
Capitolo 3: La fisica dell’organizzazione
69
ciascun atomo riceve e ricede energia a caso, dando luogo ad un’emissione
disordinata o «incoerente» di luce (massimo disordine = massima entropia). A
questo punto cessa il vantaggio della descrizione mesoscopica, e il
comportamento macroscopico diventa la media banale dei singoli
comportamenti microscopici; si è cioè persa la struttura. L’individuazione di
sotto sistemi, cioè di variabili rilevanti da fare interagire, non è in fisica così
immediata come nei più familiari esempi culturali o biologici, ma è pur sempre
possibile, una volta individuate le scale temporali di ciascuna variabile.
3.4 Calcolatori, cognizione e pensiero
In questa Sezione affrontiamo due temi correlati fra loro, che verranno
ulteriormente ripresi al cap.9, e cioè: 1) come funzionano le macchine da
calcolo e che tipo di ausilio esse rappresentano per i nostri processi mentali; 2)
quali sono i modelli correnti dei nostri processi mentali e i corrispondenti
sistemi fisici che rappresentano delle mimiche parziali del nostro modo di
pensare. Nel presentare questi due temi, affronteremo il problema dei legami fra
1) e 2) e cioè: 3) quali siano le relazioni fra mente e calcolatore, e se la mente
umana è riducibile ad un calcolatore, e viceversa se un giorno un calcolatore
potrà raggiungere una consapevolezza (coscienza) di tipo umano. Come si vede
quest’ultimo tema è posto in termini vaghi, usando il linguaggio di tutti i giorni,
e senza avere definito con rigore termini come: mente, pensiero, coscienza;
quindi rischieremmo equivoci di tipo riduzionistico (la mente è solo un
calcolatore) o dualistico (come diceva Cartesio, la materia, o «res extensa»,
permette solo di fare automi, invece l’essere cosciente presuppone il possedere
un’altra sostanza distinta, le «res cogitans»). Vediamo un po’ perché trattiamo
l’argomento in questo capitolo sui sistemi organizzati.
Un calcolatore è un insieme di dispositivi fisici (detti «hardware», che
letteralmente significa «roba dura» e che indica gli articoli da ferramenta), i
quali partono da stati iniziali che corrispondono, mediante un opportuno codice,
all’informazione da elaborare, ed evolvono m base a certe regole imposte
dall’esterno, fino a degli stati finali che rappresentano le risposte che uno
voleva dalla macchina. Le regole di evoluzione sono dette programmi, o
«software» (alla lettera «roba molle»). Dunque il calcolatore è eteroorganizzato, cioè la sua evoluzione è pilotata da istruzioni messe dall’esterno.
Al contrario un sistema cognitivo è un sistema fisico auto-organizzato che,
sollecitato da stimoli esterni ai suoi organi sensori, non si limita a rispondere
automaticamente, cioè non è il campo di una semplice banale dinamica stimolo-
70
F.T. Arecchi, Caos e Complessità nel Vivente
risposta, ma si serve dello stimolo per instaurare una dinamica interna che
finisce con l’associare allo stimolo stesso una particolare rappresentazione,
cioè una fra molte possibili situazioni archiviate in una memoria. La dinamica
che porta dallo stimolo sensorio alla rappresentazione è un esempio di autoorganizzazione, cioè non è pilotata da istruzioni esterne. Ma la rappresentazione
a chi è rivolta? C’è un ispettore, uno spettatore, che valuta l’uscita del sistema
cognitivo, così come c’è un utente che riceve l’uscita del calcolatore? No! è il
sistema cognitivo stesso che diventa attore e spettatore. Nel caso più semplice,
si pensi al sistema immunitario di un organismo pluricellulare. Una volta
riconosciuto un «nemico»(virus o altro corpo esterno), gli scatena contro un
anticorpo specifico.
Allo stesso modo vedremo che un sistema percettivo (ad es. il sistema
olfattivo o visuale di un animale) non presenta un «modellino» del percepito a
un eventuale «homunculus» ospitato nel cervello, ma esplica il suo
riconoscimento acquistando uno stato fisico (cioè percorrendo una particolare
traiettoria dinamica) che è la specifica reazione all’evento-stimolo. Ad esempio,
la rana tira fuori la lingua per catturare l’insetto anche se la sollecitazione visiva
è stata prodotta artificialmente da un falso insetto, il coniglio scapperà al solo
vedere qualcosa che ricorda la volpe e l’amante di musica godrà tutto un tema
musicale al solo stimolo di due accordi musicali. Data la pertinenza di questi
temi allo scopo di questo libro, dobbiamo affrontarli cercando il massimo
rigore. Ci scusiamo per l’eventuale durezza di una trattazione schematica.
3.4.1 I calcolatori
Il calcolatore numerico (in Inglese digital computer dove digit indica il
singolo numero fra 0 e 9 (dal latino digitus = dito, corrispondente al modo
infantile di contare sulle dita della mano) è un dispositivo che elabora simboli
opportuni. Un ciclo di elaborazioni ha come risultato la manipolazione e
trasformazione di informazione.
Un calcolatore è composto da:
1. Dispositivi di ingresso che trasformano l’informazione simbolica esterna in
forme utilizzabili dalla macchina. Queste forme sono i simboli su cui la
macchina opera.
2. Dispositivi di uscita per ritrasformare i simboli interni in simboli esterni,
significativi per l’operatore umano (ad es. la stampante).
3. Dispositivi di memoria che immagazzinano i simboli prima, durante e dopo
il calcolo.
Capitolo 3: La fisica dell’organizzazione
71
4. Un’unità aritmetica. Una possibile interpretazione dei simboli interni, su
cui il calcolatore è in grado di operare, è che essi siano numeri. In tal caso
le operazioni che l’unità aritmetica compie fisicamente su questi simboli si
interpretano come somme, differenze, prodotti.
5. Un’unità di controllo. L’unità di controllo è l’esecutore del programma.
Essa è costruita con un repertorio di istruzioni (che ha in hardware) e che
invia alle altre unità secondo. la necessità. Le istruzioni riguardano
operazioni elementari: prendi un simbolo dalla memoria, sposta un simbolo
a destra o sinistra di un certo numero di posti, ecc. Un’istruzione
importante «confronta e poi smista» permette al calcolatore di decidere fra
due scelte, cioè di svoltare ad un bivio in base all’informazione trovata in
qualche cella di memoria. Mettendo in cascata tali decisioni semplici, si
costruiscono scelte complesse.
Istruzioni più complicate di quelle scritte in hardware possono essere fornite
di volta in volta da una sequenza di comandi detta programma (il software). Il
programma viene immagazzinato nella memoria con le altre informazioni e
dati. La fig.3.6 riassume quanto qui detto in uno schema che fornisce la
struttura essenziale del calcolatore.
Figura 3.6: Schema di calcolatore.
72
F.T. Arecchi, Caos e Complessità nel Vivente
3.4.2 Le reti neurali
Il cervello umano ha circa 1010 cellule dette neuroni. Ognuna di queste è
costituita da un corpo (soma) che contiene il nucleo, una lunga fibra o assone su
cui si propagano segnali elettrici da inviare ad altri neuroni e da una serie di
ramificazioni o dendriti, attraverso cui giungono al soma i segnali provenienti
da altri neuroni.
Un neurone interagisce con gli altri attraverso delle giunzioni di contatto
(come dei bottoni) dette sinapsi. Le connessioni sinaptiche fra un neurone e i
vicini possono essere fino a 104. Abbiamo detto che lungo l’assone si
propagano impulsi elettrici. Questi stimolano, al nodo sinaptico, la fuoriuscita
di molecole particolari (neurotrasmettitori) che trasmettono ad un altro neurone
per via chimica l’informazione che prima aveva viaggiato per via elettrica.
Un neurone sembra essere come un dispositivo a due stati: 0 se la somma di
tutti i segnali chimici ricevuti da altri neuroni non è sufficiente a stimolare la
partenza di un impulso nervoso (sotto soglia); 1 se si va sopra soglia, e ciò è
segnalato dall’impulso elettrico sull’assone. A parte il gran numero di neuroni,
quello che è notevole è il gran numero di connessioni. In base a queste
considerazioni, cerchiamo di costruire una rete di neuroni interconnessi (rete
neurale). Le caratteristiche più rilevanti sono le seguenti:
1) a differenza del calcolatore, che è sequenziale in quanto esegue
un’operazione per volta (anche se a velocità grandissime: oggi si arriva ad
oltre 109 operazioni al secondo), la rete neurale può operare in parallelo:
può fare anche migliaia di operazioni simultanee.
2) Dato il forte grado di interconnessione, la rete neurale ha una dinamica
complessa. L’insieme complessivo di neuroni (cioè tutta la rete) si comporta
come una pallina in un paesaggio dell’energia, che però non è semplice (a
una o due valli), ma a moltissime valli.
3) Un modello statico consiste nel fare evolvere ogni neurone per effetto
dell’accoppiamento con tutti gli altri. Tutta la rete si comporta come una
pallina che cade in una fra tante possibili valli. La scelta della valle dipende
da posizione iniziale e insieme degli stimoli esterni. La valle scelta
corrisponde a interpretare uno stimolo esterno in termini una certa
«memoria» fra quelle racchiuse in un archivio (cioè una fra tutte le valli di
energia disponibili). Questo aggiustamento su un fondo valle equivale al
riconoscimento di un oggetto esterno, il cui stimolo viene associato a un
campione (pattern) archiviato in memoria. Il riconoscimento di un pattern si
Capitolo 3: La fisica dell’organizzazione
73
chiama memoria breve o (STM = short term memory). Lo stesso paesaggio
dell’energia è poi «plastico»: è come se fosse di gomma e non di cemento,
nel senso che le valli si fanno e si disfanno, man mano che nuove memorie
vengono ad arricchire la rete e cancellano le vecchie; ciò avviene su scala di
tempi lunghi (LTM = long term memory). Il modello qui indicato si avvale
dei contributi di molti studiosi: W.S.McCulloch e W.Pitts (1943), D.O.Hebb
(1949), E.Caianiello (1961). Esso è stato ripreso da J.J.Hopfield (1982) e
per molti è finito col diventare il modello di Hopfield.
4) Per effetto delle interazioni non lineari, una rete si autorganizza attraverso
successive biforcazioni: c’è evidenza tuttavia che nei processi percettivi, lo
stato finale non sia un punto fisso (un fondo valle) ma un attrattore caotico,
cioè una di quelle traiettorie strane associate al caos deterministico. Una
traiettoria strana si può sempre descrivere matematicamente con la
sovrapposizione di un gran numero di orbite periodiche instabili. Se questa
è la situazione «di riposo» della rete, 1’arrivo di uno stimolo esterno
stabilizza una delle orbite periodiche. Questo sarebbe un metodo di
riconoscimento più rapido del dover errare fra monti e valli fino a trovare la
valle giusta.
Si tratta ovviamente di modelli, legati alla finora scarsa informazione
fisiologica che abbiamo sui processi nervosi. Affronteremo la questione in
modo più dettagliato al cap. 9.
3.4.3 Le macchine calcolatrici possono pensare?
In un famoso saggio del 1950 il matematico Alan Turing si pose il problema
se una macchina può pensare. La domanda può sembrare scandalosa, perché
uno associa la capacità di pensare alle qualità «superiori» dell’uomo, che non si
ritrovano né nelle macchine né negli animali Se smettiamo di fare le persone
offese, e approfondiamo in maniera rigorosa il problema, ci accorgiamo che
dobbiamo anzitutto definire che cos’è il pensare; se questo è una riflessione su
simboli, per elaborarli attraverso una sintassi, allora anche il calcolatore fa ciò.
Se il pensare vogliamo definirlo come elaborazione «cosciente», allora
dobbiamo chiarire che cosa intendiamo per «cosciente». Una definizione di
tentativo può essere un’elaborazione auto-organizzata, cioè in cui le istruzioni
non provengono dall’esterno. Ma abbiamo visto nella sottosezione precedente
come si cominciano già a realizzare macchine di calcolo auto-organizzate.
Turing propose il seguente esperimento (che d’ora in poi chiameremo in
gergo il Turing test). Supponiamo di isolare in una stanza un essere umano e
74
F.T. Arecchi, Caos e Complessità nel Vivente
una macchina di calcolo universale, cioè sufficientemente ricca di dati di
memoria e di programmi per poter affrontare anche situazioni esotiche, e
supponiamo di porre domande senza guardare chi è che risponde (ad es.
scrivendo schede e ricevendo le risposte in schede). Siamo in grado di
discriminare fra uomo e macchina? Turing dice di no. Con questo criterio
comportamentistico, non esiste differenza fra psicologia umana e del computer.
Il computer ideale, ipotizzato da Turing, è capace di eseguire tutti i processi
consistenti in una successione di stati distinti, purché descrivibili univocamente
con un numero finito di parole. Tutte quelle operazioni umane che sono
trasformabili in una serie di passaggi da uno stato all’altro sono eseguibili da
una macchina di questo tipo. Ciò vale per tutte le operazioni di carattere
discorsivo. La macchina di Turing non è altro che la precisazione del concetto
di algoritmo, cioè un elenco di istruzioni che specificano le operazioni con le
quali è possibile risolvere un certo problema. Si tratta di prescrizioni
meccaniche di un procedimento mentale di computazione. Quali sono i limiti di
tali procedimenti? Sono anzitutto limiti propri di ogni formalismo. Ogni
procedimento trasformabile in una successione di passaggi da uno stato all’altro
è un procedimento formale, come appunto il calcolo algebrico, il calcolo logico.
Circa procedimenti di questo tipo già è stato dimostrato da Kurt Goedel che
ogni sistema formale è soggetto a un limite di incompletezza. Vale a dire che in
ogni sistema formale è possibile, servendosi dei simboli del sistema stesso,
enunciare proposizioni che non possono essere dimostrate dal sistema in
questione, delle quali cioè non si può provare che sono vere né che sono false
(né 1’affermazione né la negazione): esse sono proposizioni indecidibili, di cui
cioè non si può decidere il valore all’interno del sistema. Poiché tuttavia esse
sono formulabili per mezzo dei simboli appartenenti a quel sistema, ogni
sistema formale è necessariamente incompleto. Poi c’è un secondo limite, e
cioè lo stesso carattere formale delle operazioni compiute dal calcolatore:
esclusione della dimensione semantica. Il computer, in sostanza, non fa che
manipolare dei simboli dei quali tuttavia ignora il significato.
Il teorema di Goedel mostra che la proposizione indecidibile è riconoscibile
come vera; ad esempio, nel campo dell’aritmetica si possono formulare delle
proposizioni, che ci appaiono vere perché noi intuiamo certe proprietà dei
numeri, alla luce delle quali risulta che tali proposizioni sono vere, ma che da
un punto di vista formale non possono essere dimostrate. Ciò vuol dire che
esiste una dimensione che riguarda il significato. Perciò il computer può
eseguire deduzioni o anche induzioni, come quelle delle diagnosi mediche, di
Capitolo 3: La fisica dell’organizzazione
75
tipo probabilistico, ma, per esempio, non può eseguire astrazioni. II
procedimento classico dell’astrazione, con cui si perviene a formare un
concetto, non può essere eseguito dal computer, perché l’astrazione non
consiste solo nel cogliere ciò che vi è in comune in molti particolari - e questo il
computer può saperlo fare - ma consiste nel saper riconoscere che cosa vi è di
essenziale in ciascuno dei molti casi particolari. Questo il computer non lo
coglie, questo esige una particolare visione di quale sia 1’elemento essenziale e
quale sia invece un elemento secondario.
Secondo Agazzi (E.Agazzi, ”Intentionality and Artificial Intelligence” nel
volume Le mental et le corporel, Acad. Intern. de Philosophie des Sciences,
Bruxelles, 1982), nemmeno le vere e proprie induzioni, cioè le induzioni non di
tipo probabilistico, possono essere eseguite dal computer, perché esse
richiedono una specie di visione, di coglimento diretto, di quale sia il
comportamento essenziale, decisivo, in una serie di fenomeni; visione che
permette appunto allo scienziato di formulare la legge. Al computer, insomma,
manca quella che già al tempo della Scolastica si chiamava intenzionalità, vale
a dire la capacità di riferire i propri simboli o le proprie rappresentazioni
concettuali agli oggetti esistenti nella realtà. Una legge scientifica nasce non a
forza di un gran numero di verifiche (che lascia sempre il dubbio che alla prova
successiva le cose vadano diversamente!) ma per invenzione mentale di una
teoria.
Il limite rilevato da Agazzi, cioè la mancanza dell’intenzionalità, della
dimensione semantica, di per sé, non toglie al computer la capacità di compiere
tutti i procedimenti razionali; toglie soltanto questa intenzionalità, che tuttavia
non è un procedimento razionale, ma quasi una capacità intuitiva, cioè non
un’operazione implicante passaggi, implicante mediazioni: è quasi un atto
immediato, un «vedere». È come se si dicesse: il computer può ragionare, può
far tutti i ragionamenti possibili; non può vedere, non può intuire.
La mancanza della dimensione semantica porta ad escludere per il computer
eventuali forme di razionalità, eventuali tipi di ragionamento, i quali non
possono prescindere dalla dimensione semantica, cioè non sono interamente
formalizzati, sono necessariamente legati a dei contenuti di rappresentazione. Il
filosofo Berti dice al riguardo (E.Berti, Ragione e intelligenza artificiale, in
L’elettrotecnica, (1986) n.4, pp.327-334 ): “Faccio degli esempi e con ciò passo
ad indicare quali sono, a mio giudizio, le forme di razionalità non praticabili da
un computer. Tra i ragionamenti di tipo non formale su cui 1’attenzione degli
studiosi, da vari decenni, si è appuntata, il primo in ordine di tempo che è stato
76
F.T. Arecchi, Caos e Complessità nel Vivente
preso in considerazione, è la cosiddetta «nuova retorica», studiata dal filosofo
belga Perelman negli anni ‘50, cioè la cosiddetta «teoria della argomentazione»
nell’ambito pratico, quello della morale, della politica, del diritto. Perelman
rilevò che, in tutti questi ambiti, è possibile usare ampiamente la ragione,
costruendo argomentazioni che possono essere più o meno valide, più o meno
buone, più o meno convincenti. Gli avvocati discutono, i politici ragionano, i
moralisti ragionano. Però le argomentazioni che essi usano non sono
interamente formalizzabili. Il loro valore, la loro capacità di convincere più o
meno, è legata non solo a procedimenti formali, che comunque ci sono e
devono essere corretti, - perché se fossero scorretti l’argomentazione non
sarebbe valida - ma sono legati anche ai particolari contenuti di ciò che si dice,
delle proposizioni che si usano. Poiché in questi settori è necessario stabilire un
dialogo con un interlocutore, ed è necessario che la validità delle
argomentazioni che si prospettano venga riconosciuta dal proprio interlocutore,
cioè che le argomentazioni possiedano un certo grado di persuasività - ecco
perché si parla di retorica, come tecnica di persuasione - questo tipo di
argomentazioni sono legate ai significati, ai contenuti delle cose che si dicono, e
pertanto non sono interamente formalizzabili».
3.4.4 Intelligenza artificiale e intenzionalità
A costo di ripeterci, è opportuno confrontare ulteriormente la pretesa di
pensiero che viene attribuita alla macchina.
Agazzi ha criticato i due approcci del dualismo e del monismo, che sono due
grandi interpretazioni storiche del problema mente/corpo caratterizzato da
impostazioni riduzionistiche. Il dualismo che Agazzi critica è quello di tipo
platonico-cartesiano, secondo il quale l’uomo sarebbe costruito da due entità
distinte e rivali, la sua anima e il suo corpo, che stanno insieme senza dare
luogo ad un’unità in modo tale che l’uomo sarebbe completamente determinato
come sostanza pensante, rispetto alla quale il corpo è semplicemente un
accidente estrinseco. In definitiva, questo dualismo è un tipo di monismo
(spiritualistico), che non ha nulla a che vedere con il dualismo aristotelicotomista, che afferma l’unità sostanziale dell’uomo.
Il dualismo di Descartes significa che il corpo (res extensa) si interpreta in
chiave meccanicistica, e resta interamente sottomesso allo studio delle scienze
naturali. Lo sviluppo successivo di queste ultime ha reso possibile il monismo
materialistico, che si autogiustifica come se fosse la necessaria conseguenza del
progresso scientifico, mentre lo spirito viene negato soltanto in base a
Capitolo 3: La fisica dell’organizzazione
77
un’arbitraria estrapolazione del metodo scientifico-sperimentale. In effetti,
l’approccio alla realtà da parte delle scienze sperimentali è basato su un punto
di vista nel quale è già determinato il tipo di cose che si possono dire, e pertanto
sono preselezionati gli aspetti del reale che si possono incontrare.
Concretamente, la scienza sperimentale non intende interessarsi, per principio,
alle realtà spirituali; pertanto negare l’anima in base a queste scienze è un
sofisma insostenibile.
Una prospettiva filosofica è imprescindibile per la questione qui trattata,
perché la domanda «possono pensare le macchine?» è in realtà una domanda sul
pensiero umano: concretamente, fino a che punto le operazioni realizzate dalle
macchine imitano le caratteristiche dell’intelligenza umana.
Chi si limitasse al piano strettamente scientifico-sperimentale, non
arriverebbe mai a porsi il vero problema; le impostazioni scientifiche
conducono a una risposta semplice: la possibilità che esistano macchine
«pensanti» rimarrà aperta, perché le dimensioni del «pensiero» umano si
limitano a ciò che può esprimersi mediante concetti in stretta relazione con il
metodo sperimentale. Invece, le differenze fra le macchine e l’intelligenza
umana si incentrano attorno al concetto di intenzionalità. Una delle differenze
è, ad esempio, il senso dell’«evidenza», che non si riduce ad una semplice
somma di regole operative. La logica formale è uno strumento utile, però
necessita del riferimento alla realtà che, in definitiva, si appoggia su evidenze
non formalizzabili (vedi A.Livi, Filosofia del senso comune, Edizioni Ares,
Milano, 1990). Per questo risulta enormemente difficile sostituire molti discorsi
del linguaggio naturale con linguaggi artificiali, e ancora di più ottenere
meccanismi soddisfacenti per tradurre un linguaggio naturale in un altro.
Per il medesimo motivo, i ragionamenti umani utilizzano continuamente
astrazioni, induzioni e deduzioni che superano le possibilità della macchina,
perché esigono la considerazione delle essenze di ciò che è conosciuto.
Sugli enunciati, Agazzi afferma che «ciò che permette di parlare della loro
verità o falsità, e più generalmente, sottometterli ad un’analisi meta-teoretica, è
la possibilità che abbiamo di conferirgli una funzione di designazione, trovando
per essi un’interpretazione tra le molte possibili, ossia, un’orientazione
intenzionale, che gli permette di arrivare ad essere nomi di oggetti o di predicati
sopra di essi o di essenze che si riferiscono a essi. Questo passo ulteriore
sembra eccedere strutturalmente le possibilità del robot».
4 I fatti della vita
4.1 I fatti della vita per non-biologi
4.1.1 L’evoluzione chimica
Anche a basse densità e temperature possiamo avere la formazione di
molecole, infatti, nello spazio interstellare, osserviamo più di 40 molecole
diverse, inclusi 1’acido formico, 1’etanolo ed altre. Questi processi possono
essere enormemente accelerati in un esperimento di laboratorio. Si prendono
elementi costitutivi comuni nell’originaria atmosfera terrestre pre-biologica
(acqua, molecole contenenti carbonio e azoto, ma non ossigeno) e si aggiunge
energia nelle forme abbondanti nel passato (radiazioni ultraviolette o scariche
elettriche tipo fulmini). I prodotti che si formano includono la maggior parte
delle macromolecole comuni nelle creature terrestri viventi, come aminoacidi,
basi, fosfati, acidi grassi, oltre ad urea ed ai suoi derivati. Alcuni di questi
prodotti sono presenti anche nei meteoriti. I chimici ritengono che questi
esperimenti riproducano almeno approssimativamente quello che è successo
nella Terra primitiva. Il successivo passo gigante, che porta alle molecole autoriproducentisi e alle cellule viventi, non è stato ancora duplicato in laboratorio.
Al momento in cui appaiono auto-riproduzione e immagazzinamento di
informazione, allora partono i meccanismi di mutazione, selezione e può avere
inizio 1’evoluzione di tipo darwiniano.
La vita fondata su basi chimiche, sia essa frequente o rara, ha avuto in ogni
caso uno sviluppo estremamente sensibile alle condizioni dell’universo.
Consideriamo alcuni esempi. Supponiamo che l’universo primitivo fosse stato
un poco più denso e l’interazione debole poco più forte. Dal Big-Bang sarebbe
emerso elio quasi puro e la vita delle stelle sarebbe stata molto corta, senza
avere il tempo per permettere lo sviluppo della vita sui pianeti. Oppure
supponiamo che l’interazione elettromagnetica fosse un po’ più forte o più
debole di quel che è. La prima avrebbe spinto gli elettroni all’interno dei nuclei,
l’altra li avrebbe lasciati vagare liberi nello spazio. In ambedue i casi, non ci
sarebbero state orbite elettroniche, né chimica, e non ci saremmo stati noi. Se la
gravità fosse più forte e le altre forze più deboli, le masse di gas che
condensano collasserebbero direttamente in buchi neri senza permettere le
lunghe vite di corpi luminosi costruiti su reazioni nucleari. Inoltre in un
universo che cominciasse troppo caldo, troppo tenue o con un’espansione
troppo veloce i grumi non potrebbero accrescersi in galassie
Capitolo 4: I fatti della vita
79
4.1.2 Lo sviluppo della vita
Grandi quantità di molecole organiche essenziali alla vita devono essersi
accumulate per centinaia di milioni di anni (aminoacidi, zuccheri, ecc.). Queste
molecole dovevano concentrarsi per evaporazione in pozzanghere superficiali
per dar luogo ad una specie di brodo. L’apparizione della prima forma di vita è
tuttavia ancora un mistero non spiegato. Ogni forma di vita è basata su due
classi di molecole organiche complesse: le proteine e gli acidi nucleici.
Gli acidi nucleici sono i costituenti essenziali della doppia elica (acido
desossiribonucleico, DNA): che contiene in codice le istruzioni per costruire
altro DNA e anche proteine Alcune proteine poi sono gli enzimi che permettono
di utilizzare le istruzioni in codice nelle operazioni di costruzione.
Nelle pozze di brodo primordiale erano quindi presenti gli elementi necessari
per costruire proteine e acidi nucleici: zuccheri, fosfati, amino acidi; tuttavia il
grosso problema è dato dal fatto che le proteine (enzimi) non possono essere
costruite se mancano gli enzimi. È come il problema dell’uovo e della gallina.
La soluzione di questo problema costituisce l’impegno attuale di teorici i quali
stanno costruendo modelli delle operazioni chimiche che potrebbero risolvere
l’enigma. Un successo in tale senso però costituirà solo il primo passo nella
spiegazione dell’origine del più semplice organismo vivente in grado di
svolgere le funzioni essenziali: utilizzare energia, conservare la propria integrità
di insieme, crescere e duplicarsi con precisione in una sequenza indefinita di
moltiplicazioni.
Siamo molto lontani dalla comprensione di tutto ciò: eppure, circa 3 miliardi
e mezzo di anni fa la vita ebbe inizio sulla Terra, si sviluppò e si diversificò
malgrado le difficoltà che dovette affrontare e superare per miliardi di anni.
In tutte le forme viventi oggi note, inoltre (micro-organismi, piante, animali)
il materiale genetico è costituito dagli stessi elementi fondamentali, e le
proteine sono formate dagli stessi 20 aminoacidi. Questa constatazione depone
a favore dell’ipotesi di un’unica origine della vita, dalla quale è scaturita
l’immensa varietà degli esseri viventi e, allo stesso tempo, evidenzia l’estrema
improbabilità di questa origine.
Dobbiamo insomma aspettare che si chiarisca la storia dell’origine della vita.
Per adesso è solo possibile prevedere che saranno individuati i suoi aspetti
essenziali e che si troverà una spiegazione per numerosissimi dei suoi stadi.
L’ipotesi recente di F.Crick e L.Orgel secondo cui i primitivi organismi viventi
80
F.T. Arecchi, Caos e Complessità nel Vivente
sarebbero giunti sulla Terra da altri luoghi non risolve il problema perché si
limita a spostare altrove il mistero dell’origine della vita.
I fossili dei primi organismi conosciuti mostrano che questi rassomigliavano
a batteri e sono chiamati «eobatteri», Poiché l’atmosfera primitiva non
conteneva quantità adeguate di ossigeno, gli eobatteri ricavavano la loro energia
dai materiali organici del brodo primordiale ed il loro materiale genetico era
localizzato in filamenti a spirale liberi all’interno della cellula (come nei batteri
ed in tutti gli altri procarioti sino ai nostri giorni).
Di solito si ritiene che gli eobatteri abbiano trovato difficoltà a causa
dell’esaurimento del cibo formatosi dalle reazioni chimiche del mondo
prebiotico e concentrato nel brodo. Dopo centinaia di milioni di anni però, gli
organismi viventi svilupparono mutazioni che permisero di utilizzare fonti
alternative di energia. La più importante è la comparsa di pigmenti che
assorbono la luce solare e compiono un metabolismo fotosintetico come fanno
le alghe verdazzurre con il pigmento verde: la clorofilla. Anche i batteri
svilupparono pigmenti adatti a compiere la fotosintesi. Le alghe azzurre si
estesero fino a coprire le acque superficiali.
Gli stromatoliti sono resti fossili che ne testimoniano oggi l’esistenza.
L’influsso della luce solare sulla clorofilla di queste alghe converte anidride
carbonica e acqua in ossigeno e zucchero. In tal modo in qualche miliardo di
anni, dall’atmosfera primitiva, che conteneva pochissimo ossigeno ed alte
percentuali di anidride carbonica proveniente dalle esalazioni dei vulcani, si
formò l’ossigeno dell’attuale atmosfera terrestre.
I primi organismi multi-cellulari la cui esistenza è documentata dai fossili
sono meduse e vermi, che vengono fatti risalire a circa 700 milioni di anni fa.
Tutto ciò che possiamo sapere dei due o tre miliardi di anni precedenti, è che
l’ossigeno dell’atmosfera giungeva a circa metà del livello attuale e che si
verificò un assestamento genetico negli organismi eucarioti, per cui il codice
genetico del DNA si raccolse all’interno del nucleo centrale delle cellule dove
era più protetto e così guidava il processo di riproduzione riducendo il margine
degli errori di trascrizione.
Se pensiamo alla scala temporale dell’esistenza degli organismi viventi ciò
che sembra superare ogni immaginazione è l’enorme durata della più semplice
fase procariota, che continuò per 1600 milioni di anni prima che si verificasse il
riassestamento del materiale genetico negli eucarioti.
Con la comparsa, avvenuta circa 700 milioni di anni fa, degli organismi
multicellulari ebbe inizio la differenziazione cellulare secondo le diverse
Capitolo 4: I fatti della vita
81
funzioni, che rivelò le immense capacità innovative dell’evoluzione biologica.
Questo avvenimento è una rivoluzione dopo più di 3 miliardi di anni di vita
unicellulare.
Possiamo disegnare un diagramma della storia della vita, che rappresenti la
principale biforcazione tra piante da un lato ed animali dall’altro con le
successive ramificazioni di ordine, famiglie, generi e specie. Da 700 milioni di
anni ha luogo il processo evolutivo che genera creature estremamente diverse.
Ad esempio, i resti fossili dicono che 500 milioni di anni fa prosperavano gli
artropodi trilobiti che si estinsero 200 milioni di anni fa.
I grandi dinosauri dominavano la Terra a partire da 225 milioni di anni fa ma
si estinsero 65 milioni di anni fa. Da allora in poi predominarono i nostri
antenati mammiferi, dopo un lungo periodo, iniziato 200 milioni di anni fa, di
mera sopravvivenza. Circa 70 milioni di anni fa i primitivi mammiferi presero a
diversificarsi enormemente e, dopo altri 5 milioni di anni, iniziò l’età dei
mammifero. Apparvero allora i nostri remoti antenati primati, ma le
testimonianze sono assai incomplete, così che i dettagli dell’origine ominide
sono ancora incerti. Non vi sono testimonianze fossili dell’epoca che va da 8
milioni di anni fa sino alla comparsa dei primi ominidi (Australopithecus) che
risale circa a 5 milioni di anni fa.
Siamo osservatori necessariamente parziali dello spettacolo dell’evoluzione
perché ci interessa soprattutto la linea evolutiva che probabilmente condusse
alla comparsa dei nostri immediati antenati, 1’Homo Sapiens, circa 200 mila
anni fa.
4.1.3 La teoria darwiniana dell’evoluzione
La teoria di Darwin dell’evoluzione biologica, così come 1’elaborazione del
metodo di Galileo, va considerata come una delle più grandi conquiste
scientifiche. Essa ha un immenso potere esplicativo: anche se non ha una forma
definitiva e andrà modificata dall’aumento dei ritrovamenti fossili e dal
progresso della biologia molecolare, non vi sono teorie alternative per spiegare
quanto osservato. Vi è però il pericolo che la teoria dell’evoluzione biologica
sia irrigidita in dogma mentre il suo potere esplicativo è ancora insufficiente e
va messo alla prova.
La teoria si compone di due elementi. In primo luogo vi sono mutazioni del
materiale genetico, i geni composti di DNA. Le mutazioni sono piccoli
cambiamenti nella struttura molecolare del DNA. Esse avvengono per puro
caso, ad esempio in conseguenza dell’azione di elementi chimici o di radiazioni
82
F.T. Arecchi, Caos e Complessità nel Vivente
e non sono dovute in alcun modo al bisogno dell’organismo di aumentare le
proprie capacità di sopravvivenza.
In secondo luogo, c’è la selezione naturale che garantisce la conservazione
delle combinazioni di geni più adatte alla sopravvivenza. Gli animali con una
combinazione genetica sfavorevole sono eliminati nella competizione da quelli
dotati in maniera più vantaggiosa.
Nel par.8.2 useremo queste ipotesi per studiare un modello di vita artificiale.
È importante notare che la teoria della evoluzione biologica esclude che vi sia
una qualsiasi «guida» dello sviluppo evolutivo per il raggiungimento di fini a
lungo termine, come propone ad esempio la teoria del «finalismo» legata al
nome di Teilhard de Chardin.
Al contrario, la teoria ufficiale è essenzialmente opportunistica, perché la
selezione naturale riguarda soltanto la sopravvivenza e la diffusione di una
generazione particolare, e poi della successiva, e così via, in base a
competizioni «locali» e non a un piano (o scopo) globale. Questo è stato
irrigidito in un dogma secondo cui, da un processo iniziale puramente casuale
possono essersi sviluppate per selezione naturale tutte le caratteristiche
strutturali e funzionali degli organismi viventi, con la loro sorprendente
adattabilità: È in base a questo dogma che alcuni biologi (ad esempio, J.Monod)
hanno sconfinato nel filosofico ed enunciato una loro visione di un mondo
dominato dal caso; ma con ciò si sta sottovalutando la trama di regolarità
dinamiche che stanno sotto ad ogni processo evolutivo.
La “filosofia” che sta dietro il libro di Monod, Il caso e la necessità, ha una
contraddizione interna. Da una parte, si accetta che il mondo fisico si muova
necessariamente in base a leggi affidabili: ma qui nasce il problema dello
statuto delle leggi di natura; perché non siano solo regolarità statistiche (come
per un empirista puro quale D.Hume) ma abbiano una “necessità” più forte di
quanto non farebbe sospettare la nostra procedura induttiva, occorre ammettere
che il mondo sia parte di un disegno razionale (cioè giustificare in sede
metafisica la stabilità delle leggi che in fisica sarebbero solo induttive).
Dall’altra si rompe lo scenario di un disegno razionale con l’irruzione del
caso, di cui è figlio il vivente.
La contraddizione sembra segnare la necessità di una fondazione metascientifica del programma scientifico; in questa monografia non c’è spazio per
approfondimenti; rimando al mio libro SR (vedi bibliografia al cap.0).
Capitolo 4: I fatti della vita
83
Figura 4.1: Albero filogenetico.
4.1.4 Struttura del DNA e delle Proteine.
DNA(acido desossiribonucleico)
È formato da due catene parallele da cui protrudono quattro basi (A, C, G, e
T) che sono complementari a due a due, come una chiave e una serratura:
precisamente, A e T possono scambiarsi due legami idrogeno, mentre G e C
possono scambiarsi tre legami idrogeno, e perciò non c’è modo di legare A con
C o G con T (né A con A, o ciascun altro con se stesso, perché verrebbe meno il
principio del legame idrogeno). Una sequenza a caso ACGTT richiede per
chiudersi, dall’altra parte, il complemento TGCAA. Tale sequenza rappresenta
l’informazione genetica. Le due catene si avvolgono poi a doppia elica. Ogni
tratto di catena è costituito da una molecola di zucchero (desossiribosio). La
connessione fra due tratti contigui è assicurata da ponti di esteri fosforici.
L’unità costituita da un tratto di catena con la sua base si chiama nucleotide. Il
DNA umano ha una lunghezza sui 109 nucleotidi. Nello sdoppiamento delle
cellule, la doppia elica si apre ed ogni metà ricostruisce la parte complementare,
attingendo al materiale del citoplasma; in tal modo da una si passa a due doppie
84
F.T. Arecchi, Caos e Complessità nel Vivente
eliche. Il DNA dopo essersi aperto trascrive l’informazione genetica su
spezzoni di RNA. L’RNA (acido ribonucleico) è una singola catena che si
costituisce complementare al tratto di DNA da cui è stato copiato. A differenza
del DNA, lo zucchero di ogni nucleotide è ribosio; al posto di T c’è la base U.
Proteine
Partiamo da un amino-acido che è fatto da un tetraedro che ha al centro un
carbonio (C) e ai quattro vertici un idrogeno, un gruppo aminico (-NH2), un
gruppo carbossilico (-COOH) e un radicale laterale R anche molto lungo. Al
variare di R, si possono costruire differenti amino acidi (quelli biologicamente
utili sono 20). Eliminando un H2O fra aminoacidi contigui, si costituiscono dei
polimeri (poli-aminoacidi) i quali si ripiegano formando strutture spaziali
complesse (proteine). Nelle pieghe spaziali c’è modo di ospitare
provvisoriamente una molecola, abbassandone la barriera di potenziale e
permettendo, a temperatura ambiente, transizioni che altrimenti avrebbero
richiesto alte temperature (enzima). Le proteine possono raggiungere pesi
molecolari fino a 50.000 (se si considera che 1 è il peso dell’atomo di
idrogeno). Per conoscerle, occorre sapere: 1) come si susseguono i radicali R
nelle catene a (analisi chimica); 2) come è la distribuzione spaziale (analisi
strutturale, si fa ai raggi X).
Come DNA codifica la formazione delle proteine.
Anzitutto il DNA si serve come tramite di uno spezzone di RNA (m-RNA o
RNA messaggero) fatto con la tecnica a stampo illustrata sopra, e che porta la
sua stessa sequenza (solo che ogni T è stato rimpiazzato da U). Ogni gruppo di
3 basi successive di RNA (detto «codone») codifica un R degli aminoacidi. In
questo modo, con 4 basi prese a 3 a 3 si possono codificare 43=64 diversi
codoni. Il codice è stato decifrato negli anni ‘60, con l’assegnazione di 61
codoni a 20 aminoacidi e 3 codoni utilizzati per la terminazione della
traduzione del messaggio grafico. Dunque il codice genetico è la
corrispondenza fra un alfabeto a 4 lettere, organizzato in tripletti, e un alfabeto a
20 lettere (aminoacidi). Il trapasso 61à20 implica una ridondanza o
«degenerazione» del codice: ci sono più modi per specificare lo stesso
aminoacido. Con un lungo nastro di RNA si possono fare sequenze ad arbitrio
di aminoacidi, cioè costruire enormi varietà di proteine. La lettura del m-RNa e
la traduzione in proteine ha luogo nei ribosomi. L’insieme dei processi di
duplicazione, trascrizione e sintesi delle proteine è visualizzato nello schema di
fig.4.2.
Capitolo 4: I fatti della vita
85
Schema degli ipercicli di Eigen e Schuster.
(M.Eigen, W.Gardiner, P.Schuster, R.Winkler, The origin of genetic
information, Scientific American, 1981, n.244, pp.78-95).
Per duplicarsi il DNA 1) si deve spezzare, 2) ciascuno dei due tronconi deve
far aderire spezzoni sparsi, per ricostruirsi la parte mancante della doppia elica.
In tutti questi processi ci saranno barriere repulsive corrispondenti a
temperature di centinaia o migliaia di gradi, altrimenti non ci sarebbe stabilità
della materia vivente. Ma queste barriere, che assicurano la stabilità, vanno
superate per avere reazioni chimiche e ciò avviene a temperatura ambiente. A
ciò provvedono gli enzimi Ma per costruire questi occorre il codice genetico,
cioè il DNA. Vediamo dunque che DNA ed enzimi sono vicendevolmente utili,
anzi essenziali. L’ipotesi di Eigen e Schuster è che, siccome acidi nucleici da
soli o proteine da sole non possono riprodursi, la vita, cioè la moltiplicazione di
una specie caratterizzata da un certo codice genetico, sia basata su una
«cooperativa» fra le due specie di molecole (teoria degli ipercicli). Questa
teoria è in un certo senso antidarwiniana, perché sostituisce la collaborazione
alla competizione. È più appropriato dire che integra il darwinismo.
Figura 4.2: Il dogma centrale della biologia molecolare.
86
F.T. Arecchi, Caos e Complessità nel Vivente
4.2 I fatti del cervello per non-neurologi
4.2.1 Percezioni, rappresentazioni e intenzionalità
L’intenzionalità è il processo che genera nel cervello azioni mirate a un
obiettivo. Queste azioni finalizzate sono comuni agli uomini e agli altri animali;
in più negli uomini è ben sviluppata la coscienza di sé, che è necessaria per le
volizione. I significati emergono quando il cervello crea comportamenti
intenzionali e poi cambia se stesso in accordo con le conseguenze sensoriali di
tali comportamenti, cioè si arriva a capire il mondo adattando se stessi al
mondo.
Questi problemi vengono inseriti in una cornice filosofica nell’ambito di tre
concezioni: i) fisicalismo, ii) cognitivismo e iii) fenomenologia aristotelicotomistica rivisitata da E.Husserl e dalla sua scuola.
Per i), si passa dal livello elementare di atomi, geni ed enzimi al livello di reti
neurali e aggregati di elementi computazionali, ma conservando il
determinismo stimolo-risposta, senza render conto dei vari modi in cui
l’attenzione seleziona gli stimoli (ad es. un viso fra la folla che ci balza agli
occhi); i) non è cioè in grado di spiegare i significati.
Per ii), la mente non è fatta di materia ma di collezioni di rappresentazioni:
software che gira sullo hardware umido o wetware (dualismo platonicocartesiano, ripreso da Kant e recentemente da N.Chomsky ); le informazioni
sono contenute in simboli, manipolati con un sintassi come nel computer. Ma
l’informazione non è significato: il contenuto di una telefonata non coincide
con la larghezza di banda e la sincronizzazione dei bit necessari per trasmettere
il messaggio.
Per iii), la mente è una struttura dinamica aperta al mondo: l’organismo
acquisisce la conoscenza del mondo e realizza il suo potenziale attraverso il suo
agire nel mondo; le azioni del corpo escono grazie ai sistemi motori, cambiando
il mondo e cambiando la relazione del sé con il mondo; le conseguenze
sensoriali delle azioni fan sì che il corpo cambi se stesso in accordo con la
natura del mondo. La percezione riguarda dunque le proprie modifiche come ne
viene fatta esperienza internamente. È questa la adaequatio tomistica, che è un
avvicinamento non un’identificazione: il corpo non assorbe le forme esterne,
ma cambia la propria forma per adeguarsi a quegli aspetti degli stimoli che
riguardano l’intento emerso nell’ambito del cervello. Nella dottrina di
Tommaso, l’intenzionalità ha bisogno dell’azione - e non del semplice pensiero
Capitolo 4: I fatti della vita
87
- per creare significato: questa concezione è comune ai fenomenologi
(M.Merleau-Ponty) e ai pragmatisti (J.Dewey).
Il programma scientifico corrente integra i) e ii), e noi stessi lo facciamo in
questo capitolo utilizzando gli strumenti preparati nei capitoli precedenti,
consapevoli tuttavia delle difficoltà già emerse al par.3.4 a proposito del Turing
test e che richiedono una riflessione sul procedimento di astrazione, con un
ricorso a iii). Ma qui entreremmo in un campo di dibattito filosofico che va
oltre lo scopo di questo libro, pertanto non affronteremo più il problema del
significato e ci limiteremo alla dinamica delle percezioni. Un libro recente
(W.J.Freeman, Come pensa il cervello, Einaudi, 2000), ha cercato di dare una
veste scientifica ai significati. Io mi sono servito di quel libro per queste
considerazioni introduttive, ma mi limito modestamente a considerare una
percezione come completata quando il suo contenuto informativo stimola
un’azione (vedi più avanti, par.9.1), sfuggire a un pericolo, prendere del cibo,
parlare di una cosa.
L’evoluzione ci ha conferito la capacità di cogliere l’intenzionalità negli altri
senza bisogno di definirla. Se vediamo un comportamento mirato, lo
riconosciamo quasi all’istante. Quando ci imbattiamo in un oggetto di un certo
tipo, ci domandiamo se è vivo o morto e se reagirebbe attaccandoci o fuggendo
al nostro tentativo di catturarlo. Se sta fermo, ci domandiamo se ci sta
guardando. Se si muove, ci domandiamo se il movimento è diretto verso di noi
o altrove. Nel mondo moderno, non abbiamo grandi difficoltà a distinguere tra i
comportamenti delle macchine intelligenti che non sanno ciò che fanno e i
comportamenti intenzionali degli animali che lo sanno. Nella letteratura
zoologica sono citati molti esempi di comportamenti intelligenti manifestati da
altri vertebrati e anche da invertebrati quali il polpo, l’ape e l’aragosta.
Cominciamo dallo studio del cervello di vertebrati più semplici degli esseri
umani, ma non troppo semplici o troppo diversi, perché un cervello
opportunamente semplice può avviarci su una pista per ripercorrere gli stadi di
sviluppo che hanno portato al cervello umano.
C.J.Herrick, studioso di neurologia comparata, ha descritto il cervello
dell’ambistoma, una salamandra (Ambystoma tigrinum), che a suo giudizio
assomiglia al cervello del nostro più antico antenato vertebrato. La sua semplice
struttura costituisce una guida elementare all’attività cerebrale. La fig.4.3
mostra le tre parti principali del cervello della salamandra: il prosencefalo, con i
suoi due emisferi, il mesencefalo e il rombencefalo, con il suo rudimentale
cervelletto. Il mesencefalo e il rombencefalo formano il tronco dell’encefalo;
88
F.T. Arecchi, Caos e Complessità nel Vivente
che collega il prosencefalo al midollo spinale e al sistema nervoso periferico,
che collega i nervi sensitivi e i nervi motori ai muscoli scheletrici, oltre alle
collezioni di neuroni che compongono il sistema nervoso autonomo, che regola
le funzioni vegetative.
Figura 4.3: Il cervello della salamandra.
In entrambi gli emisferi del prosencefalo, vi sono tre parti principali che
compongono la corteccia. Il terzo anteriore si occupa dei segnali sensoriali in
ingresso. Il senso più diretto e dominante è l’olfatto, ma qualche segnale arriva
anche dagli altri sensi mediante relais situati nel tronco dell’encefalo. La parte
laterale di ciascun emisfero (indicata con PC nella figura) è una corteccia
motoria, che modella l’azione del corpo. La parte mediale (H) è un’area
associativa, dove segnali provenienti da tutti gli altri sensi si combinano l’un
l’altro proiettandosi su un campo che si occupa dell’orientamento spaziotemporale.
Capitolo 4: I fatti della vita
89
L’azione intenzionale è diretta a obiettivi generati internamente e ha luogo
nel tempo e nello spazio del mondo condiviso con altri esseri capaci di agire
intenzionalmente. I termini usati dai cognitivisti per indicare questi processi
spazio-temporali sono memoria a breve termine e mappa cognitiva. Secondo la
concezione pragmatista, si tratta di termini fuorvianti, poiché non vi è alcuna
registrazione temporanea di immagini né alcuna mappa di rappresentazione.
Uno dei problemi affrontati dai pragmatisti è dare un contenuto biologico a
termini metaforici quali memoria, mappa cognitiva, ordine e caratteristica.
Queste funzioni combinate, comunque le si etichetti e le si concepisca,
forniscono all’ambistoma il suo campo spazio-temporale di azione, che è
incorporato in ciascuno degli stati intenzionali che costruisce. Tale campo gli
consente di andare là dove prevede una ricompensa, di inseguire una preda in
movimento e di individuare un rifugio nascosto. Questa area associativa del
cervello della salamandra rappresenta il precursore del nostro ippocampo, che
ha un ruolo cospicuo nell’apprendimento, nell’orientamento spaziale e nella,
memoria. L’insieme della corteccia sensitiva, della corteccia motoria e della
corteccia associativa forma un anello di tessuto neurale interconnesso attorno a
una piccola area centrale (TA nell’illustrazione), che Herrick ha chiamato «zona
di transizione». Herrick identifica in questa zona il sito che sviluppandosi e
ampliandosi ha portato alla formazione di nuove parti in cervelli più progrediti,
in particolare la neocorteccia dei mammiferi. Comunque le tre parti primitive di
ogni emisfero hanno continuato a esistere come sistema limbico (dal latino
limbus, che significa «cintura») attorno ai peduncoli che li collegano al
mesencefalo. Studiando gli effetti delle lesioni causate da malattia o da
interventi chirurgici, si è stabilito che il sistema limbico è essenziale per le
azioni intenzionali, compresa la percezione e le varie forme d’apprendimento.
Recidendo la connessione fra tronco dell’encefalo ed emisferi, cioè isolando il
sistema limbico, un animale perde i comportamenti intenzionali; mantiene la
capacità di masticare e inghiottire il cibo, di procedere secondo la sua andatura
e di svolgere le funzioni regolatrici (omeostatiche), ma intenzionalmente non fa
niente.
Torniamo alla costruzione dell’intenzione: l’intero emisfero con le tre parti
(corteccia sensitiva, corteccia motoria e ippocampo che connette i vari sensi e
fornisce l’orientamento spazio-temporale) costruisce stati-obiettivo; le attività
configurate guidano il corpo attraverso sequenze di azioni e preparano la
corteccia sensitiva a selezionare immagini, suoni, odori e sapori previsti come
conseguenze dell’azione pianificata. Il processo è chiamato preafferenza, ed è
90
F.T. Arecchi, Caos e Complessità nel Vivente
la base dell’aspettativa; i messaggi sono detti scariche corollarie: ci permettono
di distinguere i cambiamenti dell’ambiente da quelli dovuti al nostro
movimento intenzionale, in modo che quando muoviamo gli occhi non sembri
che il mondo si sposti.
La corteccia somatosensitiva riceve anche messaggi dai muscoli, che
confermano se l’azione è stata eseguita (propriocezione) e dagli organi interni
(introcezione).
Nel cervello umano, le nuove parti riguardano il linguaggio (emisfero laterale
destro) e il comportamento sociale (lobi frontali).
4.2.2 Il neurone
Il neurone è una cellula, con nucleo e mitocondri. A differenza di altre
cellule, da esso si protendono due tipi di filamenti: i dendriti (come un
cespuglio) e l’assone che è unico. I segnali di ingresso arrivano attraverso i
dendriti, il segnale di uscita è veicolato dall’assone (fig.4.4).
Nella corteccia vi sono due tipi di neuroni: i neuroni di proiezione e gli
interneuroni, o neuroni locali. I primi hanno un albero dendritico di diametro
fino a un millimetro, che si estende verso la superficie della corteccia, mentre
l’assone - spesso molto lungo - si estende verso altre aree della corteccia o, nel
midollo spinale dove può raggiungere il metro di lunghezza. I secondi hanno un
albero dendritico fino a un decimo di millimetro e forniscono le connessioni
locali.
I neuroni entrano in mutuo contatto attraverso le sinapsi dove il segnale
elettrico è trasmesso come tale, ma più spesso codificato in segnali chimici
(neurotrasmettitori) che sono raccolti a valle dall’altro neurone.
L’attività elettrica dell’assone consiste di impulsi (spikes) di altezze uniformi
e durata 1 ms. Nello stato di riposo, i neuroni mantengono un impulso al
secondo, ma in presenza di stimoli, come vedremo, si può arrivare ad un’alta
frequenza di ripetizione, fino a una separazione minima di soli 3 ms fra due
spikes. Lo scatenarsi di un treno di spikes è dovuto al fatto che la somma dei
segnali di ingresso al neurone, ricevuti attraverso le dendriti, supera una soglia.
Questo dà inizio a una dinamica che consiste nel continuo ritorno a una sella,
come descritto al par.0.3. La sequenza di spikes può essere periodica (raffiche o
“bursts”, tipiche dei neuroni che pilotano i moti interni, cardiorespiratorio,
peristaltico, ecc.) oppure caotica, come si ipotizza che abbia luogo nei neuroni
della corteccia sensoria, per codificare in intervalli variabili le varie percezioni.
Capitolo 4: I fatti della vita
Su tutto ciò torneremo al cap.9.
Figura 4.4: Schema di neurone.
91
PARTE II Gli Strumenti formali
5 La dinamica lineare e la sovrapposizione degli effetti
5.1 Alcune funzioni di area 1
d di Dirac
Consideriamo una funzione di t che sia un rettangolo di area 1. Riducendo la
durata aumenterà l’altezza, fino al limite di durata 0 e altezza ∞ che chiamiamo
delta di Dirac δ (t )
(a. 1)
(a. 2)
lim
t →0
∞
[δ ] = s −1
∫ δ (t )dt = 1
−∞
D’ora in poi, ometteremo per brevità i limiti sugli integrali definiti fra ± ∞ .
Se la delta è “localizzata” al tempo t 0 , allora si scriverà come δ (t − t 0 ) .
Essa acquista significato nel “pesare”(in quanto densità temporale misurata in
1/s) una funzione: l’integrale del prodotto dà il valore della funzione nel punto
su cui è centrata la δ .
(a. 3)
∫ f (t )δ (t − t )dt = f (t )
0
0
Rect
t
un rettangolo di durata finita T. Se deve avere area
T
unitaria allora l’altezza sarà 1 T .
Si indica con rect
(a. 4)
t
∫ rect T dt = 1
94
F. T. Arecchi, Caos e Complessità nel Vivente
Gaussiana
Si tratta di una curva a campana simmetrica intorno al massimo; la radice
quadrata di σ rappresenta la semidurata; il fattore che precede l’esponenziale e
che si misura in (1/s), assicura che l’area sia 1; esso si chiama
“normalizzazione”.
(a.
Gss (t ) =
5)
1
π 2σ 2
e
−
t2
2σ 2
∫ Gss(t )dt = 1
Quando usiamo questa densità per pesare t2, otteniamo la media detta
“varianza”:
t 2 = ∫ t 2 Gss (t )dt = σ 2
5.2 La trasformata di Fourier
Condizione sufficiente perché esista la trasformata di una funzione f (t ) : che
2
f (t ) sia a quadrato sommabile, cioè che il modulo quadrato f (t ) abbia area
finita:
∞
∫ f (t )
2
dt < ∞
−∞
La trasformazione ℑ si ottiene sommando tutti i valori di f (t ) , ciascuno
pesato da un fattore di fase ϕ = ωt :
~
ℑ{ f (t )} ≡ f (ω ) =
∞
∫ f (t )e
−iωt
dt
−∞
~
La trasformazione inversa si ha sommando la f (ω ) su tutte le frequenze
ω 2π e si denota con ℑ - 1
{
}
~
ℑ−1 f (ω ) ≡ f (t ) =
∞
∫ f (ω )e
−∞
~
i ωt
dω
2π
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
95
Esempio di come la somma di armoniche con ampiezza e fasi opportune,
ricostruisca un segnale: fig.5.1
Figura 5.1: Per funzioni definite solo su un intervallo limitato, non occorre fare l’integrale su
tutte le frequenze, ma solo la somma di un numero discreto di sinusoidi, partendo da una
bassa frequenza il cui periodo sia la durata del segnale e poi aggiungendo frequenze
multiple, dette armoniche, con opportune ampiezze e fasi.
NB: fuori dall’intervallo considerato la funzione si ripete periodicamente all’infinito, ma la
cosa non ci riguarda, in quanto siamo interessati solo alla funzione dentro l’intervallo.
Questa somma discreta invece dell’integrale si chiama serie di Fourier
sinistra) La curva a dente di sega è approssimata da un numero crescente di armoniche di ogni
ordine n con ampiezze rispettive An =1/n
destra) Lo stesso per un’onda quadra, però con solo armoniche dispari n=1, 3, 5, 7, 9.
96
F. T. Arecchi, Caos e Complessità nel Vivente
Tabella 1 - Alcune trasformate
t
ω
δ (t )
1
1
δ (ω )
cosω 0 t
δ (ω − ω 0 ) + δ (ω + ω 0 )
2
sin ω 0 t
δ (ω − ω 0 ) − δ (ω + ω 0 )
2i
rect
t
T
t
Gss 
T 
sin cω
T
2
T 
Gss ⋅ω 
4 
In modo analogo, per una funzione della coordinata spaziale x, introdurremo
la trasformata di Fourier, passando dallo spazio x allo spazio trasformato k
~
ℑ{ f ( x )} ≡ f (k ) =
∞
∫ f (x )e
−∞
−ikx
dx
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
97
~
La trasformazione inversa si ha sommando la f (k ) su tutte le frequenze
k 2π e si denota con ℑ - 1
{ }
~
ℑ −1 f (k ) ≡ f ( x ) =
∞
∫ f (k )e
~
ikx
−∞
dk
2π
5.3 Come Fourier semplifica derivate ed integrali
Operazioni di derivate e integrali
Sia la funzione y = f ( x ) ; diamo un incremento ∆x alla variabile
indipendente, in corrispondenza la funzione subirà un incremento
y + ∆y = f ( x + ∆x ) .
Definiamo:
Derivata = velocità di crescita = rapporto tra ∆y e ∆x , per ∆x → 0 , e lo
indichiamo con:
∆y
dy
y' =
≡ lim
dx ∆x →0 ∆x
Integrale definito = Area sotto la curva: somma ( Σ ) dei prodotti altezza per
base dei rettangolini
Figura 5.2: L’area sottesa fra la curva f(x) e l’asse orizzontale si calcola come somma dei
rettangoli di altezze f(x) e base dx. Il simbolo
∫
sta per somma.
98
F. T. Arecchi, Caos e Complessità nel Vivente
Anche qui facciamo tendere a zero le basi ∆xi dei rettangolini e denotiamo
con
∫
la somma Σ :
5
x − fin
1
x −iniz
A = ∑ f ( xi )∆xi →
∫ f ( x)dx
Integrale indefinito: è la funzione A(x) quando il limite superiore sia la
variabile x; segue
dA
= f (x )
dx
cioè la velocità di crescita dell’integrale è la funzione stessa e pertanto la
derivata è l’operazione inversa dell’integrale; ne consegue l’identità
df
∫ dx dx =
f (x) .
Esempi (per verificare le A(x) dell’ultima colonna, farne la derivata e così
ritrovare la funzione y(x))
y=x
y' = 1
y = ax
y' = a
y = e x ≡ exp(x)
y' = e x
1
x
y = cos x
1
x2
y ′ = − sin x
y=
A( x ) =
1 2
x
2
1
A( x ) = ax 2
2
A( x ) = e x
A( x ) = ln ( x )
y' = −
A( x) = sin x
Trasformate di Fourier di derivate e integrali
d iωt
e = i ω e i ωt
dt
∫e
iωt
dt =
1 i ωt
e
iω
Pertanto
~
~
d
d
dω
dω
f (t ) = ∫ f (ω ) e iωt
= ∫ iω f (ω )e iωt
dt
dt
2π
2π
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
99
Lo stesso vale per le trasformate da x a k. Si hanno pertanto le seguenti
regole di trasformazione:
t, x
ω,k
~
f(t)
f (ω )
~
f& ≡ df dt
iω f (ω )
~
&f&
− ω 2 f (ω )
~
f(x)
f (k )
~
f ′ ≡ df dx
ik f (k )
~
f ′′
− k 2 f (k )
Esempi di equazioni differenziali
Siamo ben familiari con le equazioni algebriche, in cui la incognita x si
ottiene risolvendo un’identità algebrica in cui x appare. Per es. x 2 = 9 dà
x = ±3 , oppure sinx = 1 dà x = π 2 ± n ⋅ 2π (dove n è un intero). Diremo
equazione differenziale un’identità come ad es.:
dx
≡ x& = ax(t )
dt
dove la x(t) è una funzione incognita del tempo, che compare nell’eq. insieme
alla sua derivata; l’eq. si risolve separando le due variabili x e t come segue
dx
= adt
x
Ora possiamo integrare separatamente 1o e 2o membro
dx
∫ x = ln(x ) e ∫ dt = t
Bisogna però tener conto di una costante di integrazione che si annulla
nell’operazione di derivata. Perciò la soluzione è
ln ( x ) = at + C
che possiamo riscrivere in forma esponenziale come
x = e at ⋅ e aC = k ⋅ e at
per t=0 risulta e0 =1 e perciò x(0)=k, dunque k è la condizione iniziale.
100
F. T. Arecchi, Caos e Complessità nel Vivente
Generalizzazione a funzioni di più variabili indipendenti
Se una variabile w dipende da tre variabili indipendenti x, y, z che possiamo
considerare come le coordinate di un punto in uno spazio 3D (a tre dimensioni),
scriveremo
w = f ( x, y , z ) = f ( r ) ,
avendo indicato con r la terna x, y, z.
Per visualizzare, limitiamoci a funzioni di due variabili f ( x, y ) (fig.5.3). Due
tagli ortogonali, come indicato in figura, ci danno le velocità di crescita nelle
due direzioni, rappresentate dalle pendenze delle rette tangenti. Conveniamo di
indicare le derivate parziali di una funzione di più variabili come segue:
∂f ∂f
,
∂x ∂y
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
Figura 5.3: Rappresentazione di una funzione di due variabili
due direzioni.
101
f ( x, y ) e delle sue derivate nelle
Generalizziamo a 2D la trasformata di Fourier
~
ℑ{ f ( x, y )} ≡ f (k x , k y ) =
∞
∫ f (x, y )e
−i ( k x x + k y y )
dxdy
−∞
Per semplicità di notazione, con la notazione vettoriale introdotta in
Appendice, definiremo il vettore r ( x, y ) nel piano (x, y), e analogamente il
vettore k (k x , k y ) .
Per avere un’immagine intuitiva, così come in 1D si “pesava” ogni valore
f(x) con una sinusoide complessa e − ikx , così in 2D pesiamo ogni valore f(x, y)
col valore locale di un’onda che si propaga nella direzione definita dalla coppia
di valori (k x , k y ) . Allora l’esponente della Fourier 2D può essere considerato
come il prodotto scalare dei due vettori (somma dei prodotti delle componenti)
e scritto come
exp(−i r ⋅ k )
102
F. T. Arecchi, Caos e Complessità nel Vivente
Inoltre, il prodotto delle basi dei rettangoli dxdy sarà semplicemente indicato
con d 2 r . Nel seguito, non staremo a specificare la notazione 1D o 2D,
aspettandoci che il lettore lo capisca dal contesto.
5.4 Gradi di libertà di un segnale
5.4.1 Caso temporale: gradi di libertà di un segnale (formula di Shannon)
Le analogie fra coppie di spazi trasformati,
r
r
t ⇔ω
e
r ( x, y , z ) ⇔ k ( k1 , k 2 , k 3 ) ,
permettono di trattare alla stessa maniera segnali elettronici e ottici. Uno
strumento di misura è sensibile su una banda limitata B di frequenze (si dice che
lo strumento è un “passa-basso” perché risponde fino alla frequenza B e taglia
tutte quelle più alte), e qualunque misura dura per un tempo limitato T.
Chiamiamo “gradi di libertà” di un messaggio i numeri reali che descrivono
completamente il messaggio. Nel caso di un segnale A(t), ogni termine del suo
sviluppo di Fourier dà 2 numeri reali (cioè 2 gradi di libertà), modulo e fase
A(ω ) = A(ω )e iϕ (ω ) .
Figura 5.4: Di uno spettro continuo A(ν ) , qualora la funzione A(t ) si ripeta periodicamente
con periodo T restano solo righe armoniche, a partire da una fondamentale di frequenza
1/T. La banda B ne ritaglia BT.
Nella banda continua di fig a) abbiamo un’infinità continua: ma questo è
fittizio! Misurando solo per un tempo T, non sapremo mai cosa c’è prima o
dopo; siamo perciò autorizzati ad assumere che la funzione si ripeta
periodicamente a destra e a sinistra e a sviluppare in serie come in fig.5.1:
avremo armoniche spaziate in frequenza di 1/T, ma dobbiamo considerare solo
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
103
quelle contenute in B, quindi un numero totale pari a B·T. Ognuna fornisce due
numeri reali, quindi il numero N di gradi di libertà è (formula di Shannon):
N = 2 BT
Applichiamo ciò al caso televisivo. Volendo trasmettere una scacchiera
bianca e nera qual è il numero massimo di quadretti da alloggiare sullo schermo
TV? Siccome l’occhio ha un tempo di permanenza tp=1/15s, per avere la
sensazione di moto dobbiamo dare almeno 2 quadri entro tp, per cui T=1/30 s.
La legge mette a disposizione di un canale una banda B=5MHz. Pertanto:
N = 2 ⋅ 5 ⋅ 10 6 ⋅
1
≅ 0,3 ⋅ 10 6
30
Il numero di linee orizzontali sarà dato da N ≅ 600 .
Allora il pennello elettronico del tubo televisivo è focalizzato fino a una
macchia che assicuri la copertura dello schermo con 600 linee.
5.4.2 Caso spaziale: risoluzione ottica (i pixel)
Introduciamo la teoria di Abbe (1880) della formazione delle immagini
ottiche attraverso una lente ideale. Illuminiamo l’oggetto sottile (p. es. una
diapositiva) con un’onda piana; se si trattasse di un pezzo di vetro trasparente,
l’onda passerebbe imperturbata, ma incontrando le varie asperità (cioè quelle
variazioni di colore e/o forma che contengono l’informazione) l’onda sarà
sparpagliata (useremo in gergo il termine “scatterata”) in un ventaglio di onde
piane, con ampiezze variabili da onda a onda; le onde hanno tutte lo stesso
colore, ma hanno k diversi per direzione spaziale.
~ r
L’ampiezza A(k ) della singola onda del ventaglio è il risultato dello
sparpagliamento(detto in Inglese scattering) di tutte le asperità A(r) nel dominio
r
bidimensionale r ( x, y ) dell’oggetto, cioè ne è la trasformata di Fourier:
A(k ) = ∫ A(r )e ik ⋅r dr .
Come ben noto, ogni onda piana viene messa a fuoco in un punto del piano
focale, cioè la lente sottile è un trasformatore di Fourier! (fig.5.10).
Se però cercassimo di leggere il segnale sul piano focale, qualunque
rivelatore (la retina dell’occhio un fonorivelatore, un film fotografico) è
sensibile NON al campo elettromagnetico, cioè all’ampiezza di ciascuna onda
104
F. T. Arecchi, Caos e Complessità nel Vivente
ma alla sua energia, cioè al modulo quadrato dell’ampiezza, perdendo così
l’informazione di fase. Allora non intercettiamo il segnale sul piano focale, ma
lasciamo che ogni suo punto agisca come una sorgente puntiforme di un’onda;
tutte le onde emergenti dal piano focale si sommeranno con le loro fasi (cioè
interferiranno) a valle del fuoco.
Avremo in genere un’immagine “sfocata” cioè indistinta, per la
combinazione capricciosa delle fasi, con l’eccezione del piano “immagine”
(quello coniugato al piano oggetto dalla famosa formula di Gauss
1 1 1
+ =
p q f
dove p, q ed f sono le distanze di oggetto, immagine e fuoco dalla posizione
della lente). Si dimostra che sul piano immagine le fasi si ritrovano in modo da
ridare, a meno di un fattore di magnificazione, la distribuzione spaziale
dell’oggetto, cioè si è antitrasformato il ventaglio di onde sparpagliate:
A(r ) = ℑ −1 [A(k )] = ∫ A(k )e −
lente
ik ⋅r
dk
piano
oggett
immagi
e
f
p
q
Figura 5.5: Teoria di Abbe della formazione delle immagini attraverso una lente ideale: l’onda
piana che illumina l’oggetto, a distanza p dalla lente, si diffrange in un ventaglio di onde
piane; attraverso la lente, ciascuna di queste è focalizzata in un punto sul piano focale (in
posizione f a valle della lente); i punti del piano focale sono sorgenti puntiformi di onde
sferiche che si sommano con le fasi giuste solo sul piano immagine a distanza q dalla
lente.
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
105
Dunque, la formazione delle immagini ottiche attraverso una lente sottile si
può schematizzare così:
A(r ) ⇒⇒ {
A(k ) ⇒⇒ {
A(r )
{
oggetto
pianofocal e
immagine
Si noti che questa restituzione dell’oggetto si ha solo nel visibile dove i mezzi
trasparenti (vetro, quarzo) hanno un indice di rifrazione distinto dal vuoto e
possono rifrangere, cioè piegare, i raggi in modo da dare l’effetto lente.
Ai raggi X non esistono lenti (ogni mezzo ha un indice di rifrazione
praticamente uguale ad 1 come nel vuoto); se ci si mette a grande distanza
dall’oggetto illuminato da un’onda piana X si possono raccogliere le varie onde
piane, ma si possono rifocheggiare su un piano immagine. Allora dobbiamo
fermarci a metà del processo su schematizzato e a rivelare la trasformata di
Fourier con rivelatori quadratici, cioè a raccogliere una collezione di:
A(k )
2
Avendo perso l’informazione di fase, come ricostruire il segnale? Questo è il
problema della fase nella strutturistica dei cristalli e delle biomolecole, che sono
così piccoli da non essere risolubili nel visibile, pertanto vanno esplorate ai
raggi X. Vedremo più in là come risolvere il problema.
Intanto applichiamo la formula di Shannon alle immagini nel visibile.
Sia L l’estensione dell’oggetto bidimensionale (che prendiamo come un
quadrato). Siccome non ci interessa cosa accade al di fuori, possiamo prendere
condizioni al contorno periodiche e sviluppare la trasformata in serie di
armoniche della frequenza fondamentale k0=2p/L (facciamo tutto in una
direzione e poi teniamo conto dell’altra).
Dobbiamo ora considerare l’estensione limitata d della lente per cui le onde
scatterate ad angoli grandi sono perse. Facciamo un calcolo riferendoci a
un’onda piana diretta secondo l’asse, nel caso ideale essa è messa a fuoco in un
punto sull’asse (vedi fig.5.11). L’estensione d limitata della lente fa sì che
l’integrale di Fourier non è esteso fra ± ∞ ma limitato fra ± d 2 come per una
funzione rect; allora “senza” lente, a valle di un foro di apertura d l’onda piana
si allargherebbe in un cono di apertura angolare
θ = ∆k
k
=
2π
d
2π
λ
=
λ
.
d
106
F. T. Arecchi, Caos e Complessità nel Vivente
∆xf
d
f
∆k = 2π d
θ
k 0 = 2π λ
Figura 5.6: Lente reale di diametro d; l’onda piana in arrivo è allargata in un cono di diffrazione
di angolo θ = λ d ; la totalità delle onde piane a valle della lente contenute entro
l’angolo di diffrazione ha un insieme di punti focali che riempiono un segmento pari a
∆x f = f ⋅ θ = λf
d
.
Con lente, le onde piane contenute nel cono di diffrazione hanno ciascuna un
punto focale; la totalità dei fuochi copre un segmento che si valuta
moltiplicando la distanza f per l’angolo θ (si ricordi che la lunghezza di un
arco di cerchio è data dal raggio per l’angolo; per piccoli angoli confondiamo
l’arco col segmento tangente). Avremo pertanto (vedi fig.5.6):
∆x f = f ⋅ θ = λf
d
Dunque, l’immagine reale di un’onda piana non è un punto ma una macchia
di lato ∆x f che si chiama PSF (point spread function): La banda di Fourier non
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
107
è ∆k = ∞ corrispondente a un punto focale di estensione nulla ∆x f = 0, ma è
limitata e pari a
∆k = 1 ∆x f = d λf
Il numero di macchie distinte (pixel o picture elements) che noi riusciamo a
risolvere su un oggetto lungo L è allora L ∆x f . Moltiplichiamo per 2 (ampiezza
e fase) e abbiamo il numero N di gradi di libertà di un’immagine unidimensionale. (Shannon spaziale)
d
N = 2 L ⋅ ∆k = 2 L
fλ
Ovviamente, per un’immagine 2D sarà pari a N2
Si noti che qualunque immagine ottica è 2D, mai 3D, perché un qualunque
sistema ottico(lente, rivelatore biologico come la retina, rivelatore tecnico come
la telecamera) ritaglia una proiezione 2D da tutta l’onda luminosa
Per es. osservando una diapositiva di lato 3cm con una lente di lato d=1cm e
focale f=10 cm, con luce verde( λ =0,5 micrometri), si ha N=104 e perciò
N2=108 pixel.
Nei microscopi si arriva ad avere d=f (si dice in gergo: apertura numerica
=1) e allora si risolve al massimo una λ .
5.5 Risposta lineare, convoluzione, correlazione
x& ≡
dx
= ax
dt
Figura 5.7: Andamenti temporali della soluzione x(t).
x(t ) = x0 ⋅ e at
x0 è la condizione iniziale
108
F. T. Arecchi, Caos e Complessità nel Vivente
Come si trova la soluzione dell’equazione differenziale, separando le
variabili x e t:
dx
= adt → ln x = at + k
x
x = e at + k = e k e at = x0 e at
Se ora la costante moltiplicativa è immaginaria
x& = iω0 x
x(t ) = e iω0t = A cos ω0t + B sin ω0t
La cui derivata è:
x& = −ω0 A sin ω0t + ω0 B cos ω0t
Supponiamo ora di conoscere le condizioni iniziali di funzione e sua derivata,
cioè:
t=0
x0 = A
x& 0 = ω 0 B
allora
x(t ) = x0 cos ω0t +
x& 0
sin ω0t
ω0
Si noti che qui occorrono 2 condizioni iniziali reali.
2
In effetti, la derivata di x& = iω 0 x dà &x& = −ω0 x e allora nel campo reale il
problema equivale a un’equazione alla derivata seconda.
Convoluzione
Causalità: risposta (out) dopo stimolo (in)
Es. in localizzato a t = 0
Figura 5.8: Sistema lineare ingresso-uscita (in-out).
out solo per t>0
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
109
Chiamiamo g(t) (o funzione di Green) la risposta alla δ: la possiamo
descrivere con l’eq. differenziale lineare che caratterizza la box più la
condizione iniziale che è x0 =1.
La risposta a un segnale f(t) sarà la somma di tutte le risposte alle quasi-δ
localizzate a t=t e di area f (τ )dt cioè
C(t ) = ∑[ f (τ )dτ ] ⋅ g(t − τ ) = ∫ f (τ ) g(t − τ )dτ ≡ f (t ) ∗g(t )
Figura 5.9: Il segnale che nasce da ogni ingresso f (τ ) è la funzione di Green in quel punto
g (t − τ ) pesata dall’area f (τ ) dτ della fettina. Sommando su tutte le fettine, si ha la
convoluzione fra segnale di ingresso e funzione di Green della scatola.
La ℑ è il prodotto algebrico (come si può verificare direttamente: basta
ricordare le proprietà della d di Dirac) delle due trasformate:
~
~
C (ω ) = f (ω ) ⋅ g~ (ω )
e viceversa:
convoluzione in ω à prodotto in t.
Auto-correlazione
Per visualizzare il significato di questo nuovo oggetto, si rimanda alla
trattazione di par.8.1.6. Intanto diamo la definizione formale:
G (t ) = f (t ) ⊗ f (t ) = ∫ f (t ') f (t '+t )dt '
110
F. T. Arecchi, Caos e Complessità nel Vivente
La variabile di integrazione t’ figura la seconda volta col segno opposto al caso
convolutivo. Pertanto in ℑ avremo il prodotto della f (ω ) per la ℑ di f(- t)
cambiando segno a t si cambia il segno all’esponente:
exp(−iωt ) ⇒ exp(iωt ) ,
~
~
ma essendo f(t) reale si vede subito che f (−ω ) = f * (ω ) ; pertanto:
~
~
~
2
G (ω ) = f (ω ) ⋅ f * (ω ) = f (ω )
Spettro di potenza
Questo è il teorema di Wiener-Khinchine: la trasformata di Fourier della
funzione di autocorrelazione è lo spettro di potenza, cioè il modulo quadrato
della ℑ del segnale f(t)
Applicazione (tàr; ωàk=angoli di diffrazione): strutture cristalli (es.
proteine, DNA)
Come abbiamo visto al par.5.4.2 con luce visibile possiamo fare immagini
con lenti per oggetti che siano più grandi di 0,5 µm. Le biomolecole, proteine o
Dna, hanno dettagli strutturali sul nm, esse vanno pertanto osservate con
illuminazione a λ mille volte più piccola, cioè ai raggi X.
Ma per mancanza di lenti ai raggi X, dovremo limitarci alla prima parte del
processo di Abbe, cioè a generare la A(k). Registrando questa su rivelatori,
2
perderemo l’informazione di fase, perché avremo A(k ) .
Per il teorema di Wiener-Khinchine potremo ricostruire per ℑ −1 la funzione
di autocorrelazione spaziale. Ora il campo A(r) sparpagliato dal punto r
dell’oggetto illuminato è proporzionale alla densità locale di cariche (si
riguardino le considerazioni euristiche sulle antenne al par.2.5.1) perciò
l’autocorrelazione spaziale dice come sono vicini altri atomi a partire da un
atomo in posizione r.
Dunque le misure che hanno portato Pauling ad attribuire la struttura ad elica
alle proteine, e Watson e Crick la struttura a doppia elica al DNA, si basano su:
i) diffrazione di raggi X da un campione che contiene un cristallo delle
molecole da studiare;
2
ii) registrazione di A(k ) ;
iii) antitrasformata di Fourier che dà la funzione di autocorrelazione spaziale.
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
111
5.6 Operazioni non lineari: eterodina e olografia
a) Eterodina
Figura 5.10: Schema Eterodina: in trasmissione le tensioni del segnale e dell’oscillatore locale
si sommano su un modulatore, che è un diodo con corrente proporzionale al quadrato
della tensione applicata (fig.5.11) e il segnale si trasferisce attorno alla frequenza portante
ω 0 , come mostrato in fig.5.12; in ricezione si realizza l’operazione inversa.
La potenza elettromagnetica irraggiata da un’antenna percorsa da una
corrente sinusoidale di frequenza ϖ e ampiezza I si scala proporzionalmente a
ω 2 I 2 . La potenza si attenua con il quadrato della distanza tra trasmittente e
ricevente. Nelle prime antenne radio, si trasmetteva direttamente la bassa
frequenza del suono udibile dall’orecchio (fra 20 Hz e 20 kHz); per andare su
grandi distanze, occorrevano valori alti di I che causavano perdite ohmiche sui
circuiti con resistenza R (ricordo che la potenza dissipata in calore per effetto
Ohm è pari a R ·I2 ).
Si poneva perciò il problema: come mantenere costante il prodotto ω 2 I 2
lavorando con alte frequenze (nei telefoni cellulari: 100 mega Hz o più) e basse
correnti; cioè come portare un segnale audio da 20 kHz a 100 MHz in
trasmissione, farlo propagare nello spazio ad alta frequenza e poi riconvertirlo
nella banda audio in ricezione?
Il problema fu risolto genialmente con il metodo eterodina, il cui schema è
rappresentato nella figura. Per la dualità nelle relazioni di Fourier, se si ha un
prodotto algebrico nel dominio temporale, si avrà una convoluzione nel
dominio delle trasformate, cioè.
u (t ) = i (t ) ⋅ h(t )
u (ω ) = i (ω ) ∗ h(ω )
Se h(t) è una sinusoide pura, il suo spettro sarà fatto di due d
simmetricamente centrate a ± ω 0 (fig.5.12), e la convoluzione equivale a
112
F. T. Arecchi, Caos e Complessità nel Vivente
trasferire lo spettro audio di i(t) da frequenza media 0 (ricordo che un segnale
reale ha uno spettro simmetrico attorno all’origine) a frequenze medie ± ω 0 ).
Ma per far ciò dobbiamo realizzare il prodotto di i e h. Si mettono in serie i due
generatori di tensione: quello di segnale che dà i(t), e l’oscillatore locale, che dà
l’alta frequenza ± ω 0 . Si entra su un modulatore (mixer) che è un diodo la cui
corrente è proporzionale al quadrato della tensione applicata (fig.5.10).
La sua corrente andrà pertanto come:
(i + h )2 = i 2 + h 2 + 2 ⋅ i ⋅ h
Dunque, l’uscita in corrente contiene:
- il quadrato di i che avrà banda 2 volte 20 kHz;
- il quadrato di h che sarà a ± 2ω 0 , cioè sui 200 MHz;
- il doppio prodotto che sarà a ± ω 0 , cioè a 100MHz più la banda audio che
conta meno dello 0,1%.
Basta mettere in uscita un filtro che fa passare solo la frequenza del doppio
prodotto, bloccando le altre due. In ricezione si fa l’operazione inversa.
Figura 5.11: Curva caratteristica corrente-tensione di un diodo a risposta quadratica.
V 2 = Vs2 + V02 + 2V s2V02
nel tempo
Vantenna = R ⋅ I ∝ VsV0
In sede di ricezione si fa l’operazione inversa, tornando alla bassa frequenza
e filtrando via tutte le componenti a frequenze non volute. Quando
“sintonizziamo” un canale radio o TV stiamo variando la frequenza
dell’oscillatore locale del ricevitore, finché questo “trova” la giusta ω 0 del
trasmettitore per fare le operazioni di fig.5.12.
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
113
Figura 5.12: Il segnale a bassa frequenza si mette a cavallo della portante a
± ω 0 e viene
trasmesso; in ricezione, si riporta a bassa frequenza.
b) Olografia
L’olografia è l’equivalente spaziale della eterodina. La normale fotografia dà
solo i moduli delle onde luminose, in quanto essendo i fonorivelatori (film o
CCD) sensibili alla energia, rivelano il modulo quadrato del campo
elettromagnetico del segnale luminoso, perdendo l’informazione di fase. Se
vogliamo ricostruire l’aspetto tri-dimensionale di un oggetto, dobbiamo
registrare tutto il segnale riflesso sotto illuminazione, sia in modulo sia in fase.
Dobbiamo perciò registrare un segnale lineare, e non quadratico, nel campo
E(r) che proviene dall’oggetto illuminato. Ciò si realizza investendo il film sia
col segnale sia con un’onda piana pura generata da un laser e che fornirà uno
spettro fatto di due δ attorno alla frequenze spaziali ± k 0 (fig.5.12).
Dunque sul film arriva la somma del segnale e dell’onda piana. Data la
risposta quadratica del film, avremo un termine di doppio prodotto la cui
trasformata è:
E (k ) ∗ δ (k ± k 0 ) = E (k ± k 0 )
In sede di visione, si illumina l’ologramma con un’onda piana della stessa
direzione e colore, e dal film si sprigiona l’onda elettromagnetica di cui si
possono apprezzare varie visuali per ricostruire l’impianto tridimensionale. Si
noti bene quel che ho appena detto. Anche la nostra retina è un rivelatore
114
F. T. Arecchi, Caos e Complessità nel Vivente
quadratico, che perde la fase del campo. Le nostre percezioni tridimensionali
sono dovute a un collage di successive registrazioni parziali (cioè prive di fase)
ma riprese da diversi angoli visuali per ricostruire gli aspetti tridimensionali.
Figura 5.13: Come si registra un ologramma: un laser di illuminazione investe l’oggetto (una
palla) e ne è diffuso. La luce diffusa raccolta sul film darebbe una fotografia. Ma sul film
si invia anche direttamente parte del fascio laser sdoppiato da uno specchio
semitrasparente che fa da divisore di fascio. La somma dei due campi elettromagnetici sul
film a risposta quadratica dà un risultato analogo all’eterodina, cioè un ologramma.
5.7 Appendici
A.1 Richiami di matematica
A.1.1 Rappresentazione vettori in 2D
Figura A.1: Vettore come somma (con regola parallelogramma) di due componenti secondo gli
assi ortogonali individuati dai versori
iˆ1 , iˆ2 .
Versori (vettori unitari sui due assi)
(a. 1)
iˆ1 ⋅ iˆ1 = iˆ2 ⋅ iˆ2 = 1
iˆ1 ⋅ iˆ2 = 0
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
115
Con il punto indichiamo il prodotto scalare di due vettori, che è il prodotto
dei due moduli per il coseno dell’angolo fra i due vettori:
r r
a ⋅ b ≡ a b cos ab
Il prodotto scalare è il prodotto del modulo del primo vettore per la
componente del secondo vettore nella direzione del primo, questa si ottiene
moltiplicando il modulo per il coseno dell’angolo fra i due vettori.
r
Un vettore sarà indicato con una freccetta: v e se ha modulo 1 (versore) con
v̂ . Si può sempre scrivere un vettore come somma dei due vettori proiezione
sui due assi:
r
(a. 2)
v = v1iˆ1 + v 2 iˆ2
A.1.2 Numeri complessi come vettori 2D
Diciamo Reale l’asse orizzontale che ha come unità 1 e Immaginario l’asse
verticale che ha come unità i = − 1 . Un punto z di questo piano è come un
vettore 2D
(b. 1)
z = 1⋅ a + i ⋅ b = a + i ⋅ b
i 2 = i ⋅ i = −1
Con modulo e angolo di fase (rispetto all’asse Reale) rispettivamente
b
z = a 2 + b 2 , α = arctan
(b. 2)
a
dove arctan… vuol dire l’arco che ha per tangente…
Scriveremo:
(b. 3)
z = z ⋅ (cos α + i ⋅ sin β ) = z e iα
Dove l’ultimo passaggio fa uso della formula di Eulero
e iα = cos α + i sin α
Figura A.2: Numero complesso come vettore in spazio 2D.
116
F. T. Arecchi, Caos e Complessità nel Vivente
Formula di Eulero giustificata mediante lo sviluppo in serie attorno a x=0
(per x molto minore di 1, sicché x > x 2 > x 3 > L (provare con x=0, 01).
cos x = 1 −
x2
+K
2
x3
sin x = x − + K
3
x 2 x3
e = 1+ x +
+ +K
2 3!
x
Figura A.3: Porzioni delle funzioni cos, sin ed esponenziale attorno ad x = 0 .
Definizione di complesso coniugato
(b. 4)
z * = z e −iα
Prodotto di due numeri complessi
(b. 5)
V • Z = V ⋅ Z e i (α + β )
Somma e differenza di numeri coniugati
z + z * è reale
a + ib + a − ib = 2a
prodotto
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
z − z*
è immaginario
a + ib − a + ib = 2ib
Formule inverse di Eulero
e ix + e −ix
2
(b. 6)
cos x =
(b. 7)
e ix − e −ix
sin x =
2
A.2 Onde
a) nel tempo
Figura A.4: Segnale temporale di tipo sinusoidale che si ripete dopo T=periodo (s).
 2π

f (t ) = cos
t +ϕ 
 T

frequenza
pulsazione
1 cicli
=
= Hz
T
s
2π
ω0 =
s −1
T
ν=
Per Eulero:
f (t ) =
(
1 iϕ iω0t
e e + e −iϕ e −iω0t
2
)
117
118
F. T. Arecchi, Caos e Complessità nel Vivente
f (ω ) =
(
)
1 iϕ
e δ (ω − ω 0 ) + e −iϕ δ (ω + ω 0 )
2
Interferenza = somma con fase
;
Figura A.5: Interferenza di due onde in controfase (a sinistra) con somma nulla e in fase (a
destra) con somma doppia.
Rappresentazione complessa
e i (ωt +ϕ ) = cos(ωt + ϕ ) + i sin (ωt + ϕ )
Per convenzione prendiamo solo Re o Im, cioè solo la parte in cos o in sin.
Tutti i segnali isofrequenziali ruotano con velocità angolare ω (caso ENEL
ν=50 Hz; ω = 314 s-1).
Considerando segnali alla stessa frequenza, interessano solo le relazioni di
ampiezza e fase, in quanto il fattore di fase temporale e iωt è comune a tutti.
“Fasore” = vettore nel piano complesso
Figura A.6: Confronto fra due fasori, con il secondo di modulo doppio e fase aumentata di
π 2.
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
119
Figura A.7: Interferenza fra due onde iso-frequenziali rappresentata come somma di fasori
b) nello spazio
Figura A.8: Onda nello spazio x, con periodo spaziale λ= lunghezza d’onda (m)
numero d’onda:
cicli spaziali:
 2π

f ( x ) = sin 
x +ϕ 
 λ

2π
k=
(m - 1)
λ
1
k
σ= =
(cicli/m)
λ 2π
c) nello spazio–tempo (onde viaggianti)
(
)
f (x, t ) = cos(kx − ωt ) = ℜ e i (kx −ωt )
Il fronte d’onda, a fase costante ϕ = kx − ωt , dopo ∆t si è spostato a ∆x, tale
che k∆x − ω∆t = 0 : diremo allora che la velocità del fronte, o velocità di fase
dell’onda, è:
∆x ω
c=
=
(ms - 1)
∆t k
Tabella: Onde
Onde elettromagnetiche
.
C=3 108 m/s
Onde acustiche in aria ca=300 m/s
Onde acustiche in liquido/solido ca ≈ 10-5 c ≈ 103 m/s
λ
IR 30 µm
Vis 0.5 µm
UV 0.1 µm
30 cm
3 cm
1 µm
ν=c/λ
1013
6·1014
3·1015
1 kHz
10 kHz
3 GHz
T=1/ν
0.1 ps
1.6 fs
0.3 fs
1 ms
0.1 ms
0.3 ns
120
F. T. Arecchi, Caos e Complessità nel Vivente
Doppler velocimetria (radar, apparecchi medici): rispetto a un osservatore in
moto relativo con velocità v, un’onda presenta uno spostamento relativo in
frequenza dato dalla velocità dell’osservatore relativa alla velocità dell’onda.
∆ω ν
=
ω
c
Inviando un’onda di frequenza ω su un oggetto e misurando lo spostamento
∆ω nell’onda di ritorno, si risale alla velocità dell’oggetto.
d) onde spaziali in 2D
(
f ( x , y ) = ℜ e i ( k1 x + k 2 y )
)
f (k x , k y ) = δ (k x ± k1 ) ⋅ δ (k y ± k 2 )
Figura A.9: Onda spaziale in 2D come sovrapposizione di due onde con frequenze spaziali
diverse sui due assi x ed y (a sinistra). Spettro di Fourier: due δ simmetriche a
r
± k (± k1 ,± k 2 ) (a destra ).
e) onde viaggianti in 2D +t
(
f ( x, y, t ) = ℜ e i (k1x+ k2 y −ωt )
Figura A.10: Direzione di propagazione(vettore di componenti
ortogonale).
)
k1 , k 2 ) e fronte d’onda (retta
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
121
Fronte d’onda: caratterizzato dalla conservazione della fase nell’espressione
precedente, cioè per ogni incremento ∆t le coordinate x, y devono spostarsi di
∆x, ∆y in modo che sia:
k1 ∆x + k 2 ∆y = ω∆t
2π
cos α 1 = k cos α 1
λ
2π
cos α 2 = k cos α 2
k2 =
λ
ω
k12 + k 22 = k =
c
k1 =
cos 2 α 1 + cos 2 α 2 = 1;α 2 =
π
α1
2
A.3 Funzioni in 2D
Si presenta materiale didattico per illustrare alcune proprietà delle funzioni
f ( x, y ) (Pagine da www. dimi. uniud. it/~gorni/Dispense/funzioni2var).
122
F. T. Arecchi, Caos e Complessità nel Vivente
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
Figura A.12: Esempio di massimo.
Figura A.13: Minimo.
123
124
F. T. Arecchi, Caos e Complessità nel Vivente
Figura A.14: Punto di sella.
Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti
125
6 La fisica statistica
6.1 Equilibrio termodinamico e cinetica chimica
6.1.1 Legge barometrica
Ricordiamo la legge dei gas perfetti scritta per una mole, che contiene il
numero di Avogadro:
PV = RT = N A k B T
J
; N A = 6 ⋅ 10 23 molecole
mole
mole ⋅ K
k B = 1.38 ⋅ 10 − 23 J
K
Riscriviamo la legge a livello molecolare, introducendo la densità n
R=8
P = nk B T
dove: n ≡ N A
V
(molecole m ) cioè n(m
3
-3
)
in quanto il numero di molecole non ha dimensioni.
Con riferimento a fig.6.1, consideriamo una colonna isoterma di gas e
valutiamo la differenza di pressione esercitata su due sezioni separate
verticalmente di dh. Siccome la pressione è forza per unità di area, (da misurare
in N/m2), per l’equilibrio delle forze la differenza fra le due pressioni è pari al
peso della colonna di gas nel volumetto di altezza dh cioè:
Ph + dh − Ph ≡ dP = − mg ⋅ n ⋅ dh ⋅ 1
peso di una molecola
volume
Ma per la relazione precedente, dP si scrive come
dP = dn ⋅ k B T
Ne segue l’eq. differenziale nella funzione incognita n(h), la cui soluzione dà
l’andamento verticale della densità:
dn
mg
=−
n ⇒ ln (n/n0) = - mgh/kBT
dh
k BT
Per non portarci sempre appresso il k B , conveniamo di misurare T in unità di
energia, cioè Joule invece che in gradi Kelvin. D’ora in poi scriveremo solo T
Capitolo 6: La fisica statistica
127
(p. es, per T= 300 K, risulta kBT~ 10 - 21J~ (1/40) eV, perciò avremo T~ (1/40)
eV= 25 meV ).
n = n0 e
−
ngh
T
= n0 e
−
energia _ potenziale
T
(legge di Boltzmann)
Figura 6.1: Distribuzione barometrica: Colonna isoterma
(tutta a temperatura T) di gas nel campo di gravità terrestre. Il
gas di densità n contenuto nel cilindretto di area di base 1 e
altezza dh (volume 1·dh) ha in totale n·dh molecole, ciascuna
di massa m. Il peso totale gm·n·dh·1 bilancia la differenza di
pressione dP fra base bassa e base alta del cilindretto (è un
bilancio di forze, perché (pressione ·area) = forza e qui l’area è
1). Integrando la semplice eq. differenziale, si ottiene la
distribuzione esponenziale o barometrica; ma ciò vale per
qualunque legge di forza; perciò scriviamo genericamente, al
posto di mgh, energia potenziale (distribuzione di Boltzmann).
6.1.2 Distribuzione di velocità
In assenza di energia depositata dall’esterno, la conservazione dell’energia dà
l’uguaglianza di energia cinetica e potenziale:
mu 2
= mgh
2
Pertanto possiamo riscrivere la legge di Boltzmann come:
e
−
ngh
T
= e
−
mu
2T
2
La densità di gas come funzione delle velocità richiama “funzione di
distribuzione delle velocità” f(u). La relazione che segue, dove C è una costante
di normalizzazione, è la distribuzione di Maxwell delle velocità di un gas a
temperatura costante:
mu 2
−
dn
f (u ) =
= Ce 2T
du
Essa è una gaussiana. La gaussiana è la densità di probabilità più
fondamentale per i seguenti motivi non indipendenti, ma legati fra loro:
i) come appena visto, è la distribuzione di equilibrio termico, dunque di
massima entropia o massimo disordine (vedi cap.3);
128
F. T. Arecchi, Caos e Complessità nel Vivente
ii) un teorema fondamentale di statistica, il teorema del limite centrale (CLT =
central limit theorem), dice che la somma di un numero grande di cause non
correlate dà una distribuzione gaussiana, e in effetti la distribuzione di
Maxwell è il risultato degli urti fra le molecole del gas, urti scorrelati uno
dall’altro.
Figura 6.2: Differenza fra il numero di molecole con velocità verticale u sufficiente a superare il
livello 0 ma non h e di quelle che vanno oltre h. Data l’uguaglianza fra energia cinetica e
potenziale, si scrive Boltzmann in termini di u2, ottenendo una gaussiana nelle velocità,
che è detta distribuzione di Maxwell.
6.1.3 Cinetica chimica
Presentiamo il diagramma energetico della reazione chimica A+BàAB
Figura 6.3: Barriera di energia A* (energia di attivazione) fra stato iniziale A+B e stato finale
AB di una reazione esotermica. Lo stato finale è più basso di quello iniziale; l’energia W
rappresenta il lavoro netto della reazione.
Capitolo 6: La fisica statistica
129
Se diciamo nA, nB e nAB le concentrazioni delle tre specie, avremo per la legge
di Boltzmann:
−
n A ⋅ nB
= Ce T
n AB
W
Equilibrio
Le velocità di reazione verso destra R→ e verso sinistra R← saranno
rispettivamente
R→ = n A n Bσ AB ⋅ e
R← = C ' n AB ⋅ e
−
−
A*
T
W + A*
T
cioè sono proporzionali alle densità dei reagenti, alla sezione d’urto s AB che nel
caso della reazione binaria dà la probabilità che a quelle densità abbia luogo la
reazione, e ai fattori di Boltzmann che contengono le energie delle barriere da
superare nei due casi.
All’equilibrio: R→ = R← , da cui deriva la prima relazione.
6.2 Diffusione
 numero _ molecole 
J
 è proporzionale al gradiente di
m2s


∂n
∂n
concentrazione
cambiato di segno ( J > 0 , cioè verso destra, se
< 0 ).
∂x
∂x
La corrente
(1)
J = −D
∂n
∂x
Dimensioni della costante di diffusione
[D] = [J ] = 12
[n] [x] m s
Molecole in acqua:
D ≈ 10 −6 cm
2
s
1
=
1 1
⋅
m3 m
≈ 10 −10 m
2
s
m2
s
130
F. T. Arecchi, Caos e Complessità nel Vivente
Consideriamo un volume parallelepipedo di area A e spessore dx (fig.6.4):
esso conterrà un numero di molecole pari a N 0 = nAdx la cui velocità di
variazione è data dalla differenza delle correnti di entrata e di uscita fra le due
facce separate di dx, cioè
∂N 0
= AJ ( x ) − AJ ( x + dx ) .
∂t
Effettuando le sostituzioni si ha
∂N 0
∂J
Adx = −
Adx
∂t
∂x
Tenuto conto della (1) si arriva all’equazione di diffusione
(2)
∂n
∂ 2n
=D 2
∂t
∂x
Figura 6.4: Se il profilo di densità varia come n(x), fra due posizioni distanti dx esiste una
differenza di densità pari a n(x+dx) –n(x)=dn. La differenza dn/dx per unità di lunghezza
(velocità “spaziale” di variazione del profilo) si chiama gradiente.
A differenza dell’equazioni differenziali ordinarie viste finora in cui la
funzione incognita compariva solo con derivate temporali, la (2) si chiama
equazione alle derivate parziali (PDE = Partial Differential Equation) per
indicare che la funzione incognita n(x, t) è un campo di concentrazione e
compare sia con la derivata temporale sia con la derivata spaziale. La (2) è
pertanto un esempio di equazione di campo.
Capitolo 6: La fisica statistica
131
Se prendiamo la trasformata di Fourier spaziale
n( x, t ) → n~ (k , t )
la derivata seconda spaziale si trasforma nel prodotto per –k2, rimane solo la
derivata temporale e la (2) diventa un’equazione differenziale ordinaria (ODE =
Ordinary Differential Equation).
dn~
= −(k 2 D )n~
(3)
dt
Che è immediatamente risolubile dando
(4)
2
n~(k , t ) = e − (k D )t
Ricordando che la trasformata di una Gaussiana in k è ancora una Gaussiana
in x con la varianza spostata al denominatore, si ottiene
(5)
n( x , t ) =
e
−
x2
4 Dt
π 4 Dt
Si noti che la varianza e il fattore di normalizzazione crescono con il tempo,
secondo l’andamento di fig.6.5.
Figura 6. 5 - Come varia la concentrazione C(x, t) in un processo diffusivo al variare della
posizione x, per tempi t crescenti. A t=0 si ha una δ di Dirac, cioè una gaussiana
infinitamente stretta. La larghezza cresce come (t) - 1/2 in quanto la varianza cresce
linearmente con t.
132
F. T. Arecchi, Caos e Complessità nel Vivente
6.3 Variabili stocastiche, probabilità, momenti e cumulanti
Fatte N misure, l’evento i-mo si sia verificato ni volte. In base alla discussione
di par.3.2, diremo probabilità di i il rapporto
wi =
ni
N
La somma di tutte le probabilità è la certezza, pertanto
∑w
i
=1
La quantità wi è un numero razionale compreso fra 0 e 1. Introduciamo una
densità di probabilità continua, definita su tutto l’asse reale, sfruttando la
proprietà della δ di Dirac.
p (x ) = ∑i wi δ ( x − xi )
∞
∫ p(x )dx = 1
−∞
Definiamo il momento di ordine k come la media di xk sulla p(x)
MK =
∞
∫ x p(x )dx ≡
k
xk
−∞
Introduciamo la Funzione generatrice di momenti, come la trasformata di
Fourier della p(x); sviluppando in serie di potenze il nucleo della
trasformazione di Fourier, vediamo che il coefficiente del termine n è <xn>,
cioè il momento Mn
Φ(λ ) =
∞
iλx
i λx
∫ p(x )e dx ≡ e = ∑n
−∞
(iλ )n M
n!
n
da cui si deriva la relazione inversa che spiega il nome della Φ
n
 d 
M n = i
 Φ(λ )
 dλ 
λ =0
Analogamente introduciamo ora una Funzione generatrice di cumulanti
prendendo il logaritmo naturale della φ e sviluppando in serie di potenze la
nuova funzione. Diremo cumulanti i coefficienti Kn della serie
Capitolo 6: La fisica statistica
Θ(λ ) ≡ ln Φ(λ ) ≡ ∑
(iλ )n K
n!
133
n
 d 
Kn = i
 Θ(λ )
 dλ 
λ =0
n
Relazioni fra cumulanti e momenti
K1 = M 1
(
K 2 = M '2 → M ' 2 = M 2 − M 12 = momento _ baricentri co
)
K 3 = M '3 → skewness
K 4 = M '4 −3(M '2 ) → flatness
2
Lo sviluppo in serie arrestato ai primi termini ci chiarisce il significato
statistico dei cumulanti.
Θ(λ ) = K 0 + iλK 1−λ2 K 2 + K
a) Se c’è solo il primo termine
Θ = K0
allora
Φ(λ ) = e K 0 da cui segue p ( x ) = e K 0 δ ( x ) ;
ma per la condizione di normalizzazione
e K 0 = 1 perciò K 0 = 0
b) Se c’è solo il secondo termine
Θ = iλK 1
allora
Φ(λ ) = e iλK1
p (x ) = δ ( x − K 1 )
Abbiamo dunque una d centrata su K1, cioè siamo concentrati sulla media,
senza alcuna fluttuazione statistica
c) Se c’è solo il terzo termine
Θ = −λ 2 K 2
allora
Φ(λ ) = e − λ K 2 p(x ) =
2
e
−x
2
4K2
4πK 2
Dunque, il più elementare oggetto statistico è la gaussiana
Probabilità congiunta di N variabili stocastiche.
p( x1 , x 2 ,K , x N )
∫ p(x , x
1
2
, K , x N )dx1 dx 2 K dx N = 1
Se le variabili sono scorrelate, allora si ha la fattorizzazione nei prodotti delle
probabilità individuali: p (x1 , x2 , K, x N ) = p ( x1 ) • p ( x2 ) • K • p ( x N )
134
F. T. Arecchi, Caos e Complessità nel Vivente
k
h
x1 x 2 K
Momenti congiunti. Sono del tipo:
Funzione generatrice N-dimensionale.
Φ( λ1, λ 2 , K) = ∫ e i (λ1 x1 + λ2 x2 +K) p ( x1 , x 2 , K)dx1 dx 2 K
k
1
x x
h
2
 ∂ 

=  i
 ∂λ1 
k
h
 ∂ 
 i
 Φ
 ∂λ 2 
λ =0
In particolare, faremo spesso uso della funzione di correlazione a due punti, o
cumulante incrociato
K 12 = x1 x 2 − x1 x 2
6.4 Processi stocastici, processi di Markov, equazione di FokkerPlanck
6.4.1 Probabilità congiunte e condizionate
Un processo stocastico corrisponde a un insieme di insiemi stocastici, ognuno
estratto a un tempo successivo (per semplicità consideriamo una sequenza
discreta di tempi invece di un flusso continuo). La densità di probabilità
congiunta ad n tempi sarà designata come
(1)
Wn ( x1 , t1; x 2 , t 2 ;K; x n , t n ) ≡ Wn (1,2, K , n )
Dove abbreviamo x1 , t1 ≡ 1, etc .
Essa rappresenta la probabilità elementare di misurare al tempo t1 un valore
di x fra x1 e x1 + dx1 , e così via.
Ovviamente Wn è normalizzata ad 1. Con un’imprecisione linguistica, è
comune fra i fisici chiamare anche le Wn distribuzioni piuttosto che densità.
Saturando su una variabile, si ottiene la distribuzione congiunta di ordine
inferiore di 1.
(2)
Wn −1 (1,2, K , n − 1) = ∫ dx nWn (1,2, K , n )
Se gli eventi sono temporalmente scorrelati la Wn fattorizza nel prodotto delle
densità indipendenti a ciascun tempo
Capitolo 6: La fisica statistica
(3)
135
Wn (1,2, K , n ) = W1 (1)W1 (2 )KW1 (n )
Definizione di probabilità condizionata P
(4)
Wn (1,2, K, n ) ≡ Wn −1 (1,2,K, n − 1)P(1,2,K, n − 1 n )
La P rappresenta la probabilità che, dati i primi n-1 eventi, si realizzi l’n-mo.
6.4.2 Processi di Markov
Introduciamo la sequenza, a partire dal caso più elementare:
i) Processi senza memoria
(5)
W2 (1,2) ≡ W1 (1)W1 (2)
ii) Processi a memoria corta, o di Markov
(6)
W3 (1,2,3) ≡ W2 (1,2)P(2 3)
Senza 1 !
Un processo di Markov è caratterizzato da W2, senza bisogno di Wn con n>2.
Infatti si trova subito che
W3 (1,2,3) ≡ W2 (1,2)P(2 3) = W2 (1,2)W2 (2,3) / W1 (2)
Una dinamica deterministica è Markoviana. Infatti sia la dinamica
dx .
≡ x = f ( x)
dt
e sia x(x0, t) la soluzione a partire dalla condizione iniziale x0. La probabilità
condizionata in questo caso è la certezza, cioè:
(7)
P(x0 x, t ) = δ ( x − x( x0 , t )) ,
e la Markovianità discende dall’unicità della soluzione per una condizione
iniziale, cioè:
P(x −1 , x0 x, t ) = δ ( x − x( x0 , t )) ≡ P(x0 x, t ) .
Dalla definizione (6) segue che solo per i processi di Markov vale
l’equazione di Smoluchowski
(8)
P(1 2) = ∫ P(1 y ) P( y 2)dy
136
F. T. Arecchi, Caos e Complessità nel Vivente
L’integrazione sui valori intermedi y è illustrata in fig.6.6.
Figura 6.6: L’equazione di Smoluchowski dice che, in un processo markoviano, la probabilità
condizionata fra t1 e t2 si ottiene sommando tutti i prodotti delle probabilità condizionate
da t1 a un tempo intermedio ty, e da questo a t2.
6.4.3 Moto Browniano; eq. di Fokker-Planck
Consideriamo una particella di densità vicina all’acqua e di raggio attorno al
micrometro lanciata dentro un liquido con velocità iniziale v0. La particella è
fatta grosso modo di 1012 molecole, il singolo urto è un piccolo disturbo. Gli
urti molecolari sono statisticamente isotropi (tanti davanti, tanti didietro) ma
l’impulso trasferito dalla particella in un urto frontale è maggiore di quanto essa
riceva in urto dal didietro (il calcolo del trasferimento di impulso nell’urto fra
due palline di massa diversa è un esercizio di dinamica elementare). Ne segue
che la particella sarà in media frenata da una forza di segno contrario alla sua
velocità e che cresce con la velocità. A parte questa forza media che va a zero
con la velocità della particella, l’effetto dei vari urti produrrà una forza
stocastica ξ (t ) a media nulla e con distribuzione gaussiana, perché somma di
molte piccole cause non correlate (ricordiamo il teorema del limite centrale).
Possiamo scrivere dunque la seguente equazione per la velocità v della
particella:
.
(9)
v = −γ v + ξ (t )
Dove ? è il coefficiente di smorzamento medio e la forza gaussiana è definita
dai primi due momenti,
ξ (t ) = 0
ξ (0)ξ (t ) = 2 Dδ (t )
La forza di rumore - che d’ora in poi chiameremo noise - è a media nulla e
con correlazioni temporali che si spengono immediatamente, cioè non c’è
Capitolo 6: La fisica statistica
137
correlazione fra due urti successivi. La correlazione a d(t) mantiene il carattere
.
markoviano della parte v = −γ v senza noise. Se invece la correlazione fosse
stata estesa nel tempo, avrebbe introdotto memoria della dinamica precedente il
tempo t=0 a cui si è data la condizione iniziale.
La (9) non è risolubile in quanto non possiamo assegnare una forma
funzionale alla ξ (t ) ; tuttavia se consideriamo la probabilità condizionata
P( y 0 y, t ) che il processo stocastico y (indichiamo così la velocità per
sottolineare che per noi è un’incognita da trovare) abbia il valore y a t, dato il
valore y0 al tempo t=0, essa obbedisce una PDE deterministica, (eq. di FokkerPlanck= FP)
(10)
∂P
∂
∂2
= − [F ( y ) ⋅ P ] + D 2 P
∂t
∂y
∂y
Il secondo membro ha due addendi:
i) un termine di deriva (drift) che rappresenta il moto deterministico sotto la
forza F(y); se ci fosse solo quello avremmo una traiettoria definita dalla (7);
ii) una diffusione di P attorno a questa traiettoria, con un coefficiente di
diffusione pari all’ampiezza D della correlazione del noise; la singola δ si
sparpaglia su un insieme di traiettorie vicine, come dal fondo valle di fig.1.1
si passava all’insieme dei filetti di fluido sul pelo libero del fiume.
Non si dà qui una derivazione della FP, ma la somma degli effetti i) e ii)
risulta dalla addittività delle due forze in (9).
In fig.6.7 mostriamo la P a t=0 (si ha la certezza del valore fissato come
condizione iniziale), a un tempo intermedio, per cui la velocità media è data
dalla parte deterministica dell’eq. (9)
y (t ) = y (0) ⋅ e −γt
e a tempi lunghi, quando si è persa memoria della condizione iniziale e si ha
una gaussiana a media nulla.
Per semplicità, limitiamo l’analisi della FP al caso stazionario( ∂ = 0 ). In
∂t
(10) resta il secondo membro uguale a zero. Integrando i due addendi una volta
rispetto ad y si ha l’eq.
[F ( y ) ⋅ P] = D
∂
P
∂y
138
F. T. Arecchi, Caos e Complessità nel Vivente
cioè
dP 1
= F ( y)
P
D
facilmente integrabile, per cui:
(11)
P ( y ) = Ce
∫ F ( y ) dy
D
= Ce
−V ( y )
D
La soluzione stazionaria (11) ha perso memoria delle condizioni iniziali,
ormai dimenticate, e dipende solo dalla forza F o dal suo potenziale V e dalla
larghezza D del noise.
Figura 6.7: Come evolve nel tempo la probabilità condizionata P(y, 0| y, t) per la velocità y di
un moto browniano. Partendo dalla certezza ( δ di Dirac in y0) la probabilità ha un valore
medio che tende a zero, mentre la varianza non cresce sempre come nel moto diffusivo,
ma raggiunge un valore di equilibrio dato dal teorema di fluttuazione-dissipazione.
Nel caso del moto browniano, F ( y ) = −γ y è una retta (moto lineare), per
cui:
1
V ( y) = γ y 2
2
è una parabola rivolta verso l’alto. La (11) dice che P è massima dove V è
minima cioè al fondo della parabola.
Se sostituiamo la V(y) vediamo che la P(y) è una gaussiana, che qui
scriviamo con la normalizzazione:
(12)
P( y) =
exp(− γy 2 2 D)
πD / γ
Capitolo 6: La fisica statistica
139
Ricordiamo che y è la velocità di una particella browniana. Se confrontiamo
con la distribuzione di Maxwell di par.6.1, vediamo che la velocità quadratica
media qui è 2 D γ , lì era kBT/m. Uguagliando le due espressioni, si ha:
(13)
<v2>=2D/?= kBT/m.
che è detto teorema di fluttuazione-dissipazione, in quanto il rapporto fra
l’ampiezza D delle fluttuazioni e il coefficiente di smorzamento γ si scala
linearmente con T.
A bassa temperatura, abbiamo alto smorzamento con piccole fluttuazioni;
viceversa ad alta temperatura.
6.5
Distribuzioni non-gaussiane, a coda lunga (a legge di
potenza)
La gaussiana individua una scala precisa, cioè la radice quadrata del
denominatore (varianza)
p( x) = Gss. ≡ e − x
2
L2
≡ exp(− x
2
L2
)
Per semplicità, abbiamo omesso il fattore di normalizzazione. (Il modo
grafico di indicare l’esponente con exp sarà usato quando conveniente).
Prendendo il logaritmo naturale di ambo i membri, si ha

x
 x 
y = ln Gss = -  = exp− 2 ln 
L
 L 

2
Invece le distribuzioni a leggi di potenza hanno code lunghe nella
rappresentazione log-log.
p ( x) = 1 = x −1 ln p ( x) = − ln x
x
Ho preso l’esponente -1, ma qualunque valore finito dà analoghi risultati.
La fig.6.8 mostra come la gaussiana si compatti attorno a una scala precisa
mentre la legge di potenza presenta tutte le scale (in gergo si dice: è scale free).
Le distribuzioni di probabilità a potenza caratterizzano fenomeni che si
mantengono correlati su scale lunghe; alcuni esempi sono dati in tabella. Invece
la gaussiana è una distribuzione universale che caratterizza la somma di molte
cause mutuamente scorrelate (teorema del limite centrale o CLT).
140
F. T. Arecchi, Caos e Complessità nel Vivente
Tabella: Esempi di distribuzioni statistiche con code lunghe (a legge di
potenza)
Economia
Terremoti
Linguistica
Distribuzioni delle città
Deviazioni battito cardiaco dalla media
Sequenza basi DNA
Ritorni di borsa
Pareto 1890
Omori 1895
Zipf 1940
Autori Vari dal 1960
“
“
“
In Tabella elenchiamo alcuni tipi di fenomeni per cui si osservano leggi di
potenza con esponenti negativi dell’ordine di 1.
Vediamo un po’ come nascono queste leggi empiriche. Pareto misurò che le
entrate individuali x sono distribuite come 1/x: c’è un’altissima probabilità
(gran numero di persone) di avere x bassissimo e una bassa probabilità di avere
x alti; ma mentre la distribuzione delle stature è gaussiana con scala 1,70 metri
per gli umani adulti (la probabilità di trovare un uomo alto il doppio è nulla!)
invece, partendo dal reddito di un impiegato, si trova un numero cospicuo di
percettori di reddito doppio, e poi doppio del doppio e così via. In linguistica e
demografia (Zipf), se si ordinano le parole (città) in base al loro rango x, cioè
all’ordine d’uso (per le parole) e alla dimensione di popolazione (per le città), il
numero p(x) di volte che una parola è usata in un testo, o il numero di abitanti di
una città di ordine x si scala come 1/x.
Figura 6.8: Diagramma logaritmico sia in verticale sia in orizzontale, della p(x); la linea intera è
la legge di potenza, la tratteggia è la gaussiana.
Capitolo 6: La fisica statistica
141
Alla stessa stregua, dopo un evento sismico importante c’è tutta una folla di
scosse secondarie distribuite nel tempo x successivo alla scossa principale
secondo una legge di potenza. Nel caso del DNA, se prendiamo un tratto non
codificante (cioè non facente parte di un gene), in esso la frequenza relativa p(x)
di una base si scala con legge di potenza rispetto alla separazione x da un punto
della sequenza preso come riferimento; e così via per gli altri casi in tabella.
Un modello esplicativo deve fare ricorso a quanto abbiamo imparato sui
processi stocastici, ma ricorrendo a spazi logaritmici.
Supponiamo di avere una grandezza caratterizzata da un valore wt al tempo t,
e consideriamo osservazioni a tempi discreti separati di 1; al tempo successivo
t+1 il valore wt +1 sarà legato al valore precedente da una relazione funzionale
wt +1 = f (wt )
che chiamiamo “mappa di ritorno” perché esiste solo per i tempi discreti t, t+1,
t+2,…, e non ha senso per tempi continui. a mappa più semplice è una retta
(fig.6.9)
wt +1 = λt ⋅ wt
Se ha pendenza 1 (la bisettrice tratteggiata) allora dà un punto fisso:
wt +1 = wt
Se ha pendenza 1 + ε , dà valori in crescita a ogni passo temporale, e
viceversa per pendenza 1 − ε . Se in media vogliamo restare attorno a un valore,
la pendenza λt dovrà fluttuare attorno al valore 1. Abbiamo un disturbo
stocastico, che però – a differenza del moto browniano – compare a fattore: lo
chiameremo noise moltiplicativo. Ricordando che il logaritmo di un prodotto è
una somma, passiamo ai logaritmi per ricondurci a una trattazione familiare.
Chiamiamo
ln w ≡ v, ln λ ≡ µ
La mappa diventa:
vt +1 = vt + µ
Se approssimiamo l’incremento sull’unità di tempo con una derivata
temporale, avremo allora l’eq. differenziale semplicissima:
v& = µ + δµ
142
F. T. Arecchi, Caos e Complessità nel Vivente
Dove a secondo membro si ha una costante negativa più un noise additivo,
che prendiamo come gaussiano (distribuzione di massima incertezza) e deltacorrelato cioè non correlato su tempi distinti:
δµ = 0,
δµ t δµ t ′ = 2 Dδ tt ′
Figura 6.9: Mappa di ritorno dal tempo t al tempo t+1: se fosse la bisettrice tratteggiata
avremmo un fenomeno stazionario con wt+1 =wt; si ipotizza una fluttuazione di pendenza
di ± ε attorno ad 1.
Possiamo valutare la probabilità condizionata P(v0 | v, t ) per questo processo
markoviano.
In base a quanto visto al par.6.4, l’eq. di Fokker-Planck è
∂2P
∂P
∂
= − (µ P) + D 2
∂t
∂v
∂v
Risolviamola nel caso stazionario; avremo una soluzione esponenziale:
∂
∂t
= 0 ⇒ µP = D
µ ⋅v
−
dP
⇒P≅e D
dv
Capitolo 6: La fisica statistica
143
Figura 6.10: Per fluttuazioni simmetriche di e attorno ad 1 avremo fluttuazioni asimmetriche di
µ attorno a zero, avremo cioè un valor medio negativo µ con fluttuazioni δµ a media
nulla attorno ad esso.
Ma il nostro interesse è nella quantità w. La sua densità di probabilità Q(w)
deve dare una probabilità differenziale che non deve dipendere dalla
rappresentazione, cioè dQ=dP, per cui
Q( w)dw = P(v)dv ⇒ Q( w) = P(v)
dv
= w −1−α
dw
In quanto la derivata di log è 1/variabile
dv 1
=
dw w
e un esponenziale si può sempre riscrivere
e −αv = e −α ln w = w −α
Abbiamo dunque giustificato una legge di potenza, con una correzione
− α rispetto a -1, dove
α=
µ
D
dipende dalla fluttuazione attorno ad 1, α = 0 vuol dire D = ∞ , cioè si ha
Pareto puro per fluttuazioni molto ampie.
7 Dinamica non lineare e caos
7.1 Dinamica lineare: spazio delle fasi, equilibri stabili e instabili.
Consideriamo un singola variabile dinamica: diremo che il problema ha N=1
dimensioni, ovvero che è 1D
1D
x& = ax ⇒ x(t ) = x0 e at
La soluzione è graficata qui di seguito per i tre casi: a reale a<0, a reale a>0,
a immaginario puro.
Fig 7.1: Posizione degli esponenti sul piano complesso e andamenti temporali
Rappresentiamo a sinistra i valori di a sul piano complesso e a destra gli
andamenti temporali di x(t).
Consideriamo ora due variabili dinamiche x ed y accoppiate da relazioni
lineari. Scriviamo le due eq. separatamente oppure in forma vettoriale come una
r
sola eq. per il vettore z in 2D
x& = ax + by
2D
r
r
y& = cx + dy ⇒⇒ z& = A ⋅ z
a b  r  x
 e z =  
dove A = 
 y
c d 
Trasformiamo la coppia (x, y) in un’altra coppia di variabili ( ζ 1 ,ζ 2 ) tale che
ciascuna delle variabili trasformate sia accoppiata solo con se stessa, in modo
da ridurci a due eq. 1D che sappiamo già risolvere. Sul piano z =(x, y)
dobbiamo fare una rotazione R in modo che la trasformata della matrice A abbia
solo elementi diagonali, cioè:
r
ζ = R⋅z,
Capitolo 7: Dinamica non lineare e caos
145
r ζ 
dove il vettore ζ =  1  obbedisce all’equazione:
ζ 2 
r&
r λ
0  ζ1 
 ⋅  
ζ = D ⋅ ζ =  1
 0 λ2   ζ 2 
Invece di affrontare il caso generale, limitiamoci ad un esempio significativo
cui torneremo spesso in seguito: l’oscillatore armonico senza perdite, cioè una
pallina di massa m legata a una molla di forza elastica F= - kx (come visto al
cap.2, la forza è proporzionale allo spostamento x cambiato di segno).
Scriviamo la legge di Newton:
accelerazione=forza/massa
dove l’accelerazione è la derivata seconda temporale &x& della posizione e
indichiamo con la costante ω 2 = k m il rapporto fra la costante elastica k e la
massa m. La ragione per cui abbiamo indicato la costante con ω 2 è per
sottolineare che è una quantità positiva. L’eq. alle derivate seconde (si dice in
gergo: del secondo ordine) si può decomporre in due eq. accoppiate al
prim’ordine per posizione x e velocità x& = y come segue:
 x& = y
&x& = −ω 2 x ⇒ 
2
 y& = −ω x
Rotazione nel piano complesso x+iy:
 a& = −iω ⋅ a
 a ≡ ωx + iy
a(t ) = ao e −iωt
⇒⇒
⇒⇒
 *
 *
*
a * (t ) = a * o e +iωt
a ≡ ωx − iy
a& = iω ⋅ a
Le nuove eq. disaccoppiate si possono giustificare agevolmente prendendo le
derivate temporali di a e a*. Le soluzioni richiedono le condizioni iniziali, che
si ottengono da xo e yo.
Ritornando ad x ed y con le trasformazioni inverse:
a + a*
a − a*
x=
,
y=
2ω
2i
si ottengono le soluzioni per x e y, che per le formule di Eulero saranno
rispettivamente:
x = x0 cos ωt , y = y 0 sin ωt
146
F. T. Arecchi, Caos e Complessità nel Vivente
Come in fig.7.1, rappresentiamo i due esponenti ± iω sul piano complesso;
ma invece di disegnare l’andamento temporale, diamo la dipendenza di y(t) da
x(t) ad ogni t; chiameremo questa linea traiettoria nello spazio delle fasi
Figura 7.2: Esponenti immaginari
± iω e spazio delle fasi per un oscillatore armonico.
Come si vede, si tratta di un’ellisse; ciò vuol dire che dopo un tempo
T = 2π ω (periodo) si torna al punto di partenza. Il moto si dice conservativo
perché non consuma energia. Esso è stato già considerato in fig.2.3 e l’energia
si converte da potenziale a cinetica e viceversa nel corso dell’orbita.
Consideriamo ora l’oscillatore con smorzamento viscoso, cioè aggiungiamo
alla molla una forza frenante proporzionale alla velocità. Le equazioni sono:
x& = y

&x& = −ω 2 x − γx& ⇒ 
2
 y& = −ω x − γy
Ripetendo la stessa trafila, troviamo che dobbiamo modificare gli esponenti
aggiungendo una parte reale che equivale a uno smorzamento nel tempo:
± iω ⇒ ± iω − γ .
Diamo qui il grafico dei due esponenti complessi e la traiettoria nello spazio
delle fasi a partire da un punto iniziale: questa è una spirale che tende a x=y=0.
Figura 7.3: Oscillatore smorzato: esponenti complessi (con parte reale negativa) e traiettoria a
spirale nello spazio delle fasi.
Capitolo 7: Dinamica non lineare e caos
147
Al variare degli esponenti, possiamo avere le varie situazioni di fig.7.4 (2D) e
fig.7.5 (3D).
Figura 7.4: Classificazione dei punti fissi in 2D
148
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 7.5: Esempi di punti fissi in 3D.
7.2 Dinamica non lineare e linearizzazione attorno ai punti di
equilibrio; biforcazioni.
7.2.1 Analisi di stabilità lineare
Supponiamo di avere N variabili dinamiche xi (i=1, 2…N) accoppiate da leggi
non lineari e dipendenti da K parametri di controllo µi.
x&1 = f 1 ( x1 , x 2 ,K x N ; µ1 K µ K )
M
x& N = f N ( x1 , x 2 ,K x N ; µ1 K µ K )
dove le funzioni fi non sono rette e sono differenti una dall’altra.
Scriveremo sinteticamente:
r r r
x& = f ( x )
Capitolo 7: Dinamica non lineare e caos
149
r r
dove x e f indicano vettori. Per convenienza, non esplicitiamo i parametri di
controllo.
Siccome i problemi non lineari sono in genere di difficile risoluzione,
limitiamoci ad applicare quanto imparato per il caso lineare, e cioè, alla
seguente strategia:
i) cerchiamo i punti fissi x& = 0 , cioè le N soluzioni dell’equazione algebrica
r
f ( x ) = 0 ⇒ x1 , x 2 ,......
ii) studiamo la stabilità di ciascuno dei punti fissi, linearizzando le equazioni
attorno ad esso.
Se per ogni i=1, 2…N introduciamo il piccolo spostamento:
ξ = x−x,
l’insieme degli spostamenti obbedisce l’equazione lineare (che per
semplicità scriviamo per N=1, omettendo gli indici)
 ∂f 
ξ& =   = Aξ
 ∂x  x = x
Dove A è la matrice delle derivate nel punto fisso in esame; per N=1 sarà un
singolo numero.
iii) Cerchiamo soluzioni alla precedente eq. lineare, che sappiamo devono
essere del tipo:
ξ ≅ e λt ⇒⇒ ξ& = λξ .
Sostituendo nell’eq., si ha la relazione:
λ=A
e se il problema è a N dimensioni, dovremo risolvere l’eq. algebrica di
grado N in λ
A−λ = 0
che darà in genere N radici complesse. Per ogni i diremo che xi è stabile o
instabile a seconda che l’esponente ha parte reale negativa o positiva, cioè
rispettivamente:
Re λ < 0, Re λ > 0
150
F. T. Arecchi, Caos e Complessità nel Vivente
7.2.2 Caso 1D: linearizzazione e biforcazioni delle soluzioni di equilibrio
Facciamo un esempio per N=1:
x& = ax− x3
ha tre punti fissi: x1 = 0, x 2,3 = ± a .
Il primo ha l’eq. linearizzata
ξ& = aξ ⇒⇒ λ1 = a ,
pertanto è stabile per a<0, instabile per a>0.
Gli altri due sono definiti in campo reale solo per a>0 (altrimenti danno
soluzioni immaginarie) e hanno l’eq. linearizzata
ξ& = −2aξ ⇒⇒ λ2,3 = −2a ,
cioè danno due punti stabili per a>0
Dinamica qualitativa di Poincaré: invece di risolvere l’eq. differenziale nel
tempo, limitiamoci a dare l’andamento dei punti fissi al variare dei parametri di
controllo.
Con riferimento all’esempio N=1 avremo:
Figura 7.6: Luoghi dei punti fissi: a linea intera le branche stabili, in tratteggiato la branca
instabile; si noti la biforcazione per a=0.
7.2.3 Caso 2D: Competizione fra popolazioni (ecologia, epidemiologia)
Diamo ora un esempio con N=2, cioè in 2D. Consideriamo due specie viventi
(animali o piante) nello stesso habitat (nicchia ecologica).
Diciamo x il numero di predatori e y il numero di prede. I predatori x
muoiono dopo un tempo t (velocità di morte –y/t) e crescono nutrendosi di y
con una velocità legata al prodotto xy delle due popolazioni (cosa intuitiva: la
Capitolo 7: Dinamica non lineare e caos
151
probabilità di incontri aumenta con il numero di individui di ambo le specie).
Le prede decrescono perché sono mangiate e crescono a un ritmo R perché
trovano nutrimento nelle nicchia (p. es., x sono linci e y lepri). Dunque se non
c’è interazione (B=0) x morirà come e −t τ , e y crescerà come Rt. Le eq.
dinamiche sono dunque:
x
x& = Bxy −
τ
y& = − Bxy + R
Le due eq. qui presentate danno un modello di competizione fra popolazioni
(Volterra e Lotka).
Dal punto di vista dimensionale, le tre grandezze B, R e 1/t sono tutte e tre
misurate in s-1, per essere omogenee al primo membro che ha la derivata
temporale. Risolvere le eq. non è immediato. Svolgiamo lo studio come nel
caso 1D.
I punti fissi sono (fatti x& = y& = 0 , si divide la prima eq. per x, ammesso che
x ≠ 0 ):
1
y=
, x = Rτ
Bτ
e considerando le deviazioni dall’equilibrio
{
ξ = x−x
η = y−y
⇒⇒ {
ξ& = αη
η& = −αη −
ξ ,
τ
dove si è abbreviato a=BRt.
Cerchiamo soluzioni esponenziali, in modo che
 ξ& = λξ

 η& = λη
Sostituendo, avremo le due eq. algebriche:
 λ − α  ξ 
1
  = 0
α + λ η 

τ

Ricordiamo, a chi non fosse familiare con la notazione matriciale, che la
precedente scrittura condensa due eq. che si esplicitano moltiplicando in modo
152
F. T. Arecchi, Caos e Complessità nel Vivente
ordinato gli elementi della prima riga della matrice 2x2 per quelli della colonna,
e poi facendo lo stesso per la seconda riga. Siccome cerchiamo soluzioni non
nulle per (ξ ,η ) , allora deve essere nullo il determinante della matrice 2x2, cioè
la somma dei prodotti della prima diagonale e della seconda cambiata di segno.
λ2 + αλ +
α
α
α2 α
α
= 0 ⇒⇒ λ1, 2 = − ± (
− ) = − ± iω
τ
2
4
τ
2
dove abbiamo chiamato ω la quantità sotto radice, che è negativa purché sia
verificata la condizione: α 2 4 < α τ , cioè:
ατ <4
Abbiamo cioè oscillazioni a frequenza ω smorzate con una velocità
a/2=BRt 2/4. Ciò vuol dire che le soluzioni di equilibrio sono stabili. Variando i
parametri o complicando le eq. con un termine di morte (per vecchiaia o
malattia) anche per le prede, si ottengono oscillazioni permanenti come
osservate in equilibri ecologici su tempi lunghi.
Figura 7.7: Oscillazioni temporali nelle popolazioni di prede e predatori in un habitat chiuso e
rifornito di cibo per le prede.
7.2.4 Caso 3D: Andamenti qualitativi
Passiamo a un sistema 3D, cioè a tre variabili reali accoppiate non
linearmente. Attorno a un punto di equilibrio l’analisi lineare darà un piano e
una retta che contengono le direzioni di espansione e contrazione per soluzioni
rispettivamente instabili e stabili, come mostrato nei casi di fig.7.8
Capitolo 7: Dinamica non lineare e caos
153
Figura 7.8: Esempi di varietà stabili e instabili di un punto fisso in 3D.
7.3 Sistemi eccitabili. Modello di FitzHugh e Nagumo
Consideriamo due specie con popolazioni u e α che evolvono con le eq.
du
dα
= f (u , α ),........
= ε ⋅ g (u.α )
dt
dt
Dove 0 < ε << 1 , cioè il sottosistema α è lento rispetto ad u ; per cui α è
semplicemente un parametro costante nell’eq. di u Le soluzioni stazionarie
(u 0 , α o ) sono le intersezioni delle due curve: f=0, g=0 sul piano ( u , α ); le f=0,
g=0 siano rispettivamente una curva a Z e una verticale; per ogni valore di α si
ha un’intersezione con f=0.
154
F. T. Arecchi, Caos e Complessità nel Vivente
A seconda delle pendenze mutue nei punti di intersezione, questi possono
essere stabili o instabili.
Ad esempio, in fig.7.9a se α è una variabile lenta (rispetto ad u), che varia in
modo periodico fra α 1 e α 2 , allora u ha oscillazioni di rilassamento come in
fig.7.9b: u segue la propria linea di zero fra A e B, ma in B precipita, su una
scala di tempi piccola rispetto al moto lento di v, da B a C, e così via.
Figura 7.9: (a) Stato stazionario u 0 che si aggiusta istantaneamente al valore imposto da
α : gli
stati stazionari sulle linee tratteggiate sono instabili. (b) oscillazioni di rilassamento di u,
per effetto di una variazione lenta periodica di α .
Presentiamo ora il modello di FitzHugh e Nagumo, in cui f=0 è una cubica e
g=0 una retta. Uniformiamoci alla notazione corrente e scriviamo le eq. come:
dv
= f (v) − w = v(0.3 − v)(v − 1) − w,
dt
dw
= bv − γw
dt
La fig.7.10 mostra il caso monostabile e bistabile (due intersezioni stabili e
una instabile) al variare della pendenza della retta g=0 cioè w = bv γ .
Figura 7.10: Piano di fase nel caso (a) stato stazionario stabile ma eccitabile; e (b) tre stati
stazionari di cui O, S2 stabili ma eccitabili, ed S1 instabile.
Capitolo 7: Dinamica non lineare e caos
155
È evidente la caratteristica di eccitabilità. Una perturbazione sull’asse v, con
v>a provoca un’ampia escursione della traiettoria di fase; il corrispondente
segnale temporale è dato in fig.7.11.
−3
Figura 7.11: Nel caso di b = γ = 2 ⋅ 10
allora w è una variabile lenta e avremo una
situazione come fig.7.9, ruotata di 900.
Partendo dallo stato stazionario (0, 0), se si dà una piccola perturbazione fino a P si torna
indietro a (0, 0); ma se la perturbazione arriva ad A, allora comincia un’escursione ampia
ABCDO che in BC e DO segue da vicino la linea f=0. In (b) si mostrano gli andamenti
temporali.
7.4 Esponenti di Lyapunov e attrattori, il caos deterministico.
Abbiamo visto che la linearizzazione attorno a un punto fornisce localmente
una dinamica lineare, con un numero di esponenti pari al numero N di gradi di
libertà (cioè di variabili accoppiate; diremo questo numero le dimensioni del
sistema dinamico).
Se ripetiamo questa operazione locale su molti punti della traiettoria e
prendiamo una media, introdurremo degli esponenti medi detti esponenti di
Lyapunov (L).
Se partiamo da un volume di condizioni iniziali (un segmento per N=1; un
quadrato per N=2, a rigori sarebbe un rettangolo, ma possiamo riscalare le
variabili per semplificare il ragionamento; un cubo per N=3, ecc), i vari lati del
volume si contraggono o espandono con il corrispondente esponente di L.
156
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 7.12: Spettro dei segni degli esponenti di Lyapunov e corrispondenti attrattori, per
sistemi dissipativi in 1, 2 e 3 dimensioni.
Figura 7.13: Forme degli attrattori
Per comprendere le fig.7.12 e 7.13 riferiamoci a un sistema dissipativo. Per
N=1 avremo un segmento ε di condizioni iniziali che si contrae ad un punto
per grandi t. La crescita media e λt richiede dunque un esponente λ < 0 . Per
N>1, sarà ∑ λi < 0 , a per λ = 0 avremo in corrispondenza la conservazione
della misura iniziale. Ciò definisce una traiettoria: se invece di dare per
Capitolo 7: Dinamica non lineare e caos
157
condizione iniziale un punto diamo un pacchetto ε di punti, ogni punto entro
ε evolve allo stesso modo e la misura si conserva nel tempo.
Si chiama attrattore il luogo asintotico da cui non si fuoriesce e in cui si è
persa memoria dello stato iniziale; per dinamica conservativa il volume iniziale
NON si contrae ∑ λi = 0 e pertanto si conserva sempre memoria delle
condizioni iniziali e NON c’è attrattore.
Tornando ai sistemi dissipativi, chiameremo bacino d’attrazione il dominio
di tutte le condizioni iniziali che confluiscono su un attrattore.
Se riprendiamo l’eq. di par.7.2.2, la forza discende da un potenziale V(x):
x& = ax − x 3 = −
dV
1
1
⇒⇒ V ( x) = − ax 2 + x 4
dx
2
4
Per a<0 la quadratica è una parabola verso l’alto, così come la quartica, e si
ha un solo punto fisso stabile (attrattore) x=0; tutto l’asse x è il bacino
d’attrazione, perché qualunque condizione iniziale x0 converge a x=0 come
−at
x0 e at = x 0 e
(trascurando la correzione non lineare, che muore più
rapidamente). Invece per a>0 la quadratica è verso il basso e V ha una doppia
buca come in fig.3.1b quindi l’asse x si divide in due bacini d’attrazione, che
convergono rispettivamente verso ± a .
Per l’unicità delle soluzioni di un’eq, differenziale a partire da una
condizione iniziale, i bacini d’attrazione relativi ad attrattori diversi non si
intersecano mai.
Figura 7.14: Due esempi di attrattori regolari in 3D.
158
F. T. Arecchi, Caos e Complessità nel Vivente
7.5 Attrattori strani e dimensioni frattali
Figura 7.15: Attrattore per le tre eq. accoppiate:
x& = −10 x + 10 y
y& = − y + 28 x − xz
z& = − 8 z + xy
3
(Lorenz, 1963)
Nel caso 3D e per certi valori dei parametri (si vedano ad es. i coefficienti
nelle tre eq. di fig.7.15), si ha lo spettro di Lyapunov (-, 0, +). Nella direzione
(–) si ha contrazione, cioè due condizioni iniziali distanti tendono ad
avvicinarsi, nella direzione (0) si una traiettoria e nella direzione (+) si ha
espansione cioè due punti inizialmente vicini tendono a separarsi: un’incertezza
iniziale nell’assegnazione della coordinata secondo questa direzione si
amplifica. Ora, assegnare con esattezza una coordinata iniziale implica che essa
sia espressa da un numero razionale, ma in genere sarà un numero reale che
dobbiamo approssimare con una versione troncata a un numero finito di cifre:
ciò implica uno sparpagliamento della condizione iniziale su tutti quei punti che
hanno in comune la parte troncata e differiscono per qualche cifra successiva.
Insomma il calcolo ci darà un ventaglio di traiettorie divergenti una dall’altra e
questa è una mancanza di predicibilità che chiamiamo caos deterministico; caos
perché dà un’incertezza, deterministico perché non c’è bisogno di rumore ma
emerge da solo tre eq. accoppiate.
Siccome però il sistema è dissipativo, un volume iniziale si deve contrarre e
diventare <3D: dei tre lati di un cubetto iniziale, quello secondo (- ) va a un
Capitolo 7: Dinamica non lineare e caos
159
punto, quello secondo (0) resta invariato e quello secondo (+) si espande:
avremo pertanto una dimensione globale >2 ma <3, cioè un numero frazionario
fra 2 e 3. Il significato di una dimensione frattale è spiegato in fig.7.16.
Intanto notiamo che, dato l’aspetto “arcigno” delle eq. non lineari, in genere
non esistono soluzioni analitiche e bisogna ricorrere a soluzioni numeriche al
computer. È per questo che malgrado queste cose fossero già presenti a H.
Poincaré nel 1890, abbiamo dovuto aspettare lo sviluppo dei computers per
affrontare questi problemi.
Figura 7.16: Dimensioni frattali <1 per l’insieme di Cantor e >1 per la curva di Koch.
160
F. T. Arecchi, Caos e Complessità nel Vivente
7.6 Sezioni di Poincaré e mappe iterative
Invece di seguire tutta la traiettoria in 3D, ci limitiamo a considerarne le
intersezioni con un piano 2D (se siamo in n-D, con un iperpiano (n-1)-D). La
cosa è spiegata in fig.7.17.
In tal caso, dobbiamo cercare una relazione funzionale che lega l’intersezione
n-esima alla successiva, cioè (mappa di ritorno di Poincaré):
rr
r
x n +1 = f ( x n )
dove i vettori indicano le posizioni sul piano di Poincaré.
Nel caso dissipativo 3-D la traiettoria(esp. 0)sarà traversa al piano e sul piano
giacciono le due direzioni con esp. - e +. Ma siccome ∑ λ < 0 deve essere
λ− > λ+ . Ammettiamo che sia λ− >> λ+ ; allora la sezione di Poincaré non
copre una parte di piano ma si assottiglia a una linea e la mappa diventa
unidimensionale
x n +1 = f ( x n ).
Molte considerazioni euristiche sul caos sono sviluppate per mappe
sull’intervallo (0, 1), cioè per 0< x n , x n +1 <1.
Figura 7.17: Esempi di sezioni di Poincaré per moti in 3-D.
Capitolo 7: Dinamica non lineare e caos
161
7.7 Informazione di un segnale caotico
Introduciamo una partizione dello spazio delle fasi in cellette di volume
finito; fatte di cubetti di lato ε . Tutto l’attrattore sarà coperto da un numero
finito M di celle. La cella i-sima sarà visitata Mi volte, ad essa spetta pertanto la
probabilità:
M
pi (ε ) = i
M
È ovvio che le probabilità dipendono dalla risoluzione ε scelta. Con queste
probabilità costruiamo un’informazione di Shannon:
I (ε ) = −∑ pi log pi
Introduciamo una dimensione di informazione:
D1 = lim
I (ε )
log ε
Dove il limite va considerato per ε → 0 , cioè vanno compensati gli errori
che possono derivare da una risoluzione grossolana
Confrontiamo D1 con la dimensione frattale derivata da considerazioni
geometriche in fig.7.13 e che riscriviamo qui come:
D0 = −
log N
log ε
Le due definizioni coincidono se ogni celletta dell’attrattore è riempita con
probabilità uniforme p=1/N; ma in genere l’attrattore ha “densità” diverse in
regioni diverse, perciò la D1 è più appropriata della dimensione geometrica D0.
Consideriamo ora l’evoluzione temporale del segnale caotico, e, oltre alla
partizione con risoluzione ε del segnale, introduciamo una risoluzione τ nello
scandire il tempo.
Consideriamo la probabilità congiunta Pd di localizzare il segnale nelle
cellette i1 , i2 ,...id rispettivamente ai tempi τ ,2τ ,....., dτ .
Costruiamo l’informazione congiunta:
I d = −∑ Pd log Pd
162
F. T. Arecchi, Caos e Complessità nel Vivente
Ora, sappiamo che un moto regolare non “consuma” informazione, basta dare
le condizioni iniziali e si può predire qualunque futuro. Invece in un moto
caotico l’informazione si perde per la divergenza di traiettorie che partono da
punti vicini.
A che velocità si perde l’informazione? Dividiamo l’informazione congiunta
per il tempo dτ su cui si è accumulata.
Stiamo perciò consumando informazione a velocità:
K = lim lim lim
Id
dτ
Il triplo limite vuol dire che dobbiamo fare:
i) d → ∞
ii) ε → 0 iii) τ → 0 .
K si chiama entropia di Kolmogorov; essa rappresenta la velocità di perdita
dell’informazione e si dimostra essere uguale alla somma degli esponenti di
Lyapunov positivi. Nel caos 3-D ve ne uno solo e K coincide con quello.
7.8 I quattro livelli di descrizione di un sistema fisico.
Figura 7.18: Come abbiamo già visto euristicamente in fig.0.1, abbiamo quattro casi;
apparentemente, il quarto sembra inutile, perché quando c’è caos non c’è bisogno di
noise per introdurre un’incertezza. In effetti, un generico sistema non lineare ha parecchi
attrattori caotici, e il noise serve a saltare da un all’altro.
PARTE III La fisica del vivente
8 La complessità biologica
8.1 Ordine e Complessità
8.1.1 L’ordine in fisica
Nella fisica si considerano due tipi di ordine: statico, come regolarità
geometrica (i cristalli), e dinamico, come predicibilità del futuro. Entrambi i
punti di vista sono riconducibili al concetto di invarianza sotto una certa classe
di operazioni. Questo concetto ha un’estrema potenza logica, poiché la ricerca
di leggi fisiche si può identificare con la ricerca di regole di invarianza (le
simmetrie). Esso permette di dedurre le simmetrie quando si sviluppa la
dinamica a partire da una forma di interazione nota. Viceversa, lo studio delle
simmetrie permette la caratterizzazione di una dinamica non nota. Dunque,
l’ordine viene così a coincidere con l’invarianza di un sistema per
trasformazioni nello spazio-tempo.
Esempi familiari sono l’invarianza per traslazione, xàx+a e quella per
rotazione, xàx exp(i ϕ ) con i unità immaginaria, che caratterizzano i cristalli.
Un ordine più sottile è la similitudine o invarianza per trasformazione di
scala xàcx.
Essa è, se vista su scala logaritmica, riconducibile a una periodicità
traslazionale: logxà logx+loga.
Esempi di oggetti simili sono l’insieme di Cantor e la curva di Koch, discussi
in par.7.5. Per questi oggetti occorre introdurre il concetto di dimensione
frattale. Partiamo da un segmento di lunghezza l e dividiamolo in 3 tratti.
Asportiamo la parte centrale e ripetiamo l’operazione nei tratti restanti.
Continuando così, costruiremo l’insieme di Cantor. Se invece rimpiazziamo la
parte centrale con gli altri due lati di un triangolo equilatero, e continuiamo
così, otteniamo la curva di Koch. In ambo i casi abbiamo oggetti che presentano
invarianza di scala. Infatti, un ingrandimento di un terzo della terza riga è
identico all’intero della seconda riga, e così a ogni livello di partizione.
Ricopriamo ciascuno di questi oggetti con N regoli di lunghezza r, dove r è tale
da assicurare che non si perda risoluzione a ogni passo della partizione.
All’aumentare del numero di partizioni, la dimensione frattale Do, definita come
D
0
=
ln N
ln (1 r )
Capitolo 8: La complessità biologica
165
è un invariante rispetto a successive frammentazioni. Nel caso di oggetti
invarianti per trasformazione di scala in 2, 3, 4,. . . dimensioni, il regolo sarà un
quadrato, un cubo, e un ipercubo di lato r.
8.1 2 Ordine e disordine nella termodinamica
Nella seconda metà del 1800, la termodinamica si è presentata come un
livello di descrizione della realtà del tutto indifferente alla costituzione
microscopica, facendo uso di variabili (temperatura, entropia) non desunte dalla
dinamica delle particelle. La meccanica statistica ha tentato di correlare i due
livelli di descrizione della realtà, costruendo i concetti di temperatura ed
entropia come proprietà d’insieme della materia. Ma la seconda legge della
termodinamica (aumento dell’entropia per un sistema isolato) non era
deducibile dagli assiomi di Newton: occorreva un’ipotesi aggiuntiva di tipo
qualitativo (lo Stosszahlansatz di L.Boltzmann).
Cerchiamo di definire il disordine e l’ordine in rapporto all’informazione che
riusciamo ad acquisire su un sistema. Supponiamo di avere una miscela di due
tipi di molecole, A e B. Dividiamo il recipiente che le contiene in volumetti
uguali. In quanti modi possiamo distribuirle nei volumetti in modo che le A
siano tutte da una parte e le B dall’altra? Oppure, in quanti modi possiamo
distribuirle senza restrizioni su dove devono andare? Nel secondo caso ci sono
molti più modi di distribuirle.
E intuitivo che il disordine è tanto maggiore quanto maggiore è il numero di
configurazioni in cui si possono disporre le molecole A e B nei volumetti, in
modo che globalmente si raggiunga lo stesso risultato (tecnicamente: il numero
di microstati che portano allo stesso macrostato). Il logaritmo del numero n di
queste configurazioni, o microstati, è l’entropia, o grado di disordine (a parte
una costante moltiplicativa che si identificherà con la costante di Boltzmann e
che per semplicità porremo uguale a l),
S (n ) = ln n
Ma questa, che è in definitiva l’incertezza, rappresenta anche quello che
C.E.Shannon (1948) ha chiamato l’informazione I sul sistema. Se gli n
microstati che realizzano la configurazione in esame sono tutti equiprobabili, la
probabilità di ciascuno sarà p=l/n, per cui la relazione precedente può essere
riscritta:
S = I = ln (1 p ) = − ln p
166
F. T. Arecchi, Caos e Complessità nel Vivente
Se ora le scelte non sono equiprobabili, ma a ogni disposizione i (microstato)
va attribuita una probabilità pi, dovremo sostituire la precedente con una media
pesata:
S = I = − ln p = −∑i pi ln pi
La seconda legge della termodinamica prevede che l’entropia cresca in media
nel tempo. Pertanto l’equilibrio corrisponde alla situazione di massima entropia,
o disordine, e le caratteristiche termodinamiche di un sistema si costruiscono
calcolando il massimo dell’entropia con i vincoli imposti dalla conoscenza
macroscopica che abbiamo sul sistema. Se si valutano le pi a partire dalla
conoscenza microscopica del sistema, queste obbediscono a un’equazione di
Liouville (deterministica) e l’entropia è indipendente dal tempo. Ciò equivale a
dire che l’entropia iniziale è nulla, perché si parte al tempo iniziale con pi=1 se
la cella i è occupata o pi= O se è vuota, e l’entropia rimane zero.
Per fare evolvere il sistema verso la massima entropia si seguono due tipi di
approccio.
a) Grana grossa.
Si media la distribuzione di probabilità su piccoli volumi dello spazio delle
fasi, formando un’entropia a grana grossa Con questa media teniamo in conto
la nostra ignoranza delle precise condizioni iniziali. In tale modo l’entropia
cresce, così come cresce l’incertezza nella localizzazione delle particelle di
una goccia d’inchiostro che si diffonde nell’acqua. Il limite concettuale di
questi approcci è che l’aumento di entropia sembra dipendere dalle procedure
di media.
b) Accoppiamento con bagno termico.
Assumiamo che è impossibile assegnare alle pi equazioni deterministiche del
moto, a causa delle fluttuazioni introdotte dal resto del mondo sul sistema
osservato. Questa trattazione è particolarmente adatta per sistemi aperti, dove
non ha più senso la tendenza all’equilibrio. In tal caso caratterizziamo il
sistema con la perdita di informazione nell’unità di tempo. Questo pertanto è
l’indicatore più opportuno dell’evoluzione dell’ordine: lo definiremo più
avanti, dopo aver mostrato come l’informazione si perde non solo per
fluttuazioni dovute al disturbo di un bagno termico, ma anche per limiti
intrinseci alla dinamica deterministica.
Capitolo 8: La complessità biologica
167
8.1.3 Caos deterministico come limitazione dinamica a/l’ordine
Nel 1896 H.Poincaré scopriva quella che oggi chiamiamo instabilità
asintotica. Formuliamo la questione in modo semplice. Nello spazio delle fasi
al tempo t=0 scegliamo condizioni iniziali prossime, rappresentate da due punti
separati da una piccola distanza ε . Può accadere che la separazione fra le
traiettorie che emergono dai due punti aumenti esponenzialmente, come
ε ⋅ exp(λt ) , con λ > 0 . Ciò vuol dire che, se fissiamo una risoluzione δ del
nostro apparato di misura, per qualunque ε esisterà un tempo t tale che
ε exp λτ > δ
Per t > τ vedremo due traiettorie distinte per la stessa condizione iniziale,
che per noi è immersa dentro ε . Il teorema di unicità per la soluzione di
un’equazione differenziale vale se partiamo da un punto ideale ( ε = 0 ), ma ciò
non ha senso in fisica. Per es. se l’insieme delle condizioni iniziali è dato dai
numeri reali fra 0 e l, di questi possiamo fissare con un numero finito di cifre
solo i numeri razionali; mentre i numeri irrazionali, avendo un numero infinito
di cifre decimali, sarebbero determinati solo con un tempo di acquisizione
infinito. Questa estrema sensibilità alle condizioni iniziali in presenza di
instabilità asintotiche rappresenta una rivoluzione concettuale in quanto limita
l’ordine dinamico della fisica newtoniana (la predicibilità è limitata nel tempo).
Questa critica alle convinzioni formatesi impropriamente all’interno della
fisica è ottenuta nell’ambito di una teoria dinamica, considerando solo la
genericità delle, direzioni instabili e l’impossibilità di una precisa
caratterizzazione di un numero, senza alcun bisogno d’invocare un bagno
termico o di ricorrere ad altre ipotesi extradinamiche. Eppure questa rivoluzione
sfuggì ai contemporanei di Poincaré e non ne furono sviluppate le conseguenze.
La fisica era presa da altri problemi (le regolarità degli spettri atomici, la
radioattività), che spostavano l’interesse verso la microfisica, dove bastavano
modelli kepleriani (si pensi all’atomo di E.Rutherford).
A partire dal 1950, da una parte la disponibilità di potenti elaboratori
elettronici, dall’altra la spinta di problemi pratici, come la stabilità delle orbite
dei satelliti o l’affidabilità delle previsioni meteorologiche, riportò in auge
questa linea di ricerca. Nel 1963 E.Lorenz, in un modello di instabilità
idrodinamica a tre equazioni non lineari, scopriva la non periodicità del flusso
che ne scaturisce.
168
F. T. Arecchi, Caos e Complessità nel Vivente
Vediamo dunque delinearsi un terzo livello di descrizione del reale, quello
del caos deterministico. Sembra l’unione di due termini contraddittori, perché il
determinismo (primo livello) implica l’ordine, mentre di solito si ottiene il
disordine (secondo livello) con l’aggiunta di fluttuazioni esterne; ma il termine
è stato coniato proprio per denotare una mancanza di predicibilità intrinseca alla
dinamica, senza bisogno di un deus ex machina.
8.1.4 Ordine e informazione
C’è una differenza osservabile fra il caos di Boltzmann e quello di Poincaré?
Sì, e fondamentale. Nel primo caso, la stocasticità delle fluttuazioni fa vagare il
sistema su una regione dello spazio delle fasi che ha la dimensionalità N di tutto
il sottospazio permesso dagli integrali primi del moto (per es. energia, ecc.). Le
cose sono differenti per il caos deterministico. Riferiamoci, per semplicità, a
sistemi dissipativi, per cui non si conserva il volume nello spazio delle fasi.
Pertanto, quali che siano le condizioni iniziali, asintoticamente il sistema sarà
confinato a una regione di dimensioni D minori di N. Consideriamo, per es. una
dinamica in N=3, come nel caso di Lorenz. Gli attrattori associati a moti
regolari, o ordinati, avranno D=O se sono punti fissi, D=l se cicli limite, o D=2
se tori corrispondenti a moti periodici con due frequenze incommensurabili.
Invece nel caso di Lorenz, e quando i parametri delle equazioni sono aggiustati
in modo da avere una direzione espandente, cioè una dipendenza sensibile dalle
condizioni iniziali, l’attrattore sarà un frattale, cioè avrà dimensione D
frazionaria: 2<D<3. L’attrattore frattale peculiare del caos deterministico è
stato chiamato attrattore strano.
Queste differenze legate alla topologia dell’attrattore hanno un equivalente
più suggestivo legato al contenuto d’informazione sul futuro del sistema, che si
può avere osservando il sistema stesso per un certo lasso di tempo. Sia la
dimensione, sia l’informazione persa per unità di tempo sono invarianti del
sistema, cioè caratteristiche intrinseche non legate a un cambiamento di
rappresentazione; ma, mentre la dimensione è un invariante statico,
l’informazione per unità di tempo è un invariante dinamico, detto entropia
metrica, o entropia di Kolmogorov.
Definiamo anzitutto il primo oggetto. Supponiamo. che il sistema abbia un
attrattore A. Sia φ (ε ) una partizione finita φ1 , φ 2 , φ 3 , K, φ q del bacino di
attrazione di A, fatta con cubetti di lato ε (il bacino di attrazione è il luogo di
tutte le condizioni iniziali per le quali, per t → −∞ , i punti del sistema
confluiscono in A). Misuriamo ora una lunga serie temporale X1, X2, . . . , Xm di
Capitolo 8: La complessità biologica
169
posizioni del sistema e contiamo il numero Mi di volte per cui il segnale visita
φi . Con la probabilità:
Pi =Mi/M
costruiremo un’informazione di Shannon
I(e) = - ? Pi In Pi,
con i che varia da l a q.
In analogia con quanto detto per Do, definiamo ora la dimensione di
informazione:
D1 = − lim I (ε ) ln ε
dove il limite va considerato per ε → 0 .
Questa definizione ha un significato intuitivo immediato: abbiamo
rimpiazzato ln(N) nella definizione di Do con ‹-ln(p)›. In Do ogni intervallo
aveva uguale massa; qui dobbiamo pesare le varie regioni con la relativa
probabilità di occupazione.
Per introdurre ora un invariante dinamico, dopo aver suddiviso lo spazio
delle fasi in scatole di lato ε , misuriamo lo stato del sistema a intervalli di
tempo τ . Sia
P(i1i2 ,...id ) = Pd
la probabilità congiunta che X (t = τ ) sia nella scatola il, X (t = 2τ ) nella scatola
i2, e così via. L’informazione dipendente dal tempo sarà costruita con questa
probabilità congiunta:
I d (t ) = −∑ Pd ln Pd .
i1
Questa è l’informazione necessaria per localizzare il sistema su una
particolare traiettoria i1, i2, i3,…, id con una data precisione (se si conosce a
priori la probabilità Pd); pertanto, Id+1-Id è l’informazione in più, necessaria per
predire in quale cella id* +1 sarà il sistema, sapendo che esso era stato prima in i1,
i2, i3,…, id. Ciò vuol dire che Id+1-Id misura la nostra perdita di informazione fra
il tempo d e il tempo d+l.
La perdita di informazione globale nell’intervallo dτ sarà la somma di tutti
gli incrementi I n +1 − I n (n ≤ d ) su tutti gli intervalli; pertanto da I1=0
(conoscenza della situazione iniziale) si avrà I1+I3-I2+I4-I3……=Id. Se ora
170
F. T. Arecchi, Caos e Complessità nel Vivente
dividiamo l’incremento globale d’informazione Id necessario per seguire la
traiettoria per il tempo trascorso, e passiamo al limite per tempi lunghi
( d → ∞ ) e risoluzione spazio-temporale massima (τ → 0, ε → 0 ) otteniamo la
perdita d’informazione per unità di tempo, che è la citata entropia metrica:
K = lim I d (τ ) / dτ .
Il limite ε → 0 (che va preso dopo d → ∞ ) rende K indipendente dalla
particolare partizione.
K risponde alla domanda: se osserviamo il sistema per un tempo dτ , così
lungo che l’informazione per unità di tempo diventi invariante, che,
informazione abbiamo sul futuro? Orbene, la risposta è:
(a) K = O per un sistema ordinato; infatti, in un sistema deterministico, una
volta esauriti i transitori, non si ha un extra d’informazione per un extra di
osservazione;
(b) K → ∞ per un sistema disordinato; infatti, per quanto a lungo si osservi un
moto browniano, non si sa mai dove il sistema andrà a un istante successivo;
(c) K finito per un sistema caotico, e precisamente:
K = ∑λ
+
(somma di tutti gli esponenti positivi, cioè corrispondenti a direzioni
espandenti dello spazio delle fasi; nel caso di N=3 quale ad es. Lorenz, c’è
un solo esponente positivo e perciò K = λ ).
Si noti che le situazioni fisiche più comuni corrispondono a (c).
8.1.5 Ordine a partire dal caos
Esistono due tipi di ordine: l’ordine della morte termica, quando, per Tà0, le
fluttuazioni sono irrilevanti e prevalgono le interazioni fra particelle vicine,
dando luogo a una struttura macroscopica ordinata che riflette le simmetrie
elementari, e l’ordine fuori dall’equilibrio, che nasce in un sistema aperto quale
risposta a messaggi che vengono dall’esterno attraverso il contorno.
Cominciamo dal primo caso. Mentre per un sistema isolato l’equilibrio
corrisponde al massimo dell’entropia S, per un sistema la cui temperatura T sia
mantenuta costante da un bagno termico l’equilibrio corrisponde al minimo
dell’energia libera F, dove F si ottiene sottraendo TS dall’energia interna U del
sistema:
F = U − TS = min .
Capitolo 8: La complessità biologica
171
Ciò vuol dire che l’equilibrio è il risultato di una competizione fra energia ed
entropia. La temperatura stabilisce il peso relativo dei due fattori.
Per Tà0, il termine sottrattivo è irrilevante, F minimo implica U minimo e
quindi si impongono strutture macroscopiche, che, riflettendo vincoli
microscopici, hanno di necessità S=O; si hanno pertanto strutture ordinate,
come i cristalli, per cui l’energia di legame fra atomi vicini prevale sulle
fluttuazioni.
Ad alte temperature, invece, è essenziale per minimizzare F il contributo
sottrattivo TS, che implica un massimo di entropia; si ha pertanto il disordine
molecolare (transizioni allo stato di liquido e di gas). In questo tipo di ordine il
passaggio dal microscopico al macroscopico si ottiene per somma di blocchi
sempre più estesi di atomi e, appena il singolo blocco contiene un numero
sufficiente di atomi da poterne trascurare le fluttuazioni, ogni successiva
estensione corrisponde a puri cambiamenti di scala, senza che si passi attraverso
una dimensione critica o di soglia. L’invarianza di scala permette l’applicazione
del gruppo di rinormalizzazione. La transizione all’ordine, in questo caso, è
controllata solo dalla temperatura e dalla dimensionalità del sistema.
Passiamo al secondo caso. Se consideriamo un sistema fuori dall’equilibrio
termodinamico, qual è un laser, cioè un sistema aperto che riceve energia
incoerente e la trasforma in energia ordinata (nel caso del laser l’ingresso è
sotto forma di eccitazioni atomiche e l’uscita è radiazione elettro-magnetica) il
punto cruciale è un meccanismo di retroazione o feedback. Senza la retroazione
si avrebbe una normale lampada, in quanto i dipoli atomici che costituiscono le
singole antenne emittenti sarebbero scorrelati fra di loro e il campo risultante
sarebbe incoerente. Per effetto della retroazione i dipoli sono correlati in fase
dal campo e ciò indipendentemente da simmetrie spaziali: gli atomi possono
avere distanze mutue qualsiasi, come accade in un gas: in quanto è il campo che
assegna localmente le fasi. Intervengono alcuni concetti nuovi rispetto al caso
del cristallo.
a) Per una data riflettività degli specchi laser (frazione di campo che, invece
di uscire, retroagisce) occorre un numero critico di atomi eccitati affinché il
campo retroagente sia sufficiente a mettere in passo i dipoli, cioè prevalga
sugli atti individuali di emissione spontanea. Il ruolo di parametro di
controllo, che nel sistema termodinamico è la temperatura, nel sistema
fuori dall’equilibrio è il grado di eccitazione esterna (pompa in un laser,
velocità d’immissione dei reagenti in un’instabilità chimica, gradiente
termico in un’instabilità convettiva in fluido, ecc.).
172
F. T. Arecchi, Caos e Complessità nel Vivente
b) Il parametro d’ordine non è più determinato da una media canonica, ma è
fissato dalla geometria del contorno ed è pertanto scorrelato dalle proprietà
microscopiche dei componenti elementari. Nelle equazioni di campo che
regolano l’evoluzione di un mezzo continuo (laser o fluido) scomponiamo
la dinamica in gradi di libertà o modi, e seguiamo di ciascun modo
l’evoluzione temporale. Per capire questo concetto di modo partiamo da,
una cavità vuota, senza guadagno e senza perdite. Il campo obbedisce
all’equazione d’onda e si può sviluppare in somma di soluzioni elementari
indipendenti (modi), la cui simmetria dipende dal contorno. Per es. per una
cavità rettangolare i modi saranno onde piane. Se ora introduciamo
guadagno e perdite, i modi non saranno più indipendenti l’uno dall’altro.
All’aumentare dell’eccitazione, per un modo privilegiato le perdite saranno
compensate dal guadagno fornito dal meccanismo di retroazione e quel
modo diventerà instabile, cioè passerà da smorzato a esaltato. La sua
velocità di crescita passerà da negativa a positiva, cioè per uno zero, e
pertanto esso sarà particolarmente lento, per cui potrà asservire tutte le altre
variabili, nel senso che queste ultime contribuiscono con i loro valori di
equilibrio rispetto alla variabile lenta (eliminazione adiabatica delle
variabili veloci).
Illustriamo in dettaglio le analogie e le differenze fra l’ordine indotto
abbassando la temperatura in un sistema in equilibrio (transizione di fase
termodinamica) e l’ordine indotto in un sistema fuori dall’equilibrio quando un
parametro esterno (o di controllo) supera un valore di soglia. In questo secondo
caso ci si riferisce soprattutto al laser.
Sistemi in equilibrio termodinamico
Le tre caratteristiche principali del punto critico di una transizione di fase del
secondo ordine sono rappresentate nella fig.8.1, per una transizione paraferromagnetica: ‹M› è la magnetizzazione media (parametro d’ordine),
∆M 2 è la varianza nelle fluttuazioni di M (che diverge al punto critico) e τ c è
la vita media delle correlazioni nelle fluttuazioni ∆M (0)∆M (t ) del parametro
d’ordine (anche questa diverge al punto critico, fornendo una larghezza
spettrale nulla, cioè il reciproco 1 τ c va a zero: rallentamento critico). Le
caratteristiche della fig.8.1 sono qualitativamente spiegate dal modello di
Landau. Trascuriamo le variazioni spaziali e consideriamo un singolo dominio,
caratterizzato da una variabile dinamica q.
Capitolo 8: La complessità biologica
173
L’energia libera può essere rappresentata dallo sviluppo
F = F0 (T ) + αq 2 + β q 4
Fo(T) è lentamente variabile in T, β > 0, e α = a(T − Tc )
La distribuzione di probabilità di q è:
dove a > 0 .
P(q) = N exp[− F (q) k B T ]
dove N è il fattore di normalizzazione; la probabilità è massima per F minimo.
La fig.8.2 mostra come F e P dipendano da q e T. Il luogo dei punti stazionari
q(T) ha una branca termodinamica stabile q=O, che per T=Tc si biforca in due
174
F. T. Arecchi, Caos e Complessità nel Vivente
branche simmetriche con q ≠ 0 . La scomparsa del termine quadratico per T=Tc
dà una F(q) con fondo piatto, che permette fluttuazioni ampie e lente.
Sistemi fuori dall’equilibrio
La macrofisica (fisica dei fluidi, dei corpi elastici, dei campi elettromagnetici,
ecc.) è descritta da equazioni differenziali. alle derivate parziali di un campo (di
velocità, di deformazione, elettromagnetico, ecc.) rispetto al tempo e alle
coordinate spaziali. Nel caso di un sistema delimitato, scegliendo un’opportuna
base discreta (la più opportuna è quella definita dalle autofunzioni
dell’equazione del campo libero, con le effettive condizioni al contorno) si può
sviluppare il campo in modi e ridurre le equazioni di campo a equazioni
ordinarie nelle ampiezze di ciascun modo. Nell’approssimazione lineare i modi
saranno disaccoppiati e ciascuno avrà una dinamica descritta da un’equazione
lineare con soluzioni del tipo exp(-at), dove ogni a = iω + γ include la
pulsazione propria ω di ciascun modo e il suo smorzamento γ . L’introduzione
delle non linearità induce accoppiamenti modo-modo che non permettono di
risolvere separatamente ciascun modo. A questo punto, sarà impossibile trattare
un gran numero di equazioni accoppiate. Tuttavia, le situazioni sperimentali
suggeriscono che in un sistema portato fuori dall’equilibrio esista un modo che
per primo diventa instabile, compensando le propria perdite con un guadagno
fornito dall’eccitazione esterna.
Ad esempio nel caso dell’instabilità convettiva di un fluido in una cella
scaldata dal basso, caso già considerato in fig.4.3, il parametro d’ordine è la
componente verticale Vz del primo modo di velocità, che ha un massimo al
centro della cella e si annulla in alto e in basso (fig.8.3). Un altro modo
(fig.4.3b) ha due rulli in verticale, e così via.
In un laser (fig.8.4), la cavità a specchi ha una serie di risonanze equispaziate
in frequenza di c/(2L), con L distanza fra gli specchi, c velocità della luce, e di
Capitolo 8: La complessità biologica
175
queste può accadere che una sola sia accoppiata alla riga atomica che genera
guadagno. In tal caso, solo per questa risonanza privilegiata le perdite possono
essere compensate dal guadagno.
Distinguiamo fra una dinamica veloce, regolata dall’equazione d’onda
omogenea, che dà lo spettro delle risonanze, e una dinamica lenta, legata alla
competizione fra i meccanismi di perdita e di guadagno analogamente a come,
in radiotecnica, si descrive separatamente la propagazione della portante ad alta
frequenza e la modulazione a bassa frequenza che trasporta l’informazione. La
separazione fra le due scale di tempi è in genere molto netta in un laser. La
dinamica lenta del laser a singolo modo è pertanto descritta da una sola
equazione non lineare nel parametro q (ampiezza del campo),
dq
dt
= f (q ) + ξ (t )
dove, in prima approssimazione,
f (q ) = Aq − Bq 3
con A guadagno netto, B primo termine non lineare, e abbiamo indicato con
ξ (t ) le forze stocastiche che riassumono le fluttuazioni dovute
all’accoppiamento con il bagno termico.
176
F. T. Arecchi, Caos e Complessità nel Vivente
Perché questa legge di forza:
l’ampiezza q cresce linearmente con il guadagno netto. Questo è la differenza
fra i processi di emissione stimolata che danno il nome (LASER = Light
Amplification (by) Stimulated Emission (of) Radiation) e le perdite per fuga di
parte della luce fuori dalla cavità; nei primi ogni fotone in cavità può
“stimolare” l’emissione di un altro fotone da parte di un atomo che sia nello
stato alto, come mostrato in fig.2.17, nel salto da n=3 a n=2, nella fuga si
perdono parte dei fotoni verso l’esterno.
A = guadagno di emissione stimolata − perdite
Dunque:
e pertanto:
q& = Aq .
Per intensità alte (cioè quadrati del campo q2 alti) l’atomo può riacquistare un
fotone, tornare allo stato alto n=3 e da qui ricadere; globalmente ha ceduto un
fotone ma ha impegnato nel tornar su un fotone che poteva essere adoperato per
stimolare l’emissione da un altro atomo: ciò equivale a una riduzione di
guadagno che scriviamo come -Bq2.
In totale:
f (q) = Aq − Bq 3 .
Come nel moto browniano c’è una forza collettiva frenante più un noise
legato ai vari urti molecolari, così nell’emissione stimolata c’è la forza media
f(q) e in più una forza stocastica che tiene conto dei processi spontanei per cui
un atomo può scendere da n=3 a n=2 e cedere un fotone anche spontaneamente,
in assenza di uno stimolo, il fotone spontaneo però non è correlato agli altri ma
agisce da noise, con fase a caso.
Se diciamo
1
1
V (q ) = − ∫ f (q )dq = − Aq 2 + q 4
2
4
il potenziale della forza f(q) e consideriamo ξ (t ) come un processo stocastico
gaussiano a media nulla e con ampiezza di correlazioni σ , risulta che la
distribuzione stazionaria di probabilità di q è:
P(q) = N exp[− V (q) σ ]
Si noti che la P(q) ha la struttura formale della legge termodinamica. Inoltre,
il potenziale V(q) somiglia all’energia libera di Landau, per cui si avranno curve
analoghe a quelle della fig.8.2, con il ruolo di T rimpiazzato dal guadagno netto
A e il ruolo di parametro d’ordine dall’ampiezza del campo q.
Capitolo 8: La complessità biologica
177
H.Haken ha applicato il metodo qui descritto per il laser ad altre instabilità
che portano a un solo parametro d’ordine (l’ampiezza del modo più lento),
introducendo il termine sinergetica per descrivere la dinamica di una struttura
ordinata corrispondente al modo lento che per primo diventa instabile.
8.1.6 Ordine globale e ordine locale: le funzioni di correlazione
Abbiamo visto come le fluttuazioni termodinamiche o la dipendenza
sensibile dalle condizioni iniziali pongano dei limiti all’ordine naturale della
fisica newtoniana, e abbiamo descritto l’ordine in base a indicatori globali,
legati in ogni caso all’incertezza sul sistema, cioè alla quantità di informazione
necessaria L’entropia è un’opportuna media. Ma una media, come singolo
indicatore, non può esaurire la ricchezza di un oggetto complesso. Se invece di
domandarsi quanti sono i possibili microstati interroghiamo diversamente il
sistema, l’entropia è incapace di darci una risposta. Per es. se prendiamo un
centimetro cubico di vetro (N~ 10 22 molecole) e lo configuriamo come una
sferetta o come un bicchiere, la differenza di forma è ovvia anche a un bimbo,
ma l’entropia non è in grado di discriminare fra le due configurazioni, perché la
differenza relativa sarebbe dell’ordine di N -1/2, cioè di qualche parte su 1011 , e
pertanto ben oltre la risoluzione di qualunque apparato di misura. Si noti che la
difficoltà nasce se le pi si riferiscono alle coordinate microscopiche; se invece
esse sono medie su opportuni volumi macroscopici. Ma come individuare
questo spazio opportuno?
Qualunque sistema cognitivo, dal nostro cervello a quello di un animale e ai
possibili schemi di intelligenza artificiale di cui possiamo dotare sistemi
automatici di riconoscimento di immagini, è sensibile all’ordine locale. Ciò
appare evidente dai meccanismi di scansione dell’occhio umano quando prende
conoscenza di un oggetto Questo ordine locale è rappresentato dalle funzioni di
correlazione.
Prendiamo un segnale y(x) apparentemente disordinato e a media spaziale
nulla, quale rappresentato nella fig.8.5. Definiamo funzione di correlazione a
due punti la seguente media di prodotti di y(x), misurati a coppie di distanza d
fissa:
G(d) = (1/N) (y(x1)y(xl +d)+ y(x2)y(x2 +d)+…) = <y(x)y(x+d)>.
Per semplicità, abbiamo ammesso, sia in questa definizione, sia nella fig.8.4,
che valga un’invarianza traslazionale in modo che G(d) non dipenda da x, cioè
consideriamo un caso statisticamente omogeneo. Più in generale, G(d,x)
178
F. T. Arecchi, Caos e Complessità nel Vivente
dipenderà anche dalla posizione x attorno a cui si esegue la misurazione. E
chiaro il significato di G(d): se le coppie di punti sono separate meno della
dimensione media delle irregolarità, allora G(d) sarà molto grande. Per d=0 la
correlazione avrà il valore massimo:
G(0) = <y(x)y(x)>=<y2>,
e a partire da questo si ridurrà, in quanto in genere i prodotti potranno essere di
segni differenti, finché, per d molto grande, ci sarà una compensazione fra
termini positivi e negativi nella somma e si avrà G (d → ∞ ) = 0 .
La fig.8.5.1 rappresenta tre correlazioni, legate, rispettivamente, a una
superficie liscia, a una superficie periodica, e a una situazione disordinata, per
es. quella disegnata in alto. Ovviamente, le stesse considerazioni si possono
sviluppare per un segnale y(t) funzione del tempo. In tal caso la funzione G(d)
misurerà la correlazione temporale o «memoria» del segnale y(t). Diciamo che
G(d) misura l’ordine locale, in quanto indica di quanto occorre spostarsi, a
partire da un certo punto, per perdere memoria dall’ordine.
Abbiamo visto così il differente ruolo di due parametri medi: l’entropia e la
funzione di correlazione. Per quanto riguarda l’ordine locale, la correlazione a
due punti introdotta è solo la più semplice fra una serie di possibili medie, o
funzioni di correlazione, che saranno ovvie generalizzazioni (su tre punti, su
Capitolo 8: La complessità biologica
179
quattro, e così via). Sia nella psicologia della cognizione, sia nella
modellizzazione teorica di un sistema esteso, s’attribuisce importanza
decrescente a funzioni di correlazione di ordine superiore. Ciò è vero quando un
dettaglio, un’irregolarità, influenza solo i punti immediatamente vicini, e il suo
effetto non si propaga a distanza (ordine a corto raggio). In tal modo, s’arriva a
una descrizione sintetica, esprimibile in termini di poche medie (dette variabili
collettive, o parametri d’ordine, del sistema). Per es. la descrizione usuale di un
fluido vicino all’equilibrio è fatta con le prime tre medie rispetto alla
distribuzione statistica delle posizioni e velocità delle molecole del fluido.
8.1.7 La complessità
L’approccio su delineato può aver successo per sistemi semplici, che godono
di invarianza traslazionale (cioè che sono omogenei), ma è di scarsa utilità per
un organismo biologico, strutturato in organi e tessuti con morfologia e funzioni
diverse. In questo caso sembra più appropriato un approccio genetico, che
descriva la successione di eventi in base a cui l’organismo acquista una struttura
vieppiù complessa. Un conveniente parametro descrittivo è la complessità,
algoritmica C, cioè la lunghezza della minima istruzione da fornire a un
elaboratore ideale per simulare il comportamento del sistema (G.Chaitin).
Per un sistema dinamico semplice, la complessità è associabile all’insieme
delle coppie di valori del parametro di controllo e del parametro d’ordine,
caratterizzanti le successive biforcazioni che hanno portato il sistema alla sua
configurazione finale. La fig.8.2 illustra, per es. la prima di queste cascate di
biforcazioni. Per un sistema più complicato (vetro di spin, rete di neuroni) il
diagramma delle successive biforcazioni somiglia all’albero filogenetico della
teoria evolutiva. Per un organismo vivente, la complessità deve riuscire a
descrivere la chimica-fisica delle molecole, e successivamente la sintesi degli
organi, e infine l’albero evolutivo che connette l’organismo a quelli più
semplici. Si tratta ovviamente di livelli gerarchici differenti di descrizione. Un
riduzionismo ingenuo aveva tentato di ridurre il più complesso al più semplice,
ma tale procedura «costruttivista» ha rappresentato un programma privo di
giustificazioni logiche e di successi reali, ormai abbandonato (P.W.Anderson:
More is different, Science 177, pp.393-399, 1972). Da quanto detto, risulta che
la complessità di un Batterio è estremamente maggiore di quella di una
supernova. A titolo qualitativo, si dà nella fig.8.6 un diagramma della
complessità C in funzione dell’entropia metrica K. Come si vede, un cristallo
perfetto (K=0) e un gas perfetto all’equilibrio termico (K → ∞ ) sono entrambi
180
F. T. Arecchi, Caos e Complessità nel Vivente
poco complessi: basta dare la descrizione del singolo componente elementare e
poi iterarla (nel primo caso esattamente, nell’altro come media statistica),
invece, il massimo di complessità spetta a sistemi con velocità intermedia (K) di
perdita di informazione, quali i viventi.
Figura 8.6: Diagramma della complessità C in funzione dell’entropia metrica K.
In effetti la definizione di C data da Chaitin darebbe una curva crescente con
un massimo per K grandi; la C rappresentata in figura emerge dalle
considerazioni che svilupperemo in par.8.4, quindi va vista come un anticipo di
quanto diremo lì.
8.2 Modelli di vita
I tentativi di costruire forme elementari di vita a partire da molecole semplici
non hanno finora prodotto risultati significativi: la vita sulla terra risale a circa 4
miliardi di anni, spesi per lo più in forme primitive, i procarioti. Solo negli
ultimi 700 milioni di anni si sono sviluppati gli organismi eucarioti (vedi
par.4.1). In mancanza di informazione dettagliata sulle fasi di un così lungo
processo, dobbiamo limitarci a congetture, che però oggi possiamo verificare
con simulazioni al computer in cui contraiamo i tempi di evoluzione su scale
accessibili alle nostre misure.
Capitolo 8: La complessità biologica
181
I requisiti minimi perché un sistema abbia la vita sembrano essere:
i) self-replication = capacità di autoriprodursi, è come il guadagno netto nel
laser;
ii) mutation = variazioni a caso, come il noise nel moto browniano;
iii) survival of the fittest = competizione per cui prevale chi ha maggiori
capacità riproduttive.
Costruiamo un sistema artificiale che obbedisca a questi tre requisiti.
Consideriamo N stringhe di l istruzioni (ciascuna può prendere p valori; p=2
per stringhe binarie, p=4 per DNA). Il numero Ng di genotipi (cioè
combinazioni di istruzioni) diversi è N g ≤ N .
Sia ni il numero di stringhe del genotipo i. Allora:
Ng
N = ∑ ni
1
Con riferimento a i), chiamiamo ε i = dni dt la velocità di riproduzione del
genotipo i. Definiamo fitness la media:
Ng
ε = ∑εi
1
ni
≡ ∑ ρiε i
N
Dove ρ i è la frazione di genotipo i sul totale N.
Con riferimento a ii), introduciamo la velocità di mutazione:
R(
mutazioni
)
sito ⋅ sec
Rl è allora la probabilità che la stringa lunga l abbia 1 mutazione/sec.
Avremo l’eq. cinetica per il genotipo i:
dni
N
= (ε i−ε − Rl )ni +
Rl ≡ γ i ni + C
dt
Ng
Dove abbiamo chiamato C un termine di sorgente pari al trasferimento da
altri genotipi j ≠ i , e γ i il fattore di crescita netto (cioè, in gergo laser, la
differenza fra guadagno e perdite).
182
F. T. Arecchi, Caos e Complessità nel Vivente
Fin qui abbiamo considerato una semplice equazione lineare; se il
trasferimento da altri genotipi è trascurabile, C ≈ 0 , avremo la soluzione:
ni (t ) = ni (0)e γ i t
Come nel caso del laser (vedi fig.8.4) avremo una competizione fra genotipi.
Che cosa determina la variabilità genetica ε i ? Nella stringa ci sono “cold spots”
cioè istruzioni che, se mutate, portano alla morte. La distribuzione delle cold
spots determina la fitness. L’eq. su scritta non dà il quadro completo, in quanto
le cold spots sono come la non linearità che abbiamo visto essere essenziali nel
laser per dare la transizione di fase. All’equilibrio (d/dt=0) l’eq. cinetica dà:
ni =
C
γi
La biologia degli organismi digitali permette di affrontare il problema
dell’influenza di mutazione e selezione su periodi lunghi (migliaia di
generazioni), in quanto la macro-evoluzione darwiniana predice risultati su
questi tempi. Ora, cambiamenti macroevoluzioni in organismi biochimici
possono essere studiati solo attraverso la storia degli animali e piante domestici
delle, o attraverso i dati fossili e le somiglianze nelle sequenze molecolari fra
specie. Si tratta di osservazioni senza possibilità di variare i parametri di
controllo. In alternativa si può studiare l’evoluzione in batteri e virus, con tempi
corti di generazione; occorrono però anni per avere migliaia di generazioni.
Invece con organismi digitali bastano giorni, e si può studiare il ruolo di
mutanti multipli all’interno della stessa popolazione (interferenza clonale).
Per approfondimenti si veda: C.Adami, Introduction to Artificial Life,
Springer Verlag, 1998.
8.3 La complessità biologica.
Uno dei problemi centrali della biologia evolutiva è se la complessità
aumenta nell’evoluzione. Ci sono tre opinioni: che aumenti, che i dati
disponibili siano insufficienti a decidere, che “non vi sia alcuna linea di
progresso che caratterizzi la storia della vita” (S.J.Gould, Full House: the
spread of excellence from Plato to Darwin, Harmony Books, New York, 1996).
Non c’è neanche accordo su come definire la complessità. Finora (par.0.2 e
par.8.2) ci siamo messi nell’ottica del fisico, che si interessa ai sistemi dinamici,
Capitolo 8: La complessità biologica
183
e pertanto cerca la complessità dei processi; siccome questi sono computazioni,
le misure di complessità in dinamica sono complessità computazionale.
Una misura che salga e poi scenda in funzione del grado di caos, come in
fig.8.6, è stata introdotta da Crutchfield e Young (Inferring statistical
complexity, Phys. Rev. Lett, 63, 105, 1989; vedi la discussione su FT.Arecchi e
A.Farini, Lexicon of Complexity, Studio Editoriale Fiorentino1996); tuttavia
essa caratterizza l’informazione necessaria a predire lo stato futuro del sistema
(o il simbolo successivo in una sequenza simbolica) ma non si interroga sul loro
significato in un mondo complesso: era la critica fatta al par.0.2.
La complessità biologica deve rispondere su forma, o su funzione, o sulla
sequenza che li genera.
Altre complessità di sequenze come la effective measure complexity di
P.Grassberger (Int. J. Theor. Phys. 25, 907, 1986) giostrano fra correlazioni a
corto e lungo raggio in modo da dare la predizione ottimale del simbolo
successivo della sequenza. Ma noi sappiamo che la sequenza che codifica una
proteina non ha alcuna relazione con la funzione, e pertanto le correlazioni fra
simboli della sequenza non hanno rilevanza biologica. Invece, dobbiamo
cercare correlazioni di questi simboli con aspetti dell’ambiente entro cui la
sequenza è funzionale; cioè la complessità si riferisce all’informazione
immagazzinata nella sequenza su un particolare ambiente.
Come si misura
L’entropia di una popolazione X di sequenze, ciascuna con probabilità pi, è:
H ( X ) = −∑ pi log p i
i
(somma sui differenti genotipi i nell’insieme X). Se non c’è selezione, tutte le
sequenze sono equiprobabili:
N
1
1
Hmax( X ) = −∑ log = logN
N
1 N
In una popolazione infinita, il numero dei genotipi è dato dalla grandezza
dell’alfabeto dei monomeri (D=2 per bits, D=4 per DNA) elevato alla
lunghezza L della sequenza, per cui l’entropia incondizionata, preso il log in
base D, è L:
N = D L ⇒⇒ H max = L
Se c’è selezione, le pi sono disuniformi.
184
F. T. Arecchi, Caos e Complessità nel Vivente
Chiamando E (environment) l’ambiente esterno, I(X:E) l’informazione che X
ha di E, e H(X|E) l’entropia condizionata di X dato E (da calcolare con le
probabilità condizionate:
n (E)
pi = i
N
si ha:
I ( X : E ) = H max − H ( X E ) = L + ∑ pi log pi
L’errore nelle pi, definite come abbondanze, è trascurabile solo per
popolazioni infinte. Rimpiazziamo sommando le entropie per sito, definite con
le probabilità di trovare il nucleotide i in posizione k.
H (k ) = −
∑ p (k ) log p (k )
i
i = A,T ,G ,C
i
L’entropia è bene approssimata dalla somma sui siti:
L
H ( X ) ≈ ∑ H (k )
k =1
Segue che la complessità biologica, ben differente dalla complessità
algoritmica, è:
I ( X : E ) ≈ C1 ( X ) = L − ∑ H (k )
k
Si noti che C1 esclude le correlazioni fra siti, che invece si manifestano sotto
forma di epistasi, cioè di interazioni fra mutazioni diverse(si possono escludere
o rinforzare a vicenda).
La selezione naturale aumenta la complessità
Si dice che l’evoluzione darwiniana aumenta la fitness di una popolazione,
ma questo è un dato difficile da misurare; sembra più proprio dire che
l’evoluzione aumenta l’informazione che una popolazione ha sulla sua nicchia,
cioè C1. La formula precedente dice che l’informazione si rivela, in un insieme
di sequenze adattate, come quei simboli che sono conservati (fissati) sotto
mutazioni. Supponiamo che una mutazione vantaggiosa abbia luogo: se il
vantaggio che essa induce è sufficiente a fissare la mutazione, C1 ne è
accresciuta; invece una mutazione deleteria non viene conservata.
Dunque la selezione naturale opera come un filtro che fa fluire
l’informazione dentro il genoma, ma impedisce che ne scappi.
Capitolo 8: La complessità biologica
185
Siccome l’evoluzione è lenta, verifichiamo queste idee su casi di vita
artificiale. Gli organismi digitali sono programmi di calcolo che si riproducono,
mutano e competono per le risorse. Essi sono definiti da sequenze di istruzioni
che ne rappresentano il menoma. Non sono simulati ma vivono nel computer:
devono copiare il menoma per sopravvivere nella memoria e competono per
spazio e tempo di calcolatore con gli altri programmi. il premio, che consiste in
extra-tempo di esecuzione va ai fenotipi, dunque la selezione opera su questi.
Lo spazio genetico (cioè lo spazio dei programmi) è alto-dimensionale e
perciò un gran numero di genotipi si mappano su un particolare fenotipo,
rendendo la ricerca di un ottimo globale impraticabile: è come vagare in un
paesaggio dell’energia con moltissimi minimi e cadere di solito in un minimo
relativo senza raggiungere il minimo assoluto.
Per sopravvivere nel loro mondo, gli organismi digitali devono riprodursi
velocemente e usare bene le risorse disponibili, cioè il tempo di CPU (Central
Processing Unit). Senza tempo di CPU non sopravvivono, perché non possono
fare copie di se stessi.
Vediamo come evolve la fitness (fig.8.7a, da C.Adami, What is complexity?
BioEssays, 24, 1084, 2002): i salti corrispondono a mutazioni che hanno (per
usare il gergo delle transizioni di fase) spostato il sistema in un’altra regione di
parametri di controllo, causando pertanto biforcazioni, che su questa scala di
tempi si presentano come salti; si noti in particolare quello al tempo 70.000, a
cui una mutazione ha creato un genotipo molto superiore agli altri.
All’aumento di fitness è associato un aumento di informazione e pertanto di
complessità. La fig.8.7b presenta una complessità crescente nel tempo, a parte
la caduta iniziale e nei periodi immediatamente successivi ad ogni transizione
(salto in fig.8.7a); la prima è dovuta al fatto che le istruzioni introdotte come
condizione iniziale non hanno ancora avuto tempo di sentire le mutazioni; circa
il picco e successiva caduta che accompagna ogni transizione, ciò è dovutola
fatto che ogni mutazione si trascina delle istruzioni neutrali (prive di benefici)
che subito dopo sono randomizzate.
In conclusione le mutazioni permettono di esplorare lo spazio delle fitness,
con un metodo analogo al cosiddetto metodo Montecarlo in meccanica statistica
delle situazioni computazionalmente complesse. Questa sequenza di mutazioni
e successivi aggiustamenti dà all’evoluzione un carattere di opportunismo,
senza schemi tracciati a priori, che F.Jacob ha chiamato”tinkering”, o
“bricolage” (non conosco una parola italiana altrettanto espressiva).
186
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 8.7: a) Velocità di replicazione (fitness)del più abbondante genotipo su una popolazione
di 3.600 organismi digitali. Il tempo è misurato in “updates”, dove un update è il tempo
di esecuzione di 30 istruzioni per ciascuno dei 3.600 programmi nella popolazione.
b) Complessità in funzione del tempo per una popolazione che si adatta a un ambiente; a
parte la caduta iniziale legata alle condizioni iniziali, la complessità cresce nel tempo,
salvi gli intorni delle transizioni (si veda l’esempio tratteggiato).
8.4 Motori molecolari, metabolismo
L’ineluttabilità del secondo principio della termodinamica fu illustrata agli
inizi del 1900 da Smoluchowsky con riferimento al dispositivo illustrato in
fig.8.8. Se T1>T2 si ha un legittimo motore termico. Ma se le temperature sono
uguali, nasce la domanda: si può ritenere che essendo bloccati i moti in una
direzione, saranno efficaci solo quelli nell’altra, per cui – pur essendo gli urti
molecolari nelle due direzioni equiprobabili – solo un tipo sarà efficace e si ha
lavoro netto, violando il secondo principio? No, perché la molla
dell’arpionismo ha fluttuazioni dell’ordine di kBT, per cui occasionalmente si
può sganciare anche quando dovrebbe chiudere, e per T1=T2 queste fluttuazioni
compensano esattamente gli urti sulle pale del mulino.
Figura 8.8: Il sistema ruota dentata-arpionismo (ratchet and pawl). Le parti in movimento sono
immaginate così piccole da sentire i bombardamenti casuali delle molecole d’aria. La
Capitolo 8: La complessità biologica
187
ruota dentata è connessa da un albero a un mulino; essa ruota in una sola direzione,
perché ne blocca il moto nella direzione opposta. Le pale del mulino sono bombardate in
modo casuale e trascinano la ruota dentata. Una puleggia sull’albero permette lavoro di
sollevamento su un peso.
Dunque non si può violare il secondo principio della termodinamica, cioè non
si può fare lavoro in ambiente isotermo.
Se però abbiamo una fonte di energia che accende e spegne un potenziale
spazialmente asimmetrico come in fig.8.9 si ha un moto di molecole verso
destra, giustificato dalle considerazioni sul moto browniano e sulla diffusione
che abbiamo sviluppato precedentemente.
Su questo principio è basato il trasporto “attivo”, cioè il passaggio di ioni
Na+, K+, Ca2+ attraverso membrane cellulari contro un gradiente sfavorevole,
cioè alla rovescia di come avviene la diffusione descritta a par.6.2 (lavoro
chimico).
Su questo principio è anche impostato il motore molecolare che nel muscolo
fa scorrere la miosina sulla actina, causando così la contrazione muscolare
(lavoro fisico). In ambo i casi l’energia per l’alternarsi dei potenziali è fornita
dalla reazione esoenergetica:
ATP ⇒ ADP + P
che libera circa 0,3 eV.
Figura 8.9: Meccanismo del motore browniano I potenziali ON (a dente di sega asimmetrico) e
OFF (piatto) si alternano nel tempo. Nella fase ON le molecole sono addensate su un
minimo. Nella fase OFF diffondono. Nella successiva fase ON i pacchetti si concentrano
sui minimi, ma per l’asimmetria si ha una deriva netta verso destra.
Tutte le transazioni energetiche nei viventi sono rifornite da ATP, come
mostrato in fig.8.10. La fig.8.11 mostra come sulla membrana dei mitocondri si
188
F. T. Arecchi, Caos e Complessità nel Vivente
ripristina l’ATP a partire da ADP, con un motore molecolare rotatorio attivato
da un flusso di protoni, cioè ioni H+.
Figura 8.10: Come i combustibili metabolici (carboidrati, grassi) forniscono l’energia per
attivare ATP da ADP sulla membrana dei mitocondri. L’ATP sviluppa poi in dettaglio il
fabbisogno per il lavoro fisico e chimico: 70 kg/giorno vuol dire circa 1g/sec; cioè il 10%
di tutto l’ATP è sempre impegnato.
Figura 8.11: Motore molecolare rotatorio dell’enzima che catalizza la formazione o l’idrolisi di
ATP. L’enzima, detto ATP-asi, è intercalato nella membrana dei mitocondri ed è
costituito da un gruppo di molecole F0 che fa da rotore sul principio del motore lineare di
fig.6.9, ruotando in un senso (sintesi) o nell’altro (idrolisi) a seconda che ci sia un flusso
di protoni (ioni H+) verso l’interno o verso l’esterno del mitocondrio. Il complesso di
gruppi molecolari detto F1 ospita i siti dove avvengono le reazioni.
Capitolo 8: La complessità biologica
189
Abbiamo visto che un motore molecolare può risalire una collina di
potenziale: in effetti, in fig.8.9 continuiamo ad avere un moto netto verso destra
anche se lo stato OFF, invece di essere orizzontale, è leggermente in salita
verso destra. È questa la base del trasporto attivo, che ritroveremo nel cap.9
come responsabile dei potenziali di azione nei neuroni. Su questo stesso
principio dell’arpionismo browniano sono basati i giochi di Parrondo (fig.8.12).
Il gioco A corrisponde a lanciare una moneta truccata, in cui le probabilità delle
due facce non sono uguali. Il gioco B è più complesso: se il capitale X(t)
accumulato fino al tempo t è divisibile per 3 allora si sceglie la variante di
destra, che (per ε piccoli) dà un’alta probabilità di perdita; se non lo è, si
sceglie la variante di sinistra, dove prevale la probabilità di vincita. La
simulazione di fig.8.13 mostra che, giocando separatamente A o B per un
piccolo ε , si perde sempre. Invece alternando i due giochi, o con le regole
indicate o a caso, si vince.
I due giochi emulano i due potenziali dell’arpionismo browniano. Che
accadrebbe se introducessimo più di due giochi? Osservando la fig.8.13,
vediamo che aumentando a o b in [a,b], il guadagno si riduce; un rapido
scambio produce più guadagno. Perciò introducendo più giochi [a, b, c,…]
rallenta la frequenza di scambio e riduce il guadagno.
Questo spiega anche:
i) perché la riproduzione sessuale a due partners è più adatta di quella
asessuata;
ii) perché non c’è convenienza ad andare oltre due partners.
Figura 8.12: Costruzione dei giochi di Parrondo. I giochi si formano con tre monete truccate,
scambiandone i lanci a seconda del capitale presente.
190
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 8.13: L’effetto di giocare A e B individualmente e di scambiare invece fra A e B con la
regola di Parrondo. La simulazione è stata fatta con ε =0,005 giocando A per a volte e B
per b volte, e così via fino a 100 giochi. Media su 50 mila prove. I valori di a e b sono
mostrati nelle coppie [a,b]. Mentre il capitale medio <X(t)> decresce per solo A o solo B,
esso cresce per qualunque coppia [a,b] anche per alternanze a caso (random).
8.5 Dall’individuo al collettivo: le forme regolari.
Per passare da un individuo a un collettivo, elaboriamo alcune strategie.
i) ordine
tutti gli oggetti si comportano allo stesso modo( x n = x1 ) o con uno scarto
prevedibile ( x 2 = x1 + a,...ecc ).
ii) ordine dinamico
lo scarto fra un oggetto e il successivo dipende dal tempo a (t ) ed è la
soluzione di un’eq. differenziale ordinaria x& = f (x) .
iii) pattern =forma
se gli oggetti x n sono in posizioni spaziali distinte n, possono interagire
mutuamente: allora non c’è solo la dinamica locale x& n = f ( x n ) ma anche
termini di accoppiamento con siti vicini.
Ad es. la derivata seconda dell’eq. di diffusione si può approssimare come
differenze fra posizioni contigue e una dinamica locale più accoppiamenti con
vicini dà:
x& n = f ( x n ) + D( x n +1 + x n −1 − 2 x n )
dove il suffisso è un indice di sito.
Capitolo 8: La complessità biologica
191
Passando a uno spazio continuo r, chiamiamo campo x(r,t) una funzione del
sito e del tempo. La versione continua della precedente eq. è:
∂x
∂2
= f ( x) + D 2 x
∂t
∂r
e si chiama eq. di reazione-diffusione, perché combina una dinamica locale (che
può essere una reazione chimica) con una diffusione spaziale; il campo x(r, t)
(ad es. una concentrazione chimica) è generato localmente da f(x) ma può
provenire anche da siti vicini. L’eq. è la base della morfogenesi.
L’ampiezza E di un’onda (acustica, elettromagnetica, ecc) obbedisce a:
2
∂2E
2 ∂ E
=
c
..
∂t 2
∂r 2
dove c è la velocità dell’onda. Perché E sia un’onda, si vede con una
~
trasformata di Fourier spaziale E (r , t ) ⇒ E (k , t ) per cui:
∂2E
~
⇒ −k 2 E .
2
∂r
~
Ne segue che l’eq. per E è ordinaria
~
d 2E
~
2~
= −c 2 k 2 E ≡ −ω 0 E
2
dt
La cui risolvente, come sappiamo, è
~
E = A(k ) cos ω 0 t + B(k ) sin ω 0 t
cioè oscillazioni sinusoidali nel tempo. Se viceversa trasformiamo nel tempo
(
E (r , t ) ⇒ E (r , ω ) , si ottiene operando la trasformata sulla derivata temporale
(
d 2E
ω2 (
2 (
=
−
E
≡
−
k
0 E
dr2
c2
che dà soluzioni cicliche nello spazio. Combinando i due risultati, abbiamo
un’onda nello spazio-tempo.
iv) campo medio
L’approssimazione di campo medio consiste nel sostituire l’effetto di tutti i
vicini a un sito con un campo efficace che è la media su tutto il sistema.
Allora tutti gli individui si comportano allo stresso modo e basta descrivere
192
F. T. Arecchi, Caos e Complessità nel Vivente
la dinamica di un singolo. Abbiamo applicato questa approssimazione nel
modello di Landau, nel laser e nell’eq. cinetica del modello di vita. Si torna
al caso ii).
8.6 Le reti
Abbiamo visto due modi di costruire un collettivo a partire da individui:
- considerando oggetti che si comportano tutti allo stesso modo (singola
equazione ordinaria),
- oppure ammettendo un modo regolare di accoppiare siti vicini (per es.
diffusione o onde).
Non abbiamo ancora una strategia per descrivere accoppiamenti fra un
numero variabile di siti: tale è la situazione di Internet, della rete di
distribuzione elettrica, delle connessioni di una compagnia aerea, ma tale è
anche lo scambio fra sostanze chimiche in una cellula o fra neuroni nel cervello.
rete
cellula
internet
reti sociali
WWW
compagnia aerea
cervello
Nodi
molecole
computers
esseri umani
pagine Web
aeroporti
neuroni
connessioni
reazioni chimiche
telefonia
Relazioni sociali
hyperlinks
tratte
connessioni sinaptiche
Parametri delle reti
1) L = distanza media fra due nodi.
Cioè numero di siti da visitare nella traiettoria più corta (introdotto dal
sociologo S.Milgram nel 1967, per caratterizzare quanti passaggi separano
due individui nell’ambito di un certo compito, per es. la catena di persona
che mi porta a qualcuno che conosce direttamente il presidente degli USA;
L=6, numero alquanto piccolo fece nascere la dizione di SW=Small World).
Se colleghiamo a caso dei siti, abbiamo i random graphs o ER (da P.Erdos e
A. Renyi che li introdussero attorno al 1950): essi sono SW, perché:
L ≈ log N << N
Dove N è il numero di nodi.
Invece per grafi regolari è:
L≈N
Capitolo 8: La complessità biologica
193
2) Connettività k e C (clustering = frazione dei tripletti transitivi).
Sia i collegato ad altri 4 nodi (diremo connettività ki=4 ) se tutti fanno parte
della stessa combriccola, cioè sono mutuamente collegati, allora il numero
totale di collegamenti è:
k (k − 1)
ni = i i
2
Se ni < ni definiamo clustering la frazione
C=
ni
2 ni
=
ni k i (k i − 1)
In un grafo random, C coincide con la probabilità p di collegamento, e in
genere sarà: C ER = p << 1 .
C >> C ER
In reti reali sarà:
Figura 8.14: Schema dei nodi e connessioni in WWW e Internet. In WWW i nodi sono
documenti web, connessi da hyperlinks direzionali (URL). In Internet i nodi sono i
routers e i computers, connessi fisicamente da fili e cavi.
Le figure da 8.14 a 8.18 danno esempi concreti, con la relativa nomenclatura
nelle didascalie.
194
F. T. Arecchi, Caos e Complessità nel Vivente
Si tratta di materia di studio recente e non ancora sistemata. Si insiste molto
sulla topologia, ma si assumono le connessioni al 100%; mi spiego: nel caso
delle connessioni fra neuroni, eventuali modifiche di topologia hanno luogo ai
tempi lunghi necessari per distruggere ponti sinaptici o costruirne altri
(settimane o mesi). Invece sulla scala dei secondi o minuti, passando da
un’esperienza a un’altra, si ha un diverso riconnettersi, legato al fatto che una
connessione fisicamente esistente non è detto sia attivata in transitorio.
Figura 8.15: Schema di un grafo bipartito, come quello dei film e degli attori apparsi in essi.
Abbiamo quattro film 1-4 e undici attori A-K con connessioni fra ogni attore e i film a
cui ha partecipato. In basso: il grafo per gli undici attori.
Figura 8.16: La procedura di ri-connessione random del modello di Watts-Strogatz (1998), che
interpola fra un reticolo regolare ad anello e una rete random senza alterare il numero di
nodi o connessioni. Partiamo da 20 nodi, ciascuno connesso ai suoi 4 vicini prossimi. Per
p=0 si ha l’anello originale, per p crescente la rete aumenta il disordine finché a p=1 tutte
le connessioni sono random.
Capitolo 8: La complessità biologica
195
La fig.8.17 mostra il vantaggio delle reti SW (tipo small world) intermedie
fra regolari e random: si ha una piccola separazione, come nelle random, ma si
mantiene un grande clustering, come nelle regolari.
Figura 8.17: Il regime intermedio fra p=0 (regolari) e p=1 (random) caratteristico degli SW
gode di ambo i vantaggi (basso L e alto C ) che nei due estremi appaiono separati.
Figura 8.18: Collocazione di reti complesse nello spazio delle tre caratteristiche rilevanti:
Randomness–Modularità–Eterogeneità. La prima misura la casualità nel processo di
costruzione della rete. La seconda misura quanto l’architettura sia fatta di moduli che si
ripetono. La terza misura la diversità nella distribuzione delle connessioni. La regione
delle reti altamente eterogenee, random e strutturate gerarchicamente in moduli è le più
occupata. A questa regione appartengono le reti prive di scala o scale-free (SF).
196
F. T. Arecchi, Caos e Complessità nel Vivente
Distribuzione dei gradi
Detto grado di un nodo la sua connettività k, non tutti i nodi hanno lo stesso
k. La densità di probabilità P(k) può corrispondere a una scala definita k , come
nei grafi random che hanno:
P(k ) ≈ e
−k
k
Oppure può essere a legge di potenza, cioè senza una scala definita (SF)
come per WWW e per reti metaboliche:
P ( k ) ≈ k −γ
(con γ ≅ 3 )
Dal punto di vista della robustezza, una rete SF è molto robusta, perché la
probabilità più alta si riferisce a nodi a basso k che pertanto sono i più numerosi
e dove è più plausibile che si localizzi un guasto accidentale; invece un guasto
mirato (attacco terroristico) si localizza su uno dei pochi nodi ad alto k (tipo
hub nella rete aeroportuale) e perciò provoca un danno consistente.
Il pregio della robustezza spiega perché le reti metaboliche ed ecologiche
(vedi fig.8.18) siano SF.
8.7 Bibliografia
• C.Adami, Introduction to Artificial Life, Springer Verlag, 1998.
• C.Adami, What is complexity? BioEssays, 24, 1084, (2002).
• P.W.Anderson: More is different, Science 177, pp.393-399, (1972).
• FT.Arecchi e I.Arecchi I simboli e la realtà, Jaca Book, Milano, 1990.
• FT.Arecchi e A.Farini “Lexicon of Complexity” (Società Editrice Fiorentina,
Firenze, 1997).
• R.D.Astumian Thermodynamics and Kinetics of a Brownian Motor, Science
276, 917, (1997).
• R.D.Astumian e P.Hanggi, Brownian Motors, Physics Today, Novembre
2002.
• A.L.Barabasi, Linked; The New Science of Networks, Perseus, Cambridge,
MA, 2002.
• S.J.Gould, Full House: the spread of excellence from Plato to Darwin,
Harmony Books, New York, 1996).
9 Processi percettivi: sincronizzazione di reti e aspetti
quantistici
9.1 Fisica delle percezioni
9.1.1 Fisica chimica dei primi stadi della visione
Una sorgente (il sole, una lampada) invia i suoi raggi ad un oggetto, su cui
vogliamo acquisire informazione. I raggi modificati (trasmessi o riflessi)
dall’oggetto sono raccolti dall’occhio e elaborati dal cervello, che di
conseguenza prende delle decisioni. Fra le decisioni, alcune possono riguardare
lo stesso sistema di misura, cioè possono implicare un riaggiustamento per
migliorare i dettagli (feedback), talvolta anche mediante l’inserzione di lenti nel
cammino sorgente-oggetto (ad esempio il proiettore di diapositive), oppure nel
cammino oggetto-occhio (occhiali, microscopi, telescopi).
Ricordiamo dal cap.2 che tutti i colori visibili corrispondono a fotoni tra 2 eV
(rosso) e 4 eV (violetto). La cosa importante è che uno, e un solo fotone per
volta può “dialogare” con un atomo o una molecola: questo è quel che
chiamiamo “interazione radiazione-materia” e che ha luogo nella sorgente
(emissione di fotoni), nell’oggetto (sparpagliamento di fotoni) e nell’occhio
(assorbimento di fotoni).
Vediamo cosa succede nell’occhio. La cornea e il cristallino trasmettono
un’immagine del mondo esterno sullo strato di cellule fotoricettrici disposte
sulla superficie posteriore della retina. Ciascuna cellula assorbe la luce da un
punto dell’immagine e genera un segnale elettrico corrispondente alla quantità
di luce che viene assorbita.
Negli occhi dei vertebrati ci sono due tipi di cellule ricettrici, bastoncelli e
coni. Entrambi contengono una membrana fotosensibile con molecole di
pigmento che assorbe la luce. Nella retina umana ci sono tre tipi di coni
sensibili a diversi tipi di colore. I bastoncelli (in inglese rods) hanno un
pigmento rossastro detto rodopsina. La membrana fotosensibile dei bastoncelli
consiste di una pila di dischi che somigliano a delle monete sovrapposte. Una
sostanza che diffonde trasporta l’informazione dai dischi, dove la luce è
assorbita, alla membrana superficiale, dove si genera il segnale elettrico. Il
trasportatore si chiama in gergo cGMP (guanosin-monofosfato ciclico).
Vediamo come si genera il segnale elettrico. Fuori dalla cellula la
concentrazione di Na+ è alta e quella di K+ è bassa, mentre all’interno è il
contrario. Le differenze di concentrazione sono mantenute da una pompa
198
F. T. Arecchi, Caos e Complessità nel Vivente
metabolica. Al buio il flusso di cariche causa una differenza di potenziale di -40
mV. Quando un bastoncello assorbe un fotone si blocca il flusso di sodio. Ciò
riduce la corrente di buio e aumenta la polarizzazione negativa a -70 mV;
l’impulso di -30 mV ha una durata di meno di un millisecondo e, visto su una
scala temporale lunga appare come un picco. Si noti che nei fotoricettori dei
vertebrati le cellule si iperpolarizzano, mentre le membrane delle normali
cellule nervose si depolarizzano. È questo un esempio cospicuo di trasporto
attivo, introdotto a par.6.5.
Come fa l’assorbimento di luce a bloccare gli ioni sodio? Sembra che il
cGMP faccia da “portiere” all’imbocco dei canali ionici. L’apertura di un
singolo poro richiede la presenza cooperativa di tre molecole di cGMP: siamo
in presenza di un interruttore molecolare che rivela cambiamenti piccolissimi
nella concentrazione di cGMP. La catena di eventi molecolari che ne blocca
l’azione è stata studiata da G.Wald. La rodopsina ha un pigmento con una
componente che assorbe la luce, il cis-retinale. Quando il retinale nella
rodopsina assorbe un fotone (fig.9.1) esso cambia configurazione da cis a trans;
la molecola diventa enzimaticamente attiva, e questa attività permette di
spostare il cGMP dall’ingresso dei canali ionici. Un solo fotone sposta centinaia
di cGMP e ciò blocca l’entrata di un milione di ioni sodio. In corrispondenza a
pochi fotoni al secondo abbiamo una corrente che supera il milione di ioni
sodio al secondo: siamo in presenza di un fotomoltiplicatore chimico.
Figura 9.1: Schema del processo di assorbimento di un fotone. La molecola, nello stato
fondamentale A (cis) salta allo stato eccitato per assorbimento di un fotone della banda
Vis. (zona del visibile accessibile a quella molecola) e da qui decade sullo stato B (trans).
L’energia disponibile nel ritorno da B ad A è utilizzata per il controllo dei canali ionici.
Se il fotone é IR (infrarosso) la sua energia non è sufficiente per raggiungere lo stato
eccitato. Se il fotone fosse UV (ultravioletto), sarebbe in grado di portare la molecola al
livello C, per cui la coordinata orizzontale (separazione tra le parti della molecola) può
diventare estremamente grande (dissociazione).
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
199
Cerchiamo di descrivere l’interazione tra le cellule fotoricettrici e i fotoni
rifacendoci alle considerazioni del par.1.4. Normalmente la molecola è a riposo
in A; quando arriva un fotone visibile, (in figura abbiamo indicato la banda di
fotoni visibili fra 1.4 e 1.8 eV) acquista l’energia pari alla freccia, cioè salta
nello stato di energia superiore (quello rappresentato da una linea inclinata) da
cui può poi passare nella buca B, non direttamente accessibile da A. Da B,
attraverso una catena di processi ritorna in A e la differenza di energia è
restituita sotto forma di segnale elettrico che viaggia nel nervo ottico. Abbiamo
cioè visto un fotone!
Se però il fotone è IR, è troppo piccolo per permettere il passaggio A-B e non
registriamo niente. Se invece illuminiamo la retina con un fotone UV, questo è
così grosso che la molecola si può dissociare. Per fortuna le parti esterne
dell’occhio assorbono i fotoni UV e impediscono che la retina sia distrutta.
9.1.2 Gli stadi del processo visivo
Il processo visivo inizia dunque con la trasformazione dei fotoni in segnali
elettrici che viaggiano fino a sensibilizzare la corteccia visiva. Questi vengono
trasmessi attraverso un complesso sistema di giunzioni nervose, in cui segnali
provenienti da diversi fotoricettori sono sommati e confrontati. Ciò permette di
ottenere informazioni sulla forma, il movimento e il colore del mondo
circostante. Cerchiamo di vedere in maggior dettaglio come ciò avvenga.
La retina è composta da 125 milioni di fotoricettori. Le loro fibre nervose, o
assoni, si suddividono in un certo numero di rami che portano a un secondo
stadio di cellule nervose. Queste a loro volta sono connesse con un terzo stadio
di cellule chiamate cellule gangliari. Gli assoni di queste cellule gangliari si
riuniscono a formare il nervo ottico.
Da ciascun occhio esce circa un milione di fibre del nervo ottico. Alcune
fibre restano nello stesso lato del cervello dell’occhio da cui escono, mentre
altre vanno al lato opposto. Tutte queste fibre terminano su due gruppi di
cellule, i corpi genicolati laterali, che rappresentano come delle stazioni
intermedie tra la partenza (retina) e l’arrivo (corteccia visiva primaria) fig.9.2.
Da qui, dopo essere passata da uno strato all’altro attraverso diversi insiemi di
cellule connesse sinapticamente, l’informazione è inviata a una serie di aree
visive superiori, situate nelle vicinanze; ognuna di queste distribuisce
l’informazione su molte altre aree.
200
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 9.2: Percorso del segnale visivo dalla retina alle aree corticali più alte. A ciascuno stadio
una cellula riceve un segnale di ingresso da molte cellule, e a sua volta invia il proprio
segnale a molte cellule. Sono mostrati pochi neuroni, mentre il processo reale coinvolge
milioni di neuroni.
Senza scendere in eccessivi dettagli possiamo dire che l’assone di ogni
cellula è come una linea di trasmissione su cui l’informazione si propaga sotto
forma di impulsi elettrici. Al “bottone” di connessione fra una cellula e l’altra
(sinapsi) l’informazione è veicolata da neurotrasmettitori. Ogni cellula si
comporta come un circuito a soglia, che si “accende” quando la somma
algebrica dei segnali di ingresso (indicando con + i segnali eccitatori e con – i
segnali inibitori) supera un certo valore.
Per comprendere meglio il passaggio di tali segnali, immaginiamo di avere
un animale di fronte a uno schermo e di posizionare un microelettrodo vicino o
all’interno di una fibra del nervo ottico. Variando i segnali luminosi sullo
schermo e osservando la risposta del microelettrodo possiamo capire quale
segnale debba arrivare sulla retina per influenzare la fibra selezionata. Ciò che
si osserva è che l’area della retina che influenza una fibra del nervo ottico ha
tipicamente dimensioni pari a circa un millimetro di diametro. Questa regione è
chiamata “campo ricettivo” della cellula.
Il campo ricettivo di una singola cellula gangliare ha, sulla retina, una
dimensione di circa 1 mm di diametro, in modo da sottendere un arco di 3,5
gradi, che corrisponde ad un oggetto di circa 1 cm di diametro alla distanza di 2
metri.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
201
Figura 9.3: Risposte di cellule del corpo genicolato aventi il campo ricettivo di tipo centroperiferia. Nel diagramma temporale ciascuna linea verticale rappresenta un singolo
impulso registrato nella cellula. In assenza di stimoli luminosi o con luce che copre
l’intero campo ricettivo, la cellula scarica casualmente. Con una piccola macchia
luminosa al centro, la cellula scarica rapidamente. Invece un anello di luce sulla periferia
inibisce la cellula. Il grafico a destra mostra la risposta di una cellula, di tipo centro-on, in
funzione della dimensione della macchia. La risposta massima si ottiene quando la
macchia luminosa (1 grado) copre solo la zona centrale on. Quando la macchia invade la
zona inibitoria, il numero di impulsi diminuisce.
Se confiniamo la luce in modo che raggiunga solo una zona centrale molto
piccola del campo ricettivo, possiamo forzare le cellule gangliari a produrre
fino a 50 impulsi durante il primo decimo di secondo della stimolazione
(fig.9.3, 4° riga). In seguito la scarica si stabilizza con un ritmo di 100 impulsi
al secondo. Se invece illuminiamo l’intero campo ricettivo la cellula risponderà
con molto meno impulsi (2°riga). Infatti la cellula fa un confronto tra la luce
che colpisce la piccola zona centrale del campo ricettivo e quella che colpisce il
bordo esterno. L’illuminazione della zona centrale può ad esempio eccitare la
cellula, mentre quella del bordo può inibirla. Queste cellule gangliari vengono
dette avere una zona centrale “on” e una periferia “off”. Esistono anche cellule
gangliari con una zona centrale inibitoria e una periferia eccitatoria. Le prime
forniscono una risposta massima in caso di stimolo luminoso su sfondo scuro,
mentre le seconde reagiscono a macchie scure su uno sfondo luminoso.
Anche le cellule del corpo genicolato laterale hanno un comportamento che
può essere descritto in maniera simile. Considerando le cellule della corteccia
visiva primaria, incontriamo diversi stadi nell’elaborazione dell’informazione.
202
F. T. Arecchi, Caos e Complessità nel Vivente
Le cellule del primo stadio hanno un comportamento “centro-periferia”
simile alle cellule genicolate. Anche nel secondo stadio vi sono cellule con una
zona inibitoria e una eccitatoria, ma le geometrie di questi campi ricettivi sono
diverse da quelle prima considerate. Tali campi sono realizzati per vedere una
linea luminosa su sfondo scuro, una linea scura su sfondo luminoso, o un
confine tra zona chiara e scura. Quello che abbiamo presentato è solo un
esempio. Per ulteriori processi elementari di rivelazione, si rimanda al libro di
D.H.Hubel, che insieme con T.Wiesel ha avuto un ruolo pionieristico
nell’esplorazione di questi processi.
9.1.3 Cellule magno e parvo
Abbiamo finora considerato cellule che forniscono informazioni relative al
contrasto o alle differenze di luminosità e che quindi servono per la percezione
delle forme. In realtà chiunque si trovasse a dover descrivere il fenomeno della
visione non parlerebbe solo di forme, ma anche di colore, movimento,
profondità. È da notare che effettivamente il cervello divide il compito visivo in
maniera simile.
Il corpo genicolato laterale può essere visto come diviso in due parti: per la
diversa dimensione delle loro cellule, queste due parti vengono denominate
“magno” e “parvo”. Questi due tipi di cellule ricevono il segnale di ingresso da
due differenti tipi di cellule nella retina. La parte “magno” riceve il segnale da
grandi cellule retiniche, mentre la parte “parvo” da cellule retiniche piccole.
Anche negli ultimi stadi della corteccia le due parti mantengono la loro
separazione e sembrano avere funzioni differenti. Mentre le cellule “magno”
ricevono il segnale di ingresso in parallelo da tutti e tre i tipi di coni e non
riconoscono quindi i colori, le cellule “parvo” sono estremamente sensibili al
colore. Il loro centro infatti riceve un segnale da uno dei coni responsabili della
visione del colore, mentre il bordo è attivato da un altro cono. Le cellule
“magno” in compenso sono assai più sensibili ai cambiamenti di intensità
luminosa.
9.1.4 Le cellule Blob
I due rami del cammino visivo, legati alle cellule “parvo” e “magno”,
mantengono dunque la loro separazione nella corteccia. Alla fine degli anni ‘70
si cominciò a sospettare che, almeno a livello corticale, esistesse un terzo ramo
del percorso visivo. Infatti, usando tecniche di colorazione, si identificarono
negli strati più esterni della corteccia disomogeneità, con aree periodiche di
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
203
colore più scuro, a forma di nuvolette di fumo a sezione trasversale, larghe un
quarto di millimetro e distanziate di mezzo millimetro. Hubel chiamò queste
disomogeneità “blob”.
Le cellule blob sono cellule sensibili al colore con un centro e una periferia,
ma funzionano in maniera assai più complessa rispetto alle cellule del
genicolato. La zona centrale può ricevere il segnale di ingresso da due dei coni,
ma in maniera opposta. Ad esempio, illuminare i coni rossi permette di eccitare
la zona centrale, mentre illuminare i coni verdi la inibisce. Stimolando il centro
della cellula, essa può eccitarsi o inibirsi a seconda della luce che riceve, sia
essa rossa o verde. In luce bianca la cellula non risponde in alcun modo, visto
che riceve contemporaneamente due segnali opposti, dato che la luce bianca
contiene sia la parte verde che quella rossa dello spettro.
9.2 Feature binding e codice temporale
9.2.1 Il Feature Binding (integrazione neuronale)
L’integrazione neuronale consiste nell’instaurarsi di un legame fra neuroni
anche distanti i cui campi ricettivi hanno estratto dettagli diversi della stessa
figura. Tale legame (feature binding) rappresenta uno stato collettivo
caratterizzato da tutti quei neuroni, anche distanti, i cui treni di impulsi si
sincronizzino. Studi psicofisici hanno mostrato che l’analisi di scene visuali
implica almeno due fasi. Nella prima, le strutture elementari degli oggetti, il
colore, il movimento e l’orientazione dei contorni, sono rivelate in maniera
locale e parallela. Successivamente, questi componenti sono connessi in unità
organizzate per fornire la base di una rappresentazione coerente degli oggetti.
Come già mostrato dagli studi degli psicologi della Gestalt, questo processo
segue certi criteri che includono per esempio la prossimità o la somiglianza
delle strutture (Köhler).
Ovviamente il problema del legame, come descritto nel campo della
psicofisica, ha il suo corrispettivo ad un livello neurobiologico. Un meccanismo
per l’integrazione è necessario per molte ragioni. Per prima cosa, i neuroni nei
centri visivi hanno campi ricettivi ristretti che, nei primi stadi dell’elaborazione,
sono piccoli rispetto alle dimensioni tipiche degli oggetti. In secondo luogo, il
meccanismo deve agire su distanze considerevoli per permettere il legame tra
differenti aree visive. È oramai comunemente accettato che differenti classi di
strutture di oggetti siano elaborate in distinte aree corticali servendosi di
“mappe di struttura” (Felleman e Van Essen). Nella scimmia sono state
204
F. T. Arecchi, Caos e Complessità nel Vivente
individuate più di trenta aree visive, e nel gatto venti, che differiscono
considerevolmente nella proprietà di risposta dei loro neuroni. Quindi, l’attività
neuronale di diverse aree deve essere integrata per stabilire una
rappresentazione degli oggetti complessi. Inoltre, un meccanismo di legame è
necessario, dal momento che sono spesso presenti nel campo visivo molti
oggetti che attivano neuroni in un grande numero di aree corticali. Allora si
deve poter selezionare la struttura corrispondente a un determinato oggetto,
separando le risposte relative ad esso da quelle dei neuroni attivati da altri
oggetti per evitare un’illusoria identità di strutture.
È stato suggerito che il problema del legame potesse essere risolto da un
meccanismo di integrazione temporale (Von der Malsburg) consistente nella
connessione in insiemi coerenti di neuroni corticali grazie alle sincronizzazione
delle loro scariche. La sincronizzazione tra scariche neuronali potrebbe fornire
un elegante modo di etichettare le risposte come funzionalmente correlate e di
selezionarle per ulteriori meccanismi associati dal momento che la
sincronizzazione può essere facilmente rivelata con la coincidenza di neuroni in
altre aree del cervello (Singer e Gray 1995). L’assenza di sincronizzazione tra
differenti insiemi potrebbe essere utilizzata per isolare lo sfondo e ottenere una
segmentazione delle scene visive (fig.0.5).
Questo meccanismo di legame temporale evita i tranelli di precedenti
modelli. Era stato suggerito (Barlow) che oggetti complessi potessero essere
rappresentati dall’attività di un numero molto piccolo di neuroni o addirittura da
uno solo. Un grave difetto di questa teoria del neurone singolo o “neurone della
nonna” è che ogni nuovo oggetto richiederebbe l’“arruolamento” di nuove
cellule dedicate nella corteccia visiva. Quindi il numero di neuroni richiesto per
un’adeguata rappresentazione di un ambiente visivo realistico crescerebbe oltre
ogni plausibile stima fisiologica. Il legame temporale evita questa limitazione
dal momento che gli stessi neuroni possono essere ricombinati in nuove
strutture rappresentazionali semplicemente cambiando la loro relazione
temporale.
L’assunto principale del modello “feature binding” è che la sincronizzazione
stabilisca legami che non sarebbero possibili se le uniche dimensioni di codifica
fossero la frequenza degli impulsi e i livelli di attivazione.
Infine, l’influsso top-down, dovuto a memorie già presenti che stabiliscono
aspettazioni e che riaggiustano le soglie di scarica dei vari neuroni in modo da
sincronizzarli (tema che riprenderemo parlando di ART), gioca un ruolo
importante per la segmentazione di una scena e l’isolamento dello sfondo, il che
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
205
non accade per modelli più classici della segmentazione visuale come quello
proposto da Marr.
9.2.2 Il feature binding negli altri sistemi funzionali
Fenomeni simili sono riscontrabili in altri sistemi funzionali. La
sincronizzazione, ad esempio, è nota come importante nell’apparato olfattivo,
dove questi fenomeni sono collegati all’integrazione dell’informazione di odori
(Freeman). Nella corteccia uditiva, oscillazioni sincronizzate sono state
descritte da molti gruppi di ricerca. Negli uomini questi fenomeni sono stati
osservati grazie a tecniche di EEG e MEG (elettro e magneto encefalogramma)
(Pantev et al.).
Vi sono evidenze sperimentali che suggeriscono che la sincronizzazione
possa giocare un ruolo importante per l’integrazione neurale sensorio-motoria.
Nelle scimmie è stata registrata la sincronizzazione tra le aree corticali sensoria
e motoria. Risultati simili sono stati ottenuti in un recente studio sui gatti svegli
che erano stati allenati per svolgere un compito di coordinazione visuomotoria.
In questi animali i potenziali di campo locale sono stati registrati con elettrodi
impiantati in diverse aree della corteccia visiva, parietale e motoria. Il risultato
di questi studi mostra che la sincronizzazione delle risposte neuronali non
accade solo all’interno del sistema visivo, ma anche tra aree visive e parietali e
tra corteccia parietale e motoria. Inoltre, gli esperimenti dimostrano che la
coerenza temporale tra le aree registrate cambia drammaticamente a seconda
delle situazioni in cui si trova l’animale. Tutti questi fattori suggeriscono che la
sincronizzazione possa essere di grande importanza per la coordinazione
visuomotoria e possa servire per mettere in rapporto gli aspetti sensoriali e
motori del comportamento. La specificità di tali interazioni potrebbe
permettere, per esempio, la canalizzazione selettiva di informazioni sensorie a
differenti programmi motori che vengono eseguiti contemporaneamente.
9.2.3 Feature binding e sincronizzazione: dagli animali all’uomo
Mentre negli animali di laboratorio si inseriscono microelettrodi nella scatola
cranica, in grado di isolare l’attività elettrica del singolo assone e avere gli
impulsi come in fig.0.5, nel caso di soggetti umani si deve ricorrere a sonde
meno traumatiche. Incollando molti elettrodi sullo scalpo (niente di
irreversibile: basta lavarsi dopo!) si può registrare l’attività elettrica sotto forma
di EEG (Elettro-Encefalo-Grammi). La risoluzione temporale è buona (al
millisec), ma spazialmente si raccolgono i potenziali provenienti da regioni
206
F. T. Arecchi, Caos e Complessità nel Vivente
vicine e non necessariamente correlate, sicché il segnale EEG è molto “sporco”
e sembra affetto da rumore.
Tecnica alternativa di visualizzazione dell’attività cerebrale: la f-MRI
(Functional Magnetic Resonance Imaging), che è sensibile al flusso sanguigno
e all’ossigenazione micro-vascolare; il contrasto magnetico è dovuto al ferro
nell’emoglobina. La f-MRI ha una scarsa risoluzione sia spaziale sia temporale;
va bene per localizzare collettivamente aree cerebrali impegnate nello stesso
compito. Lo stesso dicasi per la PET (Positron Emission Tomography), che
misura la concentrazione nei tessuti di radio-isotopi immessi nel sangue.
Entrambi i metodi si basano sul maggior afflusso di sangue in aree impegnate in
un compito.
In fig.9.4 e 9.5 si riportano i risultati di un’indagine EEG in transitorio in
soggetti umani; a partire dal tempo t=0 si mostra un’immagine significativa (un
profilo femminile) ed una non significativa e si registra l’attività EEG da tutti
gli elettrodi, selezionando in particolare la cosiddetta banda γ attorno a 40 Hz
(separazione media di 25 msec fra le spikes).
Nella prima figura (fig.9.4) si nota che l’EEG si attiva attorno ai 200 ms e poi
800 ms; la differenza fra i due casi sembra solo quantitativa e non qualitativa.
Per capire di più, si esplorano le correlazioni di fase fra i segnali provenienti dai
vari elettrodi (fig.9.5) e si vede che:
i) Nel caso significativo, a 200 ms c’è una forte correlazione fra la zona
occipitale corrispondente all’area visiva e la zona della PFC (corteccia prefrontale) che è molto sviluppata negli umani rispetto ai primati; nel caso
non-significativo, manca questa correlazione di fase.
ii) a 800 ms c’è correlazione fra PFC e aree motorie e linguistiche in ambo i
casi.
Interpretazione (si veda il rozzo schizzo di sezione cerebrale in cima a
fig.9.4): la PFC è il centro decisionale, che raccoglie l’informazione sensoria, lo
elabora nei 600 ms che intercorrono fra l’arrivo a PFC e il suo collegamento
con aree motorie, e poi spedisce i comandi per azioni.
Queste sono: catturare una preda o cibo, sfuggire a un predatore (e fin qui
vale per tutti gli animali) o parlare di quanto visto (e questo sembra specifico
degli umani).
Dunque, pare che una sessione percettiva è considerata compiuta dopo 200
ms.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
207
Figura 9.4: Risposta transitoria di un soggetto umano esposto a un’immagine significativa (in
alto: profilo facciale di donna) e non significativa (in basso: immagine priva di elementi
semantici) applicate al tempo t=0. Dopo 200 ms l’EEG dà segnale sulla banda γ
(centrata sui 40 Hz). Dopo tace fino a 800 ms, quando ritorna. A parte differenze
quantitative, non sembra che ci siano differenze qualitative fra i due casi. Ma la fig.9.5,
seguente, (vedi didascalia) giustifica i fatti riassunti nello schema riportato in alto: a 200
ms la corteccia visiva posta nell’occipite si collega con la PFC (Pre Frontal Cortex =
corteccia pre-frontale) che è un centro decisionale particolarmente sviluppato negli
uomini rispetto ai primati; dopo altri 600 ms, spesi in elaborazione, la PFC si collega con
le aree motorie e linguistiche.
208
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 9.5: L’EEG è catturato da diecine di elettrodi incollati allo scalpo. Nella figura si mostra
il cranio del soggetto (fronte verso il basso, come risulta dagli occhiali). I cerchietti
indicano gli elettrodi. A sinistra caso asemantico (no perception) a destra immagine
significativa. In ambo i casi la banda γ si accende a 200 e 800 ms. Ma analizzando in
dettaglio i segnali dei vari elettrodi, a 200 ms c’è a destra una correlazione di fase fra
corteccia visiva e PFC; questa correlazione è assente a sinistra; interpretazione: non c’è
trasferimento di informazione significativa alla PFC e l’accensione della banda γ è
incoerente. Invece a 800 ms in ambo i casi scatta una correlazione, interpretazione: la
PFC attiva l’area linguistica per dire quel che vede.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
209
9.3 ART (Teoria della Risonanza Adattiva)
9.3.1 Codifica delle informazioni
L’apparente singolarità e coerenza di un’esperienza dipende da come il
cervello esamina gli eventi ambientali. Una tale elaborazione si concentra sul
contesto. Se si guarda a un’immagine complessa, come la fotografia di un volto
noto, si è in grado di riconoscerla all’istante, mentre è impossibile individuarla
guardandola pezzo per pezzo. Una tale elaborazione dipendente dal contesto
emerge a causa del fatto che il cervello opera sui dati sensoriali in parallelo
piuttosto che in sequenza.
Normalmente i segnali visivi provenienti da una certa scena raggiungono i
nostri occhi contemporaneamente, così che un’elaborazione parallela comincia
nella retina. Per elaborare l’insieme come un intero, esso deve essere
ricodificato. Una tale operazione di ricodifica è detta “working memory”, e
registra le tracce di memoria a breve termine. Per identificare eventi familiari, il
cervello confronta le tracce a breve termine con le categorie che ha
immagazzinato. A queste categorie si accede usando le tracce della memoria a
lungo termine, che rappresenta le esperienze precedenti che sono state acquisite
grazie ad un processo di apprendimento.
9.3.2 Il dilemma stabilità-plasticità
In qualche modo noi siamo in grado di apprendere rapidamente nuovi fatti,
senza essere costretti a dimenticarne altri. Come fa il cervello a tenere memoria
in maniera stabile degli avvenimenti precedenti, mantenendo allo stesso modo
la plasticità necessaria per imparare nuove cose?
È il dilemma stabilità-plasticità. Vi sono molti interessanti esempi relativi al
sistema visivo e auditivo che mostrano come il cervello potrebbe risolvere tale
dilemma. Ciascun esempio può essere spiegato grazie ad un approccio di tipo
computazionale detto ART (Teoria della Risonanza Adattiva). Nonostante
l’estrema varietà di compiti che il cervello deve compiere, i circuiti neurali che
governano molti processi sembrano basarsi su uno stesso insieme di principi
computazionali. In parte, la connessione risiede in una caratteristica
fondamentale delle funzioni del cervello umano: le nostre percezioni vengono
confrontate con precedenti percezioni.
Un aspetto assai interessante emerge da un’immagine chiamata figura di
Ehrenstein, che consiste in linee nere tracciate in maniera radiale su un foglio di
210
F. T. Arecchi, Caos e Complessità nel Vivente
carta. La mente costruisce un cerchio immaginario all’interno delle linee radiali,
il che rende la figura simile al disegno che un bambino potrebbe fare del sole,
un disco luminoso circolare bianco con le linee nere a rappresentare i raggi.
Infatti, il disco immaginario appare più luminoso rispetto al resto dello sfondo.
Una tale percezione è una proprietà emergente e collettiva di tutte le linee che si
genera solo quando esse sono disposte in modo adatto (fig.9.6). Perché vediamo
un disco luminoso che non esiste?
Figura 9.6: A sinistra la figura di Ehrenstein. Si percepisce un cerchio illusorio, formato dalle
punte interne delle linee, che racchiude un’area apparentemente più luminosa. Una tale
percezione dipende dal pattern complessivo, non comparendo in caso di una disposizione
diversa (a destra).
Un livello più elevato dell’elaborazione visiva risiede nelle categorie di
riconoscimento, che controllano l’aspettativa di quello che potremmo vedere,
come una faccia o una lettera. Un aspetto fondamentale del riconoscimento
degli oggetti dipende da come noi acquisiamo categorie che includono
differenti esempi dello stesso oggetto, come la stessa lettera stampata in
differenti dimensioni o forme.
9.3.3 Memorie a breve e a lungo termine
L’ART include due principali tipi di processi di memoria: quella a breve e
quella a lungo termine. La memoria a breve termine raccoglie gli stimoli,
mentre quella a lungo termine cataloga le informazioni acquisite. Nell’ART
l’informazione può passare dalla memoria a breve termine a quella a lungo
termine durante l’apprendimento, e fare il percorso inverso durante il processo
di richiamo. Le informazioni vengono codificate nella memoria a breve termine
grazie a percorsi di attivazione attraverso una rete di neuroni. La memoria a
lungo termine invece codifica grazie a pesi stabiliti adattivamente all’interno
dei cammini che uniscono i neuroni nelle varie aree. Questi pesi moltiplicano il
segnale durante il suo cammino prima che esso giunga al neurone di arrivo.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
211
Una rete ART opera in accordo a regole specifiche (vedi fig.0.7). Così si ha
un’accensione di tipo top-down quando, in assenza di ogni segnale di ingresso
bottom-up, vengono sensibilizzate cellule che normalmente risponderebbero a
una certa classe di stimoli, e altre vengono inibite. Viceversa, se una cellula
riceve un segnale bottom-up sufficientemente grande, in assenza di qualunque
segnale di ingresso top-down, la cellula genera lo stesso un segnale di uscita,
che viene detto attivazione automatica. Durante l’accoppiamento la cellula
riceve contemporaneamente segnali di ingresso top-down e bottom-up.
Un processo top-down amplifica selettivamente alcuni aspetti di uno stimolo
e ne sopprime altri, aiutando ad accentrare l’attenzione su informazioni che
corrispondono alle nostre attese. Questo processo di messa a fuoco ci aiuta a
filtrare alcune parti del segnale sensorio, che rischierebbe altrimenti di essere
incomprensibile, evitando in questo modo di destabilizzare le categorie
memorizzate precedentemente. L’aspettazione di tipo top-down potrebbe
risolvere il dilemma stabilità-plasticità, creando un meccanismo di messa a
fuoco e evitando che segnali spuri possano erodere le categorie già
memorizzate.
9.3.4 Il meccanismo di feedback e la “novità”
D’altro canto, se un’aspettazione top-down è in grado di influenzare uno
stimolo bottom-up, nulla impedisce che il segnale bottom-up così modificato
possa riattivare le aspettazioni top-down, innescando così un ciclo di feedback.
Quando questo ciclo raggiunge l’equilibrio, i segnali bloccano le attivazioni in
uno stato risonante. Per spiegare più chiaramente questa risonanza, richiamiamo
(fig.0.5) che gruppi di neuroni devono sincronizzare le loro scariche per dare
l’idea del gatto. Ma i campi ricettivi corrispondenti ai vari elementi del gruppo
possono avere più o meno luminosità, contrasto, colore, e pertanto dare luogo
localmente a sequenze di impulsi più o meno frequenti. Per raggiungere il
“feature binding”, bisogna che dall’alto (memorie pregresse) arrivi un’ipotesi
interpretativa che ritocca le soglie di scarica delle cellule, aggiustandone le
frequenze di impulsi in modo da creare il legame collettivo. Se la percezione è
quella aspettata si crea una risonanza tra top-down e bottom-up per cui la
percezione viene confermata: abbiamo visto giusto! È possibile affermare che
solo gli stati risonanti del cervello possano condurre alla consapevolezza, e il
tempo necessario ad arrivare ad un tale risonanza è quello che serve per avere la
percezione di un evento (i 200 ms di fig.9.4).
212
F. T. Arecchi, Caos e Complessità nel Vivente
Riassumendo, i segnali top-down rappresentano le aspettazioni acquisite dal
cervello di cosa il segnale bottom-up potrebbe rappresentare, aspettazioni
basate sull’esperienza passata. Un processo di paragone rafforza e amplifica le
caratteristiche del segnale che sono consistenti con le aspettazioni top-down,
mentre sopprime le caratteristiche inconsistenti.
Esistono dati neurofisiologici che suggeriscono che il feedback dalla
corteccia ai corpi genicolati laterali funzioni proprio come una rete ART, con un
circuito di retroazione che esamina le ipotesi fornite da strutture interne
all’attività corticale.
Il feedback delle reti ART permette di fornire un modello del riconoscimento
visivo degli oggetti. Una rete ART consiste infatti in un sottosistema
attenzionale che è in grado di creare categorie e aspettazioni in risposta a
segnali di ingresso sensoriali. Esiste inoltre un sottosistema orientante che viene
attivato da eventi “nuovi” e che mette in grado il sottosistema attenzionale di
categorizzarli in maniera stabile. In altre parole, l’interazione tra i due
sottosistemi permette di risolvere il problema stabilità-plasticità in presenza di
molti dati sensoriali.
Un segnale di ingresso viene registrato come un pattern di attivazione della
memoria a breve termine, che stimola a sua volta la memoria a lungo termine
attraverso un processo bottom-up e inibisce il sottosistema orientante. Fintanto
che la memoria a breve termine esamina il segnale di ingresso, il sistema
orientante resta inattivo, in quanto l’eccitazione provocata dal segnale e
l’inibizione provocata dalla memoria a breve termine si equilibrano.
Successivamente, la memoria a breve termine attiva una categoria nella
memoria a lungo termine che corrisponda il più possibile ai dati sensoriali.
L’attivazione di una categoria può essere interpretata come il “fare
un’ipotesi” riguardo al segnale di ingresso. La categoria prescelta provoca un
segnale di uscita che mette in moto il processo top-down. Il segnale top-down
quindi funziona da aspettazione, e attivare l’aspettazione può essere interpretato
come verificare un’ipotesi. Se la configurazione nella memoria a breve termine
si avvicina molto al segnale originale di ingresso sensoriale, il sottosistema
orientante non entra in azione.
Come reagisce invece la rete quando l’aspettazione top-down non coincide
con i pattern della memoria a breve termine? In questo caso il sistema
attenzionale produce una configurazione modificata della memoria a breve
termine, in modo da contenere solo le poche parti che corrispondono
all’aspettazione top-down. Questa configurazione rimuove le inibizioni al
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
213
sottosistema orientante mettendolo in azione. Tale sottosistema invia un segnale
che fa ricominciare la ricerca, ripartendo dall’originale segnale sensoriale. Il
ciclo continua finché non viene individuata la corretta categoria, o finche non si
rende necessario creare una nuova categoria, poiché il sistema si trova di fronte
ad una “novità”.
9.4
Caos e dinamica neuronale: il caos omoclinico e la
propensione alla sincronizzazione.
9.4.1 Neuroni e laser
Dinamica del singolo neurone
Soma
Potenziali di azione
Assone
ingressi
Dinamica non lineare (di soglia)
c
Ingresso
b
a
SOGLIA
Treni di spikes sull’assone
Figura 9.7: Schema del singolo neurone considerato come un sistema dinamico non lineare. I
vari ingressi in arrivo sulle dendriti da altri neuroni si sommano nel soma della cellula,
dove si confrontano con una non linearità, in base a cui generano dei potenziali d’azione
che viaggiano sull’assone e arrivano alle sinapsi dove vengono comunicati ad altri
neuroni, o sotto forma elettrica o chimica (codificando l’attività elettrica dell’assone in c
flusso di neurotrasmettitori). I tre casi di segnale totale di ingresso con i corrispondenti
treni di spikes sembrano suggerire un modello di neurone eccitabile (modello di FitzHugo e Nagumo): sotto soglia non c’è praticamente niente, sopra soglia si ha una
frequenza che cresce con il sopra-soglia. In effetti la dinamica è in genere più complessa,
includendo l’eccitabilità come uno dei possibili comportamenti.
La fig.9.7 schematizza alcune caratteristiche dinamiche del singolo neurone,
e sembra presentarlo come un sistema eccitabile. Abbiamo visto in par.7.4 che
un sistema eccitabile è il risultato della competizione di due sottosistemi. Ora,
la dinamica dei potenziali di membrana è molto più ricca, ed è quindi agevole
individuare condizioni operative in regime caotico. Senza entrare nei dettagli
del modello di Hodgkin e Huxley, rifacciamoci alle considerazioni di
opportunità presentate nell’Introduzione: dal punto di vista della fitness, un
214
F. T. Arecchi, Caos e Complessità nel Vivente
neurone caotico risulta vincente ai fini di una codifica rapida e sensibile degli
stimoli di ingresso.
Presentiamo le condizioni ottimali di un caos individuale da cui emerge una
situazione ordinata collettiva, accoppiando folle di individui simili.
Dal 1986 all’Istituto Nazionale di Ottica a Firenze si studia un tipo di caos
chiamato omoclinico (HC). Ne abbiamo anticipato gli aspetti cruciali
nell’Introduzione. Prima di illustrare il modo di generarlo, vediamone le
caratteristiche (fig.9.8).
Figura 9.8: Segnale sperimentale di intensità di uscita da un laser caotico (figura successiva).
(a) Sequenza di impulsi (spike) quasi identici, separati da intervalli (ISI) erratici,
indicazione di caos, come d’altronde si può vedere dai piccoli segnali non ripetitivi
nell’intervallo inter-spike.
(b): zoom di due impulsi successivi (si veda la magnificazione della scala temporale) per
mostrare la ripetibilità dei segnali alti, quelli che chiamiamo spikes. Si noti che se
introduciamo una soglia possiamo isolare le spikes cancellando i segnali bassi caotici.
(c): riportando su tre assi il valore I(t) dell’intensità al tempo t e i due valori dopo piccoli
ritardi τ e 2τ (metodo di embedding) si costruisce uno spazio delle fasi tridimensionale che ci mostra come l’orbita si chiuda ad ogni giro (più o meno lungo a
seconda del valore di ISI). La figura è ottenuta su molte spikes successive. La parte
della spirale percorsa da un sola linea corrisponde agli impulsi alti ripetitivi; la
matassa caotica verso il centro corrisponde agli impulsi bassi non ripetitivi.
Come detto nella didascalia della figura, l’aspetto essenziale di questa
dinamica è il ritorno di impulsi identici, ma non equispaziati: qui sta il caos, che
non è più codificabile in un aspetto geometrico (p. es. dimensione frattale) in
quanto conveniamo che tutto l’interesse sia concentrato sulla posizione
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
215
temporale delle spikes. Considerando queste tutte di area uguale ad 1 e
strettissime, il segnale idealizzato è:
f (t ) = ∑ δ (t − t i )
E l’informazione rilevante è nei tempi {t i } o, se si vuole, nelle ISI:
{ISI } = {t i
− t i −1 }
9.4.2 Come nasce HC.
C O 2 laser w ith feedback
Skeleton of the 3D m odel
x& = − k 0 x (1 − k 1 sin z ) + Gxy ,
y& = − 2Gxy − γy + p0 ,
z& = β (− z + b0 − R ⋅ x ).
2
X
Y
z
laser intensity
population inversion
feedback signal
Figura 9.9: Un laser a CO2 su singolo modo darebbe un’intensità di uscita stabile. Se inseriamo
un modulatore elettro-ottico di perdite (EOM) nella cavità ottica delimitata dalla coppia
di specchi curvi. Il segnale di tensione che pilota EOM è prelevato da un rivelatore di
intensità Det. Posto a valle di uno specchio e la tensione di Det è amplificata da un
amplificatore di guadagno R, che ha una seconda entrata cui è applicata una tensione
continua di polarizzazione B0 (Bias). Fissato un valore di pressione di gas nel tubo di CO2
e una corrente di scarica, sarà fissato il grado di eccitazione P0 che alimenta molecole
nello stato alto, chiamiamo y la differenza fra la popolazione dello stato alto e di quello
basso (in gergo: inversione di popolazione). Chiamiamo x l’intensità del campo laser, e z
la tensione di feedback applicata a EOM. Le tre variabili x, y, z, obbediscono alle eq.
differenziali non lineari scritte in figura. Si noti che z dipende linearmente da x, ma x ed y
si scambiano un termine non lineare di emissione stimolata con coefficiente G; inoltre
EOM dà una perdita aggiuntiva che va come sin2z. È agevole variare R e B0 (parametri di
controllo) per passare da regime eccitabile a regime periodico e a regime caotico.
La fig.9.9 mostra lo schema di laboratorio e le eq. del moto. Trattandosi di un
sistema 3D, si possono aggiustare i parametri di controllo per andare in HC. In
effetti essendo CO2 una molecola e non un atomo, i due livelli n=3 ed n=2 su
cui costruiamo l’interazione stimolata fra x e y sono accoppiati ad altri livelli
rotazionali molecolari. Per avere un modello che riproduca fedelmente il
comportamento sperimentale, occorre aggiungere altre 3 eq. con altre 3 variabili
216
F. T. Arecchi, Caos e Complessità nel Vivente
che chiamiamo genericamente r, s, v. Non stiamo a descriverne il significato:
diciamo subito che sono necessarie per un accordo quantitativo, ma nelle
vicinanze del fuoco di sella solo le variabili principali x, y, e z subiscono un
rallentamento critico (vedi fig.0.6). Le altre si adattano velocemente ai valori
assunti da x, y, e z e perciò non contribuiscono localmente alla dinamica.
Alla stessa tregua il modello di Hodgkin e Huxley per i potenziali di
membrana accoppia più di 3 eq., ma solo 3 contano ai fini della dinamica HC
vicino al punto di sella. Lontano il comportamento sarà differente, ma a noi
interessa l’intorno della sella, dove la suscettibilità a stimoli esterni è più alta e
dove è più facile il controllo di HC, come già discusso a fig.0.6.
Figura 9.10: Nel sistema HC del laser (a sinistra) il caos è confinato nel quadratino attorno alla
matassa caotica; al di fuori si ha un moto regolare. L’esponente massimo di Lyapunov è
positivo solo all’interno del quadratino, ma mediando su tutta l’orbita resta un valore
positivo, cioè il sistema è caotico, come appare dalla irregolarità delle ISI. Nel modello di
Lorenz (a destra) il caos è uniformemente spalmato su tutto l’attrattore, e si può calcolare
il massimo esponente di Lyapunov su qualunque porzione della traiettoria: diciamo che
c’è un riempimento “ergodico” dell’attrattore. Sincronizzare sistemi dello stesso tipo vuol
dire, a sinistra, sincronizzare le spikes alte senza preoccuparsi dell’erba caotica (tagliata
da un opportuno accoppiamento tra sistemi che non sente i segnali piccoli. Invece a
destra non si può operare una selezione e occorre sincronizzare TUTTO il segnale.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
217
9.4.3 La propensione a sincronizzarsi
Confrontiamo HC con il caos convenzionale ai fini della sincronizzazione di
una rete di sistemi identici accoppiati. La fig.9.10 spiega la differenza fra i due
sistemi. Se ora applichiamo un piccolo segnale esterno a un solo sistema di una
rete di sistemi HC accoppiati, qual è la “propensione” a sincronizzarsi, invece
di andare ciascuno per conto proprio con le proprie ISI ?
La questione è cruciale, perché la rete HC sembra un modello plausibile per
uno strato sensorio della corteccia (visivo, auditivo ecc.) e il sistema di ingresso
che riceve il segnale esterno può essere il primo strato di neuroni accoppiati
direttamente con i trasduttori dei sensi.
Figura 9.11: Confronto in scala logaritmica della propensione di una rete HC (cerchietti) con
una rete di Lorenz (quadratini).
Introduciamo un indicatore di coerenza definito come:
R=
[
ISI
δ (ISI )
]
dove ISI denota la media su tutti gli intervalli e δ (ISI ) ≡ ( ISI − ISI ) 2 2
denota la radice quadrata della varianza, cioè la fluttuazione media. In una
distribuzione del tutto casuale R=1, per un’oscillazione regolare R → ∞ .
Se prendiamo sia Lorenz sia HC in assenza di segnale esterno, si ha R=1, se
applichiamo una piccola modulazione (dell’1%) a un parametro di controllo, al
variare della frequenza della modulazione esterna (segnale) rispetto alla
frequenza interna:
ω 0 = 2π
ISI
1
218
F. T. Arecchi, Caos e Complessità nel Vivente
Abbiamo una variazione di 4 ordini di grandezza per HC e nessuna
variazione per Lorenz.
R1% / R free
L’indicatore
Rappresenta la propensione alla sincronizzazione (fig.9.11). L’evoluzione
naturale ha selezionato sistemi ad alta propensione per fare reti cerebrali.
Figura 9.12: Sincronizzazione dell’intensità laser ad una modulante esterna dell’ordine dell’1%
applicata a un parametro di controllo. (a): Se la frequenza è vicina alla frequenza interna
dello HC si ha un locking 1:1; (b) e (c): a più basse frequenze, si hanno locking 1:2 e 1:3;
(d): a più alta frequenza, si ha locking 2:1
Studiamo come un singolo HC si sincronizza con un segnale sinusoidale
esterno (fig.9.12). A seconda della frequenza della modulazione esterna, si
hanno differenti regimi di bloccaggio (locking) della posizione delle spikes alla
fase della modulante. Se si sposta gradualmente la frequenza in giù o su rispetto
alla frequenza interna, sarà sempre più difficile mantenere il locking 1:1. Il
confronto fra una variazione continua di frequenza e l’ordine discreto di locking
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
219
fa sì che, prima di passare al 1:2 o al 2:1, l’HC agganciato a 1:1 abbia dei salti
temporali di ± 2π , cioè dia una spike in meno o in più come mostrato nella
parte inferiore di fig.9.13 (phase slip). La parte superiore mostra una striscia di
circa 1000 spikes (separazione media di 0,5 ms ) su cui il numero di phase slips
va da +60 a -40 al variare della frequenza. L’informazione a tempi lunghi
sull’andamento dei phase slips permette di riaggiustare il periodo dell’orologio
esterno fino a cancellare qualunque phase slip, applicando così la frequenza più
adatta al sistema. Ciò suggerisce un pace maker adattivo per i malati che hanno
dovuto impiantare un pace maker cardiaco artificiale, a causa di difetti di quello
naturale.
Figura 9.13: Andamento dei phase slips al variare della frequenza di modulazione
Passiamo ora da un singolo HC con modulazione esterna a una rete di 40 siti
HC accoppiati fra prossimi vicini (cioè il numero i invia segnali a, e ne riceve
da, i ± 1 ). Ciò vuol dire che nella terza eq. di fig.9.9, lo z di i sente non solo l’x
di i, ma anche una frazione ε di x di i ± 1 .
220
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 9.14: Diagrammi sito (orizzontale) - tempo (verticale) dei treni di spikes HC; ogni spike
essendo rappresentata da un punto. ε = (a) 0.0; (b) 0.05; (c) 0.1; (d) 0.12; (e) 0.25. Per
alto accoppiamento le spike sono sincronizzate su tutti i siti a meno di un ritardo fra un
sito e il successivo; riducendo ε , compaiono degli “strappi” corrispondenti a phase slips
fra siti adiacenti, in assenza di accoppiamento ( ε = 0 ) ogni HC va per conto proprio.
Dunque i 40 siti si sincronizzano per un certo grado di accoppiamento mutuo.
Questo esempio si riferiva alla sincronizzazione spontanea in assenza di uno
stimolo esterno e, come si vede con un taglio verticale, ogni singolo sito si
mantiene HC nel tempo. Analogamente possiamo studiare la sincronizzazione
di tutta la rete in presenza di uno stimolo esterno applicato a un singolo sito.
9.4 4 Il bursting e i neuroni dei generatori di moti a-semantici
Ci stiamo occupando di come una rete di neuroni risponda collettivamente a
uno stimolo. Dare un significato a una percezione vuol dire (fig.9.4 e 9.5)
stimolare le aree motorie di conseguenza. Ma ci sono dei movimenti automatici
(cardiaco, respiratorio, digestivo) che vanno eseguiti indipendentemente da
stimoli esterni, in modo asemantico. In questo caso non c’è convenienza a stare
“all’erta” in regime HC, ma basta alternare raffiche (bursts) periodiche di spikes
a intervalli quiescenti di riposo. Usando lo stesso sistema dinamico e spostando
un parametro di controllo, il bias BO dell’amplificatore di feedback, un po’ in su
o in giù rispetto al regime di HC, si va ad un comportamento periodico
(fig.9.15a) con frequenza che cresce con lo spostamento del parametro di
controllo (9.15c) o al contrario in regime quiescente (9.15b).
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
221
Figura 9.15: Regimi periodico (a) e quiescente (b) nel sistema con dinamica omoclinica, al
variare di un parametro di controllo rispetto al regime HC (c); nel caso periodico la
frequenza cresce monotonamente col parametro ∆B .
Basandoci su questa informazione, possiamo far sì che un laser con dinamica
omoclinica alterni intervalli di raffiche periodiche con intervalli quiescenti,
senza mai andare caotico. Basta aggiungere un secondo anello di feedback dal
rivelatore allo EOM, ma filtrato a bassa frequenza rispetto alla frequenza delle
spikes. Il comportamento è mostrato in fig.9.16.
Possiamo considerare questo comportamento come metafora di quanto fanno
i neuroni che pilotano il muscolo cardiaco, In regime normale abbiamo 60
battiti al minuto che consistono nell’alternanza di contrazioni muscolari con
intervalli di riposo, come in fig.9.16b). Nel riposo notturno il ritmo scende a 45
battiti al minuto (fig.9.16a). Viceversa, sotto sforzo, possiamo avere 120 battiti
al minuto (fig.9.16c).
222
F. T. Arecchi, Caos e Complessità nel Vivente
Figura 9.16: Regime di bursting realizzato in un laser con feedback, aggiungendo un altro
anello di feedback a bassa frequenza. Il segnale a bassa frequenza è rappresentato dal
tratteggio
9.5 Chi legge l’informazione codificata in una rete di neuroni: la
funzione di Wigner rimpiazza l’homunculus
Abbiamo visto nella sezione precedente che l’informazione di un sistema HC
è contenuta nella sequenza di spikes:
f (t ) = ∑ δ (t − t i )
cioè nei tempi di arrivo delle spikes o nella loro separazione temporale:
{ISI } = {t i − t i − 1 }
Non possiamo pensare a un ipotetico homunculus che legga il segnale e
decida. Se questo esistesse e avesse consistenza, a sua volta avrebbe un sistema
percettivo con un (homunculus dell’homunculus) che lo legge, e così via.
Cerchiamo più seriamente di estrarre l’informazione HC con componentistica
fisica. Modo per esplorare f(t): ci si mette a t, si trasla il segnale a sinistra e a
destra dello stesso tempuscolo τ / 2 ; se fra i segnali traslati c’è qualche
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
223
sovrapposizione, in corrispondenza della “coincidenza” abbiamo un’area 1;
contiamo tutti gli 1, e ripetiamo l’operazione per altre traslazioni. Se ora
sommassimo le coincidenze parziali, avremmo un conteggio globale che non ci
dice dove (a quali ti) sono localizzate le spikes; allora nel sommare
distinguiamo ogni traslazione con un fattore di fase exp(iωτ ) ; avremo dunque
come risultato:
W (t , ω ) = ∫ f (t − τ 2) f (t + τ 2)e iωτ dτ
Dunque l’informazione completa è contenuta in una funzione biimensionale,
dove, si noti bene, ω non è il trasformato di Fourier di t, ma di τ . La W fu
introdotta da Wigner nel 1932 in meccanica quantistica. Un aspetto peculiare
della somma con fasi è che, se abbiamo una funzione che è la somma di due
pacchetti a frequenza diversa e localizzati a tempi diversi, come in fig.9.17, W
non ha solo due regioni che sono le W separate dei due pezzi, ma ha anche una
regione intermedia con frange di interferenza.
Figura 9.17: In alto: segnale temporale f(t) formato da due sinusoidi troncate a frequenze e
tempi diversi. In basso: funzione di Wigner in 2D (asse orizzontale: tempo; asse
verticale: frequenza). Oltre alle due zone separate spettanti alle due parti isolate, c’è
anche una zona intermedia che è l’interferenza fra le due parti pesate dalla fase relativa.
224
F. T. Arecchi, Caos e Complessità nel Vivente
Questo nuovo strumento introduce una classe di misure non-locali che
abbiamo chiamato “codice temporale”. Quando, con una sonda locale ad
altissima risoluzione, misuriamo il valore istantaneo f(t) al tempo t, allora
l’informazione su f(t) si presenta come la parte alta della fig.9.17, che ci è
familiare dalle introduzioni pedagogiche ai segnali. Il guaio è che una sonda
con risoluzione infinita è un mito mentale, e invece dobbiamo fare i conti con la
strumentazione che abbiamo a disposizione, Ciò implica ricorrere alla W ed
avere anche le interferenze fra le varie parti della sequenza che compongono il
segnale.
La procedura chiamata da noi codice temporale non è limitata ai segnali
cerebrali. In qualunque spartito musicale, rappresentiamo (anche se
grossolanamente) l’intensità del suono in funzione di frequenza e tempo
(fig.9.18).
Figura 9.18: Lo spartito musicale rappresenta la frequenza acustica al variare del tempo; la
notazione pp (pianissimo) e ff (fortissimo) indica il grado di intensità da associare ad ogni
zona del piano frequenza-tempo.
Il problema è diventato di attualità nei laboratori di ottica dei laser, quando si
lavora con impulsi ai femtosecondi (10-15 s). In tal caso, non esistono operazioni
fisiche (gate) in grado di ritagliare una porzione dell’impulso, e si è ricorsi alla
funzione di Wigner, senza citare Wigner (c’è una mancanza di conoscenza
reciproca fra campi diverse di indagine), ma chiamando la tecnica FROG
(Frequency Resolved Optical Gating).
La fig.9.19 mostra perché non basta l’informazione dell’inviluppo,
acquisibile con tecniche di autocorrelazione: se all’interno dell’impulso la
frequenza varia, come nel cinguettio (chirp) di un uccello, per avere
l’informazione completa occorre ricorrere a W.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
225
Figura 9.19: Spettrogrammi (in basso) di impulsi a inviluppo gaussiano e a frequenza che varia
entro l’impulso, cioè chirped (chirp vuol dire cinguettio di uccello). Lo spettrogramma,
come lo spartito musicale, dà l’intensità per varie coppie frequenza-tempo.
La rappresentazione in frequenza-tempo è detta spettrogramma, e il modo di
acquisire la W in laboratorio è indicato in fig.9.20.
Figura 9. 20 Come si fa la FROG: il segnale E(t) viene ritardato da un sistema di specchi. I due
segnali, originale e ritardato, sono inviati a un cristallo che genera la seconda armonica
(SHG) cioè il quadrato del segnale in arrivo. Come abbiamo visto al par.5.7 per eterodina
e olografia, preleviamo solo il doppio prodotto e lo inviamo a uno spettrometro che ne fa
la trasformata di Fourier. Sommando tutti i contributi al variare del ritardo, abbiamo
realizzato la W (anche se i tecnici dei laser non citano Wigner!)
226
F. T. Arecchi, Caos e Complessità nel Vivente
Ora che abbiamo visto le connessioni con la scrittura musicale e la misura dei
femtosecondi, torniamo al cervello. Siamo in grado di individuare le sequenze
di operazioni che portano a W? Nel caso temporale, non siamo ancora in grado
di seguire la formazione di W.
Ricordiamo però che la decisione è successiva alla sincronizzazione dei
neuroni di uno strato sensorio. Non è tanto la forma d’onda sul singolo neurone
che interessa, ma piuttosto il tessuto delle forme d’onda su tutti i siti: qualcosa
come lo schema di fig.9.14.
L’informazione completa richiede di fare le stesse operazioni nel tempo e
nello spazio Ora lo spazio a disposizione di uno strato sensorio è
bidimensionale. In effetti, riferendoci alla prima corteccia visiva, in gergo V1;
questa è anatomicamente strutturata in colonne di sei strati, ma su tutta una
colonna l’informazione è fortemente correlata (non è il caso qui di scendere a
dettagli) per cui è sufficiente classificare la variazione bidimensionale
dell’informazione.
Semplifichiamo il problema considerando un segnale in una dimensione
spaziale x. La funzione di Wigner corrispondente è:
W ( x, k ) = ∫ f ( x − ξ 2) f ( x + ξ 2)e ikξ dξ
Per costruirla con il metodo del ritardo variabile di fig.9.20, avremmo
bisogno di un cursore mobile che trasli il segnale spaziale di ± ξ / 2 e poi faccia
il prodotto delle due parti con un fattore di fase, sommando il tutto.
Vediamo come si possano utilizzare aspetti fisici noti. I neuroni presentati a
fig.9.5 permettono di estrarre la derivata prima e seconda spaziali del segnale di
ingresso (fig.9.21).
D’altronde c’è evidenza di successive convergenze nei vari strati visivi V1,
V2, V3, fino ad arrivare alla corteccia infero-temporale (ITC); l’ampiezza
angolare del campo recettivo passa così da 3° a quasi 180°.
In queste successive convergenze, se a ogni nodo ci sono neuroni centroperiferia, si fanno derivate successive. In definitiva, sommando i vari termini, si
ottiene lo sviluppo di Taylor di una funzione traslata spazialmente, senza
bisogno di cursore mobile.
Dovrebbe essere altrettanto agevole individuare i meccanismi fisici delle altre
operazioni che contribuiscono a costruire la W.
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
227
Figura 9.21: Abbiamo mostrato in fig.9.5 che alcuni tipi di neuroni del corpo genicolato laterale
e della V1, studiati da Hubel e Wiesel, hanno una risposta a un’illuminazione retinica che
è di segno opposto fra centro e periferia della cellula. Se le regioni (+/-) sono
concentriche e lo stimolo di ingresso è una gaussiana spaziale, si ha una derivata seconda
della gaussiana, che è rappresentata alla figura inferiore per diverse geometrie. Se il
centro e la periferia non sono concentrici, ci sarà anche un contributo di derivata prima.
9.6 Il ruolo del tempo di decisione: aspetti quantistici nei processi
percettivi.
9.6.1 Il tempo di decisione e la decoerenza
In attesa che la ricerca neuroscientifica chiarisca gli interrogativi aperti,
diciamo che per una codificazione a spikes la funzione di Wigner è uno
strumento necessario per estrarre tutta l’informazione. Da quanto detto ci
aspettiamo che l’elaborazione implichi un dominio di variabilità con due
228
F. T. Arecchi, Caos e Complessità nel Vivente
dimensioni spaziali più il tempo, perciò la funzione di Wigner andrebbe scritta
in 6 dimensioni come:
W (t , ω ; x, k1 ; y, k 2 )
Limitiamoci a esplorare proprietà e limiti della funzione bidimensionale
Da fig.9.17 sembrerebbe che un segnale composto di due parti comunque
separate nel tempo debba produrre interferenza.
D’altra parte la ricerca neurofisiologica (fig.9.6 e 9.7) ha mostrato che il
tempo di percezione T = 200ms rappresenta un’unità decisionale, nel senso
che quanto accade tra due tempi separati di più di T è visto come due eventi
distinti. Ci si aspetta pertanto che i circuiti cerebrali introducano una funzione
di taglio (cut off) che limiti a 200 ms il confronto fra i segnali traslati su cui è
costruita W. Introduciamo questo taglio come segue:
W (t , ω ) = ∫ f (t + τ 2) f (t − τ 2) exp(iωτ ) g (τ )dτ
dove la funzione di cut-off è una gaussiana di area 1 (per semplicità non
esplicitiamo la normalizzazione ) e semilarghezza T :
(
g (τ ) ≈ exp − τ 2 T
2
)
2
dove T ≈ 200 ms
Per usare il gergo della meccanica quantistica, diremo che T è un tempo di
decoerenza oltre il quale due segnali percettivi non si correlano più in fase, cioè
non danno luogo a interferenza.
9.6.2 Intermezzo quantistico
La presenza di interferenza fra le parti che compongono uno stato
sovrapposizione è l’indicatore del comportamento quantistico (il caso del gatto
di Schroedinger, per il quale in principio ci sarebbe un’interferenza fra gatto
vivo e gatto morto; interferenza non osservabile in pratica, perché tagliata a
tempi di decoerenza molto più piccoli di qualunque tempo osservabile).
Questa interferenza è la base del computer quantistico; se un problema è
frammentabile in molte opzioni o sottosistemi legati da relazioni coerenti, e la
soluzione nasce dalla sovrapposizione interferenziale di questi, allora
un’evoluzione temporale si può eseguire su ciascuno dei sottosistemi in
parallelo, e alla fine dei calcoli si lasciano interferire le varie sottosoluzioni per
ricavare lo stato finale del sistema. Facciamo un esempio: sia un sistema
composto di N sottosistemi, e il tempo totale di calcolo cresca
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
229
esponenzialmente con N (par.1.2). Se l’evoluzione nel corso del calcolo
mantiene la coerenza di fase, allora conviene eseguire N calcoli separati in
parallelo e alla fine sovrapporre i risultati parziali per avere lo stato globale. La
difficoltà pratica di una computazione quantistica è legata ai tempi di
decoerenza. Se diciamo D la distanza fra i due sottostati di uno stato
sovrapposizione e conosciamo il tempo di smorzamento τ 1 di ciascuno dei
sottostati, le relazioni di fase fra i due stati muoiono entro un tempo di
decoerenza dato da:
τ
τ dec = 21
D
h
−34
dove h ≅ 10 J ⋅ s è la costante di Planck.
Si noti che D2 è un’area in uno spazio di variabili coniugate, energia-tempo
oppure coordinata-impulso; il prodotto di una base per un’altezza dà proprio
joule x secondi quindi il fattore di riduzione a denominatore è adimensionale.
Inserendo dati pratici, si vede che già micro-sistemi composti di pochi atomi
o fotoni danno tempi di decoerenza inaccessibili.
Pertanto un computer quantistico pratico è oggi non fattibile.
9.6.3 Il caso del codice temporale
Nell’elaborare treni di spikes siamo in presenza di un formalismo quantistico:
infatti l’interferenza di fig.9.17 assume anche valori negativi, perciò la W non
può essere interpretata come una probabilità classica.
Si può obiettare che nella fisica del cervello non sono emersi aspetti
quantistici.
La mia critica all’attuale stato interpretativo della fisica microscopica è che il
formalismo quantistico non svela l’essenza del mondo microscopico, ma si
limita a riportare quanto è accessibile alle nostre misure. Occorre il rigore della
critica di Kant: possiamo parlare solo di fenomeni, misurati con un protocollo
preciso, senza inventarsi un nuovo fenomeno a cui non abbiamo accesso.
Se riprendiamo la formulazione assiomatica della meccanica quantistica,
vediamo che l’apparato di misura ideale ivi introdotto è “locale” cioè è in grado
di leggere il valore di una variabile in un punto (r, t) dello spazio-tempo. Invece
il codice temporale implica un misuratore di Wigner non-locale che accumula
dati, ordinati da un fattore di fase, e li legge globalmente.
230
F. T. Arecchi, Caos e Complessità nel Vivente
Questa enunciazione astratta può essere capita con riferimento ad un
esperimento classico di interferenza di Young (fig.9.22).
M2
a
S
b
M1
Figura 9.22: Esperimento di Young. Fra una sorgente luminosa S e un misuratore locale di
intensità luminosa M1 si intercala uno schermo con due fenditure a e b a distanza
variabile; variando la separazione a-b, M1 registra picchi e valli di un segnale
interferenziale. Interpretazione classica: l’oggetto di investigazione è una sorgente
complessa, formata da S e dallo schermo; i due fori sono sorgenti di onde sferiche che si
incontrano su M1 con fase reciproca dipendente dalla posizione di a e b. Interpretazione
alternativa equivalente: la sorgente S non dà alcuna interferenza, l’apparato di misura
non-locale M2=M1+a+b genera frange di altezza variabile con la separazione a-b.
Se allora siamo in presenza di un corretto formalismo quantistico, dobbiamo
rispondere a tre questioni:
i) qual’è la costante C che rimpiazza h nel formalismo quantistico del codice
cerebrale?
ii) quanto vale C, e si può ovviare al difficile problema della decoerenza,
prospettando un computer quantistico basato sul codice temporale in una
rete di sistemi HC?
iii) perché nella fisica microscopica h si presenta come costante universale,
tant’è vero che viene reputata come essenza del mondo microscopico?
9.6.4 Entropia delle percezioni
Ricapitoliamo i dati neuro fisiologici: abbiamo treni di spikes di durata 200
ms, fatti di spikes da 1ms con separazione minima 3 ms e separazione media
(legata alla banda γ sui 40 Hz) di 25 ms. Se introduciamo delle scatole (bins)
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
231
di 3ms, ciascuna avrà un impulso o sarà vuota: in codice binario, potremmo
avere un numero di percezioni massimo PM pari a:
2 200 3 ≅ 2 66 ≅ 10 22 .
Ma non tutte le sequenze hanno uguale probabilità: sarà improbabile trovare
00000…oppure 11111……. Pesando con la separazione media, si trova
un’entropia per unità di tempo pari ad α = 0,54 . Il numero di percezioni su 200
ms è allora:
PM = 2 S = 2 0,54⋅66 ≅ 1011
Tenuto conto che al massimo abbiamo 5 percezioni distinte al secondo, e che
l’arco della vita umana è sui 3 ⋅ 10 9 sec , pari a 90 anni, il numero massimo di
percezioni immagazzinabili risulta 1,5 ⋅ 1010 , cioè il 15% della capacità
calcolata. Data la grossolanità del calcolo, la cosa è soddisfacente, cioè
l’evoluzione ci ha equipaggiato con un cervello adeguato alla durata della
nostra vita, senza molti sprechi.
Supponiamo di troncare una percezione a un tempo ∆T <T . Introduciamo
un’indeterminazione ∆P nel numero di percezioni, pari al numero di tutte
quelle percezioni i cui ISI sono identici fino a ∆T e che differiscono di almeno
un bit nell’intervallo T − ∆T .
Avremo:
∆P = 2 α (T −∆T ) = PM ⋅ 2 −α∆T
Approssimiamo questa relazione di incertezza con un’iperbole tangente in un
punto. Data la grande differenza fra esponenziale e iperbole, il valore che
stiamo per calcolare è solo orientativo e varia molto con ∆T .
Abbiamo ad es.:
∆P∆T ≡ C = 620 parole x bins
Convertiamo in Js per confrontarci con h .
Un bin corrisponde a 3 ms. Un salto di parola corrisponde a un salto
elementare da un attrattore caotico a uno vicino. Ricordiamo che abbiamo
escluso una dinamica regolare per il singolo neurone, per evitare un’energia di
attivazione troppo alta, diciamo dell’ordine di 1 eV. Non esistono stime per il
salto fra due attrattori caotici. Possiamo dire che l’energia deve essere maggiore
di kBT, altrimenti il salto avverrebbe spontaneamente e non ci sarebbero
percezioni affidabili. Diamo come stima 10 kBT, pari a 0,25 eV. Moltiplicando
per i 108 neuroni della corteccia visiva, abbiamo:
2,5 ⋅ 10 7 eV ≅ 3,6 ⋅ 10 −12 J
232
F. T. Arecchi, Caos e Complessità nel Vivente
Con questi fattori di conversione si trova:
∆P∆T ≡ C = 6 ⋅ 10 −12 Js ≅ 10 22 h
È questo il quanto nel codice percettivo. Si noti che non c’entra niente con h ,
con buona pace di chi (come Penrose) ha cercato di individuare una dinamica
quantistica microscopica nel cervello, che è molto fantasioso. Con questa C si
possono valutare processi di decoerenza e ritagliare una computazione
quantistica.
Si noti che l’unico requisito è stato un misuratore non locale; niente di legato
a coscienza ecc: pertanto si può progettare una rete di siti HC collegati e da
leggere con un codice di Wigner, e costruire un computer quantistico
macroscopico.
9.6.5 Ruolo delle misure non locali in fisica microscopica
Di fronte a un oggetto macroscopico (una mela, una sedia) possiamo girarvi
attorno e acquisire un numero grande di immagini 2D (ricordo che ogni
immagine è 2D, perché ottenuta tagliando i fronti d’onda con un rivelatore 2D,
la retina o la telecamera): la collezione di tutte le immagini 2D permette una
ricostruzione tomografica, apprezzando aspetti 3D non immediati.
Di fronte a un atomo, dobbiamo interrogarlo con un fascio sonda fatto di
particelle o fotoni; in ambo i casi non raccogliamo sul rivelatore un singolo
oggetto scatterato, ma un insieme con cui ricostruiamo le strutture, come
abbiamo discusso nel par.5.6 a proposito della strutturistica delle biomolecole.
Stiamo registrando spettrogrammi di funzioni di correlazione, cioè lo strumento
di osservazione è non-locale nel senso su discusso.
Siamo in ambo i casi nell’ambito della QED (elettrodinamica quantistica) che
è caratterizzata da una costante di struttura fine adimensionale α . Premesso che
la nonlocalità delle misure introduce in modo fondamentale una relazione di
indeterminazione fra lunghezza minima osservabile e impulso della particella, e
presa per ora h come un’incognita da determinare, la minima distanza
osservabile fra due elettroni, detta lunghezza di Compton lC, sarà legata al
massimo impulso di un elettrone mc , dalla relazione:
lC =
h
mc
Allora α risponde alla domanda: a quante l C devo mettere due elettroni
affinché l’energia di repulsione elettrostatica uguagli l’energia di riposo?
Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici
Risolvendo la relazione:
e2
= mc 2 .
α ⋅ lC
Si trova:
α=
233
e2
hc
Interpretata finora come h ⇒ α ; proponiamo che venga letta come α ⇒ h .
Se il microscopico fosse tutto QED, quel che ho detto sarebbe abbastanza
pacifico; ma perchè h vale anche in QCD? (cromodinamica quantistica, o
teoria corrente delle interazioni sub-nucleari).
La risposta è che sia QED sia QCD sono teorie fenomenologiche, a scale
grandi 10-16 cm, entrambe derivabili da una teoria fondamentale alla scala di
Planck di 10-33 cm; questa teoria ancora non esiste.
9.7 Bibliografia
•
•
•
•
•
•
•
•
•
•
•
FT.Arecchi e A.Farini “Lexicon of Complexity” (Società Editrice Fiorentina,
Firenze, 1997).
FT.Arecchi “Chaotic Neuron Dynamics, Synchronization and Feature
Binding: Quantum Aspects” in Mind and Matter, vol.1, n.1, p.3, (2003).
H.B.Barlow “Single units and sensation: a neuron doctrine for perceptual
psychology?” Perception, 1, 371, (1972).
D.J.Felleman e D.C.Van Essen “Distributed hierarchical processing in the
primate cerebral cortex” Cerebral Cortex, 1, 1, (1991).
W.J.Freeman “Nonlinear neural dynamics in olfaction as a model for
cognition” in Dynamics of sensory and cognitive processing by the brain ed.
E.Basar (Springer, Berlino, 1988).
S.Grossberg “The attentive brain” The American Scientist, 83, 439, (1995).
D.H.Hubel “Occhio, cervello e visione” (Zanichelli, Bologna, 1989).
W.Köhler “Gestalt psychology” (Bell & Sons, Londra, 1930).
D.Marr “Vision” (Freeman, San Francisco, 1982).
C.Von der Malsburg “The correlation theory of brain function” in Models of
Neural Networks II, Editors E. Domany, J. L. van Hemmen e K. Schulten
(Springer, Berlino, 1981).
W.Singer e C.M.Gray “Visual Feature Integration and the Temporal
Correlation Hypothesis” Annu. Rev. Neurosci. , 18, 555, (1995).
10 Conclusioni: linguaggi e complessità
Ricapitoliamo quanto abbiamo esplorato nei capitoli precedenti. Partendo dal
suggerimento di Galileo a M.Welser (1610) di “non tentare le essenze, ma
contentarsi delle affezioni quantitative”, abbiamo frammentato un oggetto di
esperienza nelle connotazioni suscettibili di misurazione. Arrivando al limite
logico di postulare particelle elementari che ricompongono e “spiegano” il
tutto, abbiamo esplorato la dinamica della singola particella; ma nel mettere in
contatto molte particelle, sono nati i problemi del caos e della complessità. Nel
caso particolare di un oggetto esposto a disturbi ambientali, abbiamo cercato di
condensare il ruolo di questi in una descrizione termodinamica, e di evidenziare
i cambiamenti (transizioni di fase) indotti sull’oggetto. Quando siamo passati al
vivente, abbiamo cercato di sfruttare un apparato di conoscenze già sviluppato,
e siamo riusciti a spiegare i bilanci energetici, e - con la metafora del computer
- alcuni dei processi cerebrali più elementari.
I problemi su cui si svilupperà la ricerca nel prossimo futuro sono problemi
di comunicazione fra individui distinti; ora, se il singolo individuo ha un
repertorio sufficientemente ricco di possibili risposte a uno stimolo, il numero
di possibili scenari che emergono è estremamente alto e variato, non riducibile
allo schema ingenuo di R.Carnap (1931) “La costruzione logica del mondo”; il
tentarne una classificazione completa implica la complessità che abbiamo visto
nella crescita esponenziale delle combinazioni possibili. Dovremo
rigorosamente delimitare il livello gerarchico a cui vogliamo collocare un
programma scientifico e prendere come individui da far interagire non le
particelle elementari, descrivibili classicamente con posizione e velocità e
quantisticamente aggiungendo ulteriori connotazioni in numero finito (ad es.
spin), ma dei sottosistemi già strutturati e da caratterizzare con proprietà
globali, con una gamma ampia di possibili risposte, che dipendono dal tipo di
discorso che si sta sviluppando attorno; allora il singolo individuo subisce gli
effetti dell’ambiente, ma a sua volta modifica l’ambiente.
Passiamo in rassegna alcuni fra i problemi aperti.
10.1 I problemi aperti
10.1.1 Dogma centrale della biologia molecolare
Consiste nella sequenza univoca: gene-RNA-proteina (vedi cap.4, in
particolare fig.4.2).
Capitolo 10: Conclusioni: linguaggi e complessità
235
Per oltre 50 anni, si è partiti dal presupposto: un gene produce una proteina,
arrivando a una vulgata come ”progettare” i bambini o istituire una polizia del
DNA che scopra futuri criminali.
Durante gli ultimi anni, risultati inaspettati dello HGP (Human Genome
Project) hanno mostrato i limiti del dogma: alcuni geni codificano più di una
proteina, altri non codificano alcuna proteina (P.H.Silverman, The Scientist,
vol.18, n.32 del 24 maggio 2004).
Le due compagnie farmaceutiche (Celera e Human Genome Science) che
hanno classificato il genoma umano hanno concluso nel 2001 con un conteggio
di meno di 30 mila, ben al di sotto dei 100 mila attesi. Ma 30 mila è come una
mosca; allora come mai siamo diversi? E come conciliare 30 mila geni con oltre
un milione di proteine? Risposta: ”Un singolo gene può dar luogo a trascrizioni
multiple, e pertanto a molte proteine distinte con funzioni distinte, mediante
alternative splicing (cioè taglia/ricuci di spezzoni di sequenze) e dunque siti
alternativi di inizio e termine della trascrizione” ( J.C.Venter et al. ”Sequence of
the human genome” Science, 291, 1304-51, 2001).
La fig.10.1 (tratta dall’articolo citato di Silverman) descrive lo stato del
problema.
Figura 10.1: Il dogma centrale della biologia molecolare come formulato negli anni 1950
proponeva un’espressione unidirezionale del gene. La transcrittasi inversa ha scosso
questo modello. L’aggiunta di modificazioni post-traduzione delle proteine ha
ulteriormente modificato il quadro. Ancor più recentemente, molteplici fattori che
controllano l’espressione del gene a tutti gli stadi del processo sono stati scoperti a livello
di trascrizione, di traduzione e di post-traduzione.
E’ stato detto: “La maggior parte dei cambiamenti evoluzionari fra specie
può essere avvenuta a livello di regolazione del gene” (A.G.Clark et al.
236
F. T. Arecchi, Caos e Complessità nel Vivente
”Inferring nonneutral evolution from human-chimp mouse orthologous gene
trios”, Science, 302, 1960 del 2003).
La combinazione di soli tre geni, ciascuno con mille possibili varianti, offre
un miliardo di possibilità alla selezione naturale. Ciò spiega perché nel preCambriano si sia passati in pochissimo tempo dagli unicellulari a una varietà
enorme di organismi (S.J.Gould, Wonderful Life, Norton, New York, 1989),
senza dover attendere l’accadere di mutazioni nella sequenza di basi indotte da
raggi cosmici o altri eventi stocastici.
Queste considerazioni correggono le ingenuità di un approccio dogmatico,
quale raccontato in Il caso e la necessità da J.Monod nel 1970.
Per rifarci al caso dei lessici e dei codici poetici, sarebbe come dire che
l’Ebraico della Bibbia, che ha solo 5000 parole (N.Frye, Il grande codice,
Einaudi, Torino 1980) o il Greco dell’Odissea, che ha solo 6800 parole
(www.perseus.tufts.edu) non siano in grado di essere espressivi come l’Inglese
moderno che ha 500 mila vocaboli!
10.1.2 Il codice cerebrale
Abbiamo visto nel cap.9 l’enorme vantaggio, in termini di densità di
informazione, del codice temporale (sincronizzazione di spikes) rispetto a un
codice di conteggio (quante spikes cadono in un intervallo temporale). Nelle
fig.0.5 e 0.6 abbiamo spiegato in che consista il “feature binding” e come la
posizione temporale delle spikes sia influenzata dal repertorio delle esperienze
precedenti conservate in memoria. Nasce allora la domanda: esiste una codifica
univoca per cui a una percezione corrisponde un treno di spikes e viceversa? Se
fosse così, potremmo anticipare un futuro in cui una macchina-spia legge i moti
segreti di un soggetto, e non esisterà più una sfera del privato.
Ho affrontato questo problema nel lavoro: F.T.Arecchi “Chaotic Neuron
Dynamics, Synchronization and Feature Binding: Quantum Aspects” in Mind
and Matter, vol.1, n.1, p.3 (2003), citato al cap.9. In quel lavoro ho ricordato
che, impiantando microelettrodi nel sistema olfattivo di una locusta, la
presentazione ripetuta dello stesso odore dà luogo allo stesso treno di spikes
(G.Laurent), invece nel caso di un coniglio lo stesso odore, pur dando luogo alla
stessa reazione globale (avvicinarsi al cibo) è associato in tempi differenti a
codificazioni diverse(W.Freeman). In effetti fra i primi strati sensori e le
decisioni della corteccia motoria avvengono molteplici interazioni bottom-up /
top-down, per cui la codifica è un equilibrio fra stimoli esterni e congetture
memorizzate. Questo comporta un aspetto strettamente soggettivo di una
Capitolo 10: Conclusioni: linguaggi e complessità
237
sensazione; p.es. il rosso di un drappo di Tiziano è lo stesso per me e per un
altro che sta guardando lo stesso quadro? Parlandone, traduciamo l’esperienza
visiva in un codice verbale con un lessico di estensione del tutto
incommensurabile. Queste sensazioni soggettive sono dette “qualia” dai filosofi
della mente. Ebbene, le locuste sono dei quasi-automi con un canale univoco
stimolo-risposta, invece il coniglio è più sofisticato, ha già una sua vita privata.
Questo spazio di memoria dove conserviamo la nostra vita passata per
influenzare le decisioni future può essere più o meno ricco, più o meno
efficiente nel collegarsi a una situazione presente; parleremo più in là
dell’autismo come limite a questa efficienza.
10.1.3 Il linguaggio verbale - La complessità dei testi
Stiamo esplorando le modalità di comunicazione fra diversi individui che
possono interagire.
Si può trattare di comunicazione fra geni e proteine, fra cellule diverse
attraverso messaggeri chimici o elettrici, fra piante e animali diversi, fra gruppi
sociali che possono ricorrere a codici diversi per scambi all’interno del gruppo e
per scambi collettivi fra gruppi, e così via.
Chiamiamo linguaggi le modalità specifiche di comunicazione, caso per
caso. In particolare, consideriamo il linguaggio verbale fra individui umani.
Polisemia vuol dire pluralità di significati di una parola: legata al fatto che
con un lessico limitato (5000 parole nell’Ebraico della Bibbia, 100.000 in una
lingua moderna) vogliamo descrivere un numero enorme di situazioni diverse
che sperimentiamo. Allora la stessa parola acquista significati diversi a seconda
del contesto, cioè dell’ambiente cui si riferisce e delle correlazioni col resto del
discorso, cioè con le parole che la precedono e la seguono. Tutto ciò è indicato
nello schema di fig.10.2.
Nella parte superiore di fig.10.2 abbiamo indicato la zona di incertezza
associata a una singola parola; si tratterà in genere di una nube di possibili
significati che andrebbe visualizzata in uno spazio multidimensionale, posto che
si riesca a stabilire una metrica dei significati (cosa non realizzabile oggi, e
forse mai). In due dimensioni, la nube diventa un’area di incertezza; questo è
corretto se abbiamo frantumato un oggetto nei suoi ingredienti elementari, ad
ognuno dei quali spetta una incertezza di Heisenberg posizione-velocità, come
mostrato in fig.0.3. La parte centrale di fig.10.2 indica come si costruisce un
resoconto: pescando al nostro repertorio lessicale, adattiamo parole polisemiche
238
F. T. Arecchi, Caos e Complessità nel Vivente
alla situazione che stiamo sperimentando; ogni parola sarà anche influenzata
dalle precedenti scelte lessicali del discorso (sarà cioè con-testuale).
Abbiamo detto prima che il collegamento con le memorie pregresse può
essere più o meno efficace. Un recente romanzo (M.Haddon, Lo strano caso del
cane ucciso a mezzanotte, Einaudi, 2003) tratta di un ragazzo autistico, la cui
patologia può essere così espressa in termini di verbalizzazione: l’area di
incertezza per ogni parola è nulla, il ragazzo si attacca per ogni parola al primo
significato recepito e non è in grado di attribuirne un altro; di conseguenza non
sa calarsi nelle situazioni che gli vengono prospettate di volta in volta a parole,
ma ne costruisce altre che gli danno angoscia perché il resoconto verbale da lui
ricostruito differisce da quanto osserva.
La parte inferiore della fig.10.2 indica come, esposti a un resoconto verbale,
ci ricreiamo la situazione corrispondente. Un buon narratore ci cala nella
situazione da lui prefigurata; questo accade nella grande poesia (Nel mezzo del
cammin di nostra vita…; Dolce e chiara è la notte e senza vento….).
Rapporti linguaggio-realtà
Polisemia (pluralità di significati della parola)
Significati scelti dal contesto (l’ambiente
più il resto del discorso)
portano a due discorsi distinti, ma entrambi basati su realtà.
Processo inverso: situazioni paradossali
dei significati= discorso di fantasia
create dalla scelta soggettiva
Figura 10.2: Si indica con un cerchio in uno spazio di significati l’area di incertezza da
associare a una parola che può assumere tutti i diversi significati compresi nell’area. Un
discorso è la connessione con regole grammaticali (sintassi) di una sequenza di parole; il
significato per ogni parola è stabilito dalla situazione cui il discorso si riferisce e dalle
connessioni col resto del discorso. In un’opera letteraria, se il lettore ha bene interpretato
le scelte di significati dell’autore, può ricostruire il mondo dell’autore, cioè una
situazione nuova; se l’autore ha scelto significati al limite delle aree di variabilità di
ciascuna parola, possono emergere situazioni paradossali senza un equivalente nella
realtà ordinaria che sperimentiamo.
Capitolo 10: Conclusioni: linguaggi e complessità
239
Un autore può, in modo provocatorio, connettere termini che portino a
situazioni paradossali: si pensi a L.Carrol, Alice nel paese delle meraviglie, o a
D.Hofstadter, Goedel, Escher e Bach.
In questo gruppo classificherei i divulgatori che fanno un uso non accurato di
termini della scienza, anche se il loro risultato è spesso involontario.
Si noti peraltro che questo è il campo di azione di qualunque intelligente
persuasore che voglia imporre il suo punto di vista; è quello che insegnavano i
Sofisti e contro cui si era scagliato Socrate in nome della verità; è quel che è
tornato in auge con i moderni persuasori, dai politici ai venditori di prodotti, si
veda al riguardo C.Perelman, La nuova retorica (trattato dell’argomentazione),
Einaudi, 1980.
10.1.4 Complessità nell’evoluzione biologica
Quella che negli anni passati è stata chiamata auto-organizzazione andrebbe
in effetti chiamata etero-organizzazione, perché emerge sempre da uno scambio
linguistico fra un individuo e l’ambiente circostante (fig.10.3).
Complessità biologica:
risposta più adatta ad una sfida ambientale
(fitness)
A
B
C’
C’’
Non auto-organizzazione, ma etero-organizzazione
Figura 10.3: Evoluzione non univoca di un individuo, la cui dinamica interna preveda le
transizioni A-B-C-… La presenza di perturbazioni ambientali può orientare l’evoluzione
come A-B-C’ oppure A-B-C’’.
10.1.5 Complessità nella risposta immunitaria
Il sistema immunitario dei vertebrati è una rete di molecole e cellule
specializzate a distinguere ciò che è proprio e ciò che è estraneo all'organismo.
Le sue caratteristiche sono specificità, adattamento e memoria. Il sistema
immunitario usa due strategie diverse e correlate. Gli elementi di
240
F. T. Arecchi, Caos e Complessità nel Vivente
riconoscimento della risposta immunitaria sono proteine solubili chiamati
anticorpi prodotti dalle plasmacellule. Nella risposta immunitaria cellulare, i
linfociti T uccidono le cellule che portano sulla loro superficie conformazioni
estranee. I linfociti T stimolano anche la risposta umorale aiutando le cellule B,
i precursori delle plasmacellule. I linfociti nascono nel midollo delle ossa. Circa
la metà di essi passano attraverso il timo e vengono trasformati in cellule T che
costituiscono gli effettori principali della immunità cellulare. Le cellule T e B
riconoscono il materiale antigenico (agente estraneo) mediante anticorpi
incorporati nella membrana plasmatica che funzionano come recettori di
superficie. Tuttavia mentre al riconoscimento dell'antigene segue, nella serie T,
una normale blastizzazione con produzione di cloni seguita dalla produzione di
molecole con funzione di messaggeri (linfochine), la risposta all'antigene delle
cellule B è più complessa e porta alla formazione di cloni capaci di produrre e
secernere anticorpi circolanti.
Una infezione mette in movimento, nell'organismo ospite, meccanismi di
ordine immunologico, variamente proiettati, a seconda che si tratti di una prima
infezione o di una reinfezione. La prima infezione determina una risposta
immunitaria, prevalentemente svolta da cellule immuno competenti (macrofagi,
linfociti) cui si affianca un apporto umorale, di provenienza
immunoglobulinica.
Nella prima penetrazione i microbatteri danno luogo a un processo
infiammatorio locale, una restante parte viene fagocitata da macrofagi - a guisa
di corpo estraneo - e trasportata nelle strutture linfatiche ove l'antigene
micobatterico è presentato ai linfociti T e B che, in tal modo, acquisiscono una
memoria immunologica specifica.
I linfociti sono un tipo di leucociti, con il compito di reagire in modo
specifico nei confronti di qualsiasi agente estraneo. Ogni linfocito possiede
sulla membrana un recettore con una sola capacità combinatoria: ciò significa
che è in grado di riconoscere e legarsi a un solo antigene. La specificità rimane
immutata durante la vita del linfocito, il quale la trasmette alle cellule-clone in
cui si riproduce: questa espansione cellulare determina l’aumento del numero
dei linfociti capaci di reagire verso quel determinato antigene. Ma non è solo la
specificità a conferire ai linfociti il ruolo speciale nella difesa dell’organismo.
Infatti, in seguito al riconoscimento, che genera una risposta immunitaria
primaria, alcuni linfociti vivono per lungo tempo conservando una memoria del
riconoscimento. I linfociti-memoria, che hanno già riconosciuto l’agente
infettivo, venendo nuovamente a contatto con lo stesso antigene danno origine a
Capitolo 10: Conclusioni: linguaggi e complessità
241
una risposta secondaria, molto più rapida e intensa. Al contrario degli altri
leucociti responsabili di una risposta immunitaria aspecifica, innata, i linfociti
innescano una risposta immunitaria specifica, che utilizza meccanismi di difesa
basati sul riconoscimento dell’invasore. Le due caratteristiche della risposta
adattativa (specificità e memoria), oltre a conferire l’immunità naturale da
malattie infettive, rendono possibile la profilassi delle malattie infettive
attraverso la vaccinazione.
I linfociti circolano nel sangue e nel sistema linfatico controllando ogni
distretto dell’organismo. Dal punto di vista funzionale sono distinti in due
principali tipi, i linfociti B e T.
I linfociti T
Prendono nome dal fatto che, dopo essere stati prodotti nel midollo osseo,
migrano nel timo, dove avviene la loro maturazione, per cui imparano a
riconoscere le cellule dell’organismo. Si evita così che possano reagire contro
cellule dell’organismo di cui fanno parte, distruggendole. Il riconoscimento
degli antigeni da parte dei linfociti T avviene tramite un recettore di membrana.
I linfociti T maturi sono di due tipi fondamentali: T helper (aiutanti) e
citotossici o soppressori. I linfociti T helper per riconoscere l’antigene devono
venire in contatto con cellule macrofagiche che “presentino” loro l’antigene. I
macrofagi possono fagocitare una struttura estranea, digerirla e demolire la
struttura antigenica. Alla fine i frammenti di antigene verranno esposti sulla
superficie cellulare del macrofago. Quando viene in contatto con il macrofago,
il linfocito T helper può riconoscere specificamente i frammenti: questo evento
attiva il linfocito T helper, che quando rincontra la struttura antigenica secerne
una inteleuchina-2. Questa a sua volta attiva quei linfociti T citotossici che
abbiano anch’essi riconosciuto lo stesso antigene, inducendoli a dividersi e a
dare origine a un clone di cellule citotossiche, capaci di uccidere tutte le cellule
che presentano quell’antigene.
I linfociti B
Nell’organismo umano, i linfociti B maturano nello stesso organo in cui
nascono, il midollo osseo. In seguito passano nel circolo sanguigno, ma,
essendo più sedentarie dei linfociti T, tendono a localizzarsi nei linfonodi, dove
costituiscono ammassi cellulari, detti follicoli primari, e solo una piccola
percentuale rimane in circolo. Di tutto il processo di maturazione, la tappa più
importante porta alla comparsa delle immunoglobuline di membrana. Un
linfocito B maturo viene attivato dal contatto con l’antigene che si lega
specificamente alle immunoglobuline della classe IgM e IgD esposte sulla sua
242
F. T. Arecchi, Caos e Complessità nel Vivente
membrana. In seguito a questo contatto specifico, il linfocito B diviene
suscettibile a una serie di molecole segnale (linfochine) rilasciate da un linfocito
helper, che abbia a sua volta riconosciuto lo stesso antigene. Il legame di queste
linfochine con i loro recettori specifici induce il linfocito B a dividersi
attivamente e a generare un clone di cellule figlie. Da queste prenderanno
origine due tipi di cellule: le plasmacellule e i linfociti B memoria. Le prime
sono a vita breve, capaci di produrre una gran quantità di anticorpi o
immunoglobuline, e destinate a morire una volta cessata questa funzione; le
seconde sono cellule con una vita molto lunga, con il compito di mantenere il
“ricordo” dell’antigene che è stato riconosciuto per la prima volta dalla cellula
capostipite del clone.
Esistono cinque tipi diversi di immunoglobuline (Ig) con funzioni diverse:
IgM: sono le Ig che vengono prodotte per prime nella prima risposta
immunitaria.
IgG: sono numericamente più rilevanti, vengono prodotte dopo le IgM nella
prima risposta immunitaria e costituiscono le Ig di memoria; si legano ai
macrofagi, permettendo loro di individuare efficacemente il bersaglio da
fagocitare. Le IgG sono anche capaci di scatenare un’efficace cascata di
reazioni biochimiche, che si concludono con l’uccisione del
microrganismo. Inoltre, le IgG sono l’unica classe anticorpale efficace
contro le tossine batteriche.
IgA: sono le Ig quantitativamente più rilevanti nelle secrezioni bronchiali,
salivari, intestinali e genitourinarie. Costituiscono un vero e proprio
sistema difensivo nelle mucose, rappresentando la prima barriera specifica
che si oppone alla penetrazione del materiale antigenico nell’organismo.
IgE: sono responsabili delle manifestazioni allergiche; liberando istamina e altri
mediatori. Le IgE svolgono inoltre un importante ruolo nella difesa dai
parassiti, in particolar modo dai vermi.
IgD: sono presenti solo sulla superficie dei linfociti B, con particolari funzioni
di recettore.
Allergie e intolleranze:
Sono due disturbi con caratteristiche ben distinte, prima fra tutte la
produzione di anticorpi. Nell’allergia, infatti, l’organismo produce quantità
esagerate di IgE, mentre le intolleranze sono dovute generalmente a deficit
enzimatici come avviene, per esempio, nell’intolleranza al latte causata da un
deficit di lattasi. Inoltre, i tempi di manifestazione dei sintomi, dal momento di
Capitolo 10: Conclusioni: linguaggi e complessità
243
contatto con l'antigene (la sostanza in grado di stimolare una reazione negli
organismi ad essi sensibilizzati), sono diversi a seconda si tratti di allergia o
intolleranza: più rapidi nella prima e più lunghi (anche di alcuni giorni) nella
seconda. In alcuni casi l'intolleranza può restare latente nei primi anni di vita,
per poi manifestarsi nell'età adulta. A differenza dell’allergia, l’intolleranza è
“dose-dipendente”, cioè legata alla quantità di alimento che viene ingerito.
10.1.6 Malattie dinamiche
L’emergenza di una dinamica anomala in un sistema fisiologico si manifesta
come un improvviso cambiamento qualitativo nel comportamento di alcune
variabili fisiologiche.
Non si tratta di una infezione di un agente patogeno, ma di un fenomeno
descrivibile in termini di dinamica non lineare e su cui si può intervenire con
controlli se si hanno in anticipo indicatori dell’insorgere del fenomeno.
Queste patologie sono state chiamate malattie dinamiche, la casistica è vasta
(epilessia, tremori senili, singhiozzo, aritmie cardiache ecc.). Al riguardo è stato
dedicato un numero speciale del giornale Chaos (vol.5, n.1 del Marzo 1995)
dell’American Institute of Physics.
Ci limitiamo a descrivere brevemente l’epilessia (F.Lopes da Silva et al.,
“Epilepsies as dynamical diseases of brain systems: basic models of the
transition between normal and epileptic activity.”, Epilepsia, vol.44, Suppl.12,
pp.72-83, 2003).
Le reti di neuroni implicate nell’epilessia hanno una dinamica multistabile,
cioè possono cadere in attrattori diversi. Illustriamo il fenomeno modellizzando
due stati: uno normale di attività apparentemente casuale, e uno parossistico
caratterizzato da oscillazioni sincrone (attacco epilettico). Nello spazio delle
fasi, i due bacini di attrazione sono separati da una linea di confine (che in molti
casi può essere un frattale). Si può ritenere che il passaggio dall’attività
normale a quella parossistica abbia luogo attraverso tre scenari.
Tipo (I): nelle cosiddette crisi di assenza la distanza fra i due attrattori è
piccola rispetto a cervelli normali, per fattori genetici o di sviluppo, e pertanto
piccole fluttuazioni dei parametri inducono una crisi.
In altri tipi (epilessie della corteccia limbica) la distanza fra attrattori è
grande e non bastano fluttuazioni, ma le reti hanno parametri instabili,
modificabili da fattori endogeni (II) o esogeni (III). In questi casi il passaggio
può essere graduale e se ne può anticipare l’insorgere monitorando l’EEG.
244
F. T. Arecchi, Caos e Complessità nel Vivente
Abbiamo inserito questi cenni a sistema immunitario (con malattie
autoimmuni) e malattie dinamiche perché in ambo i casi la patologia può essere
vista come un difetto di comunicazione, cioè un errore linguistico.
10.1.7 Neuroeconomia, ecc.
A questo punto, mi rendo conto che introdurre la polisemia è come
scoperchiare il vaso di Pandora: si presentano moltissime situazioni familiari
per cui finora sono state fornite spiegazioni insoddisfacenti.
Ad esempio, la neuroeconomia, per cui è stato attribuito il Nobel 2002 per
l’economia a Vernon Smith, consiste nella rinuncia al dogma post-cartesiano di
agenti razionali che operano scelte economiche dopo aver conseguito la
“certezza” sui dati che regolano una certa situazione (è questa la base
dell’economia classica fondata da Adam Smith). Si indagherà piuttosto sul
retroterra psicologico che influenza una scelta, cercando sperimentalmente di
isolare quei meccanismi ripetitivi che permettono una previsione affidabile.
Sono le emozioni, assai più della ragione, a guidare le nostre scelte
economiche. E basta “guardare” nel cervello per scoprire che il senso di equità
pesa più del vantaggio personale, come dimostra una ricerca recente
(A.G.Sanfey. et al “The Neural Basis of Economic Decision-Making in the
Ultimatum Game.”, Science, Jun, 13, pp.1755-1758, 2003).
Concludiamo queste note dicendo che quelli offerti sono solo alcuni esempi.
Questo libro va visto come una struttura aperta, da cui partire per affrontare
in modo non convenzionale scenari noti ma non del tutto chiariti.
Fly UP