Comments
Description
Transcript
Caos e Complessità nel Vivente
Corso SUS 2003 Caos e complessità nel vivente FT Arecchi Università di Firenze e Istituto Nazionale di Ottica Applicata [email protected] Prefazione Questo libro è nato da un corso interdisciplinare con il titolo “Caos e Complessità nel Vivente” indirizzato a un gruppo selezionato di studenti universitari del IV anno di corso nella classe di Scienze (Medicina, Ingegneria, Fisica Chimica, Matematica; mi riferisco al vecchio ordinamento, soppiantato recentemente dal cosiddetto esperimento 3+2, che per ora suscita cautele e perplessità). Il corso è stato organizzato nell’ambito della SUS (Scuola Universitaria Superiore) dell’Università di Pavia in novembre-dicembre 2003. Il libro si riferisce a temi di ricerca a cui ho dedicato il mio impegno di investigatore e docente da decenni. Nello svolgere il corso SUS ho avuto l’assistenza preziosa del mio collega ed amico Marco Malvezzi, con cui avevo già condiviso una parte della mia avventura intellettuale avendolo avuto come studente e giovane ricercatore. È stato un piacere enorme ritrovarci dopo decenni, ciascuno col proprio bagaglio di colpi messi a segno e…di buchi nell’acqua; Marco ha proiettato le mie proposte sul suo spazio privato di cultura ed esperienza, ed ha reagito con consigli preziosi che hanno aiutato la stesura di queste note, facendo inoltre da interfaccia con gli studenti, di cui ha interpretato i dubbi e le perplessità. Sono estremamente grato a Claudio Ciamberlini, dell’Istituto Nazionale di Ottica Applicata, per il suo competente contributo di esperto di software che ha permesso a queste note di assumere una forma decente. INDICE GENERALE 0 INTRODUZIONE................................................................................................................................... 1 0.1 SCOPO DEL LIBRO ................................................................................................................................ 1 0.2 FISICA IN NUCE .................................................................................................................................... 4 0.3 COMPLESSITÀ FORMALE, ALGORITMICA, SEMANTICA - COME TRADURRE IL VISSUTO PERCETTIVO IN UNA LINGUA CON LESSICO LIMITATO. ..................................................................................................... 8 0.4 CAOS DETERMINISTICO: ESEMPI DI APPLICAZIONE A PROCESSI PERCETTIVI E AD OROLOGI BIOLOGICI ... 10 0.5 FISICA E FISIOLOGIA .......................................................................................................................... 16 0.6 BIBLIOGRAFIA ................................................................................................................................... 18 PARTE I IL LESSICO DELLA FISICA............................................................................................... 19 1 LA FISICA DELL’ORDINE ............................................................................................................... 20 1.1 DINAMICA-ENERGIA.......................................................................................................................... 20 1.2 PARTICELLE E FORZE ......................................................................................................................... 28 1.3 ONDE ................................................................................................................................................ 31 1.4 BILANCI ENERGETICI. CHIMICA E VITA ............................................................................................... 34 1.5 I QUANTI ........................................................................................................................................... 37 2 LA FISICA DEL DISORDINE............................................................................................................ 44 2.1 LE MACCHINE TERMICHE E L’ENTROPIA.............................................................................................. 44 2.2 PROBABILITÀ .................................................................................................................................... 47 2.3 L’INFORMAZIONE .............................................................................................................................. 50 2.4 TERMODINAMICA E MECCANICA STATISTICA: DALL’INDIVIDUALE AL COLLETTIVO .............................. 52 3 LA FISICA DELL’ORGANIZZAZIONE .......................................................................................... 57 3.1 IL LIVELLO MESOSCOPICO - LE TRANSIZIONI DI FASE .......................................................................... 57 3.2 SINERGETICA E AUTO-ORGANIZZAZIONE ............................................................................................ 66 3.3 COME INDIVIDUARE I SOTTOSISTEMI .................................................................................................. 68 3.4 CALCOLATORI, COGNIZIONE E PENSIERO ............................................................................................ 69 4 I FATTI DELLA VITA ........................................................................................................................ 78 4.1 I FATTI DELLA VITA PER NON-BIOLOGI................................................................................................ 78 4.2 I FATTI DEL CERVELLO PER NON-NEUROLOGI ...................................................................................... 86 PARTE II GLI STRUMENTI FORMALI ............................................................................................. 92 5 LA DINAMICA LINEARE E LA SOVRAPPOSIZIONE DEGLI EFFETTI................................. 93 5.1 ALCUNE FUNZIONI DI AREA 1 ............................................................................................................. 93 5.2 LA TRASFORMATA DI FOURIER ........................................................................................................... 94 5.3 COME FOURIER SEMPLIFICA DERIVATE ED INTEGRALI ......................................................................... 97 5.4 GRADI DI LIBERTÀ DI UN SEGNALE ................................................................................................... 102 5.5 RISPOSTA LINEARE, CONVOLUZIONE, CORRELAZIONE....................................................................... 107 5.6 OPERAZIONI NON LINEARI: ETERODINA E OLOGRAFIA ....................................................................... 111 5.7 APPENDICI....................................................................................................................................... 114 A.1 RICHIAMI DI MATEMATICA .............................................................................................................. 114 A.2 ONDE ............................................................................................................................................. 117 A.3 FUNZIONI IN 2D.............................................................................................................................. 121 6 LA FISICA STATISTICA ................................................................................................................. 126 6.1 EQUILIBRIO TERMODINAMICO E CINETICA CHIMICA .......................................................................... 126 6.2 DIFFUSIONE..................................................................................................................................... 129 6.3 VARIABILI STOCASTICHE, PROBABILITÀ, MOMENTI E CUMULANTI..................................................... 132 6.4 PROCESSI STOCASTICI, PROCESSI DI MARKOV, EQUAZIONE DI FOKKER-PLANCK ............................... 134 6.5 DISTRIBUZIONI NON-GAUSSIANE, A CODA LUNGA (A LEGGE DI POTENZA).......................................... 139 7 DINAMICA NON LINEARE E CAOS............................................................................................. 144 7.1 DINAMICA LINEARE: SPAZIO DELLE FASI, EQUILIBRI STABILI E INSTABILI. ......................................... 144 7.2 DINAMICA NON LINEARE E LINEARIZZAZIONE ATTORNO AI PUNTI DI EQUILIBRIO; BIFORCAZIONI. ...... 148 7.3 SISTEMI ECCITABILI. MODELLO DI FITZHUGH E NAGUMO ................................................................ 153 7.4 ESPONENTI DI LYAPUNOV E ATTRATTORI, IL CAOS DETERMINISTICO................................................. 155 7.5 ATTRATTORI STRANI E DIMENSIONI FRATTALI .................................................................................. 158 7.6 SEZIONI DI POINCARÉ E MAPPE ITERATIVE ........................................................................................ 160 7.7 INFORMAZIONE DI UN SEGNALE CAOTICO ......................................................................................... 161 7.8 I QUATTRO LIVELLI DI DESCRIZIONE DI UN SISTEMA FISICO. .............................................................. 162 PARTE III LA FISICA DEL VIVENTE .............................................................................................. 163 8 LA COMPLESSITÀ BIOLOGICA .................................................................................................. 164 8.1 ORDINE E COMPLESSITÀ .................................................................................................................. 164 8.2 MODELLI DI VITA ............................................................................................................................ 180 8.3 LA COMPLESSITÀ BIOLOGICA. .......................................................................................................... 182 8.4 MOTORI MOLECOLARI, METABOLISMO ............................................................................................. 186 8.5 DALL’INDIVIDUO AL COLLETTIVO: LE FORME REGOLARI................................................................... 190 8.6 LE RETI ........................................................................................................................................... 192 8.7 BIBLIOGRAFIA ................................................................................................................................. 196 9 PROCESSI PERCETTIVI: SINCRONIZZAZIONE DI RETI E ASPETTI QUANTISTICI..... 197 9.1 FISICA DELLE PERCEZIONI ................................................................................................................ 197 9.2 FEATURE BINDING E CODICE TEMPORALE ......................................................................................... 203 9.3 ART (TEORIA DELLA RISONANZA ADATTIVA)................................................................................. 209 9.4 CAOS E DINAMICA NEURONALE: IL CAOS OMOCLINICO E LA PROPENSIONE ALLA SINCRONIZZAZIONE. 213 9.5 CHI LEGGE L’INFORMAZIONE CODIFICATA IN UNA RETE DI NEURONI: LA FUNZIONE DI WIGNER RIMPIAZZA L’HOMUNCULUS ............................................................................................................... 222 9.6 IL RUOLO DEL TEMPO DI DECISIONE: ASPETTI QUANTISTICI NEI PROCESSI PERCETTIVI. ....................... 227 9.7 BIBLIOGRAFIA ................................................................................................................................. 233 10 CONCLUSIONI: LINGUAGGI E COMPLESSITÀ..................................................................... 234 10.1 I PROBLEMI APERTI ........................................................................................................................ 234 0 Introduzione 0.1 Scopo del libro Un fisico si appoggia sul formalismo matematico e, anche se non si preoccupa dell’eleganza delle derivazioni formali, si sente molto rassicurato quando un pezzo di mondo, tradotto in un modello matematico, dà luogo a equazioni risolubili, le cui soluzioni anticipano comportamenti futuri. Robert Rosen, un biologo teorico, ha definito il cervello come un sistema anticipatore, che estrae dal mondo un modello risolubile in un tempo più breve di quanto quel pezzo di mondo ci metta ad evolvere effettivamente, preparandosi così in anticipo ad intervenire con un controllo. È quel che facciamo quando guidiamo l’auto e ci prefiguriamo come sterzare o frenare alla vista di un ostacolo. Questa modellizzazione anticipatrice è tipica di ogni cervello, come si può vedere quando un gatto cerca di catturare un topo e questo cerca di sottrarsi. Il fisico ha sublimato questi meccanismi anticipatori estraendo delle quantità che descrivono al meglio il comportamento di un oggetto, e coordinando queste quantità all’interno di un modello matematico risolubile. Il piatto forte di questo libro è la Parte III, dove questa strategia, distillata in alcuni secoli dai fisici, viene applicata ai fenomeni della vita. Un tale approccio è parso alquanto ostico agli studenti di medicina e di biologia, dato che la loro ratio studiorum non prevede un’adeguata preparazione matematico-fisica (a differenza di quanto avviene, ad esempio, nelle scuole di medicina e biologia in altri Paesi). Pertanto, a costo di offendere la sensibilità estetica degli studenti di matematica e fisica, tutte le procedure formali sono state ipersemplificate, senza esplorarne i limiti di validità, ma utilizzandole quando ciò era possibile, senza discutere gli altri casi. Malgrado ciò, gli studenti di medicina hanno continuato a provare disagio anche di fronte alle derivazioni matematiche più semplici. D’altronde queste, oltre che rassicuranti (perché anticipatrici nel senso di Rosen) sono anche belle, perché mettono in evidenza un parallelo fra le cose del cosmo e le procedure del mondo matematico che apparentemente è una nostra invenzione mentale; tant’è che – se volessimo applicare il linguaggio poetico di un umanista come Nicola Cusano – parleremmo di armonia fra macro-cosmo (il mondo fuori) e micro-cosmo (il mondo delle nostre invenzioni matematiche). Per mitigare il traumatico impatto con un linguaggio esoterico, si è deciso allora di presentare i fatti della fisica in maniera colloquiale (Parte I) con 2 F.T. Arecchi, Caos e Complessità nel Vivente dovizia di figure e senza equazioni, o per lo meno, presentando un’equazione a parole come il sommario di un precedente ragionamento, ad esempio al par.1.1: lavoro = forza x spostamento Con questo approccio discorsivo, un lettore proveniente da un’estrazione culturale diversa (perché no? un poeta o un filosofo) può familiarizzarsi con fatti assodati e universalmente noti della cultura scientifica – quali ad esempio l’interferenza delle onde, o lo spettro di emissione del sole, o il rendimento di un motore d’auto – e quindi procedere alla Parte III, che è il cuore del libro, con un’informazione di base presentata peraltro in modo sufficientemente critico da non ingenerare eccessivi ottimismi o pessimismi sul ruolo che la scienza può avere come strumento interpretativo del reale. Nel 1991 avevo scritto con mia moglie il libro “I simboli e la realtà”, Jaca Book, Milano, (che d’ora in poi citeremo come SR), indirizzato a filosofi e teologi, perché si rendessero conto dei poteri e dei limiti dei nostri simboli concettuali nel rappresentare la realtà in modo così potente da non solo anticiparne aspetti fenomenici ma da poter costituire la base per un’ontologia. Ho qui ripreso largamente la parte centrale di quel libro, depurandola di tutte quelle considerazioni critiche che in SR rimandavano alle analisi epistemologiche sviluppate nelle altre due parti. Chi fra i lettori trovi troppo tecnica questa fisica del vivente e voglia inserire le derivazioni presentate in questo libro in un contesto più critico, confrontandosi con altri linguaggi, è consigliato di consultare SR. Qui mi sono messo strettamente dal punto di vista del fisico e ho evitato qualunque considerazione meta-fisica. Molte idee cruciali per il vivente, quali l’informazione o le transizioni di fase, sono presentate a un livello euristico nella Parte I e poi ridiscusse con un apparato formale nella Parte III. Per chi ritenesse sufficiente fermarsi all’euristica, devo far presente che l’ordine in cui si consolidano le nostre visioni del mondo è spesso invertito: prima cioè formuliamo il modello matematico di un fenomeno non ancora capito, e solo dopo – una volta che giocando con varianti dei parametri a disposizione abbiamo esplorato teoricamente diverse situazioni possibili e verificato se nella realtà si realizzano – siamo in grado di distillare una spiegazione euristica, da Parte I per intenderci. Il tentare con parametri diversi corrisponde, nell’indagine scientifica, a quanto facciamo per catturare gli aspetti di un oggetto nuovo: gli giriamo attorno per apprezzarne punti di vista diversi; in effetti ogni nostra percezione visiva è il risultato di una proiezione 2D (bidimensionale) sulla Capitolo 0: Introduzione 3 retina. Solo il confronto tra le varie percezioni 2D memorizzate ci permette di ricostruire l’oggetto in 3D, cioè nello spazio tridimensionale in cui sia noi sia l’oggetto siamo immersi: si tratta di un metodo tomografico. È così che si è sviluppato ad es. il cammino della genetica da Mendel al DNA. Oggi, sia sull’origine della vita sia sui processi percettivi e astrattivi nel cervello, non abbiamo completato il percorso; pertanto il racconto che ne facciamo è ancora carente e dobbiamo pesantemente ricorrere all’ausilio formale. La sequenza dei processi scientifici creativi dunque non è: prima la comprensione euristica di Parte I e poi, con funzione decorativa, il formalismo, ma semmai il contrario: prima ci rassicuriamo che le nostre protesi mentali (gli strumenti matematici) ci permettano di controllare una situazione, e solo dopo cerchiamo il perché. Demandare ad altri la parte formale ed accontentarsi dell’euristica vuol dire non partecipare al processo creativo ma guardare come altri lo fanno, da spettatori, come se fosse una divulgazione televisiva. Ricordo al riguardo, nell’Antonio e Cleopatra di Shakespeare, Cleopatra che maligna su che cosa possa provare l’eunuco di guardia nel pensare agli amori di Venere e Marte (W Shakespeare, The tragedy of Antony and Cleopatra, Atto I, Scena V). In ogni caso, anche se uno non si prefigge di contribuire in modo creativo a un capitolo della scienza, ne può cogliere gli aspetti euristici solo dopo che questo si sia consolidato. Ora molti aspetti fisico-chimici della vita sono stati affrontati e sistemati nei decenni passati, ma quale sia il ruolo di caos e complessità sui processi vitali è ancora un discorso aperto. Ad esempio esistono classi di malattie, dette dynamical diseases, che non dipendono dai componenti elementari ma sono il risultato di un malfunzionamento del sistema: tale è ad esempio la perdita di sincronizzazione fra sistema cardiaco e respiratorio che può portare alla morte i neonati; tale è l’instabilità glicolitica in base a cui un muscolo sotto sforzo può dare contrazioni oscillatorie; tale sembra essere il comportamento individuale di un neurone, pur essendo congruente il comportamento di insieme di una folla di neuroni impegnati nello stesso compito. Trattandosi di work in progress, non esiste per questi aspetti un racconto divulgativo come fatto in Parte I. Spero dunque di aver persuaso il lettore che vale la pena affrontare la fatica della Parte III. La Parte II è una presentazione, alquanto semplificata, degli strumenti formali necessari per affrontare la Parte III. Questi strumenti sono descritti in modo intuitivo e con riferimento a situazioni concrete. In questo capitolo definiamo in modo euristico i due termini, complessità e caos, introdotti nel titolo; le proprietà formali saranno considerate in seguito. 4 F.T. Arecchi, Caos e Complessità nel Vivente 0.2 Fisica in nuce La fisica (dal Greco physis, che in Latino fu tradotto con natura) indica la scienza delle cose osservate; useremo pertanto il termine generico di fisica per scienza, includendovi biologia ecc. La fisica moderna nasce col programma di Galileo, enunciato nella lettera a M.Welser del 1610: “non tentare le essenze (cioè non cercare di descrivere le nature delle cose, con le conseguenti ambiguità legate a punti di vista soggettivi) ma contentarsi delle affezioni quantitative”. Il programma è esemplificato nella fig.0.1. Figura 0.1: Frammentazione di un oggetto di esperienza nella collezione di quantità misurabili. Ogni quantità misurata (sapore, colore, …) è codificata da un numero, che corrisponde a un punto di una retta graduata dove si classificano le misure della quantità; una collezione di numeri (come le barre del codice dei prezzi al mercato) individua un oggetto: discuteremo in seguito il problema se questa frammentazione sia esauriente, cioè assicuri una descrizione completa dell’oggetto. Dopo Newton, si tenta di descrivere l’oggetto solo con posizione e velocità delle particelle costituenti. Le correlazioni osservate fra quantità diverse suggeriscono relazioni matematiche fra i numeri corrispondenti (induzione) o fra il numero di una quantità n(t) a un certo tempo t e il valore n(t’) a un tempo successivo t’ (predizione). Capitolo 0: Introduzione 5 Il modello è l’insieme delle quantità misurate e codificate in numeri n, m…(concetti) più le relazioni matematiche (leggi) che collegano questi numeri, e le cui soluzioni anticipano lo stato futuro del pezzo di mondo che stiamo investigando. Si pone allora la domanda: la fisica è modello o metafora del mondo? Abbiamo visto che modello = collezione di termini univoci, dal cui gioco mutuo emergono predizioni affidabili. Invece metafora = parola con più significati, che si può adattare a circostanze diverse. Prendiamo ad esempio l’apprendimento di una lingua; può realizzarsi - per modello: con grammatica e vocabolario; - per metafora: direttamente nel vissuto, come fanno i bambini. Vedremo che la fisica non può ridursi a modello; è questo il cuore della complessità. Intanto elenchiamo le modalità di interrogazione del mondo, per estrarre le affezioni quantitative. Sono veicoli di informazione per percezioni sensoriali: - molecole (olfatto, gusto); - contatto (tatto); - onde (udito, vista). Nel caso di apparati di misura, possiamo in più usare fasci di particelle (elettroni, neutroni, ecc.). Limitiamoci alla vista; nei cap.1 e 9 descriveremo aspetti del processo della visione, intanto anticipiamo che – per il fenomeno della diffrazione – non possiamo risolvere oggetti di taglia inferiore alle lunghezze d’onda a cui il nostro occhio è sensibile. Dobbiamo perciò distinguere fra visione diretta (anche se mediata da strumenti che magnificano l’oggetto, quali i microscopi e telescopi) e visione indiretta. 6 F.T. Arecchi, Caos e Complessità nel Vivente Come vediamo Figura 0.2: L’universo osservabile, o direttamente o indirettamente. Nella visione diretta ad esempio della mela, catturiamo un’immagine bidimensionale sulla retina dell’occhio o sulla superficie sensibile della macchina fotografica. Confrontando diverse immagini catturate da prospettive diverse, ci costruiamo culturalmente l’aspetto tri-dimensionale: in effetti, ”girando” attorno alla mela, le varie immagini sono compatibili e si raccordano fra loro. Invece nella visione indiretta dobbiamo bombardare l’oggetto non visibile con proiettili sonda, e osservare il ventaglio di direzioni su cui questi proiettili sono sparpagliati dopo avere interagito con l’oggetto. La stessa sonda può dare luogo a risposte diverse; quindi la singola risposta non è significativa, ma bisogna accumularne una gran quantità e associare l’informazione alla distribuzione dell’insieme delle risposte. E qui nasce una limitazione di principio a qualunque nostra osservazione. Semplifichiamo l’oggetto ignoto come una pallina senza struttura interna; vogliamo allora saperne posizione e velocità per utilizzarle in una ricostruzione newtoniana del mondo (vedi fig.0.1). Ma per un’accurata localizzazione della posizione, dobbiamo usare proiettili energetici, che disturbano la velocità; e viceversa per misurare la velocità perdiamo di accuratezza nella posizione. Si ha cioè la relazione di indeterminazione di Heisenberg: il prodotto dell’incertezza in posizione e di quella in velocità non può scendere sotto un valore minimo. Se costruiamo un Capitolo 0: Introduzione 7 piano posizione-velocità e cerchiamo di individuare una coppia di valori (x,v), non possiamo localizzare il punto corrispondente ma abbiamo una curva a campana di probabilità che si appoggia sull’area di Heisenberg. Se cerchiamo di migliorare la risoluzione in una direzione, la peggioriamo nell’altra (fig.0.3) Figura 0.3: Incertezza posizione-velocità nelle misure indirette. Il limite vale per qualunque misura; solo che l’area di Heisenberg è così piccola che nelle misure dirette non ce ne accorgiamo e reputiamo di aver misurato la coppia senza che una misura disturbi l’altra. Conclusione generale: il lessico della fisica è accurato solo a “grana grossa”; se scendiamo a grana fina, ci sono sovrapposizioni fra le campane di incertezza legate a misure distinte (che dovrebbero codificare concetti distinti, cioè termini distinti del lessico della fisica). Il formalismo in tal caso non è più sufficiente: occorre introdurre anche un’informazione contestuale, così come avviene nel linguaggio ordinario. Nel discorso scientifico rimane una componente metaforica ineliminabile, che peraltro è il segreto della creatività, in quanto permette di esplorare scenari non inclusi nella formulazione di partenza. È per questo che il programma della fisica appare come aperto e non ha senso porsi la domanda: dove finisce l’indagine fisica? 8 F.T. Arecchi, Caos e Complessità nel Vivente 0.3 Complessità formale, algoritmica, semantica - Come tradurre il vissuto percettivo in una lingua con lessico limitato. La complessità nasce dal tentativo di una costruzione logica del mondo a partire dalle “affezioni quantitative” in cui frantumiamo un oggetto di esperienza, piuttosto che “tentarne l’essenza” (Galileo, 1610). Il tentativo è motivato dalla convinzione che si possa raggiungere una descrizione completa di un oggetto di esperienza attraverso i suoi “atomi di significato” (es. della mela: odore, colore, sapore, forma etc, oppure, più radicalmente, gli atomi di cui è composta la mela). Ogni oggetto diventa così un elemento definito di un insieme di Cantor (vedi R.Carnap, 1931: La costruzione logica del mondo). Tre limiti a questo programma riduzionistico corrispondono a tre possibili caratterizzazioni della complessità, formale, algoritmica e semantica. a) formale (1931, Goedel). Teorema di indecidibilità: estraendo tutti le possibili conseguenze da un corpo finito di assiomi, prima o poi si arriva a una proposizione indecidibile all’interno della teoria (cioè basandosi sul corpo di assiomi); l’equivalente “macchinistico” fu enunciato da Turing 1936, come impossibilità di una macchina universale di calcolo (cioè un computer) di fermarsi completando l’esecuzione per un generico input. Dunque, non possiamo costruire una teoria chiusa del mondo, cioè dedurre tutti gli aspetti della nostra esperienza a partire da un numero finito di assiomi. b) algoritmica (~1970, Kolmogorov e Chaitin). La complessità è il costo di un calcolo; ha pertanto due aspetti: - spaziale: quantità di risorse di macchina da impegnare; - temporale: tempo necessario all’esecuzione. Esploriamo questo secondo aspetto. Sia t1 l’unità di tempo necessaria per descrivere un singolo elemento, e si abbiano N elementi. Se le loro proprietà si sommano (come i fagioli in un sacco) cioè se l’oggetto composto di N elementi è cresciuto per “giustapposizione”, allora il tempo totale necessario T è: T = N t1 Se invece la crescita è per “intussuscezione” (uso un vecchio termine della filosofia della natura che vuol dire che gli elementi non si limitano a giustapporsi, ma si accoppiano fra di loro con modalità non prevedibili a partire da un’ispezione del singolo elemento; es. tipico: una collezione di vocaboli di Capitolo 0: Introduzione 9 un lessico, disposti convenzionalmente in ordine alfabetico nel dizionario, e come invece si organizzano nel verso di un poeta) allora il tempo totale non è la semplice somma dei tempi individuali, e addirittura l’estensione (“size”) N del sistema composto può figurare ad esponente: T’ = (t1) N P. es. sia t1 =1 microsec = 10–6 sec e N=10, allora: T = 10 t1 = 10-5 sec e T’= t110 = 10+4 sec Che è ancora praticabile (si tratta di meno di tre ore), ma se N=100, allora T=100 t1 = 10-4 sec e T’ =t1100 = 1094 sec Molto più lungo dell’età dell’universo che è circa: 107 sec/anno x1010anni = 1017 sec. c) semantica La complessità semantica è la più fondamentale; essa rappresenta il limite della presunzione ideologica della fisica dei componenti elementari di essere l’unica descrizione rilevante del reale: il cosiddetto riduzionismo. Supponiamo di scomporre una mela nelle sue affezioni quantitative, cioè nelle proprietà distinte che possiamo misurare: sapore, odore, colore, forma etc. Ognuno di questi punti di vista corrisponde ad un apparato di misura che fornisce un numero. Se abbiamo scelto un numero adeguato di indicatori, la collezione ordinata dei numeri corrispondenti a ciascuna misura dovrebbe caratterizzare una mela. Ciò può bastare per il rifornimento del magazzino di un mercato, però non esaurisce la realtà della mela. In effetti l’intero (la mela) precede le misure separate, che forniscono quantità derivate, non primitive: si appoggiano alla mela ma una volta enucleate (tecnicamente: astratte) non permettono la ricostruzione logica della mela. A parte una indecidibilità di Goedel-Turing o un aumento esponenziale del tempo di calcolo, non siamo mai sicuri che nel futuro non compaia un ulteriore punto di vista inedito che sia misurabile e che arricchisca la descrizione della mela. Si ricordi quanto detto sulla ricostruzione tomografica degli aspetti 3D di un oggetto. Prendiamo l’esempio del genoma umano. Sono stati individuati 30. 000 geni, cioè tratti di sequenze di basi che codificano proteine; ma unendo tutti i tratti si arriva all’1% della lunghezza totale del genoma; il 99% – non codificante – espleta delle funzioni che stiamo appena cominciando a chiarire. L’insorgere di correlazioni tra tratti diversi (per esempio un gene la cui espressione dipende 10 F.T. Arecchi, Caos e Complessità nel Vivente dalle proteine codificate da altri geni) rende complesso il problema nel senso che non ne abbiamo esaurito il significato con il semplice elenco dei geni. Gli esempi più convincenti vengono dalla linguistica. Sappiamo bene che prima nasce il linguaggio articolato, la poesia, le favole, e poi da queste si estrae un lessico. L’operazione inversa, partire dal vocabolario e programmare al computer un testo letterario, è fallimentare. In questo ordine di complessità rientra la traduzione da una lingua all’altra. Esistono macchinette per cavarsela alla stazione o al ristorante in Cina; ma per un testo elaborato, per esempio Omero, il traduttore non è automatico: piuttosto è un bilingue che vive le situazioni di Ulisse in Greco e le racconta in Italiano. Questo ruolo del traduttore è discusso in un bel libro: Il grande codice (la Bibbia e la letteratura) di Northrop Frye (Einaudi, 1986); l’autore si pone il problema: come mai la Bibbia scritta in Ebraico (lessico di 5.000 vocaboli) può essere tradotta in Inglese (il cui lessico comprende 500.000 vocaboli)? La risposta è che una procedura complessa come la traduzione letteraria non può essere tradotta in un elenco di operazioni di macchina, e perciò non può essere automatizzata. 0.4 Caos deterministico: esempi di applicazione a processi percettivi e ad orologi biologici Il caos deterministico è legato alla mancanza di stabilità trasversa delle traiettorie. Rappresentiamo una traiettoria, di quelle che abbiamo imparato a calcolare con le regole nate con Newton e sviluppate nei secoli successivi, con un tratto di retta (fig.0.4). In direzione ortogonale alla traiettoria possiamo avere un paesaggio dell’energia a valle o a colle. È un modo figurato per rispondere alla domanda: quanto costa in energia (che rappresentiamo in questo schema come altezze) turbare la traiettoria a partire da un certo punto? Nel paesaggio a valle, un eventuale errore nella condizione iniziale viene riparato al passare del tempo; nel paesaggio a colle, viene amplificato e rende incerta la previsione sul resto della traiettoria; donde l’apparente ossimoro: caos perché non si può prevedere il futuro al di là di un tempo limitato (corrispondente alla caduta dal colle), deterministico perché non è l’effetto statistico di una folla di perturbazioni incontrollate, ma insorge in sistemi semplici, descritti da un numero piccolo di equazioni dinamiche. Precisamente, Poincaré (1890) mostrò che basta passare da 2 a 3 equazioni (diremo: da 2 a 3 dimensioni dinamiche, abbrevieremo con 2D e 3D) perché possa insorgere il passaggio da valle a colle. Vedremo nella parte II che è essenziale avere forze non lineari (il termine gergale sarà chiarito ad Capitolo 0: Introduzione 11 abundantiam nelle Parti I e II) altrimenti qualunque sistema, per ricco che sia di componenti, può dinamicamente scomporsi in sistemi regolari giustapposti. Figura 0.4: In alto a sinistra: una traiettoria dinamica per un sistema dinamico a due gradi di libertà (2D), schematizzata dalla linea solida con freccia, ha stabilità traversa, nel senso che, se esploriamo punti vicini alla traiettoria, i moti che nascono da essi tendono a convergere verso la traiettoria originale; rappresentiamo ciò come il confinamento dei punti sulla linea di fondo-valle. In alto a destra: da 3D in su, Poincaré mostrò che è possibile un’instabilità traversa, simbolizzata da una traiettoria pericolosamente arroccata sulla cima di un colle; qualunque incertezza ad un certo istante si trova amplificata nei tempi successivi dalla caduta a destra o a sinistra del colle: questa incertezza che cresce nel tempo è detta caos deterministico. Quanto detto vale per un singolo sistema isolato, retto da equazioni semplici; se ora il sistema è immerso in un ambiente esterno, esso riceve perturbazioni non descrivibili con una formula matematica precisa, ma caratterizzate solo da medie statistiche. Il risultato (in basso a sinistra) è che non avremo una traiettoria definita ma un insieme di traiettorie, che rappresentiamo come la superficie di un fiume più o meno profondo, a seconda dell’entità del disturbo ambientale (il cosiddetto noise). Nel caso caotico, sembrerebbe non aver senso applicare il noise, perché la traiettoria si sparpaglia già di suo; in effetti vedremo al cap.7 che esistono situazioni di ipercaos in cui coesistono traiettorie caotiche diverse, ed ognuna con una sua stabilità; per cui, il noise in tal caso può stimolare il salto da una situazione caotica a un’altra. Descriviamo un’applicazione del caos al sistema solare. Finché consideriamo il problema a due corpi Terra-Sole siamo nel caso stabile; ma se teniamo conto 12 F.T. Arecchi, Caos e Complessità nel Vivente di altri corpi la dinamica di un qualunque pianeta è instabile, con una fuga dall’orbita ideale su tempi dell’ordine di 500 mila anni: è perciò che non ce ne siamo accorti nei 3 mila anni di osservazioni astronomiche! Una possibile conseguenza è che 65 milioni di anni fa un asteroide, che fino ad allora aveva orbitato fra Marte e Giove, intraprendendo un’orbita allungata sia caduto sulla Terra, causando una catastrofe ecologica che ha determinato l’estinzione di massa dei dinosauri. Il caos e la complessità sono oggi applicati a molti fenomeni e ne spiegano l’insorgenza di apparenti anomalie, quali un tornado in meteorologia, o una crisi nei mercati finanziari, o un black-out nella distribuzione di energia elettrica in una regione. Una volta scoperto il caos nel singolo sistema dinamico, che succede se ne mettiamo insieme un numero grande, con accoppiamenti mutui, con reti di feedback (chiamiamo feedback il fatto che un sito A, ricevendo un segnale da B, reagisca mandando indietro un segnale risposta che a sua volta modifica B). La grossa sfida è il controllo del caos, che permette di trasformare un singolo oggetto imprevedibile in una rete di oggetti accoppiati con comportamento regolare. Nel cap.9 vedremo come un neurone, che è un sistema dinamico non lineare e pertanto genericamente affetto da caos, si accoppia in rete agli altri di una certa zona cerebrale, ad esempio la corteccia visiva o auditiva, contribuendo ad una percezione definita Anticipiamo dal cap.9 la presentazione del codice temporale che sta alla base del feature binding (collegamento fra le attività di neuroni esposti a stimoli localmente diversi, ma che devono contribuire a formare una percezione significativa): vedi fig.0.5. Per collegarsi con gli altri, un neurone codifica l’informazione che a sua volta ha ricevuto in un potenziale d’azione che viaggia sull’assone e che consiste di brevi impulsi di durata 1 msec (spikes) separati in media di 25 msec. Gli intervalli temporali fra spikes successive (ISI=inter spike interval) dipendono dallo stimolo cioè codificano uno specifico segnale: un po’ come il codice a barre di un prodotto in base a cui paghiamo alla cassa. Come si può vedere da fig.0.5, tutti quei neuroni nei cui campi recettivi (per la definizione, andare al cap.9) entrino parti del gatto, (i cerchietti neri della figura) hanno treni di spikes sincronizzati. Lo stesso accade per la donna (i cerchietti bianchi). Si noti che così stiamo introducendo un codice temporale (CT) ben più sofisticato della semplice posizione dell’ago (PA) di uno strumento di misura (più modernamente, invece di una presentazione analogica come sul cruscotto di un’automobile, oggi abbiamo per lo più presentazioni numeriche: Capitolo 0: Introduzione 13 indicheremo sempre la lettura finale con PA). Come vedremo in dettaglio nel cap.9, CT permette una ricchezza di informazione. Supponiamo ad es. che la minima distanza fra due spikes successive sia 3 msec e che il tempo di lettura per avere una percezione sia 180 msec (sono dati abbastanza vicini a quelli fisiologici); avremo pertanto 180/3= 60 finestre temporali 0/1 (c’è/non c’è impulso) sull’intervallo totale di misura. Questo permette di costruire 260, cioè circa 1020, possibilità diverse (messaggi), che differiscono uno dall’altro per le posizioni e i numeri di 0 e di 1; di volta in volta, l’informazione è codificata dalla sequenza binaria, ad es. 001011100…e così via per 60 volte. Invece in PA l’ago dello strumento (o il display digitale) darebbe solo 60 posizioni diverse, cioè 60 possibili messaggi, che differiscono uno dall’altro per la posizione (ogni volta unica!) del cursore. A livello precedente la comparsa dei cervelli, già la natura aveva sfruttato l’esplosione combinatoria per arricchire la panoplia dell’informazione; in effetti con solo 92 atomi (anzi con molto meno) ha combinato centinaia di migliaia di molecole. Figura 0.5: Feature binding: la donna e il gatto sono rappresentati ognuno da un insieme di neuroni, indicati rispettivamente dai cerchi vuoti e da quelli pieni. Questi insiemi racchiudono i neuroni che rivelano i dettagli specifici degli oggetti visuali (come, ad esempio, l’orientazione dei segmenti di contorno). Le relazioni tra i dettagli possono essere codificate grazie alle correlazioni temporali: neuroni che fanno parte dello stesso insieme scaricano impulsi elettrici in sincronia, mentre non ci sono relazioni temporali tra neuroni che si riferiscono ad oggetti diversi. Ma come fa un neurone ad adattare l’ISI al variare dello stimolo? Il segreto sembra consistere in una dinamica detta omoclinica (HC=homoclinic chaos) cioè nel continuo ritorno a una sella, come mostrato in fig.0.6 (per capire come 14 F.T. Arecchi, Caos e Complessità nel Vivente la stabilità trasversa della traiettoria, legata in fig.0.4 a superficie cilindriche, sia ora legata ad una sella, si vedano le proprietà di questo punto stazionario di una superficie nell’appendice del cap.5): la traiettoria si avvicina alla sella da una direzione a e ne scappa dalla direzione γ ; in 3D (altrimenti non c’è caos!) il sistema rallenta più o meno attorno alla sella, pertanto il periodo del ciclo omoclinico è variabile. Inoltre nella zona della sella il sistema è molto sensibile alle influenze esterne (in gergo diciamo suscettibile) per cui il tempo di permanenza può essere alterato per effetto di uno stimolo esterno. Ciò permette a un gruppo di neuroni accoppiati di influenzare mutuamente i propri ISI e di sincronizzarsi, oscillando tutti con lo stesso ritmo. Figura 0.6: Un sistema dinamico abbia traiettorie chiuse, con il ritorno ad ogni giro ad una sella S, a cui si avvicina più rapidamente di quanto ne scappi dalla parte trasversale. Se ora rappresentiamo la posizione lungo la traiettoria con un segnale verticale in funzione del tempo, i larghi percorsi P lontano dalla sella daranno impulsi P tutti uguali, separati però da un intervallo più o meno lungo che rappresenta il tempo di permanenza nella zona di sella. Conviene visualizzare il moto lungo l’orbita (detta in gergo omoclinica per indicare che ritorna sempre alla stessa sella) come il moto di una pallina pesante: è intuitivo che dopo l’avvicinamento ad S e prima della fuga da S, la pallina rallenta e diventa perciò suscettibile a variare il suo tempo di permanenza attorno ad S in base ad uno stimolo esterno: il sistema può perciò essere sincronizzato da un segnale. Su ciò torneremo in dettaglio nel cap.9. Capitolo 0: Introduzione 15 Come sappiamo da Hubel e Wiesel (cap.9), i neuroni dei primi stadi corticali rivelano aspetti elementari del loro campo recettivo, quali ad esempio barre orientate, quindi ci aspetteremmo che i vari neuroni di un gruppo abbiano ISI diversi, a seconda dello stimolo che ciascuno riceve. Per combinare gli ISI in una sola sequenza sincronizzata su tutti i neuroni esposti al gatto occorre riaggiustare la soglia di ciascun neurone, in modo che l’emissione della singola spike sia un compromesso fra lo stimolo che arriva dalla retina e la propensione del neurone a sparare la spike, propensione stabilita appunto dalla soglia. Il riaggiustamento avviene con segnali top-down corrispondenti ad aspettazioni della memoria semantica, la quale fa riferimento ad apprendimenti pregressi in cui ha immagazzinato la percezione del gatto (fig.0.7). È questa l’ipotesi più plausibile, formulata da S.Grossberg nel 1976 e detta ART (adaptive resonance theory). Figura 0.7: Processi bottom-up e top-down nel sistema visivo e nell’attenzione focale. Il meccanismo di sincronizzazione descritto si basa sul ruolo cruciale della sella: quando un sistema dinamico si comporta così diciamo che ha una grande propensione a formare una rete sincronizzata. In par.9.2 discuteremo la propensione più in dettaglio; intanto sottolineiamo che tutti gli orologi biologici devono essere adattabili a situazioni ambientali diverse, perciò è plausibile che abbiano un comportamento dinamico simile a quello appena delineato. In tab.1 presentiamo i più importanti orologi biologici. I periodi indicati per ciascuno sono medi, non vanno ritenuti dei valori fissi come sarebbe per un orologio a 16 F.T. Arecchi, Caos e Complessità nel Vivente quarzo, in modo che possano modificarsi per rispondere ad esigenze diverse. Ad esempio, il pace maker cardiaco ha un periodo medio di 1 s, ma se durante uno sforzo fisico (una corsa) c’è richiesta di sangue ossigenato allora il periodo può ridursi a 0,5 s o meno, e durante il riposo notturno può aumentare a 1,5 s o più. Come vedremo al par.8.2, l’adattabilità (fitness) è una delle tre caratteristiche essenziali per la vita nella visione di Darwin. 0.5 Fisica e fisiologia L’interesse del fisico ai processi fisiologici è di vecchia data, da Aristotele a Helmholtz. In effetti, la distinzione tra fisica e fisiologia è recente, quando la fisica – invece di essere la scienza di tutti i fenomeni naturali – si è organizzata attorno ad un programma riduzionistico, limitandosi a studiare quei fenomeni che siano riconducibili a interazioni tra componenti elementari. La crisi del programma riduzionistico è legata allo studio dei fenomeni complessi, in cui la dinamica non lineare induce comportamenti di sistema non prevedibili a partire dalla descrizione dei componenti. Per semplificare le tappe del processo di ricerca, possiamo dire che il riduzionismo credeva di poter spiegare i comportamenti globali come somma di comportamenti individuali; questa tendenza era appoggiata da successi sperimentali nei campi più disparati, dalla fisica dei processi atomici e subatomici alla descrizione dei processi di rivelazione della luce sulla retina, alla trasformazione dell’assorbimento molecolare di un fotone nel blocco di un canale ionico con la conseguente creazione di un impulso elettrico, e così via. Per contro gli approcci olistici, di tipo psicologia della Gestalt, che insistevano Capitolo 0: Introduzione 17 sull’unicità della percezione globale, il cui significato non può emergere dalla semplice somma dei contributi particolari, sembravano arbitrarie petizioni di principio in quanto non in grado di stabilire correlazioni logiche con i processi elementari. Se l’approccio riduzionistico avesse avuto una validità universale, allora combinando elementi di percezione elementari si sarebbe dovuto riuscire a modellizzare la percezione globale, o in un computer o come protesi di un robot. I tentativi in questa direzione non hanno avuto molto successo. La ragione è legata alla dinamica non lineare. Per un’interazione non lineare non vale la regola della somma, ma possono emergere comportamenti globali nuovi, non prevedibili dallo studio dei singoli componenti. Sulla scia del successo nell’identificare procedure di riconoscimento elementari, associate a singoli neuroni si pensò di avere risolto il problema della conoscenza. Ma in un mondo siffatto in cui ogni neurone deve codificare una specifica informazione ed essere deputato solo a quella (la teoria del “neurone della nonna”) l’aumento di conoscenza implicherebbe una crescita spropositata del numero di neuroni. Invece, come visto nelle sezione precedente, la congettura vincente è che i neuroni abbiano un’ulteriore libertà, cioè la possibilità di una codifica temporale. Precisamente, essi si comportano come circuiti non lineari che, al di sopra di una soglia, lanciano treni di impulsi nervosi la cui frequenza (cioè il numero di impulsi per unità di tempo) è proporzionale alla distanza da soglia. Questo suggerisce come spiegare una percezione unitaria di una figura con differenti livelli di luminosità, colore, forma, eccetera: basta che i neuroni elementari deputati a rivelare ciascuna di queste caratteristiche sincronizzino le loro frequenze di scarica in modo da costituire un collettivo che in quel momento porta a individuare quella configurazione (si veda il gatto di fig.0.5), lasciando però i vari neuroni liberi di riorganizzarsi successivamente in altri collettivi (feature binding). Ma chi riaggiusta le soglie? Non certo gli stimoli che vengono dalla retina, cioè dal “basso” (bottom-up) in quanto questi differiscono da un neurone all’altro a seconda che i rispettivi campi ricettivi siano fonte di più o meno segnale. Occorre che ci sia un ritorno, un “feedback”, dal bagaglio di memorie pregresse, dove sono registrati riconoscimenti precedenti di figure significative. Ciò può avvenire con un riaggiustamento delle soglie dovuto a segnali da aree corticali superiori, cioè dall’”alto” (top-down). Secondo questa congettura le categorie già memorizzate suggeriscono un’ipotesi interpretativa (aspettativa). Se combinando le due correnti di stimoli (top-down e bottom-up) si finisce col 18 F.T. Arecchi, Caos e Complessità nel Vivente sincronizzare stabilmente un collettivo di neuroni che così fornisce un’immagine significativa, allora si crea una risonanza, cioè i valori di stimolo vengono confermati e si arriva a una percezione coerente. Questo è il succo della ART. Feature binding e ART sembrano non appartenere all’universo del fisico, il quale un tempo si limitava ai processi elementari precedentemente accennati. Invece la fisica della complessità offre un quadro entro cui collocare convenientemente anche queste congetture, a patto che quella parola misteriosa (perlomeno: per la fisica) significativo, evidenziata due volte nella frase precedente, acquisti un senso. Di questo parleremo al cap.9. 0.6 Bibliografia Per i capitoli 0-4, mi riferisco al libro didattico: F.T.Arecchi e I.Arecchi, I Simboli e la Realtà, Jaca Book, Milano1990, e all’apparato di note bibliografiche ivi contenuto. Per i capitoli 5-7, trattandosi di materiale didattico, ho attinto a vari miei testi e dispense per studenti. Per i capitoli 8 e 9, dove affronto argomenti non ancora trattati in presentazioni didattiche, accludo una bibliografia specifica. PARTE I Il lessico della fisica 1 La fisica dell’ordine 1.1 Dinamica-Energia I Greci avevano sviluppato la geometria (specie con Euclide) e la statica, cioè i legami; di equilibrio fra corpi fermi (con Archimede) ma non avevano capito come un corpo si muove. Ciò era fra l’altro dovuto alla mancanza di buoni orologi (provate a fare un esperimento misurando ripetutamente intervalli di tempo con una clessidra a sabbia, e confrontate le misure con quelle fornite dal vostro orologio!). L’osservazione di Galileo (1581) dell’isocronismo delle oscillazioni del pendolo fornì un orologio affidabile, e 50 anni più tardi, nei Discorsi (1638) Galileo creava la Dinamica come scienza del moto, compito specifico della fisica, da Galileo e Newton in poi, è stato - come si è detto - quello di isolare, dalle osservazioni, pochi elementi quantitativi traducibili in numeri. Rispetto alla ricchezza del reale, la scelta non poteva non essere difficile. Per questioni di raccordo culturale, Galileo, Newton e i loro contemporanei selezionarono fra i molti concetti correnti nei dibattiti scolastici sulla fisica quelli che apparivano più sensati e tentarono di associare a ciascuno una specifica operazione di misura. Ad esempio, l’idea intuitiva di «forza» come causa del moto suscita subito due conseguenze: a) Come si indica che si è creato un moto? Gli aristotelici dicevano: attraverso la velocità. Galileo (ma pare che l’argomento fosse stato già sviluppato da un suo maestro) obiettò che la velocità si conserva anche in assenza di forze; è perciò la variazione di velocità, o accelerazione, che va presa come proporzionale alle forze. b) Se ci sono due forze opposte, queste si possono compensare (equilibrio) in modo tale che non ci sia moto. Allora, per misurare una forza, basta misurare una forza compensatrice più accessibile alla misura. Ciò si utilizza sia nei dinamometri a molla, dove l’allungamento della molla misura quanto è grossa la forza che sta tirando l’estremo della molla, e che perciò la forza elastica della molla sta compensando, sia nella bilancia del fruttivendolo (quella vecchia, a due piatti) dove si misurano i pesi da mettere sul piatto destro per equilibrare il peso della verdura sul piatto sinistro. Ricordiamo due termini, che sono entrati nell’uso corrente, perdendo la loro aura di termini dotti: cinematica = studio puramente geometrico del moto, indipendentemente dalle cause che lo generano; Capitolo 1: La fisica dell’ordine 21 dinamica = studio del moto correlato alle cause (le forze). La fisica del ‘600 e del ‘700 è stata prevalentemente dinamica. Anzi il successo dei primi modelli di Galileo e Newton generò la credenza che tutta la fisica si potesse ridurre a moto reciproco delle particelle che compongono un corpo per effetto delle forze mutue. Questa credenza (meccanicismo) ebbe un supporto filosofico nel parallelo tentativo di riduzione delle «sostanze» (in senso aristotelico) ad un’unica sostanza: la «res extensa» (Cartesio). Prima di andare avanti è bene chiarire perché si è parlato dei «modelli» di Galileo (piano inclinato, pendolo) e Newton (moto Terra-Sole). Il modello rappresenta un possibile modo di operare della realtà. «Forse» è il modo vero, ma di ciò saremmo sicuri solo se la nostra traduzione della Realtà nello spazio dei Simboli fosse univoca. Questa era la profonda convinzione di Galileo e Newton, ma la fisica moderna ha esplorato modi alternativi di tradurre in simboli lo stesso pezzo di mondo, e questi modi alternativi dimostrano spesso una fecondità notevole. Diremo allora che per una stessa realtà esistono più modelli plausibili, e che la scelta dipende dalla fecondità. Ma torniamo alla dinamica, e consideriamo un moto molto semplice: quello di una pallina che cade su un piano inclinato (fig.1.1-I). Rappresentiamo la forza con vettori, cioè con segmenti orientati secondo la direzione delle forze e di lunghezza proporzionale alle forze stesse. Nel caso della forza peso, avremo un vettore verticale, che ha lo stesso valore in qualunque posizione, perché il peso non dipende dall’altezza. Ora, sappiamo fin da Archimede che se due forze tirano in direzione diversa, la forza risultante si ottiene sommando con la regola del parallelogramma (cioè è la diagonale del parallelogramma che ha per lati le due forze componenti). Facciamo l’operazione opposta: decomponiamo il peso, verticale, in una componente perpendicolare al piano (che non avrà nessun effetto, perché il piano si considera rigido, cioè non deformabile) e una parallela, che sarà l’unica parte effettiva. Questa parte varia con l’inclinazione, come mostrato in fig.1.1II. Nel caso invece che la pallina si muova sul fondo di una tazza, la forza cambierà da punto a punto (fig.1.2). Disegniamo due assi graduati, uno orizzontale su cui misuriamo gli spostamenti rispetto al fondo tazza {+ a destra, - a sinistra) e uno verticale su cui misuriamo le altezze della pallina. Se la forma della tazza è parabolica, si dimostra facilmente che la forza varia in modo proporzionale allo spostamento, pertanto il suo grafico è una retta. 22 F.T. Arecchi, Caos e Complessità nel Vivente Figura 1.1: a) Pallina pesante che cade su uno (I) o tre (II) piani inclinati privi di attrito. b) Forze corrispondenti. Quando un moto è indotto da una forza che è proporzionale allo spostamento, diremo che la dinamica è lineare. Per le dinamiche lineari vale la sovrapposizione degli effetti: cioè possiamo valutare tutte le proprietà dinamiche per una forza unitaria, e se la forza aumenta o diminuisce di intensità, limitarci ad alterare le proprietà di fattori di scala convenienti senza dover rifare lo studio per ogni valore di forza. Figura 1.2: a) Pallina pesante che si muove senza attrito in una tazza di forma parabolica. A diverse posizioni corrispondono forze con diverse direzioni (+ se verso destra, - se verso sinistra) e intensità (la lunghezza della freccia denota l’intensità). b) Diagramma delle forze al variare dello spostamento del fondo della tazza. Capitolo 1: La fisica dell’ordine 23 Torniamo alla fig.1.2, il fondo tazza è il punto di equilibrio dove la forza si annulla. Se consideriamo anche l’attrito, dopo un po’ il moto si spegne e la pallina rimane sul fondo. Se invece idealizziamo un mondo senza attriti (fu questa la genialità di Galileo) allora il moto continua per sempre. Ma fra dove e dove? Appoggiamo inizialmente la pallina sul lato sinistro della figura. Essa cade e raggiunge il fondo. Qui ha sufficiente velocità per risalire fino a una posizione simmetrica a quella da cui era partita. Qui si ferma e torna indietro, eseguendo oscillazioni per sempre. Nella realtà, l’attrito smorza le oscillazioni, sicché la pallina risale sempre meno, fino a fermarsi sul fondo. Introduciamo ora un altro concetto: il lavoro. Nel cadere verso il fondo, la pallina «può» fare lavoro: infatti se la facessimo cadere nelle pale di un mulinello, questo si metterebbe a girare e potrebbe fare qualcosa di utile (macinare farina o dare elettricità mediante una dinamo del tipo di quelle delle bici). Misuriamo il lavoro come prodotto della forza per l’altezza di caduta, o spostamento della pallina: lavoro = forza x spostamento Dove dello spostamento si intende la componente nella direzione della forza. Ad esempio se debbo spostare un libro in uno scaffale più alto in libreria, debbo fare un lavoro: lavoro = peso x altezza Viceversa se il libro cade, dallo scaffale alto, il lavoro conseguente alla caduta si trasforma in danneggiamento del libro quando questo arriva sul pavimento. Se un libro va spostato sullo stesso scaffale, in orizzontale, il lavoro è nullo; si pensi al caso ideale di un libro che possa scivolare senza attrito sul piano dello scaffale. Definiamo «energia» la «potenzialità» di lavoro, cioè il lavoro in potenza. Se la forza non è costante, come andranno le cose? Ebbene - e qui è1’enorme vantaggio dell’usare il concetto di energia! - l’energia non dipende dalla forma del declivio ma solo dallo stato iniziale e finale. Data qualunque ciotola, la forma della ciotola dà il profilo dell’energia: infatti in qualunque posizione, basta valutare quanto si dista dal fondo per sapere quanto lavoro si può fare Anche alla velocità possiamo associare energia. Infatti possiamo fare lo stesso danno al libro lanciandolo orizzontalmente (senza perdita di altezza) contro il muro: chiameremo questa «energia cinetica». C’è però una differenza: mentre l’energia di caduta cambia segno in risalita (in fig.1.2 in discesa la pallina fa lavoro, in risalita deve ricevere lavoro) l’energia cinetica è sempre 24 F.T. Arecchi, Caos e Complessità nel Vivente positiva quale che sia il segno della velocità (verso destra + o verso sinistra - ). Ciò è possibile se questa energia è proporzionale al quadrato della velocità (infatti (+2 )2=(- 2 )2=+4). Inoltre è proporzionale alla massa: a pari velocità, un camion fa più danno di una bicicletta sbattendo contro un ostacolo. Se chiamiamo «energia potenziale» quella che si attualizza nella caduta, possiamo allora leggere il moto della pallina nella ciotola come segue (fig.1.3): Figura 1.3: Suddivisione dell’energia totale tra cinetica e potenziale per ogni posizione x. In posizione 0 l’energia è tutta cinetica. In A e B è tutta potenziale, perciò ivi la velocità è nulla e la pallina torna indietro. In A e B l’energia è tutta potenziale. Quando si cade da A ad O, l’energia si trasforma tutta in energia cinetica, e l’energia potenziale si annulla. In una posizione generica X avremo parte cinetica e parte potenziale. Risalendo a B la cinetica si trasforma tutta in potenziale e la pallina si ferma. Essa non può superare B perché l’energia totale non si può creare. Dunque avremo il seguente principio di conservazione dell’energia: energia totale = en. potenziale + en. cinetica = costante Se ora capovolgiamo la ciotola (fig.1.4) e depositiamo la pallina sulla cima (in O), sia che cada verso sinistra (S) sia verso destra (D) la pallina guadagna energia cinetica allontanandosi da O. Infatti il segmento tratteggiato che misura la differenza fra energia totale (costante) e energia potenziale (corrispondente alla posizione sulla curva del punto S o D) aumenta sempre durante la caduta. Il corrispondente diagramma di forza è una retta di inclinazione invertita rispetto a fig.1.2. In S la forza è negativa, cioè tira verso destra: da ambo i lati, la forza Capitolo 1: La fisica dell’ordine 25 tende ad allontanare vieppiù da O, mentre in fig.1.2 tendeva a riportare la pallina in O. Figura 1.4: Equilibrio instabile: in O, dove la forza è nulla, la pallina con velocità nulla tende a cadere a destra o sinistra appena subisca un piccolo spostamento. La forza (+ verso destra) e (– verso sinistra) cresce sempre. Questa situazione è ovviamente instabile e non può andare avanti per sempre, come invece accadeva in fig.1.2a un certo punto occorre interrompere la curva di potenziale e quindi azzerare in corrispondenza la forza. Ma allora la forza non è più una retta continua. Quando la forza è rigorosamente rettilinea, la dinamica si dice lineare, quando non lo è dappertutto, la dinamica si dice non lineare. Vedremo le conseguenze di ciò nel cap.7. Nel seguito, descriveremo qualunque dinamica mediante l’energia, cioè diremo di poter fare previsioni sul futuro di un sistema (simbolizzato come una pallina) quando lo avremo immesso in un opportuno paesaggio dell’energia, come in fig.1.5, dove i punti di equilibrio sono tutti i punti S (stabili) e I (instabili), in cui si ha un minimo o un massimo, cioè in cui si annulla la forza, 26 F.T. Arecchi, Caos e Complessità nel Vivente invece punti come X o Y non sono di equilibrio perché si cade (nella direzione della freccia). Figura 1.5: Paesaggio dell’energia con cinque punti di equilibrio: tre minimi S e due massimi I. La pallina rimane confinata in uno dei due bacini XY o X’Y’ dove è stata collocata al tempo iniziale. La forza è approssimabile con un tratto rettilineo solo attorno ai punti di equilibrio. Si noti che localmente, cioè attorno ad ogni punto di equilibrio, la dinamica è lineare, ma globalmente la legge di forza non è rettilinea. Per capire la portata concettuale dei paesaggi dell’energia, supponiamo che l’energia totale di cui dotiamo il nostro sistema corrisponda alla linea orizzontale tratteggiata. Se al tempo iniziale il sistema ha una posizione fra X e Y, oscillerà per sempre fra X e Y scavalcando l’ostacolo intermedio perché, anche quando arriva ad I, ha ancora un residuo di energia cinetica. Se invece è posta fra X’ e Y’, rimarrà confinata in quel bacino. In ambo i casi, sia che arrivi a Y da destra o a X’ da sinistra, deve invertire il moto perché non ha energia sufficiente per superare la barriera. Per sollevare un libro dalla tavola ad uno scaffale, dobbiamo fare lavoro contro la forza di gravità; analogamente per «sollevare» la carica e di un elettrone della differenza di potenziale elettrico di 1 Volt, occorre fornire un lavoro che è dato dal prodotto della carica per 1 Volt Consideriamo questa come l’unità di energia negli scambi microscopici e la abbreviamo con eV(elettronevolt). Se per esempio un elettrone cade di l0 Volt o l0 elettroni cadono di 1 Volt, l’energia scambiata è l0 eV (fig.1.6). L’energia descritta per la pallina, il libro e 1’elettrone è dovuta a cambiamento. di posizione, e può essere restituita con la ricaduta alla posizione Capitolo 1: La fisica dell’ordine 27 iniziale. È quello che accade all’acqua del mare elevata dalle nubi sulla cima delle montagne, che di là ricade lungo il fiume facendo lavorare il mulino. Figura 1.6: Processo di carica e scarica di una pila da 1 Volt. Nella carica ogni elettrone viene «promosso» a un livello più alto. Nella scarica, l’elettrone ricade cedendo l’energia accumulata. L’universalità del concetto dì energia ci suggerisce delle considerazioni di scala. Nella vita dì tutti i giorni, prendiamo come unità dì lavoro o energia una quantità che ci è familiare: come spostare un libro che ha una massa dì 100 grammi (e perciò una forza peso attorno a 1 Newton) da uno scaffale alto un metro. Definiamo l’unità dì energia joule (J) (dal nome dell’Inglese Joule) come: 1 joule = 1 newton x 1 metro, cioè: 1 J = 1 Nm Invece a livello microscopico abbiamo introdotto l’eV. Orbene, il legame fra le due unità è circa: 1 J ~ 1019 eV cioè occorre spostare 1019 elettroni da un polo all’altro dì una pila da 1 Volt, per fare andare un motorino che sollevi il libro di un metro. Tenuto conto che un liquido o solido ha 1022 atomi per cm3 (il volume contenuto in un cucchiaio) e che nella soluzione elettrochimica di una pila ogni molecola sciolta può fornire un elettrone, si vede che ce ne sono più che a sufficienza per fare il lavoro di 1 joule. -----------------------------------------------------Nota sulle unità di misura: Conveniamo di prendere come unità di massa il kilogrammo (kg), come unità di lunghezza il metro (m) e come unità di tempo il secondo (s), la velocità sarà misurata in metri per secondo (m/s o ms-1), l’accelerazione che è la velocità della velocità, in m/s2 o ms -2; ne consegue che in base alla legge di Newton: forza = massa x accelerazione l’unità di forza è quella che imprime l’unità di accelerazione all’unità di massa; essa è chiamata newton (N) e vale: 1 N = 1 kg·m·s-2 28 F.T. Arecchi, Caos e Complessità nel Vivente In elettricità, si conviene di chiamare potenziale elettrico il lavoro per unità di carica e di misurarlo in volt (V). Si conviene inoltre di chiamare campo elettrico la forza per unità di carica. Siccome la carica si misura in coulomb (C) ne segue: 1V = 1 J/C = 1 JC -1 Il campo elettrico definito come una forza elettrica (N) per unità di carica (cioè N/C) ma siccome abbiamo visto che V=J/C possiamo anche misurare il campo come potenziale per unità di spostamento, cioè indicando con[…] la misura [campo] = N/C = (J/m )/C = V/m = 1 Vm -1 Le grandezze per unità di lunghezza, o grandezze specifiche, dipendono ovviamente dallo spessore su cui vengono valutate. Una pila da 1V, fra i due elettrodi posti a 10 cm, dà un campo di 10 V/m; lo stesso potenziale di 1V applicato a una membrana biologica di spessore 1nm = 10 -9m, dà un campo di 109 V/m. 1.2 Particelle e forze Il successo della dinamica di Galileo-Newton fece nascere la speranza di poter descrivere tutta la realtà osservabile allo stesso modo: cioè come il moto di un punto geometrico (a cui attribuiamo una massa) in un opportuno paesaggio dell’energia. Il diagramma corrispondente ha sull’asse orizzontale una coordinata del mondo reale in cui ci muoviamo (altezza, o distanza orizzontale da un certo punto) oppure una coordinata di uno spazio astratto, puramente mentale: ad es. in fig.1.6, destra e sinistra rispetto allo scalino indicano due lati della pila. Il programma di riduzione al punto massa ha funzionato per il libro, per il sistema Terra-Sole, per l’elettrone. Può funzionare sempre? Il successo del modello newtoniano ne fece il modo universale di fare la fisica. Ciò implica una fede quasi religiosa in due concetti: determinismo e riduzionismo. La dinamica di una particella è deterministica perché la conoscenza della legge di forza e delle sue condizioni iniziali ne determinano il futuro. Il grafico della velocità di crescita di una variabile permette di stabilire come si comporta la variabile. Ora, data la forza, questa è proporzionale all’accelerazione che è la velocità della velocità: quindi possiamo conoscere come varia la velocità nel tempo a partire da una velocità iniziale. Nota la velocità, possiamo stabilire gli spazi percorsi a partire da una certa posizione iniziale. In conclusione, note forze, più velocità e posizione iniziale, sappiamo tutto. Nella tradizione aristotelica, per cui scienza è «conoscenza delle cose attraverso le cause», si distinguevano quattro cause: materiale e formale (nel Capitolo 1: La fisica dell’ordine 29 caso di un vaso di creta, rispettivamente la creta e la forma del vaso), efficiente (o motrice) e finale (rispettivamente, l’opera del vasaio che costruisce il vaso e lo scopo per cui il vaso è fatto). Orbene, vedremo che la ricerca delle particelle corrisponde alla ricerca della causa materiale, mentre la causa formale è stata sottovalutata dal riduzionismo, per cui la forma emerge automaticamente «ammucchiando» i costituenti. Circa la causa efficiente, questa fu identificata con le forze e le condizioni iniziali che determinano il futuro. La causa finale fu considerata come un equivoco antropomorfico privo di rilevanza nell’indagine della natura. Torniamo alla causa materiale. Se ora possiamo decomporre (ridurre) un corpo nei suoi costituenti, e ogni pezzo si comporta come la particella di Newton, sapremo tutto sul corpo. Se abbiamo una palla da biliardo, questa ci dà già l’idea del punto-massa di Newton; ma se abbiamo un fluido (gas o liquido) o un corpo «molle», come un essere vivente, è meglio prima spezzare questo in porzioni più piccole per cui possa valere il programma di Newton. Questo programma di riduzione già presente a Newton (che faceva anche l’alchimista) diventò il programma della chimica, con Lavoisier. Si arrivò a classificare i componenti elementari o «molecole». In base ai rapporti, degli ingredienti che entrano nelle reazioni chimiche (rapporti stechiometrici) si arrivò a stabilire che le molecole sono fatte di atomi (Dalton). Se prendiamo un numero di grammi pari al peso molecolare di una sostanza cioè, come si dice, una grammo-molecola o mole (p. es. 2 grammi dì idrogeno, o 18 grammi di acqua), ivi è contenuto un numero fisso dì molecole (numero di Avogadro), pari a circa 6·1023, indipendentemente dalla sostanza. Nel frattempo, si stabilivano le regole di attrazione e repulsione fra cariche elettriche. Dunque non c’era più solo la forza gravitazionale di Newton, che tiene insieme i corpi celesti, ma anche una forza di intensità molto maggiore che lega le particelle dotate di carica elettrica. Più tardi si stabilì che i fenomeni magnetici e ottici sono varianti delle forze elettriche, osservate in presenza di grandi velocità relative fra le cariche; si parlerà allora di fenomeni elettromagnetici, che includono l’ottica, e di azioni elettrodinamiche. Lo scambio di ingredienti nelle reazioni chimiche mostrava come le molecole fossero particelle composte. Si chiamarono atomi (cioè «nontagliabili») le particelle elementari, di cui erano composte le molecole. Ovviamente il peso di una molecola è la somma dei pesi atomici dei componenti. Fatto uguale a 1 il peso dell’elemento più leggero (idrogeno), Mendeleev classificò tutti gli elementi noti in una tabella a due entrate. Si 30 F.T. Arecchi, Caos e Complessità nel Vivente stabilì che dovevano esserci 92 elementi. Non tutte le caselle corrispondevano ad elementi noti, ma quelli mancanti furono trovati successivamente. La scoperta dell’elettrone o particella elementare di carica negativa contenuta nell’atomo, fece supporre che un atomo neutro avesse un ugual numero di cariche positive per compensare gli elettroni (i quali si pensavano immersi nell’atomo come i canditi nel panettone). Quando un atomo perde uno (o più) elettroni diventa uno ione positivo. Tutte le proprietà elettriche delle soluzioni sono spiegate in termini di ioni ed elettroni. Lo ione più elementare è costituito dall’atomo di idrogeno, quando perde il suo elettrone, ed è chiamato protone. La scoperta della radioattività (Becquerel e Curie) mostrò che gli atomi trasmutano cioè non sono oggetti elementari ma possono acquistare o perdere dei pezzi, cambiando posto nella tabella di Mendeleev. Il bombardamento di atomi con microproiettili portò Rutherford a scoprire che l’atomo non è un panettone, ma un sistema solare in miniatura con gli elettroni distribuiti come pianeti, un enorme spazio vuoto, e un nucleo, dove sono concentrate le cariche positive, che è 104 volte più piccolo del raggio dell’atomo. Si scopersero poi particelle neutre con il peso del protone: i neutroni. Si può capire così perché il peso atomico, rispetto all’idrogeno come unità, cresca più rapidamente del numero atomico (cioè del numero di cariche elettriche positive): ciò è dovuto all’aggiunta dei neutroni. Ma come tiene tutto ciò assieme? Conosciamo la forza di gravitazione, che tiene assieme i corpi celesti. Conosciamo le forze elettriche, che attraggono cariche di segno contrario. Dobbiamo postulare che esistono forze nucleari che tengono vicini, ad es. i due protoni di un nucleo di elio in modo più forte della repulsione elettrica fra le due cariche positive. Queste forze sono scambiate anche tra protoni e neutroni, cioè tra tutti i componenti del nucleo o nucleoni. Finché l’energia di legame cresce {cioè dall’idrogeno al ferro) sono favoriti i processi di fusione; per nuclei pesanti invece sono favoriti i processi di scissione (o fissione). Le energie di legame sono sui 5 MeV (mega eV, cioè 106 eV) per nucleone, quindi dato un nucleo con qualche diecina di nucleoni, se lo si bombarda con proiettili di energia oltre alcune centinaia di MeV, si dovrebbero liberare protoni e neutroni non più legati. Invece con lo sviluppo delle tecniche di accelerazione, andando a molte centinaia di MeV, si evidenziarono particelle esotiche e non semplicemente protoni o neutroni a grande energia cinetica. Ciò sembrava riportare la situazione alla chimica del ‘700. L’evidenza sperimentale ha mostrato che protoni, neutroni e le altre particelle esotiche sono in effetti particelle composte di quarks. Oltre alle tre Capitolo 1: La fisica dell’ordine 31 forze suddette, nei processi nucleari di fusione fra nuclei leggeri nelle stelle gioca un ruolo fondamentale la forza debole. Le forze sono mediatori fra particelle. Per Newton ciò avveniva mediante azioni a distanza che istantaneamente giungono dal Sole alla Terra. Invece la fisica dell’800 mostrò che le azioni sono contigue, fra posizioni spaziali vicine. Nessun oggetto può spostarsi a velocità maggiore della luce, perciò le azioni contigue implicano una velocità limitata di propagazione. Se per ipotesi il Sole scomparisse istantaneamente, solo dopo otto minuti l’effetto si sentirebbe sulla Terra. Parleremo di «campi di forza» per indicare che la forza esiste in ogni parte dello spazio, come si può vedere con la limatura di ferro per i campi magnetici. Se fra Terra e Sole non c’è un’azione istantanea, ma un campo che si propaga a velocità finita e che riempie tutti i punti dello spazio, quali sono le modalità di propagazione? Lo vedremo nella sezione successiva. Intanto, è importante notare che le forze gravitazionali ed elettriche producono i loro effetti anche a grandi distanze, mentre le forze nucleari e deboli agiscono solo a distanze sui 10-12 cm: è perciò che non erano note prima che la sperimentazione risolvesse queste distanze sub-atomiche. 1.3 Onde La mente umana, nel fare schemi del mondo, si dibatte fra discreto e continuo. Così la matematica, fin dagli inizi, si differenziò in aritmetica (numeri discreti) e geometria (linee continue). Questo dilemma è sempre vivo, e accanto alla ricerca di particelle c’è sempre stato il tentativo di dissolverle in un continuo: da Leibniz che criticava il meccanicismo cartesiano, ai modelli che cercano di spiegare le particelle come singolarità dei campi. Ora, tutti abbiamo l’idea delle onde (le osserviamo ad esempio sulla superficie dell’acqua). Possiamo, con una foto istantanea, rappresentare l’onda nello spazio (fig.1.7a), oppure, ponendoci in una posizione fissa, misurare come l’onda sale e scende nel tempo (fig.1.7b). In corrispondenza, si possono definire le grandezze ivi indicate. Si noti che 1’onda è positiva o negativa rispetto alla posizione di quiete (si pensi ad un tappo galleggiante nell’acqua: quando arriva l’onda, si può elevare o scendere al di sotto del livello medio). La velocità a cui la cresta dell’onda si vede muoversi è data da spazio diviso tempo, cioè lunghezza d’onda diviso periodo, o moltiplicato frequenza: velocità d’onda = lunghezza d’onda x frequenza Si noti che l’onda corrisponde al passaggio di una perturbazione, non al moto fisico di particelle. Se in un porto abbiamo molti tappi galleggianti in fila, e 32 F.T. Arecchi, Caos e Complessità nel Vivente arriva un’onda, i tappi vanno su e giù, ma rimangono nella stessa posizione. Se osserviamo come si muove la cresta, questa «salta» da tappo a tappo con la velocità d’onda. Le onde sono longitudinali se la perturbazione è nella stessa direzione in cui si propaga l’onda (come l’aria mossa da un tamburo) o trasversali se la perturbazione è perpendicolare alla propagazione, come nel caso dei tappi. A differenza delle particelle che si sommano sempre se ammucchiate nello stesso posto, due onde possono sommarsi ma anche distruggersi. Si dice che interferiscono: il risultato dipende dalla posizione mutua delle creste che si chiama fase relativa (fig.1.8). Figura 1.7: a) Onda nello spazio. Si ripete periodicamente dopo una lunghezza d’onda (che si indica di solito con λ ). b) Onda nel tempo. Il periodo (o ciclo) si indica con T; l’inverso v = l/T corrisponde a quanti periodi ci sono in un secondo: si chiama frequenza. L’unità di frequenza è l/secondi ed è detta Hertz. Figura 1.8: Interferenza fra due onde: a) fase relativa nulla: si ha interferenza costruttiva; b) fase pari a mezza lunghezza d’onda: interferenza distruttiva; c) fase qualunque: interferenza parziale. Capitolo 1: La fisica dell’ordine 33 Fu appunto per l’evidenza di interferenza che Huygens sviluppò l’idea che i fenomeni luminosi siano dovuti a propagazioni di onde, e non a flusso di particelle come credeva Newton. Un altro fenomeno importante delle onde è la diffrazione (cioè lo spezzarsi dei cammini rettilinei di propagazione), descritto da Grimaldi nel ‘600, e che consiste nel vedere luce dove si aspetta ombra, dietro un forellino illuminato dal sole. L’effetto di diffrazione si spiega meglio con riferimento alle onde dell’acqua che incontrano ostacoli (fig.1.9). Figura 1.9: Onde in acqua che passano fra oggetti di dimensioni differenti: a) fili d’erba; b) bastone; c) tronco di lunghezza grande rispetto alla lunghezza d’onda; d) tronco di lunghezza piccola rispetto alla lunghezza d’onda. Si noti che la regione d’ombra appare definita solo per piccole lunghezze d’onda. Ciò spiega i limiti risolutivi di un’ispezione ottica sugli oggetti piccoli. Quando l’oggetto diventa confrontabile con la lunghezza d’onda della luce con cui lo si illumina, la sua ombra non è più ben definita. Possiamo vedere «bene» solo dettagli grandi rispetto alla lunghezza d’onda. Fra l’altro il fenomeno di diffrazione suggerisce che noi perdiamo i dettagli degli oggetti quando li osserviamo mandandoci contro un’onda di lunghezza pari o maggiore alle dimensioni dell’oggetto. Per riassumere lo stato di quanto sappiamo sui fenomeni luminosi, in fig.1.10 si riporta lo spettro delle onde elettromagnetiche, con i vari nomi che le regioni prendono. Si sono segnate sia le lunghezze d’onda sia le frequenze. Si noti quanto è limitata la regione visibile, in cui i nostri occhi vedono colori, rispetto alle regioni a grande lunghezza d’onda (infrarosso e oltre) e a piccole lunghezze d’onda (ultravioletto e oltre). 34 F.T. Arecchi, Caos e Complessità nel Vivente 1.4 Bilanci energetici. Chimica e vita La fisica moderna ha scoperto che la luce non è solo onda, ma la sua energia è concentrata in corpuscoli o granelli (quanti o fotoni) la cui energia dipende dal colore, cioè dalla frequenza. Se disponiamo i colori secondo l’arcobaleno: rosso-giallo-verde-blu-violetto, spostandoci verso destra cresce la frequenza e cresce anche l’energia del singolo quanto, da 2 eV a 4 eV, secondo la proporzionalità: energia del fotone = h x frequenza dove attraverso la costante universale h (detta di Planck) la frequenza dell’onda è tradotta in energia di ciascuno dei granelli (o fotoni) che costituiscono l’onda. Figura 1.10: Lo spettro elettromagnetico. Riportiamo tre scale: lunghezze d’onda (in metri), frequenze (in periodi al secondo o Hertz) e energie dei fotoni (in eV). Si noti la proporzionalità inversa: la prima scala cresce verso sinistra, la seconda e terza crescono verso destra. IR, Vis e UV indicano rispettivamente infrarosso, visibile e ultravioletto. Un fotone può interagire con un singolo atomo o molecola cedendo la sua energia in un processo di assorbimento; viceversa un atomo in uno stato eccitato (cioè che abbia ricevuto energia in più rispetto al suo stato di riposo) può cedere questa energia al campo elettromagnetico emettendo un fotone. La molecola fotosensibile come la rodopsina (che è alla base di quei processi fotochimici nella retina dell’occhio che danno luogo alla visione) ha due valli di energia A e B (fig.1.11). Normalmente essa è situata in A. Nella figura, IR (infrarosso) indica un fotone con energia al disotto del visibile, UV invece ne indica uno al disopra. Per spostarsi da A in B occorre fornire un fotone con energia superiore alla barriera da superare. Se le valli A e B fossero allo stesso livello, nel passare da A a B non si guadagnerebbe energia; ma B è più alto di A. Se la molecola viene colpita da un fotone intermedio fra 2eV (rosso) e 4 eV Capitolo 1: La fisica dell’ordine 35 (violetto), essa può passare da A a B e l’eccesso di energia viene utilizzato per mandare un impulso elettrico sul nervo ottico. Se invece mandiamo fotoni IR, cioè più piccoli di 2eV, non si riesce a superare la barriera tra A e B. Figura 1.11: Paesaggio dell’energia per molecola fotosensibile. La condizione di riposo è A. L’energia dei fotoni (IR, Vis, UV) è indicata da frecce crescenti. Domanda: accumulando l0 fotoni piccoli da 0,3 eV, è possibile ottenere l’effetto che si otterrebbe con un fotone grande da 3 eV? Risposta: di solito solo un fotone per volta può interagire con una molecola. I fotoni IR si limitano ad agitare la molecola intorno ad A, cioè a scaldarla. Anche scaldare-agitare le molecole attorno ad A vuol dire cedere energia, c’è perciò una «traduzione» da energia a temperatura, precisamente un’energia di l eV scalda una molecola di circa 10.000 gradi, cioè: l eV = lO4 K Al contrario, un fotone UV – per es. da 10 eV – permette alla molecola non solo di superare la barriera ma di andare oltre C: ciò vuol dire che la distanza fra parti della molecola diventa grandissima, cioè la molecola si spezza in due tronconi (si dissocia). L’UV è dannoso per le molecole. Orbene, in base a quanto visto, i fotoni Vis sono i migliori per la chimica delle molecole: né troppo caldi (UV), né freddi (IR). La fig.1.12 mostra perché una stella come il Sole può assicurare la vita. Riassumendo: dando poca energia non basta alla chimica della vita, perché non si supera la barriera fra due stati; troppa energia nuoce alla molecola (la dissocia). La vita sulla terra può svilupparsi perché il nostro sole è nel giusto mezzo. In fig.1.11 si è mostrata una reazione chimica endotermica in cui A (stato iniziale) è più basso di B: per spostarsi in B, A richiede energia dalla luce. 36 F.T. Arecchi, Caos e Complessità nel Vivente Quanto avviene nei fotosensori (rodopsina) ha luogo anche nei fotoutilizzatori delle piante (clorofilla). L’energia è fornita da un fotone che permette alla molecola di essere promossa da A in B. Il salto di energia viene poi utilizzato nella sintesi clorofilliana. Figura 1.12: Spettri di emissione del Sole e di altre due stelle (calda e fredda) per mostrare come solo stelle come il Sole permettono reazioni chimiche, e perciò la vita. Chimica del vivente e chimica industriale Chiamiamo reazioni esotermiche quelle in cui invece lo stato finale ha energia più bassa dello stato iniziale, fig.1.13, e la differenza di energia EAB può essere utilizzata (combustione). Nei processi di metabolismo (chimica del vivente) le molecole cadendo da A a B cedono energia. Prima però devono superare la barriera C con l’aiuto dell’enzima (come detto nella didascalia). Figura 1.13: Reazione esotermica: la molecola passando da A a B può fare lavoro. Ma prima deve vincere la barriera AC che può essere più alta dei fotoni IR disponibili a temperatura ambiente. Si passerà da A a B o scaldando a una temperatura che favorisca il salto a C (reazioni chimiche industriali) o deprimendo la barriera C con l’aiuto di una molecola ausiliaria che non si consuma nel processo (catalizzatore, detto enzima nelle reazioni biologiche. Nella chimica biologica, gli enzimi permettono di superare la barriera tra le due valli «a freddo», cioè alla temperatura corporea (37°C=300K). Nella chimica industriale, invece, la molecola deve essere scaldata fino a migliaia di Capitolo 1: La fisica dell’ordine 37 gradi per scavalcare la barriera (ricordiamo che 1eV=104K, e per attivare una combustione occorre circa 0,1 eV cioè un migliaio di K (pari a circa 700°C). 1.5 I quanti 1.5.1 Il corpo nero e l’effetto fotoelettrico La fisica dell’ordine, con l’unificazione fra fenomeni elettrici, magnetici e ottici operata da Maxwell (1866) fa sì che si possa spiegare la luce emessa da un atomo come un’onda elettromagnetica causata dall’avvicinarsi e allontanarsi delle cariche positive e negative nell’atomo; la radiazione è cioè dovuta all’accelerazione delle cariche. In ciò un atomo non differisce dall’antenna di una radio (fig.1.14). L’antenna emette un’onda di frequenza pari alla frequenza con cui vibrano le sue cariche elettriche. Se nell’antenna coesistono frequenze diverse, l’antenna emetterà i vari “colori” corrispondenti. Figura 1.14: Come avviene la conversione da corrente elettrica (provocata p. es. da un microfono) a onda elettromagnetica, e la riconversione da onda a corrente (che, nell’esempio, farà vibrare 1’altoparlante). Si noti che in trasmissione la vibrazione fra cariche è provocata dalla corrente e genera l’onda; in ricezione la vibrazione è provocata dall’onda, e genera la corrente. Se ora pensiamo che i moti delle cariche differiscono da atomo ad atomo, ci aspettiamo che ogni atomo emetta (in trasmissione) o assorba (in ricezione) una specifica lunghezza d’onda, cioè uno specifico colore. In effetti gli spettri di emissione e assorbimento sono specifici di ciascuna specie atomica, come le impronte digitali per gli individui. Tutto ciò vale purché, per restare confinati alla fisica dell’ordine, gli atomi siano «diluiti» (gas tenue) in modo da potersi considerare come individui isolati. Se invece li impacchettiamo in modo che si influenzino a vicenda con urti, allora passiamo alla fisica del disordine. Anticipando quanto diremo nel capitolo seguente, è intuitivo che i moti disordinati non daranno più colori precisi: è come se esistessero antenne in grado di emettere onde disparate su 38 F.T. Arecchi, Caos e Complessità nel Vivente molte frequenze. Si avrà invece uno spettro che non dipende più dagli individui, ma solo dalla temperatura a cui gli individui sono stati portati. Questo spettro è universale, e si chiama «spettro di corpo nero» (per analogia con l’interno di un forno di cui si scaldino per via elettrica o a gas le pareti finché queste si arroventino emettendo luce; se il buco di osservazione è piccolo, il forno perde poco verso l’esterno e perciò se inviamo luce sull’ingresso, praticamente nulla torna fuori, donde il nome nero). La fig.1.15 mostra la «densità» di energia irraggiata da un corpo nero a una certa temperatura. Chiamiamo densità il quoziente fra energia e l’intervallo di frequenze su cui è stata emessa. Per avere l’energia totale, dobbiamo sommare tutti i contributi di densità, moltiplicandoli per il corrispondente intervallo di frequenze. Chiariamo questa idea: densità = (energia emessa)/ frequenza perciò: energia = somma di tutti i prodotti «densità x frequenza». Uno di questi addendi della somma è tratteggiato in figura e come si vede è un’area. Per avere tutta l’energia dobbiamo perciò valutare tutta l’area compresa fra la curva e l’asse orizzontale. Figura 1.15: Spettro di emissione del corpo nero, cioè densità di energia irraggiata da un corpo portato ad una temperatura T. a) Due esempi a temperatura diversa; b) curva tratteggiata = teoria di Rayleigh e Jeans. Ora la fisica classica dice che quando un oggetto è portato a temperatura T, qualunque sua vibrazione riceve lo stesso rifornimento di energia, un «boccone» proporzionale a T: indipendentemente dalla natura degli atomi che compongono l’oggetto. Ma il numero di vibrazioni diverse cresce con la Capitolo 1: La fisica dell’ordine 39 frequenza e perciò, se ciascuna contribuisce con la stesso boccone di energia proporzionale a T, si avrebbe una densità come quella tratteggiata in figura, con un’area sottostante (energia totale irraggiata) infinita! Siccome la crescita del numero di vibrazioni con la frequenza è il risultato di un calcolo incontrovertibile, per giustificare la curva sperimentale occorre rinunciare all’ipotesi che ogni vibrazione possa avere la stessa energia, dipendente solo da T e indipendente dalla sua frequenza. Max Planck introdusse nel 1900 l’ipotesi che, pur essendo le onde elettromagnetiche un continuo, l’energia che esse scambiano con le cariche, cioè con gli atomi della parete del forno, sia «granulare», cioè sia fatta di zollette distinte ognuna delle quali (quanto di energia) è proporzionale alla frequenza dell’onda con una costante di proporzionalità chiamata h. Dunque l’ipotesi di Planck è: quanto di energia = h x frequenza Questa ipotesi porta a una legge di emissione che riproduce quella sperimentale, eliminando il paradosso dell’energia totale infinita. Ma che vuol dire che l’energia elettromagnetica si propaga a quanti? Lo vediamo subito considerando l’effetto fotoelettrico (fig.1.16). La corrente di elettroni emessi da un metallo, quando questo è investito dalla luce, è nulla per certi colori, cioè a grande lunghezza d’onda (ad es. il rosso) anche se illuminiamo con grandi intensità di luce; la corrente è non nulla se spostiamo il colore verso il blu. La spiegazione di Einstein (1905) è la seguente: i quanti di energia luminosa non si possono sommare, ma agiscono individualmente: uno per ogni elettrone. Per superare 1’energia attrattiva che trattiene gli elettroni nel metallo, occorre che ogni elettrone riceva un quanto di energia sufficiente Figura 1.16: Effetto fotoelettrico: la corrente degli elettroni emessi da un metallo illuminato da luce è nulla finché la luce non ha una frequenza superiore ad un valore di soglia. Spiegazione di Einstein: emettere elettroni vuoi dire superare uno scalino di energia fra dentro e fuori del metallo. Il quanto luminoso, o fotone, deve avere un’energia pari almeno allo scalino. 40 F.T. Arecchi, Caos e Complessità nel Vivente Dunque, Planck e Einstein hanno introdotto una dualità onda-corpuscolo: la luce, che negli esperimenti di diffrazione e interferenza si comporta come onda, va considerata come un insieme di granelli (i fotoni) per riuscire a spiegare il corpo nero e l’effetto fotoelettrico. 1.5.2 L’atomo di Bohr Abbiamo visto che l’atomo è come un sistema solare. Ma allora l’elettrone legato a un nucleo atomico dovrebbe emettere un’onda, in quanto è accelerato nel suo moto orbitale (fig.1.17). Ma allora deve perdere energia, e perciò cadere a spirale sul nucleo. Invece esistono gli atomi stabili! Per spiegare ciò, Niels Bohr postulò nel 1913 che l’elettrone non può assumere un continuo di valori di energia, come la pallina sul piano inclinato, ma solo alcuni valori permessi, come in una scala a pioli. I livelli permessi di energia furono calcolati come segue. L’elettrone che si muove con velocità v ha un impulso mv (prodotto di massa per velocità). Figura 1.17: a) Atomo di Rutherford: l’elettrone irraggia un’onda. b) Di conseguenza perde energia con continuità e cade sul nucleo. c) Ipotesi di Bohr: l’elettrone ha solo alcuni valori permessi d’energia, e tutti gli altri sono proibiti (livelli quantizzati di energia}. Solo quando salta fra due livelli c’è emissione. Quando permane su un’orbita non irraggia (al contrario del caso classico). Capitolo 1: La fisica dell’ordine 41 L’impulso è la quantità scambiata negli urti. Ad esempio si può ricavare un impulso dannoso o urtando un oggetto pesante a bassa velocità (investimento da un camion) o urtando un oggetto leggero ma ad alta velocità (un proiettile di pistola). Orbene, Bohr collegò l’impulso dell’elettrone col raggio dell’orbita permessa (e conseguentemente, con l’energia dell’orbita) mediante una relazione di proporzionalità inversa che contiene la costante h di Planck: circonferenza orbita=2p · raggio = n volte· h/ impulso Sono permesse solo quelle orbite n=1, 2, 3.…. con raggi e impulsi tali da soddisfare la relazione di Bohr. Ad esse corrispondono le energie discrete E1, E2... Le altre energie sono proibite. Dunque l’atomo è stabile solo a questi livelli di energia, E1, E2,… e quando scende (o sale) da un livello ad un altro allora emette (o assorbe) un fotone pari al salto di energia. Questa relazione misteriosa fra raggio atomico e impulso dell’elettrone fu spiegata da Louis De Broglie (1922) invocando una dualità corpuscolo-onda. Come la luce è non solo onda, ma anche quanti, così l’elettrone è non solo particella ma anche onda, con lunghezza d’onda λ tale che: λ = h / impulso Vediamo come il fenomeno di interferenza spieghi l’atomo di Bohr. Quando cerchiamo di confinare un’onda fra due specchi, ci riusciamo solo se la distanza fra i due specchi è pari a un numero intero di mezze lunghezze d’onda, altrimenti l’onda diretta e l’onda riflessa si cancellano per interferenza (fig.1.18a). Ripetendo lo stesso discorso per un’onda che si chiude su se stessa su un cerchio, vediamo che l’onda può esistere solo quando la circonferenza è pari ad un numero intero di lunghezze d’onda. Pertanto dall’ipotesi di De Broglie discende la condizione di Bohr (fig.1.18b). 1.5.3 I successi della fisica quantistica La meccanica dei processi microscopici in cui le onde sono anche corpuscoli (Planck) e le particelle anche onde (De Broglie) è stata chiamata, meccanica quantistica. Abbiamo visto nella storia della scienza la dialettica fra continuo (geometria) e discreto (aritmetica). Ebbene, le ipotesi di Planck e De Broglie sembrano armonizzare questi due punti di vista contrastanti. Sia la struttura discreta degli spettri emessi dagli atomi, sia la stessa costruzione della tabella degli elementi atomici, con il ripetersi periodico delle proprietà chimiche, sono spiegati da questo riempimento successivo di un’orbita atomica con una, due, tre lunghezze d’onda. 42 F.T. Arecchi, Caos e Complessità nel Vivente Ma se c’è un’onda associata ad ogni particella, la particelle dovrebbe dar luogo a fenomeni di interferenza come visto in fig.1.8. Ripetiamo allora per un fascio di elettroni l’esperimento fatto da Young nel 1810 per le onde luminose. L’esperimento dimostra che c’è veramente un’onda associata, la cui lunghezza d’onda si scala come previsto da De Broglie. Infatti, variando la velocità del fascio di elettroni (e pertanto l’impulso) si sposta il sistema di picchi e valli. Si noti l’enorme rilevanza applicativa di questo fatto. Quando con la luce non riusciamo più a vedere oggetti molto piccoli (come in biologia) perché la lunghezza d’onda luminosa è diffratta, allora illuminiamo con fasci di particelle (elettroni o neutroni) e costruiamo perciò microscopi elettronici o neutronici. Ricordiamo che la luce visibile ci permette di risolvere fino a 0,5 micrometri; invece con i microscopi a particelle possiamo risolvere fino a pochi Angstrom (unità di misura pari a 10-10m, cioè a un raggio atomico). Figura 1.18: a) L’onda lanciata dallo specchio a sinistra si riflette sullo specchio a destra; l’ampiezza riflessa è uguale e di segno contrario a quella incidente, in quanto la somma delle due deve dare ampiezza zero, visto che l’onda non può penetrare nello specchio. Pertanto onda diretta e riflessa si distruggono per interferenza. Solo se λ /2 è contenuta in L un numero intero di volte (figura in basso), cioè se l’onda ha ampiezza nulla su entrambi gli specchi, si può mantenere un’onda stazionaria. b) Lo stesso; ma avvolgendo il percorso su una circonferenza. Condizione per un’onda stabile: λ deve essere contenuta un numero intero di volte nella circonferenza. Capitolo 1: La fisica dell’ordine 43 1.5.4 Le difficoltà concettuali della meccanica quantistica Abbiamo risolto i problemi che sembravano paradossali per la fisica classica (corpo nero, effetto fotoelettrico, stabilità degli atomi) ma al prezzo di rendere elusivi gli oggetti microscopici. Le onde luminose, in certi casi, si comportano come corpuscoli (fotoni); le particelle, in certi casi, si comportano come onde (regola di Bohr ed esperimenti di interferenza). Ma allora, che cosa sono? La difficoltà è che siamo in possesso di un formalismo, la meccanica quantistica, estremamente efficace per descrivere esperienze su scala atomica ma la cui interpretazione è ambigua. In effetti, se ci domandiamo che cosa siano gli enti che determinano le nostre misure, stiamo uscendo dalla logica della fisica, che consiste nel connettere risultati di misure per fare previsioni, per domandarci che cosa c’è dietro l’apparato di misura. Potremmo dire che le idee di particelle e onde vengono dalle nostre esperienze di tutti i giorni, idealizzate con i concetti di discreto e continuo, e non è detto valgano per oggetti che non vediamo ma che percepiamo solo attraverso apparati di misura. Bohr espresse nel 1928 questa situazione di disagio con il cosiddetto principio di complementarità: un oggetto atomico o sub-atomico non è solo particella (come le palle di biliardo), né solo onda (come le onde nell’acqua). A seconda delle misure che si fanno, si evidenzierà una o l’altra caratteristica, Si noti che, per effetto di questa dualità, non possiamo determinare «con precisione» e simultaneamente due grandezze quali posizione e impulso di un oggetto microscopico, Infatti, per misurare con precisione la posizione, dobbiamo guardare la particella con un’onda di lunghezza d’onda piccolissima, i cui fotoni trasferiscono un impulso grandissimo. Viceversa, se vogliamo determinare con precisione la velocità, dobbiamo vedere quanto tempo ci vuole ad attraversare una certa distanza L, ma dentro L non possiamo localizzare la particella, perché se no l’atto di osservazione ne altererebbe la velocità! Questa impossibilità di misura simultanea precisa si chiama principio di indeterminazione di Heisenberg (1927). Esso stabilisce che il prodotto delle due incertezze è uguale (o maggiore) alla costante h. Siccome il prodotto si deve mantenere costante, se un fattore diminuisce l’altro deve crescere. La relazione di Heisenberg pone un limite di principio alla precisione della nostra misura. 2 La fisica del disordine 2.1 Le macchine termiche e l’entropia Verso la metà del 1800, l’indagine sulle prime macchine termiche portò ad un nuovo capitolo della fisica, la termodinamica, che si occupa delle trasformazioni di calore in lavoro e viceversa. Nella camera di combustione di un motore entrano carbonio e idrogeno (cioè benzina) da una parte e ossigeno (cioè aria) dall’altra (fig.2.1). Figura 2.1: Valvole aperte: entrano benzina e aria. Per fondere le molecole (C+02àCO2, H2+OàH2O), cioè per fare la combustione, occorre vincere la barriera di potenziale tra le diverse molecole in modo che si passi da A (C, H e O separati) a B (C, H e O fusi) (fig.2.2). Figura 2.2: Diagramma energetico della combustione, o ossidazione. L’energia EAB ottenuta passando dalla buca di potenziale A a B va in energia cinetica (cioè in velocità) dalla molecola risultante (CO2, H2O) e questa spinge il cilindro. Non tutta l’energia prodotta però viene utilizzata; gran parte viene eliminata dalla marmitta sotto forma di calore (gas di scarico) inutilizzabile. Come mai? Ricordiamo che: energia cinetica + energia potenziale = costante Nella camera di combustione sono state immesse delle molecole che si sono poi fuse, mediante la temperatura che ha fornito l’energia di attivazione per Capitolo 2: La fisica del disordine 45 superare la barriera, in una molecola di anidride carbonica (CO2) o acqua (H2O). Questa molecola è diventata più veloce di quelle di partenza e perciò la sua energia cinetica può fornire una grossa spinta. Il lavoro utile prodotto dalla folla di molecole non è però uguale alla somma di tutte le energie cinetiche. Le molecole non vanno tutte nella direzione utile, cioè verso lo stantuffo, ma si disperdono in tutte le direzioni riscaldando le pareti del cilindro (fig.2.3). Figura 2.3: Nell’esempio in figura, solo 2 molecole spingono nella direzione giusta. Per questo è necessario raffreddare le pareti del cilindro, ed inoltre il gas di scarico viene eliminato quando è ancora caldo, cioè ha ancora energia. Nelle normali macchine termiche, si utilizza circa 1 molecola su cinque-sei per fornire il lavoro che fa muovere il pistone. Si chiama diavoletto di Maxwell un ipotetico essere in grado di orientare la velocità delle molecole in modo da sfruttare tutta 1’energia cinetica sullo stantuffo. Dall’osservazione del singolo processo, non si capisce lo sparpagliamento delle molecole. La fisica dell’ordine non fornisce spiegazioni sufficienti a capire le folle. Nel cilindro, tutte le molecole hanno la loro energia cinetica «legittima». Ogni molecola considerata singolarmente si comporta in maniera onesta, tutte le molecole però prese insieme - cioè considerate come folla hanno un comportamento disordinato perché vanno in ogni direzione in modo tale che ne servono solo alcune, le altre danno fastidio, e alla fine tutte le molecole sono espulse dallo scarico, lasciando un po’ di energia residua da smaltire come calore. Se spostiamo 1’attenzione dalle molecole al rendimento della macchina, si ha allora che: rendimento=(energia utile)/(energia totale)=(en.utile)/(en.utile+en espulsa) La «colpa» del rendimento limitato non è a livello della singola molecola che dà il suo eV: è la folla che combina guai perché le molecole non sono concordi. Si introduce così il concetto di disordine cioè il fatto che non tutte le molecole si orientano nella direzione utile. Si chiama entropia il grado di disordine che caratterizza un sistema termodinamico. 46 F.T. Arecchi, Caos e Complessità nel Vivente Quando un sistema è all’equilibrio termico, cioè ha una temperatura uniforme, esso si trova nella situazione di massimo disordine. Una nuova legge fisica (2o principio della termodinamica) dice che l’entropia tende ad aumentare, raggiungendo il massimo all’equilibrio. Si tratta di una qualità in un universo di quantità: la freccia del tempo, una natura che evolve solo in una direzione e non può tornare indietro. Infatti se raccogliamo delle molecole di un gas in un contenitore chiuso, a contatto con un contenitore vuoto, e apriamo la parete fra i due contenitori, si verifica una condizione di massimo disordine: le molecole si sparpagliano ovunque e non è poi possibile farle tornare tutte nel contenitore iniziale (fig.2.4). Similmente, supponiamo di gettare una goccia d’inchiostro in un bicchiere d’acqua. Col passare del tempo, la goccia si spande e, dopo un po’, l’acqua del bicchiere è diventata uniformemente scura. Non è mai successo che, al passare del tempo, una goccia d’inchiostro si riconcentri e l’acqua torni limpida. Se riuscissimo ad orientare le velocità delle molecole in una stessa direzione, otterremmo il massimo rendimento. Alla fine del 1800 quindi gli studi sull’energia erano arrivati alla conclusione che 1’energia totale è costante ma se ne utilizza solo una parte. Per esempio l’acqua tiepida a 40°C contenuta in una vasca da bagno possiede molta energia, ma non posso utilizzarla per fare il caffè. Per avere un buon caffè occorre poca acqua ma a 100°C e la quantità di energia per scaldare poca acqua fino a 100°C è minore di quella necessaria per una vasca piena d’acqua tiepida. Figura 2.4: Perché l’entropia aumenta: all’aumentare del tempo. Quanto detto per le molecole nella camera di combustione vale anche per le singole onde emesse dagli atomi di una lampadina. Le varie onde sono disordinate in fase, una rispetto all’altra, perciò in genere non avremo un’onda globale, ma la somma di tante ondette con fasi a caso (cosiddetta emissione spontanea). Il risultato sarà che avremo solo energia luminosa, ma non osserveremo vistosi effetti ondulatori. Se ora invece ordiniamo le emissioni atomiche, come oggi riusciamo a fare con il laser, allora avremo un’onda con una singola fase. Capitolo 2: La fisica del disordine 47 2.2 Probabilità La parola probabilità viene usata per indicare numerosi concetti tra loro diversi. Conviene pertanto procedere ad un esame di questi concetti per renderci conto di quali siano i limiti dell’uso di ciascuno di essi. Il concetto elementare di probabilità è nato quando si è cominciato a riflettere su alcuni interrogativi posti dai giochi d’azzardo. Laplace (1812) definì la probabilità come rapporto tra il numero dei casi favorevoli ed il numero dei casi possibili. La definizione è idonea a teorizzare i giochi d’azzardo onestamente giocati, ma del tutto impotente di fronte a situazioni più complicate. Come servirsene, ad esempio, nel caso di una partita ai dadi con i dadi truccati? Il concetto elementare di probabilità si basa sull’ipotesi implicita che il sistema che dà luogo agli eventi alternativi soddisfi ad un ben determinato «principio di simmetria». La difficoltà fondamentale sta nel fatto che è necessario, in qualche modo, affermare che gli eventi alternativi possibili debbono essere tutti equiprobabili, ma senza coinvolgere il concetto di probabilità, che è appunto ancora da definire. Per superare tale difficoltà, I.Bernoulli aveva introdotto il cosiddetto «principio di ragione non sufficiente» (in seguito chiamato anche principio di indifferenza), imparentato col principio di ragione sufficiente di Leibniz: «In mancanza di ragioni che distinguano, in qualche modo privilegiandoli, alcuni, tra più eventi alternativi, tali eventi debbono tutti considerarsi equiprobabili». Oggi, tale principio verrebbe espresso in modo diverso: «Nulla nella fisica del processo che dà luogo agli eventi alternativi deve cambiare, se ciò che determina uno qualsiasi di tali eventi viene scambiato con ciò che determina un altro qualsiasi di essi». Si tratta appunto, come si vede, di un principio di simmetria. Questo principio, se valido, giustifica il fatto che si attribuisca a tutti gli eventi possibili la stessa probabilità a priori, per cui basta contare tali eventi per ottenere la probabilità di ciascuno. Così, la probabilità di uno qualunque dei sei esiti diversi di un dado non truccato risulta essere 1/6 e questi valori delle probabilità rendono conto in modo soddisfacente dell’andamento delle vincite e delle perdite in partite giocate onestamente. Ma se i dadi sono truccati, vincite e perdite si discostano sistematicamente da quanto ci si aspetterebbe sulla base di quelle probabilità. Ciò porta all’idea che, in una situazione del genere, i singoli casi possibili non siano più equiprobabili. A rigore, quest’ultima frase è priva di senso, se non si dispone del concetto elementare di probabilità. Diremo allora che il desiderio 48 F.T. Arecchi, Caos e Complessità nel Vivente di poter fare previsioni anche con dadi truccati pone l’esigenza di un nuovo concetto di probabilità, in cui la probabilità possa anche risultare diversa per diversi casi a priori possibili. Per far fronte a queste esigenze sono stati introdotti altri tre concetti di probabilità: 1) il concetto statistico, 2) il concetto logistico, 3). il concetto di probabilità soggettiva. 1) Secondo il concetto statistico, non si può parlare (al contrario di quanto si fa nel linguaggio corrente) di probabilità a proposito di un singolo evento, ma solo a proposito di una classe, o collezione di eventi dello stesso tipo, ciascuno dei quali si presenti con una, tra due o più modalità alternative diverse. La probabilità di ciascuna modalità viene ancora riportata al rapporto fra il numero dei casi favorevoli e il numero dei casi possibili, ma questi non vanno contati prendendo in considerazione a priori le alternative disponibili, bensì a posteriori, esaminando l’insieme di eventi una volta che questi si siano prodotti. Così nel lancio di un dado la probabilità del 4 non è quella elementare; invece si deve eseguire una serie di N lanci (con N molto grande), contare il numero dei 4 ottenuti e dividerlo per N: in tal modo si ottiene «la frequenza» dei 4 nella serie di lanci. La probabilità del 4 è il «limite» della relativa frequenza al tendere ad infinito del numero N. Qui la parola limite non è usata nel senso rigoroso dell’analisi matematica e ciò costituisce la difficoltà di questo concetto. A parte ciò, esso è evidentemente utilizzabile anche per dadi truccati. Il concetto statistico è stato introdotto da J.Venn nel 1800. Il suo aspetto più importante è che presenta la probabilità come un dato oggettivo, ricavabile dall’esperimento. 2) Il concetto logistico concepisce la probabilità di un evento come una relazione logica fra 1’evento e le conoscenze di cui si dispone al riguardo. Con maggior precisione, questa probabilità è una relazione fra proposizioni. Così, non ci si deve chiedere «qual è la probabilità che domani piova?» ma «qual è la probabilità che la proposizione - domani pioverà - sia vera?». La probabilità dipende quindi dalle conoscenze di cui disponiamo, e siccome anche queste sono espresse mediante proposizioni, la probabilità è una relazione fra proposizioni, cioè una «relazione logica». Come tale è anche una relazione oggettiva, ma ad un livello di oggettività diverso dalla probabilità statistica: non già a livello degli eventi, ma a quello del nostro discorso sugli eventi. Il concetto logistico di probabilità è stato introdotto da G.Boole nel 1800, ripresentato da Wittgenstein nel «Tractatus» (1921) e sviluppato criticamente da J.M.Keynes (1921). Capitolo 2: La fisica del disordine 49 3) La probabilità soggettiva corrisponde ad un apprezzamento quantitativo di una situazione meramente soggettiva, cioè è l’ammontare della fiducia che il soggetto pensante ha nel verificarsi di un certo evento. È pertanto un valore soggettivo di regola variabile da individuo ad individuo. Questo concetto risale al 1800 ed è stato ripreso nel 1900 da B.de Finetti. Secondo de Finetti, non esistono eventi ripetibili e non ha quindi senso il concetto statistico di probabilità. La probabilità, come grado di credenza nel verificarsi di un certo evento, si valuta quantitativamente in base alla massima posta che il soggetto è disposto a rischiare in una scommessa, posta espressa come frazione del premio che riscuoterà se l’evento si verifica. Se l’evento non si verifica il soggetto perde la posta e non vince niente. Questo concetto è pertanto di pertinenza esclusiva della psicologia. Anche una frequenza sperimentale (osservata ad esempio in una serie di lanci ripetuti di un dado) non va confusa secondo questa concezione con una probabilità, poiché di fatto non esistono eventi ripetibili ed il soggetto può benissimo non dare alcun peso a tale frequenza come indicazione del grado di simmetria e bilanciamento del dado. La probabilità così intesa non ha quindi alcun carattere di oggettività. A questo punto siamo in grado di rispondere alla domanda: fra i vari concetti di probabilità quale va utilizzato nelle scienze sperimentali? Il calcolo delle probabilità è oggi un ramo della matematica che si sviluppa per via deduttiva da un preciso sistema di assiomi; come tale, esso è completamente indipendente dal significato intuitivo dei termini che compaiono negli assiomi. Il calcolo della probabilità è dunque uno e uno solo; ma i termini che compaiono in esso debbono prima di tutto essere interpretati, cioè acquistare un significato nel campo di indagine in questione. È in questo campo dunque, che si deve definire un conveniente concetto di probabilità e dimostrare poi che tale concetto soddisfa gli assiomi del calcolo. Se ne conclude che i tre diversi concetti di probabilità non corrispondono a tre teorie, ma a tre diverse interpretazioni del calcolo delle probabilità. Il problema è ora vedere quale serve nelle scienze sperimentali. Possiamo senz’altro escludere le interpretazioni soggettiva e logistica. Il campo della prima è privo di quei caratteri di obbiettività che si richiedono a ciò che è oggetto di scienza. Né, d’altra parte, una relazione (logica) tra proposizioni può dirci da sola alcunché degli aspetti del mondo: in modo analogo, la deducibilità di un teorema in un sistema deduttivo non ci dice nulla sul fatto che il relativo corpo di assiomi possa o meno essere usato per descrivere certi aspetti della realtà. 50 F.T. Arecchi, Caos e Complessità nel Vivente Ci resta così per le scienze sperimentali solo il concetto statistico. L’interpretazione statistica del calcolo delle probabilità implica tuttavia condizioni molto precise; in particolare, che gli eventi siano ripetibili. Ora, secondo la concezione del mondo della scienza classica, è proprio la regolare ripetitività di certi eventi che rende possibile la formulazione di leggi e quindi la stessa costruzione di una scienza. La ripetitività di certi eventi in dipendenza dalle loro cause è ciò che ha suggerito che gli eventi siano in qualche modo concatenati. Un primo tipo di concatenazione è quella storica: ciascun evento crea le condizioni necessarie perché l’evento seguente possa verificarsi (un vaso non può cadere da un terrazzo se prima qualcuno non ve lo ha messo). Ma l’idea suggerita dalla costante riproducibilità di certi eventi in certe condizioni è quella della possibilità di una concatenazione più stretta di quella storica: una concatenazione in cui ogni evento non è solo necessario ma anche sufficiente per il successivo. È questa propriamente l’idea di «causa». D’altronde l’esempio mostra che esistono eventi (come l’esito del lancio di un dado) che risultano non inseriti in una concatenazione più stretta di quella storica. Un evento del genere è per definizione un «evento casuale». Nessuno degli eventi che a priori potrebbero essere presi in considerazione come possibili cause di esso risulta collegabile ad esso mediante un legame di necessità. È propriamente l’esistenza di eventi casuali che rende possibili le applicazioni del calcolo delle probabilità allo studio dei fenomeni naturali. 2.3 L’informazione È ben noto quale importanza abbia sempre avuto l’informazione nella vita umana. Ma solo in epoca recente, con lo sviluppo della scienza e della tecnologia, ci si è resi conto dell’assoluta priorità dell’informazione rispetto agli altri beni di cui dispone l’uomo. In tutto l’ottocento e in parte del novecento ci si è preoccupati soprattutto delle materie prime, delle risorse agricole, della disponibilità di manodopera. Oggi si tende invece a dare un posto preminente alle informazioni e «cognizioni», da quelle generali scientifiche, a quelle tecnologiche più spicciole, chiamate «know how». È chiaro che il primo problema da risolvere è quello di «misurare» l’informazione, cioè quello di caratterizzare ragionevolmente con un numero, con una grandezza fisica, la quantità di informazione. L’informazione si trasmette mediante «messaggi». Daremo a questa parola un’accezione molto larga. Per noi sarà messaggio una parola, un gesto, il suono Capitolo 2: La fisica del disordine 51 di una campana, una lettera dell’alfabeto, un punto o una linea dell’alfabeto Morse, una pagina stampata, un libro e ecc.. Chi trasmette un messaggio potrà scegliere da un insieme costituito da un certo numero n di messaggi diversi. Per chi trasmette «punto» o «linea» sarà n=2, per chi indica di andare a «destra» o «a sinistra» o «diritto» sarà n=3, per chi batte un carattere a macchina sarà n=32 (ponendo che la macchina da scrivere abbia 32 tasti) e così via. È chiaro che un determinato messaggio porterà tanta più informazione quanto maggiore è il numero n dei messaggi tra i quali può essere scelto. Per esempio un semplice «sì» o «no» (n=2) porterà un’informazione molto modesta; invece un discorso di dieci parole può portare un’informazione enorme, perché enorme è il numero n dei messaggi differenti che si possono formare con dieci parole. Dunque, sembra opportuno che la misura dell’informazione sia rappresentata da un numero che cresce con n. Tale è n stesso o n2, o n3, o log n, ecc. Per fare una scelta opportuna dovremo porre qualche altra condizione. La condizione più ragionevole consiste nel richiedere che la trasmissione di due, tre, ecc. messaggi consecutivi scelti dallo stesso insieme, porti il doppio, il triplo, ecc. d’informazione rispetto ad un singolo messaggio. Due pagine stampate dovrebbero contenere il doppio d’informazione di una singola pagina, un libro di cento pagine dovrebbe contenere cento volte tale informazione e così via. Supponiamo di trasmettere una successione di messaggi elementari, scelti fra n diversi. Se ne trasmettiamo due, ciascuna delle n possibilità del primo può combinarsi con una delle n del secondo. Per esempio in una scelta binaria (testa/croce nel lancio della moneta ovvero + o - ), abbiamo: un messaggio 2 possibilità: +, due messaggi 22 possibilità: (+ +), (+ - ), (- +), (- - ) In genere perciò avremo W=n2 messaggi possibili, mentre l’informazione deve essere doppia. Allora l’informazione è proporzionale all’esponente 2, cioè al logaritmo di W. Ricordando il grafico della funzione logaritmica, si vede che per W piccolo l’informazione (che chiameremo I per brevità) cresce rapidamente, mentre per W grosso, I cresce sempre più lentamente. Nell’esempio del lancio della moneta, il messaggio corrispondente a l0 lanci deve avere I l0 volte più grande del singolo lancio. Invece di classificare tutte le 210=1024 combinazioni di + e presi a l0 a 10 (ad es. [+ - + - - - + + - - ]), ci limitiamo a dire che I è di l0 cifre binarie o come si dice in gergo di l0 bit (abbreviazione di binary digit). Stabiliamo un legame fra informazione I e probabilità. Se i W messaggi sono tutti equiprobabili, a ciascuno spetterà una probabilità p = l/W. Ricordiamo 52 F.T. Arecchi, Caos e Complessità nel Vivente dall’aritmetica elementare che una divisione equivale a elevare alla potenza -1, cioè al posto di W possiamo scrivere p-l; pertanto il logaritmo di W è «meno» il logaritmo di p, cioè: I = - log p Questo secondo modo di scrivere si può generalizzare al caso in cui i vari messaggi accadano con probabilità differenti. Introduciamo il concetto intuitivo di media (la media fra 3, 5 e 7 è (3+5+7)/3 = 5), e indichiamo una media con parentesi acute <>. Orbene, l’informazione è legata alla espressione media: I = - < log p> Abbiamo dunque collegato informazione a probabilità. Si tratta di un concetto non riportabile immediatamente a un’operazione di misura, come lunghezza o velocità, e il corrispondente apparato di misura non è uno strumento in vendita (non esiste l’informometro). Per una definizione quantitativa, è occorsa tutta una procedura complessa che è stata fonte di discussioni. Tali discussioni nel caso di micro-oggetti (meccanica quantistica) o dei viventi (biologia) non sono ancora finite. 2.4 Termodinamica e meccanica statistica: dall’individuale al collettivo La descrizione globale di un oggetto macroscopico con la sua energia, entropia, volume e numero di particelle e la tendenza all’equilibrio termico, cioè il degradarsi verso una condizione di massima entropia, si chiama termodinamica. Verso la fine del 1800 Boltzmann aveva tentato di spiegare il comportamento globale mediante il comportamento individuale delle singole molecole. Nella fisica dell’ordine questo programma è semplice. Ad esempio si dice che una biglia si comporta come una particella in quanto tutti i suoi atomi si muovono rigidamente insieme, cioè eseguono moti coerenti. Qui invece dobbiamo riuscire a dare espressione matematica al fatto che ogni molecola si muove per conto proprio, cioè che i moti sono incoerenti. Questo programma (meccanica statistica) riuscì ad una condizione: integrare le leggi dinamiche di Newton con un’ipotesi di incoerenza delle velocità (la Stosszahl Ansatz, ipotesi di disordine completo delle. velocità molecolari, di Boltzmann). Questo «solipsismo» delle molecole è facilmente giustificabile in un gas, dove le molecole sono lontane una dall’altra e si influenzano solo per urti, in Capitolo 2: La fisica del disordine 53 cui, come le biglie, per un piccolissimo istante si perturbano reciprocamente le velocità. Ma come estendere la meccanica statistica ai liquidi e solidi? Orbene, la cosa è possibile nell’ambito della dinamica lineare. Accettiamo che le molecole siano vicine e pertanto legate da forze reciproche, ma assumiamo che queste forze siano «lineari», cioè come tante molle elastiche (fig.2.5). Figura 2.5: Catena di atomi sul reticolo di un cristallo con accoppiamenti tra prossimi vicini. Per piccoli spostamenti attorno alla posizione di equilibrio, vale un modello lineare (con buca di energia parabolica). La figura indica una fila di molecole in un cristallo. Per l’ipotesi lineare, ognuna eseguirà dei moti all’interno della propria buca di potenziale e non si accorgerà dell’esistenza delle altre, cioè del fatto che il potenziale si raccordi con la parte tratteggiata, cessando di essere parabolico. Ciò sarà sempre possibile purché i moti attorno alle posizioni di riposo (fondi buche) siano piccoli, come accade in un cristallo a temperatura ambiente, in cui ogni molecola è agitata dall’agitazione termica. Dunque, il moto sarà la sovrapposizione di un moto ordinato, da calcolare con le regole della dinamica dell’ordine, più un’agitazione sovrapposta, rispetto alla quale ogni molecola si trova scorrelata dalle altre, come in un gas. In definitiva, con l’ausilio ulteriore del metodo di Boltzmann, sembra che possiamo mantenere il programma riduzionistico di spiegare un oggetto macroscopico nei termini dei suoi componenti anche in presenza di moti disordinati di tipo termico. Le quantità globali sono somme opportune delle quantità individuali, p. es. l’entropia di un oggetto macroscopico sarà la somma delle entropie di ciascuna molecola, e se queste in media si comportano allo stesso modo, e ce ne sono N in totale, basta dire che: entropia totale = N · (entropia individuale) Quando però la dinamica è non più lineare, allora non si può più dire che le molecole differenti si comportano allo stesso modo. La descrizione globale può 54 F.T. Arecchi, Caos e Complessità nel Vivente diventare estremamente difficile, a meno che non si riesca a ricorrere a semplificazioni convincenti. Ciò ha luogo quando si riesce a dividere concettualmente un sistema in un piccolo numero di sotto-sistemi. Questi interagiscono globalmente ma non individualmente. Facciamo un esempio. Supponiamo di avere in un laghetto pesci che si nutrono di mangime fornito in abbondanza. Questi non devono competere per il cibo e si limitano a fare figli: tanti più quante più coppie ci sono. Questa velocità di crescita che aumenta col numero di pesci corrisponde alla caduta lungo una china (fig.2.6a). Figura 2.6: Rappresentazione di crescita di popolazione per riproduzione (a) e saturazione per cibo limitato (b), come due dinamiche lineari distinte. Il sistema globale di tutti i pesci è rappresentato da una caduta in un paesaggio dell’energia unidimensionale, cioè a una crescita del numero di pesci da A a B nel tempo. Si noti, siamo usciti dalla logica del meccanicismo, perché non consideriamo più il moto locale (cioè nello spazio del laghetto) di ciascun pesce, ma il moto in uno spazio astratto, in cui c’è sempre in verticale l’energia, ma in orizzontale c’è il numero di pesci. Abbiamo mutuato dal meccanicismo il formalismo matematico, ma lo stiamo applicando a un puro spazio mentale, creato da noi per farci delle rappresentazioni. Supponiamo ora che il cibo sia limitato, per cui ci sia posto solo per un numero C di pesci e quelli in più muoiono rapidamente di fame. Ciò equivale a dire che, da B in su, cambia la regola: invece che a fig.2.6a (potenziale instabile) dobbiamo fare riferimento a fig.2.6b (buca stabile). Se poi la morte per fame è più rapida del tempo di riproduzione, da B si cade in C e ci si ferma, senza fare oscillazioni (la caduta BàC è «come» quella di una pallina con attrito che dissipa l’energia cinetica e non ha velocità per risalire oltre C). Capitolo 2: La fisica del disordine 55 Unendo a) e b), si ha una dinamica globale non lineare (fig.2.7). Figura 2.7: Combinazione delle 2 dinamiche lineari distinte in un’unica dinamica non-lineare. Abbiamo riportato la legge di crescita temporale con l’asse del tempo in orizzontale, come si fa di solito per convenzione. Dunque riusciamo a fare previsioni perché, in base alle regole di Galileo, abbiamo trovato la giusta quantità di cui calcolare il futuro, ma il paragone con la pallina che scivola su una china è solo un’analogia, non una riduzione meccanicistica. Se nel laghetto mettiamo pesci bianchi con cibo illimitato, questi crescono come in fig.2.6a. Se però introduciamo anche pesci rossi, che si nutrono di pesci bianchi, la cosa è più complicata. Avendo due specie, avremo anche due coordinate nello spazio mentale. Dovremo perciò costruire un paesaggio a due dimensioni X-Y, dove X è il numero di pesci bianchi e Y quello di pesci rossi (fig.2.8). Figura 2.8: Passaggio da un grado di libertà (una specie di pesci) e due gradi di libertà (due popolazioni X e Y). La competizione (se Y cresce, X diminuisce) cioè la retro-azione (feedback) da Y a X dà luogo a oscillazioni. Invece in fig.2.7 la quantità di cibo non dipendeva dalla popolazione (non c’era feedback). 56 F.T. Arecchi, Caos e Complessità nel Vivente In questo paesaggio X-Y, le due coordinate (X, Y) danno rispettivamente i numeri di pesci preda e predatori. Per es. se partiamo da 1 (X alto, Y basso), i bianchi sono numerosi per scarsezza di predatori. Ma i pochi rossi trovano molto cibo e si riproducono rapidamente, distruggendo i bianchi più rapidamente di quanto questi si riproducano a loro volta. Si arriva a 2. Ma qui i rossi cominciano a morire per mancanza di cibo, i bianchi allora - avendo meno predatori - tornano a crescere, e così via, con cicli che si alternano come si può capire dai due diagrammi temporali proiettati a sinistra e in basso in a), e poi riportati sovrapposti in b). Si noti che se avessimo esteso a questo caso la soluzione unidimensionale di fig.2.7, avremmo sbagliato. Diamo il nome di descrizione «mesoscopica» a questa dinamica che mutua le tecniche della dinamica delle particelle, ma le riferisce ad oggetti astratti, ognuno dei quali è un sistema. Nell’ultimo esempio, il punto che si muove nel piano X-Y è il sistema: pesci bianchi con il loro cibo più pesci rossi. 3 La fisica dell’organizzazione 3.1 Il livello mesoscopico - Le transizioni di fase 3.1.1 Sistemi all’equilibrio termico In questi ultimi decenni l’attenzione della scienza si è rivolta al livello che abbiamo chiamato mesoscopico. Esso è intermedio fra il microscopico che riguarda la singola particella elementare e il macroscopico in cui consideriamo un oggetto come il puro risultato della somma dei componenti, come abbiamo visto nel caso del cristallo di fig.2.5. Vediamo un po’ meglio in che cosa un sistema differisce dalla pura somma dei componenti. Prendiamo per esempio un gas di molecole con mutui legami attrattivi. Finché ci sono solo urti ciascuna molecola fluttua per effetto degli urti incoerenti che riceve da tutte le parti, ma rimane pur sempre «staccata» dalle altre, cioè il gas resta gas. Dal punto di vista energetico, essa si muove sul fondo di una buca di potenziale, che rappresenta la sua velocità media. Se scarta in su o in giù, l’insieme degli urti ve la riporta, cioè il moto è rapidamente smorzato. Alla buca di energia possiamo associare una curva a campana che rappresenta la probabilità di trovare le molecole (vedi fig.3.1a). La probabilità è massima nel fondo buca, dove l’energia è minima. Se gli urti che «omogeneizzano»il sistema sono impediti, cioè se il sistema è congelato a bassa temperatura, allora prevalgono le mutue attrazioni e per effetto di queste le molecole dovrebbero collassare in un mucchio compatto, cioè il gas diventare solido. Invece, ad alta temperatura, gli urti reciproci danno fluttuazioni che compensano i legami attrattivi, mantenendo lo stato gassoso. Esisterà allora una temperatura critica alla quale legami attrattivi e fluttuazioni termiche sono ugualmente importanti e si neutralizzano. A questo punto si possono formare spontaneamente gruppi di molecole che, per effetto delle maggiori dimensioni, esercitano un’azione attrattiva superiore a quella della singola molecola, finendo per «orientare» il comportamento del resto del sistema: si ha cioè l’instaurarsi di un «ordine a lungo raggio». Quando ciò succede si avrà una transizione di fase gas-liquido. Al punto critico in cui avviene la compensazione fra i due meccanismi antagonisti (forze di legame e urti termici), cioè quando nasce l’ordine a lungo raggio, si smussano i dettagli delle forze individuali scambiate fra due singole molecole, con un comportamento universale, che si verifica indipendentemente 58 F.T. Arecchi, Caos e Complessità nel Vivente dalla natura dei legami. Cioè liquefacendo vapori di ammoniaca, o anidride carbonica, o acqua, varierà la temperatura a cui ciò avviene, ma il fenomeno avrà le stesse caratteristiche. Illustriamo più in dettaglio questo passaggio dal disordine del gas (posizioni delle molecole a caso) all’ordine dello stato condensato (molecole con piccoli spostamenti residui, ma fondamentalmente inamovibili, come nel liquido o nel solido). Si segue meglio il passaggio se si pensa a una calamita. Una calamita è tale perché tutti i magnetini elementari (cioè i singoli spin atomici) si dispongono paralleli. Ma accanto alla forza magnetica che tende. ad allinearli, c’è l’effetto di agitazione termica, che tende a disorientarli. Chiamiamo con J l’energia scambiata da uno spin con quelli contigui, e kT (dove T è la temperatura e k una costante che traduce la temperatura in energia) il «boccone» di energia termica che tocca allo spin. Finché l’urto disordinato prevale sullo scambio magnetico che tende ad allineare gli spin, cioè finché kT>J, è come se ci fossero solo urti, saremo cioè in una fase disordinata, in cui i vari spin avranno orientamenti diversi, per cui ognuno si neutralizzerà con uno opposto e, a due a due, daranno somma nulla. Diremo che ad alta temperatura, il corpo è paramagnetico, cioè può acquistare proprietà magnetiche, ma per il momento non fa da calamita. Se ora abbassiamo la temperatura, finché kT<J allora il mutuo allineamento, cioè l’ordine, prevale sul disordine e gli spin si ritrovano tutti paralleli. In assenza di un corpo esterno che imponga una sua direzione, ciò avverrà con una legge di «maggioranza»: tutti ad esempio con la punta in su o in giù, a seconda di come la maggioranza abbia stabilito allorché passando per kT=J, le fluttuazioni ancora contavano (a rigori, per spin con molte orientazioni possibili, come in fig.3.1a, il collasso a spin paralleli può avvenire in qualunque direzione: scegliendo la verticale – spin su o giù – stiamo tacitamente applicando un piccolo campo magnetico verticale che orienta gli spin, senza peraltro alterare la dinamica rappresentata in fig.3.1b). Avremo perciò un paesaggio dell’energia con due buche, e pertanto con due picchi di probabilità (fig.3.1b). Ora la magnetizzazione è non nulla, avremo – convenzionalmente – un valore + o - a seconda che gli spin siano allineati tutti in su o in giù. Chiamiamo ferromagnetica la fase della calamita con magneti allineati. Capitolo 3: La fisica dell’organizzazione 59 Figura 3.1: Paesaggio dell’energia e curva di probabilità per gli spin a) quando prevale il disordine termico b) quando prevale l’allineamento ordinato. Consideriamo allora fig.3.1a e 3.1b come due diagrammi energiamagnetizzazione per due diverse temperature. Variando con continuità la temperatura, si può costruire un diagramma tridimensionale come in fig.3.2a. Il fondo valle, alla temperatura per cui kT =J, cioè per compensazione fra ordine e disordine, si biforca. Introduciamo il seguente gergo: - magnetizzazione = parametro d’ordine (nullo in fase disordinata, non nullo in fase ordinata); 60 F.T. Arecchi, Caos e Complessità nel Vivente - temperatura = parametro di controllo (controlla la forma del paesaggio dell’energia). Figura 3.2: Paesaggio dell’energia con la transizione disordine-ordine all’abbassarsi della temperatura. a) diagramma tridimensionale b) luogo dei minimi (linea intera) e massimi (linea tratteggiata) che mostra la biforcazione alla temperatura critica per cui allineamenti e fluttuazioni termiche si compensano. Inoltre chiamiamo punto critico il punto di biforcazione, a cui i due antagonisti (fluttuazione termica e interazione spin-spin) si compensano e il sistema deve decidere se biforcare da una parte o dall’altra. La decisione è pilotata da una fluttuazione: se per caso si forma un gruppo numeroso di spin tutti allineati in su, allora questi faranno da seme iniziale e convinceranno tutti gli altri ad orientarsi, poco a poco, allo stesso modo. Queste situazioni critiche di passaggio dal disordine all’ordine sono comuni a molti sistemi fisici; esse caratterizzano anche i sistemi biologici e sociali, e la Capitolo 3: La fisica dell’organizzazione 61 competizione fra due processi antagonistici è stata la base di modelli ecologici ed economici (vedi Tabella). PASSAGGIO DISORDINE-ORDINE (interazione non lineare fra due antagonisti) ECOLOGIA: predatore-preda BIOLOGIA, CHIMICA attivatore-inibitore LASER, ELETTRONICA, ECONOMIA guadagno-perdite FLUIDI spinta di Archimede-viscosità ASTROFISICA gravitazione-reazioni nucleari 3.1.2 Sistemi aperti, fuori dall’equilibrio termico Esiste però una differenza essenziale fra la transizione gas/liquido o para/ferromagnetica e l’ordine nei sistemi elencati in tabella. Nei sistemi fisici studiati in termodinamica ci si era limitati a condizioni di equilibrio termico, cioè di temperatura uniforme, che evitano le complessità e permettono di stabilire criteri generali quale il principio della massima entropia, cioè della tendenza a una situazione di massimo disordine. Recentemente l’interesse si è spostato sui sistemi aperti, cioè sistemi che scambiano energia al contorno (esempi: un laser che riceve energia elettrica e cede energia luminosa, un essere vivente che riceve cibo e ossigeno e compie lavoro, un liquido in un recipiente scaldato dal fondo e raffreddato in alto che trasforma il flusso termico in moti ordinati convettivi). Come nel caso del magnete, possiamo descrivere il passaggio da una normale sorgente luminosa (lampada) a un laser come un passaggio disordine-ordine. Abbiamo già accennato in par.2.1 che, in una lampada, l’onda emessa da ciascun atomo in genere ha una fase diversa da qualunque altro atomo. Nel laser, l’equivalente della tendenza all’allineamento nel magnete è la tendenza all’accordo di fase fra le onde emesse da atomi diversi. Questo accordo si chiama emissione stimolata: tutti gli atomi stimolati l’uno dalla luce dell’altro, emetteranno luce in ordine. Questo effetto d’ordine è contrastato dal fatto che la luce scappa dalla regione della lampada, e perciò non può più esercitare il suo effetto ordinatore. Lo scappare è equivalente a perdersi in un mare buio a bassa temperatura, quindi è un effetto di disordine, cioè di crescita di entropia. Se però agli estremi della lampada mettiamo specchi, la luce si riflette indietro e può continuare a esercitare il suo effetto stimolante. Avremo perciò una competizione, in cui l’ordine cresce con il numero di atomi in grado di dare 62 F.T. Arecchi, Caos e Complessità nel Vivente luce (possiamo controllare ciò mediante una scarica elettrica in un gas) e il disordine cresce con la perdita agli specchi. Quando prevale l’ordine, si ha il laser. Ma se continuiamo ad aumentare l’eccitazione possiamo «rifornire» diversi modi di emissione fra gli specchi (analoghi ai modi risonanti diversi della cassa di uno strumento musicale). Quando ve ne sono tre, può nascere caos deterministico. Se poi ve ne sono molti, può nascere una situazione complessa che torna a somigliare al vecchio disordine al di sotto della soglia laser. Tutto ciò è rappresentato in fig.3.3. I segnali racchiusi nei cerchi a destra rappresentano i segnali elettrici che si vedrebbero all’uscita di un fotorivelatore nei tre casi. Figura 3.3: Il laser. Le frecce spezzate indicano dell’eccitazione fornita agli atomi: a)sotto la soglia laser: abbiamo una lampada normale i cui atomi emettono luce con fasi disordinate; b)sopra soglia laser: si ha un generatore di luce coerente, con fasi ordinate; c) più modi laser coesistono: si può avere caos o complessità. Capitolo 3: La fisica dell’organizzazione 63 Perché mai in questo caso possiamo applicare considerazioni quali quelle usate per sistemi all’equilibrio, con riferimento a un paesaggio dell’energia che cambia forma? La trattazione formale è rimandata al par.8.1. Qui sviluppiamo considerazioni euristiche. Riandiamo alla scala dei livelli di energia discreti dell’atomo di Bohr, mostrati in fig.1.17 e isoliamo la coppia di livelli fra cui c’è un salto pari alla frequenza del laser che vogliamo realizzare, p. es. n=3 e n=2, (fig.3.4). Se l’atomo è nello stato basso n=2 può assorbire luce sottraendo energia al sistema campo elettromagnetico: questo è confinato in modo stabile attorno al valore zero da cui può allontanarsi solo per fluttuazioni che però ve lo riportano (situazione analoga a fig.4.1 in alto). Se ora l’atomo è stato portato allo stato “innaturale” n=3, cioè fuori dall’equilibrio, da un meccanismo che in gergo chiamiamo pompa, allora può emettere un fotone arricchendo l’energia luminosa. Un atomo può cedere il suo fotone spontaneamente senza sollecitazione esterna; in tal caso i vari fotoni spontanei non avranno correlazioni mutue. Invece un atomo, mentre è nello stato eccitato può cedere il suo fotone su sollecitazione di un altro fotone (emissione stimolata) i due fotoni saranno correlati e contribuiranno a costituire un campo elettromagnetico ordinato. Entro una folla di atomi eccitati, questo processo può proseguire in cascata, ciò equivale a dire che il campo crescerebbe senza apparente limite. Rappresentando il campo al posto della magnetizzazione degli spin sull’asse orizzontale di fig.3.1, siamo ora nel caso b) in cui la valle centrale è divenuta un colle e il campo cresce o a destra o a sinistra (siccome i processi di emissione stimolata generano segnali coerenti, se quello iniziale comincia a destra tutti gli altri lo seguono e viceversa). Ma il precipitare dal colle ha un limite: come mostrato in fig.3.4, quando si è accumulata un’alta popolazione di fotoni. allora è probabile che un certo fotone, invece di dare emissione stimolata su un atomo ad n=3, sbatta su un atomo esaurito ad n=2, lo riporti su per assorbimento, e questo torni poi giù per emissione stimolata: ma con ciò tre fotoni danno il risultato finale che inizialmente dava un fotone! Questo processo di disturbo frena il precipitare dal colle e finisce collo stabilizzare il valore del campo ad una posizione di equilibrio equivalente a ± M 0 in fig.3.1. Dunque abbiamo giustificato: i) l’allontanarsi del campo della luce dal valore nullo che è una transizione di fase perché equivale a capovolgere il paesaggio dell’energia attorno all’origine, ricordo che LASER vuol dire: light amplification (by) stimulated emission (of) radiation; 64 F.T. Arecchi, Caos e Complessità nel Vivente ii) un meccanismo competitivo ad alte densità di fotoni che blocca l’instabilità in un minimo stabile. Nella Parte II daremo una base formale sia alla biforcazione(passaggio da valle a colle) sia alla successiva stabilizzazione del campo ad un valore non nullo, che chiameremo “parametro d’ordine” Figura 3.4: Rappresentazione dei due livelli d’energia la cui separazione è pari alla frequenza della luce emessa. a) atomo ad n=2: assorbimento; b) atomo ad n=3 ma in assenza di altri fotoni: emissione spontanea; nelle normali lampade gli atomi eccitati sono pochi e la luce emessa è di questo tipo; c) atomo ad n=3 in presenza di altri fotoni: emissione stimolata; d) atomo ad n=3 in presenza di molti fotoni: meccanismo riduttivo del guadagno, per effetto di competizione (saturazione del guadagno). Allo stesso modo possiamo dare la descrizione mesoscopica dell’instabilità convettiva (Rayleigh-Benard) in un fluido confinato in una cella e scaldato dal basso. Se la differenza di temperatura fra fondo e coperchio della cella è debole, allora le molecole trasmettono l’agitazione per urti e si ha una situazione disordinata (fig.3.5a). Se aumentiamo la differenza di temperatura, in basso si formano dei volumetti più leggeri (liquido scaldato) che salgono come palloncini per spinta di Archimede e fanno in tempo a raggiungere la parete fredda in alto, senza disperdere la loro individualità per urti molecolari. Una volta in alto, si raffreddano, si raddensano e cadono in giù. Vedremo dei rulli Capitolo 3: La fisica dell’organizzazione 65 convettivi ordinati (fig.3.5b). Ma se scaldiamo troppo, avremo una combinazione di rulli diversi, e il tutto diventerà caotico o complesso (fig.3.5c). Figura 3.5: Instabilità di Rayleigh-Benard. a) Moto diffusivo (disordinato), b) Moto convettivo (ordinato): due diversi tipi di rulli. c) Composizione di più moti convettivi, con rulli diversi di forme diverse (caos e complessità). In tutti questi casi, la caratteristica comune è la comparsa di comportamenti ordinati su una scala molto più vasta di quella atomica, (ad esempio le onde convettive nel fluido). Questo indica che la descrizione mesoscopica non implica i singoli atomi, ma sotto sistemi estesi: come in una sinfonia, si opporranno gli archi agli strumenti a fiato, ma non si isolerà il singolo violino se questo è all’unisono con gli altri archi. Inoltre, l’effetto del contorno non è prevedibile dalle interazioni elementari, ed è qualcosa da aggiungere ad hoc, in più rispetto alla conoscenza degli individui. Ad esempio l’informazione contenuta nel DNA in un embrione è la stessa per tutte le cellule, ma la differenziazione di tessuti ed organi è guidata da messaggi di posizione che variano da cellula a cellula. Si noti che nelle didascalie di fig.3.3 e fig.3.5 si è parlato di caos e complessità. Qual è la differenza? Finché si hanno pochi gradi di libertà in 66 F.T. Arecchi, Caos e Complessità nel Vivente competizione (tre o pochi di più) si ha il caos deterministico. Quando invece si considerano le distribuzioni nello spazio, cioè si hanno molti individui in competizione sullo stesso territorio (come i differenti modi laser fra i due specchi o i rulli nella instabilità collettiva) allora ognuno può delineare, la propria «nicchia ecologica». In gergo fisico si dice che il dominio di correlazione di una certa dinamica è più piccolo di tutto il territorio a disposizione. La dinamica totale diventa allora una collezione di domini, ognuno con la sua propria dinamica, o solo debolmente correlati o del tutto scorrelati: nel primo caso parleremo di complessità, nel secondo saremo tornati alla termodinamica, solo che ora gli individui non sono più le singole molecole ma delle dinamiche collettive (modo laser o rullo idrodinamico). Una definizione accurata di complessità sarà data in par.8.1. In effetti le oscillazioni ideali del tipo di fig.2.8 non si osservano in natura. Se per esempio studiamo per decenni le popolazioni di lepri e linci nella foresta canadese, ritroviamo un andamento grossolanamente di tipo oscillante, ma con forti variazioni rispetto alla media. Ciò perché il sistema ha molti sottosistemi (il cibo, la durata degli inverni, le malattie da parassiti, etc.) e la nostra schematizzazione è solo approssimativa. È compito dell’analisi dei sistemi di isolare dai complessi fenomeni osservati quelle regolarità suscettibili di essere descritte in termini di coppie di antagonisti. 3.2 Sinergetica e auto-organizzazione La dinamica dei sistemi considera l’evoluzione di un. sistema complesso come dovuta all’interazione globale, cioè non fra singole particelle, ma fra sottosistemi che agiscono ciascuno con una propria individualità. Per esempio, in una gabbia con. due animali A e B, ciascun animale ha una sua dinamica e interagisce come totalità con l’altro. La descrizione sistemica supera il riduzionismo. È ovviamente legale dire che quel che c’è nella gabbia è la somma degli atomi di A e B, ma sarebbe ridicolo pretendere che la conoscenza delle interazioni elementari atomo-atomo sia in grado di fare prevedere quel che succederà nella gabbia. Appena raggruppiamo a tre a tre i costituenti di A e B, fra questi possono «scoppiare» situazioni di caos deterministico. Inoltre, come visto, in un sistema «aperto» gioca un ruolo essenziale l’influenza del contorno, cioè degli scambi globali col resto del mondo, che mancano in un mondo chiuso. Capitolo 3: La fisica dell’organizzazione 67 In sistemi chiusi è ancora possibile una descrizione riduzionistica: ad esempio, dedurre la simmetria macroscopica del cristallo dalle simmetrie dei legami atomici. In sistemi aperti, lo scambio al contorno è un «di più» rispetto alle leggi interne. Ad esempio la forma dei moti in un liquido che bolle dipende crucialmente dagli scambi termici alle pareti della pentola e non si può attribuire solo alla natura delle molecole del liquido. In un vivente, i comportamenti (fenotipo) sono un compromesso fra eredità (genotipo) e ambiente, e non sono deducibili solo dal genoma (cioè dalla sequenza di basi del DNA). D’altronde il vitalismo di vecchio stampo pretendeva che esistessero delle leggi globali del vivente differenti dalle leggi fisiche dei costituenti. La biologia molecolare ha in effetti provato come non sia necessario ricorrere a leggi non fisiche per discriminare la struttura del non vivente da quella del vivente, a livello elementare. Dunque, entrambe le posizioni, riduzionistica e vitalistica, sono insostenibili La sintesi consiste nell’individuare unità definite che interagiscono fra di loro globalmente come individui, senza che a questo livello vadano considerate le interazioni atomiche. Un esempio familiare: la Divina Commedia di Dante e tutta 1’opera di Shakespeare contengono, grosso modo, lo stesso numero di lettere dell’alfabeto latino. Ciò non vuol dire che mescolando le 25 lettere dell’alfabeto a caso sia possibile ottenere un’opera letteraria. Le unità rilevanti sono diventate le parole, col loro valore grammaticale e semantico; quindi per un’analisi del testo è inutile studiare le correlazioni fra singole lettere dell’alfabeto, ma si deve fissare l’attenzione sulla dinamica delle parole nella frase e, ad un livello gerarchico superiore, sulla dinamica delle frasi in un capitolo (o in un canto, o in un atto, ecc.). Per concludere, a dispetto del riduzionista, non bastano i singoli componenti elementari; a dispetto del vitalista, d’altra parte, non è necessario aggiungere nuove entità extra fisiche per capire aspetti globali di un sistema complesso, ma basta descriverlo gerarchicamente, cioè ad un livello mesoscopico diverso da quello microscopico, come fatto in par.3.4 per i pesci. L’emergenza dell’ordine per effetto delle interazioni globali fra sotto-sistemi è stata chiamata auto-organizzazione da I.Prigogine. La descrizione mesoscopica di un sistema fisico aperto è stata chiamata sinergetica da H.Haken. Quando si riduce ad un numero basso di personaggi (due negli antagonismi, o pochi di più) essa risulta indipendente dai dettagli dei miliardi di componenti atomici. Per esempio, la stessa descrizione «sistemica» o 68 F.T. Arecchi, Caos e Complessità nel Vivente sinergetica è valida per un laser, per un fluido scaldato, per una reazione chimica, e risulta sufficientemente universale da apparire utile per descrivere sistemi sociali o biologici. 3.3 Come individuare i sottosistemi Nel caso dei sistemi biologici, o sociali, o culturali, le sottounità (cellule, apparati, città o nazioni, lingue e dialetti) finiscono con l’essere caratterizzate o da un confine spaziale (membrana, mura di cinta) o da una loro stabilità o persistenza nel corso della loro storia. Nel caso dei sistemi fisici, si introducono variabili collettive mediando su variabili omogenee (per esempio, la velocità di una nube è la velocità media di tutti gli atomi che la costituiscono). La dinamica si può poi semplificare distinguendo fra le diverse scale temporali che caratterizzano la «memoria» delle variabili collettive: le variabili veloci si adeguano al moto imposto dalle variabili lente. In tal modo, su tempi lunghi, una volta placate le fluttuazioni veloci, rimane il moto lento che può essere associato a poche variabili anche in un sistema complicato. In gergo, diremo che le variabili lente hanno schiavizzato le variabili veloci. Queste ultime sono state eliminate adiabaticamente, cioè si adeguano ad ogni istante alla situazione imposta dalle variabili lente, e basta seguire queste per studiare la dinamica mesoscopica. Per esempio nel caso linguistico, la lingua di una regione è la variabile lenta che varia solo su scala secolare, invece la parlata di ciascun individuo si adegua velocemente (nell’arco della sua crescita) alla parlata corrente. Studieremo allora la dinamica della lingua, ad esempio, della lingua italiana, e non la dinamica della lingua di Tizio e Caio. Altro esempio: malgrado un laser implichi miliardi di atomi, la sua descrizione può essere ridotta a un numero bassissimo di variabili rilevanti. Ricordiamo che un laser differisce da una lampada perché non tutta la luce emessa dagli atomi fuoriesce, ma una frazione viene riflessa dagli specchi all’interno della lampada (feedback) per mettere «d’accordo» gli atomi. L’effetto globale della luce è come il messaggio sonoro scambiato fra un gruppo di cantori, permettendo a questi di mantenere il passo. Se il numero di variabili lente è minore di 3, allora vale la dinamica stabile di Newton, (cioè le 1 o 2 variabili evolvono nel tempo in modo prevedibile e stabile} e si parlerà di un comportamento ordinato o coerente. Se il numero uguaglia o supera 3, allora si potrà avere caos deterministico (cfr. par.0.2 e più avanti, il cap.7) Se nel laser cessa l’effetto globale imposto dal contorno per effetto della riflessione agli specchi, allora il laser diventa una normale lampadina, in cui Capitolo 3: La fisica dell’organizzazione 69 ciascun atomo riceve e ricede energia a caso, dando luogo ad un’emissione disordinata o «incoerente» di luce (massimo disordine = massima entropia). A questo punto cessa il vantaggio della descrizione mesoscopica, e il comportamento macroscopico diventa la media banale dei singoli comportamenti microscopici; si è cioè persa la struttura. L’individuazione di sotto sistemi, cioè di variabili rilevanti da fare interagire, non è in fisica così immediata come nei più familiari esempi culturali o biologici, ma è pur sempre possibile, una volta individuate le scale temporali di ciascuna variabile. 3.4 Calcolatori, cognizione e pensiero In questa Sezione affrontiamo due temi correlati fra loro, che verranno ulteriormente ripresi al cap.9, e cioè: 1) come funzionano le macchine da calcolo e che tipo di ausilio esse rappresentano per i nostri processi mentali; 2) quali sono i modelli correnti dei nostri processi mentali e i corrispondenti sistemi fisici che rappresentano delle mimiche parziali del nostro modo di pensare. Nel presentare questi due temi, affronteremo il problema dei legami fra 1) e 2) e cioè: 3) quali siano le relazioni fra mente e calcolatore, e se la mente umana è riducibile ad un calcolatore, e viceversa se un giorno un calcolatore potrà raggiungere una consapevolezza (coscienza) di tipo umano. Come si vede quest’ultimo tema è posto in termini vaghi, usando il linguaggio di tutti i giorni, e senza avere definito con rigore termini come: mente, pensiero, coscienza; quindi rischieremmo equivoci di tipo riduzionistico (la mente è solo un calcolatore) o dualistico (come diceva Cartesio, la materia, o «res extensa», permette solo di fare automi, invece l’essere cosciente presuppone il possedere un’altra sostanza distinta, le «res cogitans»). Vediamo un po’ perché trattiamo l’argomento in questo capitolo sui sistemi organizzati. Un calcolatore è un insieme di dispositivi fisici (detti «hardware», che letteralmente significa «roba dura» e che indica gli articoli da ferramenta), i quali partono da stati iniziali che corrispondono, mediante un opportuno codice, all’informazione da elaborare, ed evolvono m base a certe regole imposte dall’esterno, fino a degli stati finali che rappresentano le risposte che uno voleva dalla macchina. Le regole di evoluzione sono dette programmi, o «software» (alla lettera «roba molle»). Dunque il calcolatore è eteroorganizzato, cioè la sua evoluzione è pilotata da istruzioni messe dall’esterno. Al contrario un sistema cognitivo è un sistema fisico auto-organizzato che, sollecitato da stimoli esterni ai suoi organi sensori, non si limita a rispondere automaticamente, cioè non è il campo di una semplice banale dinamica stimolo- 70 F.T. Arecchi, Caos e Complessità nel Vivente risposta, ma si serve dello stimolo per instaurare una dinamica interna che finisce con l’associare allo stimolo stesso una particolare rappresentazione, cioè una fra molte possibili situazioni archiviate in una memoria. La dinamica che porta dallo stimolo sensorio alla rappresentazione è un esempio di autoorganizzazione, cioè non è pilotata da istruzioni esterne. Ma la rappresentazione a chi è rivolta? C’è un ispettore, uno spettatore, che valuta l’uscita del sistema cognitivo, così come c’è un utente che riceve l’uscita del calcolatore? No! è il sistema cognitivo stesso che diventa attore e spettatore. Nel caso più semplice, si pensi al sistema immunitario di un organismo pluricellulare. Una volta riconosciuto un «nemico»(virus o altro corpo esterno), gli scatena contro un anticorpo specifico. Allo stesso modo vedremo che un sistema percettivo (ad es. il sistema olfattivo o visuale di un animale) non presenta un «modellino» del percepito a un eventuale «homunculus» ospitato nel cervello, ma esplica il suo riconoscimento acquistando uno stato fisico (cioè percorrendo una particolare traiettoria dinamica) che è la specifica reazione all’evento-stimolo. Ad esempio, la rana tira fuori la lingua per catturare l’insetto anche se la sollecitazione visiva è stata prodotta artificialmente da un falso insetto, il coniglio scapperà al solo vedere qualcosa che ricorda la volpe e l’amante di musica godrà tutto un tema musicale al solo stimolo di due accordi musicali. Data la pertinenza di questi temi allo scopo di questo libro, dobbiamo affrontarli cercando il massimo rigore. Ci scusiamo per l’eventuale durezza di una trattazione schematica. 3.4.1 I calcolatori Il calcolatore numerico (in Inglese digital computer dove digit indica il singolo numero fra 0 e 9 (dal latino digitus = dito, corrispondente al modo infantile di contare sulle dita della mano) è un dispositivo che elabora simboli opportuni. Un ciclo di elaborazioni ha come risultato la manipolazione e trasformazione di informazione. Un calcolatore è composto da: 1. Dispositivi di ingresso che trasformano l’informazione simbolica esterna in forme utilizzabili dalla macchina. Queste forme sono i simboli su cui la macchina opera. 2. Dispositivi di uscita per ritrasformare i simboli interni in simboli esterni, significativi per l’operatore umano (ad es. la stampante). 3. Dispositivi di memoria che immagazzinano i simboli prima, durante e dopo il calcolo. Capitolo 3: La fisica dell’organizzazione 71 4. Un’unità aritmetica. Una possibile interpretazione dei simboli interni, su cui il calcolatore è in grado di operare, è che essi siano numeri. In tal caso le operazioni che l’unità aritmetica compie fisicamente su questi simboli si interpretano come somme, differenze, prodotti. 5. Un’unità di controllo. L’unità di controllo è l’esecutore del programma. Essa è costruita con un repertorio di istruzioni (che ha in hardware) e che invia alle altre unità secondo. la necessità. Le istruzioni riguardano operazioni elementari: prendi un simbolo dalla memoria, sposta un simbolo a destra o sinistra di un certo numero di posti, ecc. Un’istruzione importante «confronta e poi smista» permette al calcolatore di decidere fra due scelte, cioè di svoltare ad un bivio in base all’informazione trovata in qualche cella di memoria. Mettendo in cascata tali decisioni semplici, si costruiscono scelte complesse. Istruzioni più complicate di quelle scritte in hardware possono essere fornite di volta in volta da una sequenza di comandi detta programma (il software). Il programma viene immagazzinato nella memoria con le altre informazioni e dati. La fig.3.6 riassume quanto qui detto in uno schema che fornisce la struttura essenziale del calcolatore. Figura 3.6: Schema di calcolatore. 72 F.T. Arecchi, Caos e Complessità nel Vivente 3.4.2 Le reti neurali Il cervello umano ha circa 1010 cellule dette neuroni. Ognuna di queste è costituita da un corpo (soma) che contiene il nucleo, una lunga fibra o assone su cui si propagano segnali elettrici da inviare ad altri neuroni e da una serie di ramificazioni o dendriti, attraverso cui giungono al soma i segnali provenienti da altri neuroni. Un neurone interagisce con gli altri attraverso delle giunzioni di contatto (come dei bottoni) dette sinapsi. Le connessioni sinaptiche fra un neurone e i vicini possono essere fino a 104. Abbiamo detto che lungo l’assone si propagano impulsi elettrici. Questi stimolano, al nodo sinaptico, la fuoriuscita di molecole particolari (neurotrasmettitori) che trasmettono ad un altro neurone per via chimica l’informazione che prima aveva viaggiato per via elettrica. Un neurone sembra essere come un dispositivo a due stati: 0 se la somma di tutti i segnali chimici ricevuti da altri neuroni non è sufficiente a stimolare la partenza di un impulso nervoso (sotto soglia); 1 se si va sopra soglia, e ciò è segnalato dall’impulso elettrico sull’assone. A parte il gran numero di neuroni, quello che è notevole è il gran numero di connessioni. In base a queste considerazioni, cerchiamo di costruire una rete di neuroni interconnessi (rete neurale). Le caratteristiche più rilevanti sono le seguenti: 1) a differenza del calcolatore, che è sequenziale in quanto esegue un’operazione per volta (anche se a velocità grandissime: oggi si arriva ad oltre 109 operazioni al secondo), la rete neurale può operare in parallelo: può fare anche migliaia di operazioni simultanee. 2) Dato il forte grado di interconnessione, la rete neurale ha una dinamica complessa. L’insieme complessivo di neuroni (cioè tutta la rete) si comporta come una pallina in un paesaggio dell’energia, che però non è semplice (a una o due valli), ma a moltissime valli. 3) Un modello statico consiste nel fare evolvere ogni neurone per effetto dell’accoppiamento con tutti gli altri. Tutta la rete si comporta come una pallina che cade in una fra tante possibili valli. La scelta della valle dipende da posizione iniziale e insieme degli stimoli esterni. La valle scelta corrisponde a interpretare uno stimolo esterno in termini una certa «memoria» fra quelle racchiuse in un archivio (cioè una fra tutte le valli di energia disponibili). Questo aggiustamento su un fondo valle equivale al riconoscimento di un oggetto esterno, il cui stimolo viene associato a un campione (pattern) archiviato in memoria. Il riconoscimento di un pattern si Capitolo 3: La fisica dell’organizzazione 73 chiama memoria breve o (STM = short term memory). Lo stesso paesaggio dell’energia è poi «plastico»: è come se fosse di gomma e non di cemento, nel senso che le valli si fanno e si disfanno, man mano che nuove memorie vengono ad arricchire la rete e cancellano le vecchie; ciò avviene su scala di tempi lunghi (LTM = long term memory). Il modello qui indicato si avvale dei contributi di molti studiosi: W.S.McCulloch e W.Pitts (1943), D.O.Hebb (1949), E.Caianiello (1961). Esso è stato ripreso da J.J.Hopfield (1982) e per molti è finito col diventare il modello di Hopfield. 4) Per effetto delle interazioni non lineari, una rete si autorganizza attraverso successive biforcazioni: c’è evidenza tuttavia che nei processi percettivi, lo stato finale non sia un punto fisso (un fondo valle) ma un attrattore caotico, cioè una di quelle traiettorie strane associate al caos deterministico. Una traiettoria strana si può sempre descrivere matematicamente con la sovrapposizione di un gran numero di orbite periodiche instabili. Se questa è la situazione «di riposo» della rete, 1’arrivo di uno stimolo esterno stabilizza una delle orbite periodiche. Questo sarebbe un metodo di riconoscimento più rapido del dover errare fra monti e valli fino a trovare la valle giusta. Si tratta ovviamente di modelli, legati alla finora scarsa informazione fisiologica che abbiamo sui processi nervosi. Affronteremo la questione in modo più dettagliato al cap. 9. 3.4.3 Le macchine calcolatrici possono pensare? In un famoso saggio del 1950 il matematico Alan Turing si pose il problema se una macchina può pensare. La domanda può sembrare scandalosa, perché uno associa la capacità di pensare alle qualità «superiori» dell’uomo, che non si ritrovano né nelle macchine né negli animali Se smettiamo di fare le persone offese, e approfondiamo in maniera rigorosa il problema, ci accorgiamo che dobbiamo anzitutto definire che cos’è il pensare; se questo è una riflessione su simboli, per elaborarli attraverso una sintassi, allora anche il calcolatore fa ciò. Se il pensare vogliamo definirlo come elaborazione «cosciente», allora dobbiamo chiarire che cosa intendiamo per «cosciente». Una definizione di tentativo può essere un’elaborazione auto-organizzata, cioè in cui le istruzioni non provengono dall’esterno. Ma abbiamo visto nella sottosezione precedente come si cominciano già a realizzare macchine di calcolo auto-organizzate. Turing propose il seguente esperimento (che d’ora in poi chiameremo in gergo il Turing test). Supponiamo di isolare in una stanza un essere umano e 74 F.T. Arecchi, Caos e Complessità nel Vivente una macchina di calcolo universale, cioè sufficientemente ricca di dati di memoria e di programmi per poter affrontare anche situazioni esotiche, e supponiamo di porre domande senza guardare chi è che risponde (ad es. scrivendo schede e ricevendo le risposte in schede). Siamo in grado di discriminare fra uomo e macchina? Turing dice di no. Con questo criterio comportamentistico, non esiste differenza fra psicologia umana e del computer. Il computer ideale, ipotizzato da Turing, è capace di eseguire tutti i processi consistenti in una successione di stati distinti, purché descrivibili univocamente con un numero finito di parole. Tutte quelle operazioni umane che sono trasformabili in una serie di passaggi da uno stato all’altro sono eseguibili da una macchina di questo tipo. Ciò vale per tutte le operazioni di carattere discorsivo. La macchina di Turing non è altro che la precisazione del concetto di algoritmo, cioè un elenco di istruzioni che specificano le operazioni con le quali è possibile risolvere un certo problema. Si tratta di prescrizioni meccaniche di un procedimento mentale di computazione. Quali sono i limiti di tali procedimenti? Sono anzitutto limiti propri di ogni formalismo. Ogni procedimento trasformabile in una successione di passaggi da uno stato all’altro è un procedimento formale, come appunto il calcolo algebrico, il calcolo logico. Circa procedimenti di questo tipo già è stato dimostrato da Kurt Goedel che ogni sistema formale è soggetto a un limite di incompletezza. Vale a dire che in ogni sistema formale è possibile, servendosi dei simboli del sistema stesso, enunciare proposizioni che non possono essere dimostrate dal sistema in questione, delle quali cioè non si può provare che sono vere né che sono false (né 1’affermazione né la negazione): esse sono proposizioni indecidibili, di cui cioè non si può decidere il valore all’interno del sistema. Poiché tuttavia esse sono formulabili per mezzo dei simboli appartenenti a quel sistema, ogni sistema formale è necessariamente incompleto. Poi c’è un secondo limite, e cioè lo stesso carattere formale delle operazioni compiute dal calcolatore: esclusione della dimensione semantica. Il computer, in sostanza, non fa che manipolare dei simboli dei quali tuttavia ignora il significato. Il teorema di Goedel mostra che la proposizione indecidibile è riconoscibile come vera; ad esempio, nel campo dell’aritmetica si possono formulare delle proposizioni, che ci appaiono vere perché noi intuiamo certe proprietà dei numeri, alla luce delle quali risulta che tali proposizioni sono vere, ma che da un punto di vista formale non possono essere dimostrate. Ciò vuol dire che esiste una dimensione che riguarda il significato. Perciò il computer può eseguire deduzioni o anche induzioni, come quelle delle diagnosi mediche, di Capitolo 3: La fisica dell’organizzazione 75 tipo probabilistico, ma, per esempio, non può eseguire astrazioni. II procedimento classico dell’astrazione, con cui si perviene a formare un concetto, non può essere eseguito dal computer, perché l’astrazione non consiste solo nel cogliere ciò che vi è in comune in molti particolari - e questo il computer può saperlo fare - ma consiste nel saper riconoscere che cosa vi è di essenziale in ciascuno dei molti casi particolari. Questo il computer non lo coglie, questo esige una particolare visione di quale sia 1’elemento essenziale e quale sia invece un elemento secondario. Secondo Agazzi (E.Agazzi, ”Intentionality and Artificial Intelligence” nel volume Le mental et le corporel, Acad. Intern. de Philosophie des Sciences, Bruxelles, 1982), nemmeno le vere e proprie induzioni, cioè le induzioni non di tipo probabilistico, possono essere eseguite dal computer, perché esse richiedono una specie di visione, di coglimento diretto, di quale sia il comportamento essenziale, decisivo, in una serie di fenomeni; visione che permette appunto allo scienziato di formulare la legge. Al computer, insomma, manca quella che già al tempo della Scolastica si chiamava intenzionalità, vale a dire la capacità di riferire i propri simboli o le proprie rappresentazioni concettuali agli oggetti esistenti nella realtà. Una legge scientifica nasce non a forza di un gran numero di verifiche (che lascia sempre il dubbio che alla prova successiva le cose vadano diversamente!) ma per invenzione mentale di una teoria. Il limite rilevato da Agazzi, cioè la mancanza dell’intenzionalità, della dimensione semantica, di per sé, non toglie al computer la capacità di compiere tutti i procedimenti razionali; toglie soltanto questa intenzionalità, che tuttavia non è un procedimento razionale, ma quasi una capacità intuitiva, cioè non un’operazione implicante passaggi, implicante mediazioni: è quasi un atto immediato, un «vedere». È come se si dicesse: il computer può ragionare, può far tutti i ragionamenti possibili; non può vedere, non può intuire. La mancanza della dimensione semantica porta ad escludere per il computer eventuali forme di razionalità, eventuali tipi di ragionamento, i quali non possono prescindere dalla dimensione semantica, cioè non sono interamente formalizzati, sono necessariamente legati a dei contenuti di rappresentazione. Il filosofo Berti dice al riguardo (E.Berti, Ragione e intelligenza artificiale, in L’elettrotecnica, (1986) n.4, pp.327-334 ): “Faccio degli esempi e con ciò passo ad indicare quali sono, a mio giudizio, le forme di razionalità non praticabili da un computer. Tra i ragionamenti di tipo non formale su cui 1’attenzione degli studiosi, da vari decenni, si è appuntata, il primo in ordine di tempo che è stato 76 F.T. Arecchi, Caos e Complessità nel Vivente preso in considerazione, è la cosiddetta «nuova retorica», studiata dal filosofo belga Perelman negli anni ‘50, cioè la cosiddetta «teoria della argomentazione» nell’ambito pratico, quello della morale, della politica, del diritto. Perelman rilevò che, in tutti questi ambiti, è possibile usare ampiamente la ragione, costruendo argomentazioni che possono essere più o meno valide, più o meno buone, più o meno convincenti. Gli avvocati discutono, i politici ragionano, i moralisti ragionano. Però le argomentazioni che essi usano non sono interamente formalizzabili. Il loro valore, la loro capacità di convincere più o meno, è legata non solo a procedimenti formali, che comunque ci sono e devono essere corretti, - perché se fossero scorretti l’argomentazione non sarebbe valida - ma sono legati anche ai particolari contenuti di ciò che si dice, delle proposizioni che si usano. Poiché in questi settori è necessario stabilire un dialogo con un interlocutore, ed è necessario che la validità delle argomentazioni che si prospettano venga riconosciuta dal proprio interlocutore, cioè che le argomentazioni possiedano un certo grado di persuasività - ecco perché si parla di retorica, come tecnica di persuasione - questo tipo di argomentazioni sono legate ai significati, ai contenuti delle cose che si dicono, e pertanto non sono interamente formalizzabili». 3.4.4 Intelligenza artificiale e intenzionalità A costo di ripeterci, è opportuno confrontare ulteriormente la pretesa di pensiero che viene attribuita alla macchina. Agazzi ha criticato i due approcci del dualismo e del monismo, che sono due grandi interpretazioni storiche del problema mente/corpo caratterizzato da impostazioni riduzionistiche. Il dualismo che Agazzi critica è quello di tipo platonico-cartesiano, secondo il quale l’uomo sarebbe costruito da due entità distinte e rivali, la sua anima e il suo corpo, che stanno insieme senza dare luogo ad un’unità in modo tale che l’uomo sarebbe completamente determinato come sostanza pensante, rispetto alla quale il corpo è semplicemente un accidente estrinseco. In definitiva, questo dualismo è un tipo di monismo (spiritualistico), che non ha nulla a che vedere con il dualismo aristotelicotomista, che afferma l’unità sostanziale dell’uomo. Il dualismo di Descartes significa che il corpo (res extensa) si interpreta in chiave meccanicistica, e resta interamente sottomesso allo studio delle scienze naturali. Lo sviluppo successivo di queste ultime ha reso possibile il monismo materialistico, che si autogiustifica come se fosse la necessaria conseguenza del progresso scientifico, mentre lo spirito viene negato soltanto in base a Capitolo 3: La fisica dell’organizzazione 77 un’arbitraria estrapolazione del metodo scientifico-sperimentale. In effetti, l’approccio alla realtà da parte delle scienze sperimentali è basato su un punto di vista nel quale è già determinato il tipo di cose che si possono dire, e pertanto sono preselezionati gli aspetti del reale che si possono incontrare. Concretamente, la scienza sperimentale non intende interessarsi, per principio, alle realtà spirituali; pertanto negare l’anima in base a queste scienze è un sofisma insostenibile. Una prospettiva filosofica è imprescindibile per la questione qui trattata, perché la domanda «possono pensare le macchine?» è in realtà una domanda sul pensiero umano: concretamente, fino a che punto le operazioni realizzate dalle macchine imitano le caratteristiche dell’intelligenza umana. Chi si limitasse al piano strettamente scientifico-sperimentale, non arriverebbe mai a porsi il vero problema; le impostazioni scientifiche conducono a una risposta semplice: la possibilità che esistano macchine «pensanti» rimarrà aperta, perché le dimensioni del «pensiero» umano si limitano a ciò che può esprimersi mediante concetti in stretta relazione con il metodo sperimentale. Invece, le differenze fra le macchine e l’intelligenza umana si incentrano attorno al concetto di intenzionalità. Una delle differenze è, ad esempio, il senso dell’«evidenza», che non si riduce ad una semplice somma di regole operative. La logica formale è uno strumento utile, però necessita del riferimento alla realtà che, in definitiva, si appoggia su evidenze non formalizzabili (vedi A.Livi, Filosofia del senso comune, Edizioni Ares, Milano, 1990). Per questo risulta enormemente difficile sostituire molti discorsi del linguaggio naturale con linguaggi artificiali, e ancora di più ottenere meccanismi soddisfacenti per tradurre un linguaggio naturale in un altro. Per il medesimo motivo, i ragionamenti umani utilizzano continuamente astrazioni, induzioni e deduzioni che superano le possibilità della macchina, perché esigono la considerazione delle essenze di ciò che è conosciuto. Sugli enunciati, Agazzi afferma che «ciò che permette di parlare della loro verità o falsità, e più generalmente, sottometterli ad un’analisi meta-teoretica, è la possibilità che abbiamo di conferirgli una funzione di designazione, trovando per essi un’interpretazione tra le molte possibili, ossia, un’orientazione intenzionale, che gli permette di arrivare ad essere nomi di oggetti o di predicati sopra di essi o di essenze che si riferiscono a essi. Questo passo ulteriore sembra eccedere strutturalmente le possibilità del robot». 4 I fatti della vita 4.1 I fatti della vita per non-biologi 4.1.1 L’evoluzione chimica Anche a basse densità e temperature possiamo avere la formazione di molecole, infatti, nello spazio interstellare, osserviamo più di 40 molecole diverse, inclusi 1’acido formico, 1’etanolo ed altre. Questi processi possono essere enormemente accelerati in un esperimento di laboratorio. Si prendono elementi costitutivi comuni nell’originaria atmosfera terrestre pre-biologica (acqua, molecole contenenti carbonio e azoto, ma non ossigeno) e si aggiunge energia nelle forme abbondanti nel passato (radiazioni ultraviolette o scariche elettriche tipo fulmini). I prodotti che si formano includono la maggior parte delle macromolecole comuni nelle creature terrestri viventi, come aminoacidi, basi, fosfati, acidi grassi, oltre ad urea ed ai suoi derivati. Alcuni di questi prodotti sono presenti anche nei meteoriti. I chimici ritengono che questi esperimenti riproducano almeno approssimativamente quello che è successo nella Terra primitiva. Il successivo passo gigante, che porta alle molecole autoriproducentisi e alle cellule viventi, non è stato ancora duplicato in laboratorio. Al momento in cui appaiono auto-riproduzione e immagazzinamento di informazione, allora partono i meccanismi di mutazione, selezione e può avere inizio 1’evoluzione di tipo darwiniano. La vita fondata su basi chimiche, sia essa frequente o rara, ha avuto in ogni caso uno sviluppo estremamente sensibile alle condizioni dell’universo. Consideriamo alcuni esempi. Supponiamo che l’universo primitivo fosse stato un poco più denso e l’interazione debole poco più forte. Dal Big-Bang sarebbe emerso elio quasi puro e la vita delle stelle sarebbe stata molto corta, senza avere il tempo per permettere lo sviluppo della vita sui pianeti. Oppure supponiamo che l’interazione elettromagnetica fosse un po’ più forte o più debole di quel che è. La prima avrebbe spinto gli elettroni all’interno dei nuclei, l’altra li avrebbe lasciati vagare liberi nello spazio. In ambedue i casi, non ci sarebbero state orbite elettroniche, né chimica, e non ci saremmo stati noi. Se la gravità fosse più forte e le altre forze più deboli, le masse di gas che condensano collasserebbero direttamente in buchi neri senza permettere le lunghe vite di corpi luminosi costruiti su reazioni nucleari. Inoltre in un universo che cominciasse troppo caldo, troppo tenue o con un’espansione troppo veloce i grumi non potrebbero accrescersi in galassie Capitolo 4: I fatti della vita 79 4.1.2 Lo sviluppo della vita Grandi quantità di molecole organiche essenziali alla vita devono essersi accumulate per centinaia di milioni di anni (aminoacidi, zuccheri, ecc.). Queste molecole dovevano concentrarsi per evaporazione in pozzanghere superficiali per dar luogo ad una specie di brodo. L’apparizione della prima forma di vita è tuttavia ancora un mistero non spiegato. Ogni forma di vita è basata su due classi di molecole organiche complesse: le proteine e gli acidi nucleici. Gli acidi nucleici sono i costituenti essenziali della doppia elica (acido desossiribonucleico, DNA): che contiene in codice le istruzioni per costruire altro DNA e anche proteine Alcune proteine poi sono gli enzimi che permettono di utilizzare le istruzioni in codice nelle operazioni di costruzione. Nelle pozze di brodo primordiale erano quindi presenti gli elementi necessari per costruire proteine e acidi nucleici: zuccheri, fosfati, amino acidi; tuttavia il grosso problema è dato dal fatto che le proteine (enzimi) non possono essere costruite se mancano gli enzimi. È come il problema dell’uovo e della gallina. La soluzione di questo problema costituisce l’impegno attuale di teorici i quali stanno costruendo modelli delle operazioni chimiche che potrebbero risolvere l’enigma. Un successo in tale senso però costituirà solo il primo passo nella spiegazione dell’origine del più semplice organismo vivente in grado di svolgere le funzioni essenziali: utilizzare energia, conservare la propria integrità di insieme, crescere e duplicarsi con precisione in una sequenza indefinita di moltiplicazioni. Siamo molto lontani dalla comprensione di tutto ciò: eppure, circa 3 miliardi e mezzo di anni fa la vita ebbe inizio sulla Terra, si sviluppò e si diversificò malgrado le difficoltà che dovette affrontare e superare per miliardi di anni. In tutte le forme viventi oggi note, inoltre (micro-organismi, piante, animali) il materiale genetico è costituito dagli stessi elementi fondamentali, e le proteine sono formate dagli stessi 20 aminoacidi. Questa constatazione depone a favore dell’ipotesi di un’unica origine della vita, dalla quale è scaturita l’immensa varietà degli esseri viventi e, allo stesso tempo, evidenzia l’estrema improbabilità di questa origine. Dobbiamo insomma aspettare che si chiarisca la storia dell’origine della vita. Per adesso è solo possibile prevedere che saranno individuati i suoi aspetti essenziali e che si troverà una spiegazione per numerosissimi dei suoi stadi. L’ipotesi recente di F.Crick e L.Orgel secondo cui i primitivi organismi viventi 80 F.T. Arecchi, Caos e Complessità nel Vivente sarebbero giunti sulla Terra da altri luoghi non risolve il problema perché si limita a spostare altrove il mistero dell’origine della vita. I fossili dei primi organismi conosciuti mostrano che questi rassomigliavano a batteri e sono chiamati «eobatteri», Poiché l’atmosfera primitiva non conteneva quantità adeguate di ossigeno, gli eobatteri ricavavano la loro energia dai materiali organici del brodo primordiale ed il loro materiale genetico era localizzato in filamenti a spirale liberi all’interno della cellula (come nei batteri ed in tutti gli altri procarioti sino ai nostri giorni). Di solito si ritiene che gli eobatteri abbiano trovato difficoltà a causa dell’esaurimento del cibo formatosi dalle reazioni chimiche del mondo prebiotico e concentrato nel brodo. Dopo centinaia di milioni di anni però, gli organismi viventi svilupparono mutazioni che permisero di utilizzare fonti alternative di energia. La più importante è la comparsa di pigmenti che assorbono la luce solare e compiono un metabolismo fotosintetico come fanno le alghe verdazzurre con il pigmento verde: la clorofilla. Anche i batteri svilupparono pigmenti adatti a compiere la fotosintesi. Le alghe azzurre si estesero fino a coprire le acque superficiali. Gli stromatoliti sono resti fossili che ne testimoniano oggi l’esistenza. L’influsso della luce solare sulla clorofilla di queste alghe converte anidride carbonica e acqua in ossigeno e zucchero. In tal modo in qualche miliardo di anni, dall’atmosfera primitiva, che conteneva pochissimo ossigeno ed alte percentuali di anidride carbonica proveniente dalle esalazioni dei vulcani, si formò l’ossigeno dell’attuale atmosfera terrestre. I primi organismi multi-cellulari la cui esistenza è documentata dai fossili sono meduse e vermi, che vengono fatti risalire a circa 700 milioni di anni fa. Tutto ciò che possiamo sapere dei due o tre miliardi di anni precedenti, è che l’ossigeno dell’atmosfera giungeva a circa metà del livello attuale e che si verificò un assestamento genetico negli organismi eucarioti, per cui il codice genetico del DNA si raccolse all’interno del nucleo centrale delle cellule dove era più protetto e così guidava il processo di riproduzione riducendo il margine degli errori di trascrizione. Se pensiamo alla scala temporale dell’esistenza degli organismi viventi ciò che sembra superare ogni immaginazione è l’enorme durata della più semplice fase procariota, che continuò per 1600 milioni di anni prima che si verificasse il riassestamento del materiale genetico negli eucarioti. Con la comparsa, avvenuta circa 700 milioni di anni fa, degli organismi multicellulari ebbe inizio la differenziazione cellulare secondo le diverse Capitolo 4: I fatti della vita 81 funzioni, che rivelò le immense capacità innovative dell’evoluzione biologica. Questo avvenimento è una rivoluzione dopo più di 3 miliardi di anni di vita unicellulare. Possiamo disegnare un diagramma della storia della vita, che rappresenti la principale biforcazione tra piante da un lato ed animali dall’altro con le successive ramificazioni di ordine, famiglie, generi e specie. Da 700 milioni di anni ha luogo il processo evolutivo che genera creature estremamente diverse. Ad esempio, i resti fossili dicono che 500 milioni di anni fa prosperavano gli artropodi trilobiti che si estinsero 200 milioni di anni fa. I grandi dinosauri dominavano la Terra a partire da 225 milioni di anni fa ma si estinsero 65 milioni di anni fa. Da allora in poi predominarono i nostri antenati mammiferi, dopo un lungo periodo, iniziato 200 milioni di anni fa, di mera sopravvivenza. Circa 70 milioni di anni fa i primitivi mammiferi presero a diversificarsi enormemente e, dopo altri 5 milioni di anni, iniziò l’età dei mammifero. Apparvero allora i nostri remoti antenati primati, ma le testimonianze sono assai incomplete, così che i dettagli dell’origine ominide sono ancora incerti. Non vi sono testimonianze fossili dell’epoca che va da 8 milioni di anni fa sino alla comparsa dei primi ominidi (Australopithecus) che risale circa a 5 milioni di anni fa. Siamo osservatori necessariamente parziali dello spettacolo dell’evoluzione perché ci interessa soprattutto la linea evolutiva che probabilmente condusse alla comparsa dei nostri immediati antenati, 1’Homo Sapiens, circa 200 mila anni fa. 4.1.3 La teoria darwiniana dell’evoluzione La teoria di Darwin dell’evoluzione biologica, così come 1’elaborazione del metodo di Galileo, va considerata come una delle più grandi conquiste scientifiche. Essa ha un immenso potere esplicativo: anche se non ha una forma definitiva e andrà modificata dall’aumento dei ritrovamenti fossili e dal progresso della biologia molecolare, non vi sono teorie alternative per spiegare quanto osservato. Vi è però il pericolo che la teoria dell’evoluzione biologica sia irrigidita in dogma mentre il suo potere esplicativo è ancora insufficiente e va messo alla prova. La teoria si compone di due elementi. In primo luogo vi sono mutazioni del materiale genetico, i geni composti di DNA. Le mutazioni sono piccoli cambiamenti nella struttura molecolare del DNA. Esse avvengono per puro caso, ad esempio in conseguenza dell’azione di elementi chimici o di radiazioni 82 F.T. Arecchi, Caos e Complessità nel Vivente e non sono dovute in alcun modo al bisogno dell’organismo di aumentare le proprie capacità di sopravvivenza. In secondo luogo, c’è la selezione naturale che garantisce la conservazione delle combinazioni di geni più adatte alla sopravvivenza. Gli animali con una combinazione genetica sfavorevole sono eliminati nella competizione da quelli dotati in maniera più vantaggiosa. Nel par.8.2 useremo queste ipotesi per studiare un modello di vita artificiale. È importante notare che la teoria della evoluzione biologica esclude che vi sia una qualsiasi «guida» dello sviluppo evolutivo per il raggiungimento di fini a lungo termine, come propone ad esempio la teoria del «finalismo» legata al nome di Teilhard de Chardin. Al contrario, la teoria ufficiale è essenzialmente opportunistica, perché la selezione naturale riguarda soltanto la sopravvivenza e la diffusione di una generazione particolare, e poi della successiva, e così via, in base a competizioni «locali» e non a un piano (o scopo) globale. Questo è stato irrigidito in un dogma secondo cui, da un processo iniziale puramente casuale possono essersi sviluppate per selezione naturale tutte le caratteristiche strutturali e funzionali degli organismi viventi, con la loro sorprendente adattabilità: È in base a questo dogma che alcuni biologi (ad esempio, J.Monod) hanno sconfinato nel filosofico ed enunciato una loro visione di un mondo dominato dal caso; ma con ciò si sta sottovalutando la trama di regolarità dinamiche che stanno sotto ad ogni processo evolutivo. La “filosofia” che sta dietro il libro di Monod, Il caso e la necessità, ha una contraddizione interna. Da una parte, si accetta che il mondo fisico si muova necessariamente in base a leggi affidabili: ma qui nasce il problema dello statuto delle leggi di natura; perché non siano solo regolarità statistiche (come per un empirista puro quale D.Hume) ma abbiano una “necessità” più forte di quanto non farebbe sospettare la nostra procedura induttiva, occorre ammettere che il mondo sia parte di un disegno razionale (cioè giustificare in sede metafisica la stabilità delle leggi che in fisica sarebbero solo induttive). Dall’altra si rompe lo scenario di un disegno razionale con l’irruzione del caso, di cui è figlio il vivente. La contraddizione sembra segnare la necessità di una fondazione metascientifica del programma scientifico; in questa monografia non c’è spazio per approfondimenti; rimando al mio libro SR (vedi bibliografia al cap.0). Capitolo 4: I fatti della vita 83 Figura 4.1: Albero filogenetico. 4.1.4 Struttura del DNA e delle Proteine. DNA(acido desossiribonucleico) È formato da due catene parallele da cui protrudono quattro basi (A, C, G, e T) che sono complementari a due a due, come una chiave e una serratura: precisamente, A e T possono scambiarsi due legami idrogeno, mentre G e C possono scambiarsi tre legami idrogeno, e perciò non c’è modo di legare A con C o G con T (né A con A, o ciascun altro con se stesso, perché verrebbe meno il principio del legame idrogeno). Una sequenza a caso ACGTT richiede per chiudersi, dall’altra parte, il complemento TGCAA. Tale sequenza rappresenta l’informazione genetica. Le due catene si avvolgono poi a doppia elica. Ogni tratto di catena è costituito da una molecola di zucchero (desossiribosio). La connessione fra due tratti contigui è assicurata da ponti di esteri fosforici. L’unità costituita da un tratto di catena con la sua base si chiama nucleotide. Il DNA umano ha una lunghezza sui 109 nucleotidi. Nello sdoppiamento delle cellule, la doppia elica si apre ed ogni metà ricostruisce la parte complementare, attingendo al materiale del citoplasma; in tal modo da una si passa a due doppie 84 F.T. Arecchi, Caos e Complessità nel Vivente eliche. Il DNA dopo essersi aperto trascrive l’informazione genetica su spezzoni di RNA. L’RNA (acido ribonucleico) è una singola catena che si costituisce complementare al tratto di DNA da cui è stato copiato. A differenza del DNA, lo zucchero di ogni nucleotide è ribosio; al posto di T c’è la base U. Proteine Partiamo da un amino-acido che è fatto da un tetraedro che ha al centro un carbonio (C) e ai quattro vertici un idrogeno, un gruppo aminico (-NH2), un gruppo carbossilico (-COOH) e un radicale laterale R anche molto lungo. Al variare di R, si possono costruire differenti amino acidi (quelli biologicamente utili sono 20). Eliminando un H2O fra aminoacidi contigui, si costituiscono dei polimeri (poli-aminoacidi) i quali si ripiegano formando strutture spaziali complesse (proteine). Nelle pieghe spaziali c’è modo di ospitare provvisoriamente una molecola, abbassandone la barriera di potenziale e permettendo, a temperatura ambiente, transizioni che altrimenti avrebbero richiesto alte temperature (enzima). Le proteine possono raggiungere pesi molecolari fino a 50.000 (se si considera che 1 è il peso dell’atomo di idrogeno). Per conoscerle, occorre sapere: 1) come si susseguono i radicali R nelle catene a (analisi chimica); 2) come è la distribuzione spaziale (analisi strutturale, si fa ai raggi X). Come DNA codifica la formazione delle proteine. Anzitutto il DNA si serve come tramite di uno spezzone di RNA (m-RNA o RNA messaggero) fatto con la tecnica a stampo illustrata sopra, e che porta la sua stessa sequenza (solo che ogni T è stato rimpiazzato da U). Ogni gruppo di 3 basi successive di RNA (detto «codone») codifica un R degli aminoacidi. In questo modo, con 4 basi prese a 3 a 3 si possono codificare 43=64 diversi codoni. Il codice è stato decifrato negli anni ‘60, con l’assegnazione di 61 codoni a 20 aminoacidi e 3 codoni utilizzati per la terminazione della traduzione del messaggio grafico. Dunque il codice genetico è la corrispondenza fra un alfabeto a 4 lettere, organizzato in tripletti, e un alfabeto a 20 lettere (aminoacidi). Il trapasso 61à20 implica una ridondanza o «degenerazione» del codice: ci sono più modi per specificare lo stesso aminoacido. Con un lungo nastro di RNA si possono fare sequenze ad arbitrio di aminoacidi, cioè costruire enormi varietà di proteine. La lettura del m-RNa e la traduzione in proteine ha luogo nei ribosomi. L’insieme dei processi di duplicazione, trascrizione e sintesi delle proteine è visualizzato nello schema di fig.4.2. Capitolo 4: I fatti della vita 85 Schema degli ipercicli di Eigen e Schuster. (M.Eigen, W.Gardiner, P.Schuster, R.Winkler, The origin of genetic information, Scientific American, 1981, n.244, pp.78-95). Per duplicarsi il DNA 1) si deve spezzare, 2) ciascuno dei due tronconi deve far aderire spezzoni sparsi, per ricostruirsi la parte mancante della doppia elica. In tutti questi processi ci saranno barriere repulsive corrispondenti a temperature di centinaia o migliaia di gradi, altrimenti non ci sarebbe stabilità della materia vivente. Ma queste barriere, che assicurano la stabilità, vanno superate per avere reazioni chimiche e ciò avviene a temperatura ambiente. A ciò provvedono gli enzimi Ma per costruire questi occorre il codice genetico, cioè il DNA. Vediamo dunque che DNA ed enzimi sono vicendevolmente utili, anzi essenziali. L’ipotesi di Eigen e Schuster è che, siccome acidi nucleici da soli o proteine da sole non possono riprodursi, la vita, cioè la moltiplicazione di una specie caratterizzata da un certo codice genetico, sia basata su una «cooperativa» fra le due specie di molecole (teoria degli ipercicli). Questa teoria è in un certo senso antidarwiniana, perché sostituisce la collaborazione alla competizione. È più appropriato dire che integra il darwinismo. Figura 4.2: Il dogma centrale della biologia molecolare. 86 F.T. Arecchi, Caos e Complessità nel Vivente 4.2 I fatti del cervello per non-neurologi 4.2.1 Percezioni, rappresentazioni e intenzionalità L’intenzionalità è il processo che genera nel cervello azioni mirate a un obiettivo. Queste azioni finalizzate sono comuni agli uomini e agli altri animali; in più negli uomini è ben sviluppata la coscienza di sé, che è necessaria per le volizione. I significati emergono quando il cervello crea comportamenti intenzionali e poi cambia se stesso in accordo con le conseguenze sensoriali di tali comportamenti, cioè si arriva a capire il mondo adattando se stessi al mondo. Questi problemi vengono inseriti in una cornice filosofica nell’ambito di tre concezioni: i) fisicalismo, ii) cognitivismo e iii) fenomenologia aristotelicotomistica rivisitata da E.Husserl e dalla sua scuola. Per i), si passa dal livello elementare di atomi, geni ed enzimi al livello di reti neurali e aggregati di elementi computazionali, ma conservando il determinismo stimolo-risposta, senza render conto dei vari modi in cui l’attenzione seleziona gli stimoli (ad es. un viso fra la folla che ci balza agli occhi); i) non è cioè in grado di spiegare i significati. Per ii), la mente non è fatta di materia ma di collezioni di rappresentazioni: software che gira sullo hardware umido o wetware (dualismo platonicocartesiano, ripreso da Kant e recentemente da N.Chomsky ); le informazioni sono contenute in simboli, manipolati con un sintassi come nel computer. Ma l’informazione non è significato: il contenuto di una telefonata non coincide con la larghezza di banda e la sincronizzazione dei bit necessari per trasmettere il messaggio. Per iii), la mente è una struttura dinamica aperta al mondo: l’organismo acquisisce la conoscenza del mondo e realizza il suo potenziale attraverso il suo agire nel mondo; le azioni del corpo escono grazie ai sistemi motori, cambiando il mondo e cambiando la relazione del sé con il mondo; le conseguenze sensoriali delle azioni fan sì che il corpo cambi se stesso in accordo con la natura del mondo. La percezione riguarda dunque le proprie modifiche come ne viene fatta esperienza internamente. È questa la adaequatio tomistica, che è un avvicinamento non un’identificazione: il corpo non assorbe le forme esterne, ma cambia la propria forma per adeguarsi a quegli aspetti degli stimoli che riguardano l’intento emerso nell’ambito del cervello. Nella dottrina di Tommaso, l’intenzionalità ha bisogno dell’azione - e non del semplice pensiero Capitolo 4: I fatti della vita 87 - per creare significato: questa concezione è comune ai fenomenologi (M.Merleau-Ponty) e ai pragmatisti (J.Dewey). Il programma scientifico corrente integra i) e ii), e noi stessi lo facciamo in questo capitolo utilizzando gli strumenti preparati nei capitoli precedenti, consapevoli tuttavia delle difficoltà già emerse al par.3.4 a proposito del Turing test e che richiedono una riflessione sul procedimento di astrazione, con un ricorso a iii). Ma qui entreremmo in un campo di dibattito filosofico che va oltre lo scopo di questo libro, pertanto non affronteremo più il problema del significato e ci limiteremo alla dinamica delle percezioni. Un libro recente (W.J.Freeman, Come pensa il cervello, Einaudi, 2000), ha cercato di dare una veste scientifica ai significati. Io mi sono servito di quel libro per queste considerazioni introduttive, ma mi limito modestamente a considerare una percezione come completata quando il suo contenuto informativo stimola un’azione (vedi più avanti, par.9.1), sfuggire a un pericolo, prendere del cibo, parlare di una cosa. L’evoluzione ci ha conferito la capacità di cogliere l’intenzionalità negli altri senza bisogno di definirla. Se vediamo un comportamento mirato, lo riconosciamo quasi all’istante. Quando ci imbattiamo in un oggetto di un certo tipo, ci domandiamo se è vivo o morto e se reagirebbe attaccandoci o fuggendo al nostro tentativo di catturarlo. Se sta fermo, ci domandiamo se ci sta guardando. Se si muove, ci domandiamo se il movimento è diretto verso di noi o altrove. Nel mondo moderno, non abbiamo grandi difficoltà a distinguere tra i comportamenti delle macchine intelligenti che non sanno ciò che fanno e i comportamenti intenzionali degli animali che lo sanno. Nella letteratura zoologica sono citati molti esempi di comportamenti intelligenti manifestati da altri vertebrati e anche da invertebrati quali il polpo, l’ape e l’aragosta. Cominciamo dallo studio del cervello di vertebrati più semplici degli esseri umani, ma non troppo semplici o troppo diversi, perché un cervello opportunamente semplice può avviarci su una pista per ripercorrere gli stadi di sviluppo che hanno portato al cervello umano. C.J.Herrick, studioso di neurologia comparata, ha descritto il cervello dell’ambistoma, una salamandra (Ambystoma tigrinum), che a suo giudizio assomiglia al cervello del nostro più antico antenato vertebrato. La sua semplice struttura costituisce una guida elementare all’attività cerebrale. La fig.4.3 mostra le tre parti principali del cervello della salamandra: il prosencefalo, con i suoi due emisferi, il mesencefalo e il rombencefalo, con il suo rudimentale cervelletto. Il mesencefalo e il rombencefalo formano il tronco dell’encefalo; 88 F.T. Arecchi, Caos e Complessità nel Vivente che collega il prosencefalo al midollo spinale e al sistema nervoso periferico, che collega i nervi sensitivi e i nervi motori ai muscoli scheletrici, oltre alle collezioni di neuroni che compongono il sistema nervoso autonomo, che regola le funzioni vegetative. Figura 4.3: Il cervello della salamandra. In entrambi gli emisferi del prosencefalo, vi sono tre parti principali che compongono la corteccia. Il terzo anteriore si occupa dei segnali sensoriali in ingresso. Il senso più diretto e dominante è l’olfatto, ma qualche segnale arriva anche dagli altri sensi mediante relais situati nel tronco dell’encefalo. La parte laterale di ciascun emisfero (indicata con PC nella figura) è una corteccia motoria, che modella l’azione del corpo. La parte mediale (H) è un’area associativa, dove segnali provenienti da tutti gli altri sensi si combinano l’un l’altro proiettandosi su un campo che si occupa dell’orientamento spaziotemporale. Capitolo 4: I fatti della vita 89 L’azione intenzionale è diretta a obiettivi generati internamente e ha luogo nel tempo e nello spazio del mondo condiviso con altri esseri capaci di agire intenzionalmente. I termini usati dai cognitivisti per indicare questi processi spazio-temporali sono memoria a breve termine e mappa cognitiva. Secondo la concezione pragmatista, si tratta di termini fuorvianti, poiché non vi è alcuna registrazione temporanea di immagini né alcuna mappa di rappresentazione. Uno dei problemi affrontati dai pragmatisti è dare un contenuto biologico a termini metaforici quali memoria, mappa cognitiva, ordine e caratteristica. Queste funzioni combinate, comunque le si etichetti e le si concepisca, forniscono all’ambistoma il suo campo spazio-temporale di azione, che è incorporato in ciascuno degli stati intenzionali che costruisce. Tale campo gli consente di andare là dove prevede una ricompensa, di inseguire una preda in movimento e di individuare un rifugio nascosto. Questa area associativa del cervello della salamandra rappresenta il precursore del nostro ippocampo, che ha un ruolo cospicuo nell’apprendimento, nell’orientamento spaziale e nella, memoria. L’insieme della corteccia sensitiva, della corteccia motoria e della corteccia associativa forma un anello di tessuto neurale interconnesso attorno a una piccola area centrale (TA nell’illustrazione), che Herrick ha chiamato «zona di transizione». Herrick identifica in questa zona il sito che sviluppandosi e ampliandosi ha portato alla formazione di nuove parti in cervelli più progrediti, in particolare la neocorteccia dei mammiferi. Comunque le tre parti primitive di ogni emisfero hanno continuato a esistere come sistema limbico (dal latino limbus, che significa «cintura») attorno ai peduncoli che li collegano al mesencefalo. Studiando gli effetti delle lesioni causate da malattia o da interventi chirurgici, si è stabilito che il sistema limbico è essenziale per le azioni intenzionali, compresa la percezione e le varie forme d’apprendimento. Recidendo la connessione fra tronco dell’encefalo ed emisferi, cioè isolando il sistema limbico, un animale perde i comportamenti intenzionali; mantiene la capacità di masticare e inghiottire il cibo, di procedere secondo la sua andatura e di svolgere le funzioni regolatrici (omeostatiche), ma intenzionalmente non fa niente. Torniamo alla costruzione dell’intenzione: l’intero emisfero con le tre parti (corteccia sensitiva, corteccia motoria e ippocampo che connette i vari sensi e fornisce l’orientamento spazio-temporale) costruisce stati-obiettivo; le attività configurate guidano il corpo attraverso sequenze di azioni e preparano la corteccia sensitiva a selezionare immagini, suoni, odori e sapori previsti come conseguenze dell’azione pianificata. Il processo è chiamato preafferenza, ed è 90 F.T. Arecchi, Caos e Complessità nel Vivente la base dell’aspettativa; i messaggi sono detti scariche corollarie: ci permettono di distinguere i cambiamenti dell’ambiente da quelli dovuti al nostro movimento intenzionale, in modo che quando muoviamo gli occhi non sembri che il mondo si sposti. La corteccia somatosensitiva riceve anche messaggi dai muscoli, che confermano se l’azione è stata eseguita (propriocezione) e dagli organi interni (introcezione). Nel cervello umano, le nuove parti riguardano il linguaggio (emisfero laterale destro) e il comportamento sociale (lobi frontali). 4.2.2 Il neurone Il neurone è una cellula, con nucleo e mitocondri. A differenza di altre cellule, da esso si protendono due tipi di filamenti: i dendriti (come un cespuglio) e l’assone che è unico. I segnali di ingresso arrivano attraverso i dendriti, il segnale di uscita è veicolato dall’assone (fig.4.4). Nella corteccia vi sono due tipi di neuroni: i neuroni di proiezione e gli interneuroni, o neuroni locali. I primi hanno un albero dendritico di diametro fino a un millimetro, che si estende verso la superficie della corteccia, mentre l’assone - spesso molto lungo - si estende verso altre aree della corteccia o, nel midollo spinale dove può raggiungere il metro di lunghezza. I secondi hanno un albero dendritico fino a un decimo di millimetro e forniscono le connessioni locali. I neuroni entrano in mutuo contatto attraverso le sinapsi dove il segnale elettrico è trasmesso come tale, ma più spesso codificato in segnali chimici (neurotrasmettitori) che sono raccolti a valle dall’altro neurone. L’attività elettrica dell’assone consiste di impulsi (spikes) di altezze uniformi e durata 1 ms. Nello stato di riposo, i neuroni mantengono un impulso al secondo, ma in presenza di stimoli, come vedremo, si può arrivare ad un’alta frequenza di ripetizione, fino a una separazione minima di soli 3 ms fra due spikes. Lo scatenarsi di un treno di spikes è dovuto al fatto che la somma dei segnali di ingresso al neurone, ricevuti attraverso le dendriti, supera una soglia. Questo dà inizio a una dinamica che consiste nel continuo ritorno a una sella, come descritto al par.0.3. La sequenza di spikes può essere periodica (raffiche o “bursts”, tipiche dei neuroni che pilotano i moti interni, cardiorespiratorio, peristaltico, ecc.) oppure caotica, come si ipotizza che abbia luogo nei neuroni della corteccia sensoria, per codificare in intervalli variabili le varie percezioni. Capitolo 4: I fatti della vita Su tutto ciò torneremo al cap.9. Figura 4.4: Schema di neurone. 91 PARTE II Gli Strumenti formali 5 La dinamica lineare e la sovrapposizione degli effetti 5.1 Alcune funzioni di area 1 d di Dirac Consideriamo una funzione di t che sia un rettangolo di area 1. Riducendo la durata aumenterà l’altezza, fino al limite di durata 0 e altezza ∞ che chiamiamo delta di Dirac δ (t ) (a. 1) (a. 2) lim t →0 ∞ [δ ] = s −1 ∫ δ (t )dt = 1 −∞ D’ora in poi, ometteremo per brevità i limiti sugli integrali definiti fra ± ∞ . Se la delta è “localizzata” al tempo t 0 , allora si scriverà come δ (t − t 0 ) . Essa acquista significato nel “pesare”(in quanto densità temporale misurata in 1/s) una funzione: l’integrale del prodotto dà il valore della funzione nel punto su cui è centrata la δ . (a. 3) ∫ f (t )δ (t − t )dt = f (t ) 0 0 Rect t un rettangolo di durata finita T. Se deve avere area T unitaria allora l’altezza sarà 1 T . Si indica con rect (a. 4) t ∫ rect T dt = 1 94 F. T. Arecchi, Caos e Complessità nel Vivente Gaussiana Si tratta di una curva a campana simmetrica intorno al massimo; la radice quadrata di σ rappresenta la semidurata; il fattore che precede l’esponenziale e che si misura in (1/s), assicura che l’area sia 1; esso si chiama “normalizzazione”. (a. Gss (t ) = 5) 1 π 2σ 2 e − t2 2σ 2 ∫ Gss(t )dt = 1 Quando usiamo questa densità per pesare t2, otteniamo la media detta “varianza”: t 2 = ∫ t 2 Gss (t )dt = σ 2 5.2 La trasformata di Fourier Condizione sufficiente perché esista la trasformata di una funzione f (t ) : che 2 f (t ) sia a quadrato sommabile, cioè che il modulo quadrato f (t ) abbia area finita: ∞ ∫ f (t ) 2 dt < ∞ −∞ La trasformazione ℑ si ottiene sommando tutti i valori di f (t ) , ciascuno pesato da un fattore di fase ϕ = ωt : ~ ℑ{ f (t )} ≡ f (ω ) = ∞ ∫ f (t )e −iωt dt −∞ ~ La trasformazione inversa si ha sommando la f (ω ) su tutte le frequenze ω 2π e si denota con ℑ - 1 { } ~ ℑ−1 f (ω ) ≡ f (t ) = ∞ ∫ f (ω )e −∞ ~ i ωt dω 2π Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 95 Esempio di come la somma di armoniche con ampiezza e fasi opportune, ricostruisca un segnale: fig.5.1 Figura 5.1: Per funzioni definite solo su un intervallo limitato, non occorre fare l’integrale su tutte le frequenze, ma solo la somma di un numero discreto di sinusoidi, partendo da una bassa frequenza il cui periodo sia la durata del segnale e poi aggiungendo frequenze multiple, dette armoniche, con opportune ampiezze e fasi. NB: fuori dall’intervallo considerato la funzione si ripete periodicamente all’infinito, ma la cosa non ci riguarda, in quanto siamo interessati solo alla funzione dentro l’intervallo. Questa somma discreta invece dell’integrale si chiama serie di Fourier sinistra) La curva a dente di sega è approssimata da un numero crescente di armoniche di ogni ordine n con ampiezze rispettive An =1/n destra) Lo stesso per un’onda quadra, però con solo armoniche dispari n=1, 3, 5, 7, 9. 96 F. T. Arecchi, Caos e Complessità nel Vivente Tabella 1 - Alcune trasformate t ω δ (t ) 1 1 δ (ω ) cosω 0 t δ (ω − ω 0 ) + δ (ω + ω 0 ) 2 sin ω 0 t δ (ω − ω 0 ) − δ (ω + ω 0 ) 2i rect t T t Gss T sin cω T 2 T Gss ⋅ω 4 In modo analogo, per una funzione della coordinata spaziale x, introdurremo la trasformata di Fourier, passando dallo spazio x allo spazio trasformato k ~ ℑ{ f ( x )} ≡ f (k ) = ∞ ∫ f (x )e −∞ −ikx dx Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 97 ~ La trasformazione inversa si ha sommando la f (k ) su tutte le frequenze k 2π e si denota con ℑ - 1 { } ~ ℑ −1 f (k ) ≡ f ( x ) = ∞ ∫ f (k )e ~ ikx −∞ dk 2π 5.3 Come Fourier semplifica derivate ed integrali Operazioni di derivate e integrali Sia la funzione y = f ( x ) ; diamo un incremento ∆x alla variabile indipendente, in corrispondenza la funzione subirà un incremento y + ∆y = f ( x + ∆x ) . Definiamo: Derivata = velocità di crescita = rapporto tra ∆y e ∆x , per ∆x → 0 , e lo indichiamo con: ∆y dy y' = ≡ lim dx ∆x →0 ∆x Integrale definito = Area sotto la curva: somma ( Σ ) dei prodotti altezza per base dei rettangolini Figura 5.2: L’area sottesa fra la curva f(x) e l’asse orizzontale si calcola come somma dei rettangoli di altezze f(x) e base dx. Il simbolo ∫ sta per somma. 98 F. T. Arecchi, Caos e Complessità nel Vivente Anche qui facciamo tendere a zero le basi ∆xi dei rettangolini e denotiamo con ∫ la somma Σ : 5 x − fin 1 x −iniz A = ∑ f ( xi )∆xi → ∫ f ( x)dx Integrale indefinito: è la funzione A(x) quando il limite superiore sia la variabile x; segue dA = f (x ) dx cioè la velocità di crescita dell’integrale è la funzione stessa e pertanto la derivata è l’operazione inversa dell’integrale; ne consegue l’identità df ∫ dx dx = f (x) . Esempi (per verificare le A(x) dell’ultima colonna, farne la derivata e così ritrovare la funzione y(x)) y=x y' = 1 y = ax y' = a y = e x ≡ exp(x) y' = e x 1 x y = cos x 1 x2 y ′ = − sin x y= A( x ) = 1 2 x 2 1 A( x ) = ax 2 2 A( x ) = e x A( x ) = ln ( x ) y' = − A( x) = sin x Trasformate di Fourier di derivate e integrali d iωt e = i ω e i ωt dt ∫e iωt dt = 1 i ωt e iω Pertanto ~ ~ d d dω dω f (t ) = ∫ f (ω ) e iωt = ∫ iω f (ω )e iωt dt dt 2π 2π Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 99 Lo stesso vale per le trasformate da x a k. Si hanno pertanto le seguenti regole di trasformazione: t, x ω,k ~ f(t) f (ω ) ~ f& ≡ df dt iω f (ω ) ~ &f& − ω 2 f (ω ) ~ f(x) f (k ) ~ f ′ ≡ df dx ik f (k ) ~ f ′′ − k 2 f (k ) Esempi di equazioni differenziali Siamo ben familiari con le equazioni algebriche, in cui la incognita x si ottiene risolvendo un’identità algebrica in cui x appare. Per es. x 2 = 9 dà x = ±3 , oppure sinx = 1 dà x = π 2 ± n ⋅ 2π (dove n è un intero). Diremo equazione differenziale un’identità come ad es.: dx ≡ x& = ax(t ) dt dove la x(t) è una funzione incognita del tempo, che compare nell’eq. insieme alla sua derivata; l’eq. si risolve separando le due variabili x e t come segue dx = adt x Ora possiamo integrare separatamente 1o e 2o membro dx ∫ x = ln(x ) e ∫ dt = t Bisogna però tener conto di una costante di integrazione che si annulla nell’operazione di derivata. Perciò la soluzione è ln ( x ) = at + C che possiamo riscrivere in forma esponenziale come x = e at ⋅ e aC = k ⋅ e at per t=0 risulta e0 =1 e perciò x(0)=k, dunque k è la condizione iniziale. 100 F. T. Arecchi, Caos e Complessità nel Vivente Generalizzazione a funzioni di più variabili indipendenti Se una variabile w dipende da tre variabili indipendenti x, y, z che possiamo considerare come le coordinate di un punto in uno spazio 3D (a tre dimensioni), scriveremo w = f ( x, y , z ) = f ( r ) , avendo indicato con r la terna x, y, z. Per visualizzare, limitiamoci a funzioni di due variabili f ( x, y ) (fig.5.3). Due tagli ortogonali, come indicato in figura, ci danno le velocità di crescita nelle due direzioni, rappresentate dalle pendenze delle rette tangenti. Conveniamo di indicare le derivate parziali di una funzione di più variabili come segue: ∂f ∂f , ∂x ∂y Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti Figura 5.3: Rappresentazione di una funzione di due variabili due direzioni. 101 f ( x, y ) e delle sue derivate nelle Generalizziamo a 2D la trasformata di Fourier ~ ℑ{ f ( x, y )} ≡ f (k x , k y ) = ∞ ∫ f (x, y )e −i ( k x x + k y y ) dxdy −∞ Per semplicità di notazione, con la notazione vettoriale introdotta in Appendice, definiremo il vettore r ( x, y ) nel piano (x, y), e analogamente il vettore k (k x , k y ) . Per avere un’immagine intuitiva, così come in 1D si “pesava” ogni valore f(x) con una sinusoide complessa e − ikx , così in 2D pesiamo ogni valore f(x, y) col valore locale di un’onda che si propaga nella direzione definita dalla coppia di valori (k x , k y ) . Allora l’esponente della Fourier 2D può essere considerato come il prodotto scalare dei due vettori (somma dei prodotti delle componenti) e scritto come exp(−i r ⋅ k ) 102 F. T. Arecchi, Caos e Complessità nel Vivente Inoltre, il prodotto delle basi dei rettangoli dxdy sarà semplicemente indicato con d 2 r . Nel seguito, non staremo a specificare la notazione 1D o 2D, aspettandoci che il lettore lo capisca dal contesto. 5.4 Gradi di libertà di un segnale 5.4.1 Caso temporale: gradi di libertà di un segnale (formula di Shannon) Le analogie fra coppie di spazi trasformati, r r t ⇔ω e r ( x, y , z ) ⇔ k ( k1 , k 2 , k 3 ) , permettono di trattare alla stessa maniera segnali elettronici e ottici. Uno strumento di misura è sensibile su una banda limitata B di frequenze (si dice che lo strumento è un “passa-basso” perché risponde fino alla frequenza B e taglia tutte quelle più alte), e qualunque misura dura per un tempo limitato T. Chiamiamo “gradi di libertà” di un messaggio i numeri reali che descrivono completamente il messaggio. Nel caso di un segnale A(t), ogni termine del suo sviluppo di Fourier dà 2 numeri reali (cioè 2 gradi di libertà), modulo e fase A(ω ) = A(ω )e iϕ (ω ) . Figura 5.4: Di uno spettro continuo A(ν ) , qualora la funzione A(t ) si ripeta periodicamente con periodo T restano solo righe armoniche, a partire da una fondamentale di frequenza 1/T. La banda B ne ritaglia BT. Nella banda continua di fig a) abbiamo un’infinità continua: ma questo è fittizio! Misurando solo per un tempo T, non sapremo mai cosa c’è prima o dopo; siamo perciò autorizzati ad assumere che la funzione si ripeta periodicamente a destra e a sinistra e a sviluppare in serie come in fig.5.1: avremo armoniche spaziate in frequenza di 1/T, ma dobbiamo considerare solo Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 103 quelle contenute in B, quindi un numero totale pari a B·T. Ognuna fornisce due numeri reali, quindi il numero N di gradi di libertà è (formula di Shannon): N = 2 BT Applichiamo ciò al caso televisivo. Volendo trasmettere una scacchiera bianca e nera qual è il numero massimo di quadretti da alloggiare sullo schermo TV? Siccome l’occhio ha un tempo di permanenza tp=1/15s, per avere la sensazione di moto dobbiamo dare almeno 2 quadri entro tp, per cui T=1/30 s. La legge mette a disposizione di un canale una banda B=5MHz. Pertanto: N = 2 ⋅ 5 ⋅ 10 6 ⋅ 1 ≅ 0,3 ⋅ 10 6 30 Il numero di linee orizzontali sarà dato da N ≅ 600 . Allora il pennello elettronico del tubo televisivo è focalizzato fino a una macchia che assicuri la copertura dello schermo con 600 linee. 5.4.2 Caso spaziale: risoluzione ottica (i pixel) Introduciamo la teoria di Abbe (1880) della formazione delle immagini ottiche attraverso una lente ideale. Illuminiamo l’oggetto sottile (p. es. una diapositiva) con un’onda piana; se si trattasse di un pezzo di vetro trasparente, l’onda passerebbe imperturbata, ma incontrando le varie asperità (cioè quelle variazioni di colore e/o forma che contengono l’informazione) l’onda sarà sparpagliata (useremo in gergo il termine “scatterata”) in un ventaglio di onde piane, con ampiezze variabili da onda a onda; le onde hanno tutte lo stesso colore, ma hanno k diversi per direzione spaziale. ~ r L’ampiezza A(k ) della singola onda del ventaglio è il risultato dello sparpagliamento(detto in Inglese scattering) di tutte le asperità A(r) nel dominio r bidimensionale r ( x, y ) dell’oggetto, cioè ne è la trasformata di Fourier: A(k ) = ∫ A(r )e ik ⋅r dr . Come ben noto, ogni onda piana viene messa a fuoco in un punto del piano focale, cioè la lente sottile è un trasformatore di Fourier! (fig.5.10). Se però cercassimo di leggere il segnale sul piano focale, qualunque rivelatore (la retina dell’occhio un fonorivelatore, un film fotografico) è sensibile NON al campo elettromagnetico, cioè all’ampiezza di ciascuna onda 104 F. T. Arecchi, Caos e Complessità nel Vivente ma alla sua energia, cioè al modulo quadrato dell’ampiezza, perdendo così l’informazione di fase. Allora non intercettiamo il segnale sul piano focale, ma lasciamo che ogni suo punto agisca come una sorgente puntiforme di un’onda; tutte le onde emergenti dal piano focale si sommeranno con le loro fasi (cioè interferiranno) a valle del fuoco. Avremo in genere un’immagine “sfocata” cioè indistinta, per la combinazione capricciosa delle fasi, con l’eccezione del piano “immagine” (quello coniugato al piano oggetto dalla famosa formula di Gauss 1 1 1 + = p q f dove p, q ed f sono le distanze di oggetto, immagine e fuoco dalla posizione della lente). Si dimostra che sul piano immagine le fasi si ritrovano in modo da ridare, a meno di un fattore di magnificazione, la distribuzione spaziale dell’oggetto, cioè si è antitrasformato il ventaglio di onde sparpagliate: A(r ) = ℑ −1 [A(k )] = ∫ A(k )e − lente ik ⋅r dk piano oggett immagi e f p q Figura 5.5: Teoria di Abbe della formazione delle immagini attraverso una lente ideale: l’onda piana che illumina l’oggetto, a distanza p dalla lente, si diffrange in un ventaglio di onde piane; attraverso la lente, ciascuna di queste è focalizzata in un punto sul piano focale (in posizione f a valle della lente); i punti del piano focale sono sorgenti puntiformi di onde sferiche che si sommano con le fasi giuste solo sul piano immagine a distanza q dalla lente. Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 105 Dunque, la formazione delle immagini ottiche attraverso una lente sottile si può schematizzare così: A(r ) ⇒⇒ { A(k ) ⇒⇒ { A(r ) { oggetto pianofocal e immagine Si noti che questa restituzione dell’oggetto si ha solo nel visibile dove i mezzi trasparenti (vetro, quarzo) hanno un indice di rifrazione distinto dal vuoto e possono rifrangere, cioè piegare, i raggi in modo da dare l’effetto lente. Ai raggi X non esistono lenti (ogni mezzo ha un indice di rifrazione praticamente uguale ad 1 come nel vuoto); se ci si mette a grande distanza dall’oggetto illuminato da un’onda piana X si possono raccogliere le varie onde piane, ma si possono rifocheggiare su un piano immagine. Allora dobbiamo fermarci a metà del processo su schematizzato e a rivelare la trasformata di Fourier con rivelatori quadratici, cioè a raccogliere una collezione di: A(k ) 2 Avendo perso l’informazione di fase, come ricostruire il segnale? Questo è il problema della fase nella strutturistica dei cristalli e delle biomolecole, che sono così piccoli da non essere risolubili nel visibile, pertanto vanno esplorate ai raggi X. Vedremo più in là come risolvere il problema. Intanto applichiamo la formula di Shannon alle immagini nel visibile. Sia L l’estensione dell’oggetto bidimensionale (che prendiamo come un quadrato). Siccome non ci interessa cosa accade al di fuori, possiamo prendere condizioni al contorno periodiche e sviluppare la trasformata in serie di armoniche della frequenza fondamentale k0=2p/L (facciamo tutto in una direzione e poi teniamo conto dell’altra). Dobbiamo ora considerare l’estensione limitata d della lente per cui le onde scatterate ad angoli grandi sono perse. Facciamo un calcolo riferendoci a un’onda piana diretta secondo l’asse, nel caso ideale essa è messa a fuoco in un punto sull’asse (vedi fig.5.11). L’estensione d limitata della lente fa sì che l’integrale di Fourier non è esteso fra ± ∞ ma limitato fra ± d 2 come per una funzione rect; allora “senza” lente, a valle di un foro di apertura d l’onda piana si allargherebbe in un cono di apertura angolare θ = ∆k k = 2π d 2π λ = λ . d 106 F. T. Arecchi, Caos e Complessità nel Vivente ∆xf d f ∆k = 2π d θ k 0 = 2π λ Figura 5.6: Lente reale di diametro d; l’onda piana in arrivo è allargata in un cono di diffrazione di angolo θ = λ d ; la totalità delle onde piane a valle della lente contenute entro l’angolo di diffrazione ha un insieme di punti focali che riempiono un segmento pari a ∆x f = f ⋅ θ = λf d . Con lente, le onde piane contenute nel cono di diffrazione hanno ciascuna un punto focale; la totalità dei fuochi copre un segmento che si valuta moltiplicando la distanza f per l’angolo θ (si ricordi che la lunghezza di un arco di cerchio è data dal raggio per l’angolo; per piccoli angoli confondiamo l’arco col segmento tangente). Avremo pertanto (vedi fig.5.6): ∆x f = f ⋅ θ = λf d Dunque, l’immagine reale di un’onda piana non è un punto ma una macchia di lato ∆x f che si chiama PSF (point spread function): La banda di Fourier non Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 107 è ∆k = ∞ corrispondente a un punto focale di estensione nulla ∆x f = 0, ma è limitata e pari a ∆k = 1 ∆x f = d λf Il numero di macchie distinte (pixel o picture elements) che noi riusciamo a risolvere su un oggetto lungo L è allora L ∆x f . Moltiplichiamo per 2 (ampiezza e fase) e abbiamo il numero N di gradi di libertà di un’immagine unidimensionale. (Shannon spaziale) d N = 2 L ⋅ ∆k = 2 L fλ Ovviamente, per un’immagine 2D sarà pari a N2 Si noti che qualunque immagine ottica è 2D, mai 3D, perché un qualunque sistema ottico(lente, rivelatore biologico come la retina, rivelatore tecnico come la telecamera) ritaglia una proiezione 2D da tutta l’onda luminosa Per es. osservando una diapositiva di lato 3cm con una lente di lato d=1cm e focale f=10 cm, con luce verde( λ =0,5 micrometri), si ha N=104 e perciò N2=108 pixel. Nei microscopi si arriva ad avere d=f (si dice in gergo: apertura numerica =1) e allora si risolve al massimo una λ . 5.5 Risposta lineare, convoluzione, correlazione x& ≡ dx = ax dt Figura 5.7: Andamenti temporali della soluzione x(t). x(t ) = x0 ⋅ e at x0 è la condizione iniziale 108 F. T. Arecchi, Caos e Complessità nel Vivente Come si trova la soluzione dell’equazione differenziale, separando le variabili x e t: dx = adt → ln x = at + k x x = e at + k = e k e at = x0 e at Se ora la costante moltiplicativa è immaginaria x& = iω0 x x(t ) = e iω0t = A cos ω0t + B sin ω0t La cui derivata è: x& = −ω0 A sin ω0t + ω0 B cos ω0t Supponiamo ora di conoscere le condizioni iniziali di funzione e sua derivata, cioè: t=0 x0 = A x& 0 = ω 0 B allora x(t ) = x0 cos ω0t + x& 0 sin ω0t ω0 Si noti che qui occorrono 2 condizioni iniziali reali. 2 In effetti, la derivata di x& = iω 0 x dà &x& = −ω0 x e allora nel campo reale il problema equivale a un’equazione alla derivata seconda. Convoluzione Causalità: risposta (out) dopo stimolo (in) Es. in localizzato a t = 0 Figura 5.8: Sistema lineare ingresso-uscita (in-out). out solo per t>0 Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 109 Chiamiamo g(t) (o funzione di Green) la risposta alla δ: la possiamo descrivere con l’eq. differenziale lineare che caratterizza la box più la condizione iniziale che è x0 =1. La risposta a un segnale f(t) sarà la somma di tutte le risposte alle quasi-δ localizzate a t=t e di area f (τ )dt cioè C(t ) = ∑[ f (τ )dτ ] ⋅ g(t − τ ) = ∫ f (τ ) g(t − τ )dτ ≡ f (t ) ∗g(t ) Figura 5.9: Il segnale che nasce da ogni ingresso f (τ ) è la funzione di Green in quel punto g (t − τ ) pesata dall’area f (τ ) dτ della fettina. Sommando su tutte le fettine, si ha la convoluzione fra segnale di ingresso e funzione di Green della scatola. La ℑ è il prodotto algebrico (come si può verificare direttamente: basta ricordare le proprietà della d di Dirac) delle due trasformate: ~ ~ C (ω ) = f (ω ) ⋅ g~ (ω ) e viceversa: convoluzione in ω à prodotto in t. Auto-correlazione Per visualizzare il significato di questo nuovo oggetto, si rimanda alla trattazione di par.8.1.6. Intanto diamo la definizione formale: G (t ) = f (t ) ⊗ f (t ) = ∫ f (t ') f (t '+t )dt ' 110 F. T. Arecchi, Caos e Complessità nel Vivente La variabile di integrazione t’ figura la seconda volta col segno opposto al caso convolutivo. Pertanto in ℑ avremo il prodotto della f (ω ) per la ℑ di f(- t) cambiando segno a t si cambia il segno all’esponente: exp(−iωt ) ⇒ exp(iωt ) , ~ ~ ma essendo f(t) reale si vede subito che f (−ω ) = f * (ω ) ; pertanto: ~ ~ ~ 2 G (ω ) = f (ω ) ⋅ f * (ω ) = f (ω ) Spettro di potenza Questo è il teorema di Wiener-Khinchine: la trasformata di Fourier della funzione di autocorrelazione è lo spettro di potenza, cioè il modulo quadrato della ℑ del segnale f(t) Applicazione (tàr; ωàk=angoli di diffrazione): strutture cristalli (es. proteine, DNA) Come abbiamo visto al par.5.4.2 con luce visibile possiamo fare immagini con lenti per oggetti che siano più grandi di 0,5 µm. Le biomolecole, proteine o Dna, hanno dettagli strutturali sul nm, esse vanno pertanto osservate con illuminazione a λ mille volte più piccola, cioè ai raggi X. Ma per mancanza di lenti ai raggi X, dovremo limitarci alla prima parte del processo di Abbe, cioè a generare la A(k). Registrando questa su rivelatori, 2 perderemo l’informazione di fase, perché avremo A(k ) . Per il teorema di Wiener-Khinchine potremo ricostruire per ℑ −1 la funzione di autocorrelazione spaziale. Ora il campo A(r) sparpagliato dal punto r dell’oggetto illuminato è proporzionale alla densità locale di cariche (si riguardino le considerazioni euristiche sulle antenne al par.2.5.1) perciò l’autocorrelazione spaziale dice come sono vicini altri atomi a partire da un atomo in posizione r. Dunque le misure che hanno portato Pauling ad attribuire la struttura ad elica alle proteine, e Watson e Crick la struttura a doppia elica al DNA, si basano su: i) diffrazione di raggi X da un campione che contiene un cristallo delle molecole da studiare; 2 ii) registrazione di A(k ) ; iii) antitrasformata di Fourier che dà la funzione di autocorrelazione spaziale. Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 111 5.6 Operazioni non lineari: eterodina e olografia a) Eterodina Figura 5.10: Schema Eterodina: in trasmissione le tensioni del segnale e dell’oscillatore locale si sommano su un modulatore, che è un diodo con corrente proporzionale al quadrato della tensione applicata (fig.5.11) e il segnale si trasferisce attorno alla frequenza portante ω 0 , come mostrato in fig.5.12; in ricezione si realizza l’operazione inversa. La potenza elettromagnetica irraggiata da un’antenna percorsa da una corrente sinusoidale di frequenza ϖ e ampiezza I si scala proporzionalmente a ω 2 I 2 . La potenza si attenua con il quadrato della distanza tra trasmittente e ricevente. Nelle prime antenne radio, si trasmetteva direttamente la bassa frequenza del suono udibile dall’orecchio (fra 20 Hz e 20 kHz); per andare su grandi distanze, occorrevano valori alti di I che causavano perdite ohmiche sui circuiti con resistenza R (ricordo che la potenza dissipata in calore per effetto Ohm è pari a R ·I2 ). Si poneva perciò il problema: come mantenere costante il prodotto ω 2 I 2 lavorando con alte frequenze (nei telefoni cellulari: 100 mega Hz o più) e basse correnti; cioè come portare un segnale audio da 20 kHz a 100 MHz in trasmissione, farlo propagare nello spazio ad alta frequenza e poi riconvertirlo nella banda audio in ricezione? Il problema fu risolto genialmente con il metodo eterodina, il cui schema è rappresentato nella figura. Per la dualità nelle relazioni di Fourier, se si ha un prodotto algebrico nel dominio temporale, si avrà una convoluzione nel dominio delle trasformate, cioè. u (t ) = i (t ) ⋅ h(t ) u (ω ) = i (ω ) ∗ h(ω ) Se h(t) è una sinusoide pura, il suo spettro sarà fatto di due d simmetricamente centrate a ± ω 0 (fig.5.12), e la convoluzione equivale a 112 F. T. Arecchi, Caos e Complessità nel Vivente trasferire lo spettro audio di i(t) da frequenza media 0 (ricordo che un segnale reale ha uno spettro simmetrico attorno all’origine) a frequenze medie ± ω 0 ). Ma per far ciò dobbiamo realizzare il prodotto di i e h. Si mettono in serie i due generatori di tensione: quello di segnale che dà i(t), e l’oscillatore locale, che dà l’alta frequenza ± ω 0 . Si entra su un modulatore (mixer) che è un diodo la cui corrente è proporzionale al quadrato della tensione applicata (fig.5.10). La sua corrente andrà pertanto come: (i + h )2 = i 2 + h 2 + 2 ⋅ i ⋅ h Dunque, l’uscita in corrente contiene: - il quadrato di i che avrà banda 2 volte 20 kHz; - il quadrato di h che sarà a ± 2ω 0 , cioè sui 200 MHz; - il doppio prodotto che sarà a ± ω 0 , cioè a 100MHz più la banda audio che conta meno dello 0,1%. Basta mettere in uscita un filtro che fa passare solo la frequenza del doppio prodotto, bloccando le altre due. In ricezione si fa l’operazione inversa. Figura 5.11: Curva caratteristica corrente-tensione di un diodo a risposta quadratica. V 2 = Vs2 + V02 + 2V s2V02 nel tempo Vantenna = R ⋅ I ∝ VsV0 In sede di ricezione si fa l’operazione inversa, tornando alla bassa frequenza e filtrando via tutte le componenti a frequenze non volute. Quando “sintonizziamo” un canale radio o TV stiamo variando la frequenza dell’oscillatore locale del ricevitore, finché questo “trova” la giusta ω 0 del trasmettitore per fare le operazioni di fig.5.12. Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 113 Figura 5.12: Il segnale a bassa frequenza si mette a cavallo della portante a ± ω 0 e viene trasmesso; in ricezione, si riporta a bassa frequenza. b) Olografia L’olografia è l’equivalente spaziale della eterodina. La normale fotografia dà solo i moduli delle onde luminose, in quanto essendo i fonorivelatori (film o CCD) sensibili alla energia, rivelano il modulo quadrato del campo elettromagnetico del segnale luminoso, perdendo l’informazione di fase. Se vogliamo ricostruire l’aspetto tri-dimensionale di un oggetto, dobbiamo registrare tutto il segnale riflesso sotto illuminazione, sia in modulo sia in fase. Dobbiamo perciò registrare un segnale lineare, e non quadratico, nel campo E(r) che proviene dall’oggetto illuminato. Ciò si realizza investendo il film sia col segnale sia con un’onda piana pura generata da un laser e che fornirà uno spettro fatto di due δ attorno alla frequenze spaziali ± k 0 (fig.5.12). Dunque sul film arriva la somma del segnale e dell’onda piana. Data la risposta quadratica del film, avremo un termine di doppio prodotto la cui trasformata è: E (k ) ∗ δ (k ± k 0 ) = E (k ± k 0 ) In sede di visione, si illumina l’ologramma con un’onda piana della stessa direzione e colore, e dal film si sprigiona l’onda elettromagnetica di cui si possono apprezzare varie visuali per ricostruire l’impianto tridimensionale. Si noti bene quel che ho appena detto. Anche la nostra retina è un rivelatore 114 F. T. Arecchi, Caos e Complessità nel Vivente quadratico, che perde la fase del campo. Le nostre percezioni tridimensionali sono dovute a un collage di successive registrazioni parziali (cioè prive di fase) ma riprese da diversi angoli visuali per ricostruire gli aspetti tridimensionali. Figura 5.13: Come si registra un ologramma: un laser di illuminazione investe l’oggetto (una palla) e ne è diffuso. La luce diffusa raccolta sul film darebbe una fotografia. Ma sul film si invia anche direttamente parte del fascio laser sdoppiato da uno specchio semitrasparente che fa da divisore di fascio. La somma dei due campi elettromagnetici sul film a risposta quadratica dà un risultato analogo all’eterodina, cioè un ologramma. 5.7 Appendici A.1 Richiami di matematica A.1.1 Rappresentazione vettori in 2D Figura A.1: Vettore come somma (con regola parallelogramma) di due componenti secondo gli assi ortogonali individuati dai versori iˆ1 , iˆ2 . Versori (vettori unitari sui due assi) (a. 1) iˆ1 ⋅ iˆ1 = iˆ2 ⋅ iˆ2 = 1 iˆ1 ⋅ iˆ2 = 0 Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 115 Con il punto indichiamo il prodotto scalare di due vettori, che è il prodotto dei due moduli per il coseno dell’angolo fra i due vettori: r r a ⋅ b ≡ a b cos ab Il prodotto scalare è il prodotto del modulo del primo vettore per la componente del secondo vettore nella direzione del primo, questa si ottiene moltiplicando il modulo per il coseno dell’angolo fra i due vettori. r Un vettore sarà indicato con una freccetta: v e se ha modulo 1 (versore) con v̂ . Si può sempre scrivere un vettore come somma dei due vettori proiezione sui due assi: r (a. 2) v = v1iˆ1 + v 2 iˆ2 A.1.2 Numeri complessi come vettori 2D Diciamo Reale l’asse orizzontale che ha come unità 1 e Immaginario l’asse verticale che ha come unità i = − 1 . Un punto z di questo piano è come un vettore 2D (b. 1) z = 1⋅ a + i ⋅ b = a + i ⋅ b i 2 = i ⋅ i = −1 Con modulo e angolo di fase (rispetto all’asse Reale) rispettivamente b z = a 2 + b 2 , α = arctan (b. 2) a dove arctan… vuol dire l’arco che ha per tangente… Scriveremo: (b. 3) z = z ⋅ (cos α + i ⋅ sin β ) = z e iα Dove l’ultimo passaggio fa uso della formula di Eulero e iα = cos α + i sin α Figura A.2: Numero complesso come vettore in spazio 2D. 116 F. T. Arecchi, Caos e Complessità nel Vivente Formula di Eulero giustificata mediante lo sviluppo in serie attorno a x=0 (per x molto minore di 1, sicché x > x 2 > x 3 > L (provare con x=0, 01). cos x = 1 − x2 +K 2 x3 sin x = x − + K 3 x 2 x3 e = 1+ x + + +K 2 3! x Figura A.3: Porzioni delle funzioni cos, sin ed esponenziale attorno ad x = 0 . Definizione di complesso coniugato (b. 4) z * = z e −iα Prodotto di due numeri complessi (b. 5) V • Z = V ⋅ Z e i (α + β ) Somma e differenza di numeri coniugati z + z * è reale a + ib + a − ib = 2a prodotto Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti z − z* è immaginario a + ib − a + ib = 2ib Formule inverse di Eulero e ix + e −ix 2 (b. 6) cos x = (b. 7) e ix − e −ix sin x = 2 A.2 Onde a) nel tempo Figura A.4: Segnale temporale di tipo sinusoidale che si ripete dopo T=periodo (s). 2π f (t ) = cos t +ϕ T frequenza pulsazione 1 cicli = = Hz T s 2π ω0 = s −1 T ν= Per Eulero: f (t ) = ( 1 iϕ iω0t e e + e −iϕ e −iω0t 2 ) 117 118 F. T. Arecchi, Caos e Complessità nel Vivente f (ω ) = ( ) 1 iϕ e δ (ω − ω 0 ) + e −iϕ δ (ω + ω 0 ) 2 Interferenza = somma con fase ; Figura A.5: Interferenza di due onde in controfase (a sinistra) con somma nulla e in fase (a destra) con somma doppia. Rappresentazione complessa e i (ωt +ϕ ) = cos(ωt + ϕ ) + i sin (ωt + ϕ ) Per convenzione prendiamo solo Re o Im, cioè solo la parte in cos o in sin. Tutti i segnali isofrequenziali ruotano con velocità angolare ω (caso ENEL ν=50 Hz; ω = 314 s-1). Considerando segnali alla stessa frequenza, interessano solo le relazioni di ampiezza e fase, in quanto il fattore di fase temporale e iωt è comune a tutti. “Fasore” = vettore nel piano complesso Figura A.6: Confronto fra due fasori, con il secondo di modulo doppio e fase aumentata di π 2. Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 119 Figura A.7: Interferenza fra due onde iso-frequenziali rappresentata come somma di fasori b) nello spazio Figura A.8: Onda nello spazio x, con periodo spaziale λ= lunghezza d’onda (m) numero d’onda: cicli spaziali: 2π f ( x ) = sin x +ϕ λ 2π k= (m - 1) λ 1 k σ= = (cicli/m) λ 2π c) nello spazio–tempo (onde viaggianti) ( ) f (x, t ) = cos(kx − ωt ) = ℜ e i (kx −ωt ) Il fronte d’onda, a fase costante ϕ = kx − ωt , dopo ∆t si è spostato a ∆x, tale che k∆x − ω∆t = 0 : diremo allora che la velocità del fronte, o velocità di fase dell’onda, è: ∆x ω c= = (ms - 1) ∆t k Tabella: Onde Onde elettromagnetiche . C=3 108 m/s Onde acustiche in aria ca=300 m/s Onde acustiche in liquido/solido ca ≈ 10-5 c ≈ 103 m/s λ IR 30 µm Vis 0.5 µm UV 0.1 µm 30 cm 3 cm 1 µm ν=c/λ 1013 6·1014 3·1015 1 kHz 10 kHz 3 GHz T=1/ν 0.1 ps 1.6 fs 0.3 fs 1 ms 0.1 ms 0.3 ns 120 F. T. Arecchi, Caos e Complessità nel Vivente Doppler velocimetria (radar, apparecchi medici): rispetto a un osservatore in moto relativo con velocità v, un’onda presenta uno spostamento relativo in frequenza dato dalla velocità dell’osservatore relativa alla velocità dell’onda. ∆ω ν = ω c Inviando un’onda di frequenza ω su un oggetto e misurando lo spostamento ∆ω nell’onda di ritorno, si risale alla velocità dell’oggetto. d) onde spaziali in 2D ( f ( x , y ) = ℜ e i ( k1 x + k 2 y ) ) f (k x , k y ) = δ (k x ± k1 ) ⋅ δ (k y ± k 2 ) Figura A.9: Onda spaziale in 2D come sovrapposizione di due onde con frequenze spaziali diverse sui due assi x ed y (a sinistra). Spettro di Fourier: due δ simmetriche a r ± k (± k1 ,± k 2 ) (a destra ). e) onde viaggianti in 2D +t ( f ( x, y, t ) = ℜ e i (k1x+ k2 y −ωt ) Figura A.10: Direzione di propagazione(vettore di componenti ortogonale). ) k1 , k 2 ) e fronte d’onda (retta Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 121 Fronte d’onda: caratterizzato dalla conservazione della fase nell’espressione precedente, cioè per ogni incremento ∆t le coordinate x, y devono spostarsi di ∆x, ∆y in modo che sia: k1 ∆x + k 2 ∆y = ω∆t 2π cos α 1 = k cos α 1 λ 2π cos α 2 = k cos α 2 k2 = λ ω k12 + k 22 = k = c k1 = cos 2 α 1 + cos 2 α 2 = 1;α 2 = π α1 2 A.3 Funzioni in 2D Si presenta materiale didattico per illustrare alcune proprietà delle funzioni f ( x, y ) (Pagine da www. dimi. uniud. it/~gorni/Dispense/funzioni2var). 122 F. T. Arecchi, Caos e Complessità nel Vivente Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti Figura A.12: Esempio di massimo. Figura A.13: Minimo. 123 124 F. T. Arecchi, Caos e Complessità nel Vivente Figura A.14: Punto di sella. Capitolo 5: La dinamica lineare e la sovrapposizione degli effetti 125 6 La fisica statistica 6.1 Equilibrio termodinamico e cinetica chimica 6.1.1 Legge barometrica Ricordiamo la legge dei gas perfetti scritta per una mole, che contiene il numero di Avogadro: PV = RT = N A k B T J ; N A = 6 ⋅ 10 23 molecole mole mole ⋅ K k B = 1.38 ⋅ 10 − 23 J K Riscriviamo la legge a livello molecolare, introducendo la densità n R=8 P = nk B T dove: n ≡ N A V (molecole m ) cioè n(m 3 -3 ) in quanto il numero di molecole non ha dimensioni. Con riferimento a fig.6.1, consideriamo una colonna isoterma di gas e valutiamo la differenza di pressione esercitata su due sezioni separate verticalmente di dh. Siccome la pressione è forza per unità di area, (da misurare in N/m2), per l’equilibrio delle forze la differenza fra le due pressioni è pari al peso della colonna di gas nel volumetto di altezza dh cioè: Ph + dh − Ph ≡ dP = − mg ⋅ n ⋅ dh ⋅ 1 peso di una molecola volume Ma per la relazione precedente, dP si scrive come dP = dn ⋅ k B T Ne segue l’eq. differenziale nella funzione incognita n(h), la cui soluzione dà l’andamento verticale della densità: dn mg =− n ⇒ ln (n/n0) = - mgh/kBT dh k BT Per non portarci sempre appresso il k B , conveniamo di misurare T in unità di energia, cioè Joule invece che in gradi Kelvin. D’ora in poi scriveremo solo T Capitolo 6: La fisica statistica 127 (p. es, per T= 300 K, risulta kBT~ 10 - 21J~ (1/40) eV, perciò avremo T~ (1/40) eV= 25 meV ). n = n0 e − ngh T = n0 e − energia _ potenziale T (legge di Boltzmann) Figura 6.1: Distribuzione barometrica: Colonna isoterma (tutta a temperatura T) di gas nel campo di gravità terrestre. Il gas di densità n contenuto nel cilindretto di area di base 1 e altezza dh (volume 1·dh) ha in totale n·dh molecole, ciascuna di massa m. Il peso totale gm·n·dh·1 bilancia la differenza di pressione dP fra base bassa e base alta del cilindretto (è un bilancio di forze, perché (pressione ·area) = forza e qui l’area è 1). Integrando la semplice eq. differenziale, si ottiene la distribuzione esponenziale o barometrica; ma ciò vale per qualunque legge di forza; perciò scriviamo genericamente, al posto di mgh, energia potenziale (distribuzione di Boltzmann). 6.1.2 Distribuzione di velocità In assenza di energia depositata dall’esterno, la conservazione dell’energia dà l’uguaglianza di energia cinetica e potenziale: mu 2 = mgh 2 Pertanto possiamo riscrivere la legge di Boltzmann come: e − ngh T = e − mu 2T 2 La densità di gas come funzione delle velocità richiama “funzione di distribuzione delle velocità” f(u). La relazione che segue, dove C è una costante di normalizzazione, è la distribuzione di Maxwell delle velocità di un gas a temperatura costante: mu 2 − dn f (u ) = = Ce 2T du Essa è una gaussiana. La gaussiana è la densità di probabilità più fondamentale per i seguenti motivi non indipendenti, ma legati fra loro: i) come appena visto, è la distribuzione di equilibrio termico, dunque di massima entropia o massimo disordine (vedi cap.3); 128 F. T. Arecchi, Caos e Complessità nel Vivente ii) un teorema fondamentale di statistica, il teorema del limite centrale (CLT = central limit theorem), dice che la somma di un numero grande di cause non correlate dà una distribuzione gaussiana, e in effetti la distribuzione di Maxwell è il risultato degli urti fra le molecole del gas, urti scorrelati uno dall’altro. Figura 6.2: Differenza fra il numero di molecole con velocità verticale u sufficiente a superare il livello 0 ma non h e di quelle che vanno oltre h. Data l’uguaglianza fra energia cinetica e potenziale, si scrive Boltzmann in termini di u2, ottenendo una gaussiana nelle velocità, che è detta distribuzione di Maxwell. 6.1.3 Cinetica chimica Presentiamo il diagramma energetico della reazione chimica A+BàAB Figura 6.3: Barriera di energia A* (energia di attivazione) fra stato iniziale A+B e stato finale AB di una reazione esotermica. Lo stato finale è più basso di quello iniziale; l’energia W rappresenta il lavoro netto della reazione. Capitolo 6: La fisica statistica 129 Se diciamo nA, nB e nAB le concentrazioni delle tre specie, avremo per la legge di Boltzmann: − n A ⋅ nB = Ce T n AB W Equilibrio Le velocità di reazione verso destra R→ e verso sinistra R← saranno rispettivamente R→ = n A n Bσ AB ⋅ e R← = C ' n AB ⋅ e − − A* T W + A* T cioè sono proporzionali alle densità dei reagenti, alla sezione d’urto s AB che nel caso della reazione binaria dà la probabilità che a quelle densità abbia luogo la reazione, e ai fattori di Boltzmann che contengono le energie delle barriere da superare nei due casi. All’equilibrio: R→ = R← , da cui deriva la prima relazione. 6.2 Diffusione numero _ molecole J è proporzionale al gradiente di m2s ∂n ∂n concentrazione cambiato di segno ( J > 0 , cioè verso destra, se < 0 ). ∂x ∂x La corrente (1) J = −D ∂n ∂x Dimensioni della costante di diffusione [D] = [J ] = 12 [n] [x] m s Molecole in acqua: D ≈ 10 −6 cm 2 s 1 = 1 1 ⋅ m3 m ≈ 10 −10 m 2 s m2 s 130 F. T. Arecchi, Caos e Complessità nel Vivente Consideriamo un volume parallelepipedo di area A e spessore dx (fig.6.4): esso conterrà un numero di molecole pari a N 0 = nAdx la cui velocità di variazione è data dalla differenza delle correnti di entrata e di uscita fra le due facce separate di dx, cioè ∂N 0 = AJ ( x ) − AJ ( x + dx ) . ∂t Effettuando le sostituzioni si ha ∂N 0 ∂J Adx = − Adx ∂t ∂x Tenuto conto della (1) si arriva all’equazione di diffusione (2) ∂n ∂ 2n =D 2 ∂t ∂x Figura 6.4: Se il profilo di densità varia come n(x), fra due posizioni distanti dx esiste una differenza di densità pari a n(x+dx) –n(x)=dn. La differenza dn/dx per unità di lunghezza (velocità “spaziale” di variazione del profilo) si chiama gradiente. A differenza dell’equazioni differenziali ordinarie viste finora in cui la funzione incognita compariva solo con derivate temporali, la (2) si chiama equazione alle derivate parziali (PDE = Partial Differential Equation) per indicare che la funzione incognita n(x, t) è un campo di concentrazione e compare sia con la derivata temporale sia con la derivata spaziale. La (2) è pertanto un esempio di equazione di campo. Capitolo 6: La fisica statistica 131 Se prendiamo la trasformata di Fourier spaziale n( x, t ) → n~ (k , t ) la derivata seconda spaziale si trasforma nel prodotto per –k2, rimane solo la derivata temporale e la (2) diventa un’equazione differenziale ordinaria (ODE = Ordinary Differential Equation). dn~ = −(k 2 D )n~ (3) dt Che è immediatamente risolubile dando (4) 2 n~(k , t ) = e − (k D )t Ricordando che la trasformata di una Gaussiana in k è ancora una Gaussiana in x con la varianza spostata al denominatore, si ottiene (5) n( x , t ) = e − x2 4 Dt π 4 Dt Si noti che la varianza e il fattore di normalizzazione crescono con il tempo, secondo l’andamento di fig.6.5. Figura 6. 5 - Come varia la concentrazione C(x, t) in un processo diffusivo al variare della posizione x, per tempi t crescenti. A t=0 si ha una δ di Dirac, cioè una gaussiana infinitamente stretta. La larghezza cresce come (t) - 1/2 in quanto la varianza cresce linearmente con t. 132 F. T. Arecchi, Caos e Complessità nel Vivente 6.3 Variabili stocastiche, probabilità, momenti e cumulanti Fatte N misure, l’evento i-mo si sia verificato ni volte. In base alla discussione di par.3.2, diremo probabilità di i il rapporto wi = ni N La somma di tutte le probabilità è la certezza, pertanto ∑w i =1 La quantità wi è un numero razionale compreso fra 0 e 1. Introduciamo una densità di probabilità continua, definita su tutto l’asse reale, sfruttando la proprietà della δ di Dirac. p (x ) = ∑i wi δ ( x − xi ) ∞ ∫ p(x )dx = 1 −∞ Definiamo il momento di ordine k come la media di xk sulla p(x) MK = ∞ ∫ x p(x )dx ≡ k xk −∞ Introduciamo la Funzione generatrice di momenti, come la trasformata di Fourier della p(x); sviluppando in serie di potenze il nucleo della trasformazione di Fourier, vediamo che il coefficiente del termine n è <xn>, cioè il momento Mn Φ(λ ) = ∞ iλx i λx ∫ p(x )e dx ≡ e = ∑n −∞ (iλ )n M n! n da cui si deriva la relazione inversa che spiega il nome della Φ n d M n = i Φ(λ ) dλ λ =0 Analogamente introduciamo ora una Funzione generatrice di cumulanti prendendo il logaritmo naturale della φ e sviluppando in serie di potenze la nuova funzione. Diremo cumulanti i coefficienti Kn della serie Capitolo 6: La fisica statistica Θ(λ ) ≡ ln Φ(λ ) ≡ ∑ (iλ )n K n! 133 n d Kn = i Θ(λ ) dλ λ =0 n Relazioni fra cumulanti e momenti K1 = M 1 ( K 2 = M '2 → M ' 2 = M 2 − M 12 = momento _ baricentri co ) K 3 = M '3 → skewness K 4 = M '4 −3(M '2 ) → flatness 2 Lo sviluppo in serie arrestato ai primi termini ci chiarisce il significato statistico dei cumulanti. Θ(λ ) = K 0 + iλK 1−λ2 K 2 + K a) Se c’è solo il primo termine Θ = K0 allora Φ(λ ) = e K 0 da cui segue p ( x ) = e K 0 δ ( x ) ; ma per la condizione di normalizzazione e K 0 = 1 perciò K 0 = 0 b) Se c’è solo il secondo termine Θ = iλK 1 allora Φ(λ ) = e iλK1 p (x ) = δ ( x − K 1 ) Abbiamo dunque una d centrata su K1, cioè siamo concentrati sulla media, senza alcuna fluttuazione statistica c) Se c’è solo il terzo termine Θ = −λ 2 K 2 allora Φ(λ ) = e − λ K 2 p(x ) = 2 e −x 2 4K2 4πK 2 Dunque, il più elementare oggetto statistico è la gaussiana Probabilità congiunta di N variabili stocastiche. p( x1 , x 2 ,K , x N ) ∫ p(x , x 1 2 , K , x N )dx1 dx 2 K dx N = 1 Se le variabili sono scorrelate, allora si ha la fattorizzazione nei prodotti delle probabilità individuali: p (x1 , x2 , K, x N ) = p ( x1 ) • p ( x2 ) • K • p ( x N ) 134 F. T. Arecchi, Caos e Complessità nel Vivente k h x1 x 2 K Momenti congiunti. Sono del tipo: Funzione generatrice N-dimensionale. Φ( λ1, λ 2 , K) = ∫ e i (λ1 x1 + λ2 x2 +K) p ( x1 , x 2 , K)dx1 dx 2 K k 1 x x h 2 ∂ = i ∂λ1 k h ∂ i Φ ∂λ 2 λ =0 In particolare, faremo spesso uso della funzione di correlazione a due punti, o cumulante incrociato K 12 = x1 x 2 − x1 x 2 6.4 Processi stocastici, processi di Markov, equazione di FokkerPlanck 6.4.1 Probabilità congiunte e condizionate Un processo stocastico corrisponde a un insieme di insiemi stocastici, ognuno estratto a un tempo successivo (per semplicità consideriamo una sequenza discreta di tempi invece di un flusso continuo). La densità di probabilità congiunta ad n tempi sarà designata come (1) Wn ( x1 , t1; x 2 , t 2 ;K; x n , t n ) ≡ Wn (1,2, K , n ) Dove abbreviamo x1 , t1 ≡ 1, etc . Essa rappresenta la probabilità elementare di misurare al tempo t1 un valore di x fra x1 e x1 + dx1 , e così via. Ovviamente Wn è normalizzata ad 1. Con un’imprecisione linguistica, è comune fra i fisici chiamare anche le Wn distribuzioni piuttosto che densità. Saturando su una variabile, si ottiene la distribuzione congiunta di ordine inferiore di 1. (2) Wn −1 (1,2, K , n − 1) = ∫ dx nWn (1,2, K , n ) Se gli eventi sono temporalmente scorrelati la Wn fattorizza nel prodotto delle densità indipendenti a ciascun tempo Capitolo 6: La fisica statistica (3) 135 Wn (1,2, K , n ) = W1 (1)W1 (2 )KW1 (n ) Definizione di probabilità condizionata P (4) Wn (1,2, K, n ) ≡ Wn −1 (1,2,K, n − 1)P(1,2,K, n − 1 n ) La P rappresenta la probabilità che, dati i primi n-1 eventi, si realizzi l’n-mo. 6.4.2 Processi di Markov Introduciamo la sequenza, a partire dal caso più elementare: i) Processi senza memoria (5) W2 (1,2) ≡ W1 (1)W1 (2) ii) Processi a memoria corta, o di Markov (6) W3 (1,2,3) ≡ W2 (1,2)P(2 3) Senza 1 ! Un processo di Markov è caratterizzato da W2, senza bisogno di Wn con n>2. Infatti si trova subito che W3 (1,2,3) ≡ W2 (1,2)P(2 3) = W2 (1,2)W2 (2,3) / W1 (2) Una dinamica deterministica è Markoviana. Infatti sia la dinamica dx . ≡ x = f ( x) dt e sia x(x0, t) la soluzione a partire dalla condizione iniziale x0. La probabilità condizionata in questo caso è la certezza, cioè: (7) P(x0 x, t ) = δ ( x − x( x0 , t )) , e la Markovianità discende dall’unicità della soluzione per una condizione iniziale, cioè: P(x −1 , x0 x, t ) = δ ( x − x( x0 , t )) ≡ P(x0 x, t ) . Dalla definizione (6) segue che solo per i processi di Markov vale l’equazione di Smoluchowski (8) P(1 2) = ∫ P(1 y ) P( y 2)dy 136 F. T. Arecchi, Caos e Complessità nel Vivente L’integrazione sui valori intermedi y è illustrata in fig.6.6. Figura 6.6: L’equazione di Smoluchowski dice che, in un processo markoviano, la probabilità condizionata fra t1 e t2 si ottiene sommando tutti i prodotti delle probabilità condizionate da t1 a un tempo intermedio ty, e da questo a t2. 6.4.3 Moto Browniano; eq. di Fokker-Planck Consideriamo una particella di densità vicina all’acqua e di raggio attorno al micrometro lanciata dentro un liquido con velocità iniziale v0. La particella è fatta grosso modo di 1012 molecole, il singolo urto è un piccolo disturbo. Gli urti molecolari sono statisticamente isotropi (tanti davanti, tanti didietro) ma l’impulso trasferito dalla particella in un urto frontale è maggiore di quanto essa riceva in urto dal didietro (il calcolo del trasferimento di impulso nell’urto fra due palline di massa diversa è un esercizio di dinamica elementare). Ne segue che la particella sarà in media frenata da una forza di segno contrario alla sua velocità e che cresce con la velocità. A parte questa forza media che va a zero con la velocità della particella, l’effetto dei vari urti produrrà una forza stocastica ξ (t ) a media nulla e con distribuzione gaussiana, perché somma di molte piccole cause non correlate (ricordiamo il teorema del limite centrale). Possiamo scrivere dunque la seguente equazione per la velocità v della particella: . (9) v = −γ v + ξ (t ) Dove ? è il coefficiente di smorzamento medio e la forza gaussiana è definita dai primi due momenti, ξ (t ) = 0 ξ (0)ξ (t ) = 2 Dδ (t ) La forza di rumore - che d’ora in poi chiameremo noise - è a media nulla e con correlazioni temporali che si spengono immediatamente, cioè non c’è Capitolo 6: La fisica statistica 137 correlazione fra due urti successivi. La correlazione a d(t) mantiene il carattere . markoviano della parte v = −γ v senza noise. Se invece la correlazione fosse stata estesa nel tempo, avrebbe introdotto memoria della dinamica precedente il tempo t=0 a cui si è data la condizione iniziale. La (9) non è risolubile in quanto non possiamo assegnare una forma funzionale alla ξ (t ) ; tuttavia se consideriamo la probabilità condizionata P( y 0 y, t ) che il processo stocastico y (indichiamo così la velocità per sottolineare che per noi è un’incognita da trovare) abbia il valore y a t, dato il valore y0 al tempo t=0, essa obbedisce una PDE deterministica, (eq. di FokkerPlanck= FP) (10) ∂P ∂ ∂2 = − [F ( y ) ⋅ P ] + D 2 P ∂t ∂y ∂y Il secondo membro ha due addendi: i) un termine di deriva (drift) che rappresenta il moto deterministico sotto la forza F(y); se ci fosse solo quello avremmo una traiettoria definita dalla (7); ii) una diffusione di P attorno a questa traiettoria, con un coefficiente di diffusione pari all’ampiezza D della correlazione del noise; la singola δ si sparpaglia su un insieme di traiettorie vicine, come dal fondo valle di fig.1.1 si passava all’insieme dei filetti di fluido sul pelo libero del fiume. Non si dà qui una derivazione della FP, ma la somma degli effetti i) e ii) risulta dalla addittività delle due forze in (9). In fig.6.7 mostriamo la P a t=0 (si ha la certezza del valore fissato come condizione iniziale), a un tempo intermedio, per cui la velocità media è data dalla parte deterministica dell’eq. (9) y (t ) = y (0) ⋅ e −γt e a tempi lunghi, quando si è persa memoria della condizione iniziale e si ha una gaussiana a media nulla. Per semplicità, limitiamo l’analisi della FP al caso stazionario( ∂ = 0 ). In ∂t (10) resta il secondo membro uguale a zero. Integrando i due addendi una volta rispetto ad y si ha l’eq. [F ( y ) ⋅ P] = D ∂ P ∂y 138 F. T. Arecchi, Caos e Complessità nel Vivente cioè dP 1 = F ( y) P D facilmente integrabile, per cui: (11) P ( y ) = Ce ∫ F ( y ) dy D = Ce −V ( y ) D La soluzione stazionaria (11) ha perso memoria delle condizioni iniziali, ormai dimenticate, e dipende solo dalla forza F o dal suo potenziale V e dalla larghezza D del noise. Figura 6.7: Come evolve nel tempo la probabilità condizionata P(y, 0| y, t) per la velocità y di un moto browniano. Partendo dalla certezza ( δ di Dirac in y0) la probabilità ha un valore medio che tende a zero, mentre la varianza non cresce sempre come nel moto diffusivo, ma raggiunge un valore di equilibrio dato dal teorema di fluttuazione-dissipazione. Nel caso del moto browniano, F ( y ) = −γ y è una retta (moto lineare), per cui: 1 V ( y) = γ y 2 2 è una parabola rivolta verso l’alto. La (11) dice che P è massima dove V è minima cioè al fondo della parabola. Se sostituiamo la V(y) vediamo che la P(y) è una gaussiana, che qui scriviamo con la normalizzazione: (12) P( y) = exp(− γy 2 2 D) πD / γ Capitolo 6: La fisica statistica 139 Ricordiamo che y è la velocità di una particella browniana. Se confrontiamo con la distribuzione di Maxwell di par.6.1, vediamo che la velocità quadratica media qui è 2 D γ , lì era kBT/m. Uguagliando le due espressioni, si ha: (13) <v2>=2D/?= kBT/m. che è detto teorema di fluttuazione-dissipazione, in quanto il rapporto fra l’ampiezza D delle fluttuazioni e il coefficiente di smorzamento γ si scala linearmente con T. A bassa temperatura, abbiamo alto smorzamento con piccole fluttuazioni; viceversa ad alta temperatura. 6.5 Distribuzioni non-gaussiane, a coda lunga (a legge di potenza) La gaussiana individua una scala precisa, cioè la radice quadrata del denominatore (varianza) p( x) = Gss. ≡ e − x 2 L2 ≡ exp(− x 2 L2 ) Per semplicità, abbiamo omesso il fattore di normalizzazione. (Il modo grafico di indicare l’esponente con exp sarà usato quando conveniente). Prendendo il logaritmo naturale di ambo i membri, si ha x x y = ln Gss = - = exp− 2 ln L L 2 Invece le distribuzioni a leggi di potenza hanno code lunghe nella rappresentazione log-log. p ( x) = 1 = x −1 ln p ( x) = − ln x x Ho preso l’esponente -1, ma qualunque valore finito dà analoghi risultati. La fig.6.8 mostra come la gaussiana si compatti attorno a una scala precisa mentre la legge di potenza presenta tutte le scale (in gergo si dice: è scale free). Le distribuzioni di probabilità a potenza caratterizzano fenomeni che si mantengono correlati su scale lunghe; alcuni esempi sono dati in tabella. Invece la gaussiana è una distribuzione universale che caratterizza la somma di molte cause mutuamente scorrelate (teorema del limite centrale o CLT). 140 F. T. Arecchi, Caos e Complessità nel Vivente Tabella: Esempi di distribuzioni statistiche con code lunghe (a legge di potenza) Economia Terremoti Linguistica Distribuzioni delle città Deviazioni battito cardiaco dalla media Sequenza basi DNA Ritorni di borsa Pareto 1890 Omori 1895 Zipf 1940 Autori Vari dal 1960 “ “ “ In Tabella elenchiamo alcuni tipi di fenomeni per cui si osservano leggi di potenza con esponenti negativi dell’ordine di 1. Vediamo un po’ come nascono queste leggi empiriche. Pareto misurò che le entrate individuali x sono distribuite come 1/x: c’è un’altissima probabilità (gran numero di persone) di avere x bassissimo e una bassa probabilità di avere x alti; ma mentre la distribuzione delle stature è gaussiana con scala 1,70 metri per gli umani adulti (la probabilità di trovare un uomo alto il doppio è nulla!) invece, partendo dal reddito di un impiegato, si trova un numero cospicuo di percettori di reddito doppio, e poi doppio del doppio e così via. In linguistica e demografia (Zipf), se si ordinano le parole (città) in base al loro rango x, cioè all’ordine d’uso (per le parole) e alla dimensione di popolazione (per le città), il numero p(x) di volte che una parola è usata in un testo, o il numero di abitanti di una città di ordine x si scala come 1/x. Figura 6.8: Diagramma logaritmico sia in verticale sia in orizzontale, della p(x); la linea intera è la legge di potenza, la tratteggia è la gaussiana. Capitolo 6: La fisica statistica 141 Alla stessa stregua, dopo un evento sismico importante c’è tutta una folla di scosse secondarie distribuite nel tempo x successivo alla scossa principale secondo una legge di potenza. Nel caso del DNA, se prendiamo un tratto non codificante (cioè non facente parte di un gene), in esso la frequenza relativa p(x) di una base si scala con legge di potenza rispetto alla separazione x da un punto della sequenza preso come riferimento; e così via per gli altri casi in tabella. Un modello esplicativo deve fare ricorso a quanto abbiamo imparato sui processi stocastici, ma ricorrendo a spazi logaritmici. Supponiamo di avere una grandezza caratterizzata da un valore wt al tempo t, e consideriamo osservazioni a tempi discreti separati di 1; al tempo successivo t+1 il valore wt +1 sarà legato al valore precedente da una relazione funzionale wt +1 = f (wt ) che chiamiamo “mappa di ritorno” perché esiste solo per i tempi discreti t, t+1, t+2,…, e non ha senso per tempi continui. a mappa più semplice è una retta (fig.6.9) wt +1 = λt ⋅ wt Se ha pendenza 1 (la bisettrice tratteggiata) allora dà un punto fisso: wt +1 = wt Se ha pendenza 1 + ε , dà valori in crescita a ogni passo temporale, e viceversa per pendenza 1 − ε . Se in media vogliamo restare attorno a un valore, la pendenza λt dovrà fluttuare attorno al valore 1. Abbiamo un disturbo stocastico, che però – a differenza del moto browniano – compare a fattore: lo chiameremo noise moltiplicativo. Ricordando che il logaritmo di un prodotto è una somma, passiamo ai logaritmi per ricondurci a una trattazione familiare. Chiamiamo ln w ≡ v, ln λ ≡ µ La mappa diventa: vt +1 = vt + µ Se approssimiamo l’incremento sull’unità di tempo con una derivata temporale, avremo allora l’eq. differenziale semplicissima: v& = µ + δµ 142 F. T. Arecchi, Caos e Complessità nel Vivente Dove a secondo membro si ha una costante negativa più un noise additivo, che prendiamo come gaussiano (distribuzione di massima incertezza) e deltacorrelato cioè non correlato su tempi distinti: δµ = 0, δµ t δµ t ′ = 2 Dδ tt ′ Figura 6.9: Mappa di ritorno dal tempo t al tempo t+1: se fosse la bisettrice tratteggiata avremmo un fenomeno stazionario con wt+1 =wt; si ipotizza una fluttuazione di pendenza di ± ε attorno ad 1. Possiamo valutare la probabilità condizionata P(v0 | v, t ) per questo processo markoviano. In base a quanto visto al par.6.4, l’eq. di Fokker-Planck è ∂2P ∂P ∂ = − (µ P) + D 2 ∂t ∂v ∂v Risolviamola nel caso stazionario; avremo una soluzione esponenziale: ∂ ∂t = 0 ⇒ µP = D µ ⋅v − dP ⇒P≅e D dv Capitolo 6: La fisica statistica 143 Figura 6.10: Per fluttuazioni simmetriche di e attorno ad 1 avremo fluttuazioni asimmetriche di µ attorno a zero, avremo cioè un valor medio negativo µ con fluttuazioni δµ a media nulla attorno ad esso. Ma il nostro interesse è nella quantità w. La sua densità di probabilità Q(w) deve dare una probabilità differenziale che non deve dipendere dalla rappresentazione, cioè dQ=dP, per cui Q( w)dw = P(v)dv ⇒ Q( w) = P(v) dv = w −1−α dw In quanto la derivata di log è 1/variabile dv 1 = dw w e un esponenziale si può sempre riscrivere e −αv = e −α ln w = w −α Abbiamo dunque giustificato una legge di potenza, con una correzione − α rispetto a -1, dove α= µ D dipende dalla fluttuazione attorno ad 1, α = 0 vuol dire D = ∞ , cioè si ha Pareto puro per fluttuazioni molto ampie. 7 Dinamica non lineare e caos 7.1 Dinamica lineare: spazio delle fasi, equilibri stabili e instabili. Consideriamo un singola variabile dinamica: diremo che il problema ha N=1 dimensioni, ovvero che è 1D 1D x& = ax ⇒ x(t ) = x0 e at La soluzione è graficata qui di seguito per i tre casi: a reale a<0, a reale a>0, a immaginario puro. Fig 7.1: Posizione degli esponenti sul piano complesso e andamenti temporali Rappresentiamo a sinistra i valori di a sul piano complesso e a destra gli andamenti temporali di x(t). Consideriamo ora due variabili dinamiche x ed y accoppiate da relazioni lineari. Scriviamo le due eq. separatamente oppure in forma vettoriale come una r sola eq. per il vettore z in 2D x& = ax + by 2D r r y& = cx + dy ⇒⇒ z& = A ⋅ z a b r x e z = dove A = y c d Trasformiamo la coppia (x, y) in un’altra coppia di variabili ( ζ 1 ,ζ 2 ) tale che ciascuna delle variabili trasformate sia accoppiata solo con se stessa, in modo da ridurci a due eq. 1D che sappiamo già risolvere. Sul piano z =(x, y) dobbiamo fare una rotazione R in modo che la trasformata della matrice A abbia solo elementi diagonali, cioè: r ζ = R⋅z, Capitolo 7: Dinamica non lineare e caos 145 r ζ dove il vettore ζ = 1 obbedisce all’equazione: ζ 2 r& r λ 0 ζ1 ⋅ ζ = D ⋅ ζ = 1 0 λ2 ζ 2 Invece di affrontare il caso generale, limitiamoci ad un esempio significativo cui torneremo spesso in seguito: l’oscillatore armonico senza perdite, cioè una pallina di massa m legata a una molla di forza elastica F= - kx (come visto al cap.2, la forza è proporzionale allo spostamento x cambiato di segno). Scriviamo la legge di Newton: accelerazione=forza/massa dove l’accelerazione è la derivata seconda temporale &x& della posizione e indichiamo con la costante ω 2 = k m il rapporto fra la costante elastica k e la massa m. La ragione per cui abbiamo indicato la costante con ω 2 è per sottolineare che è una quantità positiva. L’eq. alle derivate seconde (si dice in gergo: del secondo ordine) si può decomporre in due eq. accoppiate al prim’ordine per posizione x e velocità x& = y come segue: x& = y &x& = −ω 2 x ⇒ 2 y& = −ω x Rotazione nel piano complesso x+iy: a& = −iω ⋅ a a ≡ ωx + iy a(t ) = ao e −iωt ⇒⇒ ⇒⇒ * * * a * (t ) = a * o e +iωt a ≡ ωx − iy a& = iω ⋅ a Le nuove eq. disaccoppiate si possono giustificare agevolmente prendendo le derivate temporali di a e a*. Le soluzioni richiedono le condizioni iniziali, che si ottengono da xo e yo. Ritornando ad x ed y con le trasformazioni inverse: a + a* a − a* x= , y= 2ω 2i si ottengono le soluzioni per x e y, che per le formule di Eulero saranno rispettivamente: x = x0 cos ωt , y = y 0 sin ωt 146 F. T. Arecchi, Caos e Complessità nel Vivente Come in fig.7.1, rappresentiamo i due esponenti ± iω sul piano complesso; ma invece di disegnare l’andamento temporale, diamo la dipendenza di y(t) da x(t) ad ogni t; chiameremo questa linea traiettoria nello spazio delle fasi Figura 7.2: Esponenti immaginari ± iω e spazio delle fasi per un oscillatore armonico. Come si vede, si tratta di un’ellisse; ciò vuol dire che dopo un tempo T = 2π ω (periodo) si torna al punto di partenza. Il moto si dice conservativo perché non consuma energia. Esso è stato già considerato in fig.2.3 e l’energia si converte da potenziale a cinetica e viceversa nel corso dell’orbita. Consideriamo ora l’oscillatore con smorzamento viscoso, cioè aggiungiamo alla molla una forza frenante proporzionale alla velocità. Le equazioni sono: x& = y &x& = −ω 2 x − γx& ⇒ 2 y& = −ω x − γy Ripetendo la stessa trafila, troviamo che dobbiamo modificare gli esponenti aggiungendo una parte reale che equivale a uno smorzamento nel tempo: ± iω ⇒ ± iω − γ . Diamo qui il grafico dei due esponenti complessi e la traiettoria nello spazio delle fasi a partire da un punto iniziale: questa è una spirale che tende a x=y=0. Figura 7.3: Oscillatore smorzato: esponenti complessi (con parte reale negativa) e traiettoria a spirale nello spazio delle fasi. Capitolo 7: Dinamica non lineare e caos 147 Al variare degli esponenti, possiamo avere le varie situazioni di fig.7.4 (2D) e fig.7.5 (3D). Figura 7.4: Classificazione dei punti fissi in 2D 148 F. T. Arecchi, Caos e Complessità nel Vivente Figura 7.5: Esempi di punti fissi in 3D. 7.2 Dinamica non lineare e linearizzazione attorno ai punti di equilibrio; biforcazioni. 7.2.1 Analisi di stabilità lineare Supponiamo di avere N variabili dinamiche xi (i=1, 2…N) accoppiate da leggi non lineari e dipendenti da K parametri di controllo µi. x&1 = f 1 ( x1 , x 2 ,K x N ; µ1 K µ K ) M x& N = f N ( x1 , x 2 ,K x N ; µ1 K µ K ) dove le funzioni fi non sono rette e sono differenti una dall’altra. Scriveremo sinteticamente: r r r x& = f ( x ) Capitolo 7: Dinamica non lineare e caos 149 r r dove x e f indicano vettori. Per convenienza, non esplicitiamo i parametri di controllo. Siccome i problemi non lineari sono in genere di difficile risoluzione, limitiamoci ad applicare quanto imparato per il caso lineare, e cioè, alla seguente strategia: i) cerchiamo i punti fissi x& = 0 , cioè le N soluzioni dell’equazione algebrica r f ( x ) = 0 ⇒ x1 , x 2 ,...... ii) studiamo la stabilità di ciascuno dei punti fissi, linearizzando le equazioni attorno ad esso. Se per ogni i=1, 2…N introduciamo il piccolo spostamento: ξ = x−x, l’insieme degli spostamenti obbedisce l’equazione lineare (che per semplicità scriviamo per N=1, omettendo gli indici) ∂f ξ& = = Aξ ∂x x = x Dove A è la matrice delle derivate nel punto fisso in esame; per N=1 sarà un singolo numero. iii) Cerchiamo soluzioni alla precedente eq. lineare, che sappiamo devono essere del tipo: ξ ≅ e λt ⇒⇒ ξ& = λξ . Sostituendo nell’eq., si ha la relazione: λ=A e se il problema è a N dimensioni, dovremo risolvere l’eq. algebrica di grado N in λ A−λ = 0 che darà in genere N radici complesse. Per ogni i diremo che xi è stabile o instabile a seconda che l’esponente ha parte reale negativa o positiva, cioè rispettivamente: Re λ < 0, Re λ > 0 150 F. T. Arecchi, Caos e Complessità nel Vivente 7.2.2 Caso 1D: linearizzazione e biforcazioni delle soluzioni di equilibrio Facciamo un esempio per N=1: x& = ax− x3 ha tre punti fissi: x1 = 0, x 2,3 = ± a . Il primo ha l’eq. linearizzata ξ& = aξ ⇒⇒ λ1 = a , pertanto è stabile per a<0, instabile per a>0. Gli altri due sono definiti in campo reale solo per a>0 (altrimenti danno soluzioni immaginarie) e hanno l’eq. linearizzata ξ& = −2aξ ⇒⇒ λ2,3 = −2a , cioè danno due punti stabili per a>0 Dinamica qualitativa di Poincaré: invece di risolvere l’eq. differenziale nel tempo, limitiamoci a dare l’andamento dei punti fissi al variare dei parametri di controllo. Con riferimento all’esempio N=1 avremo: Figura 7.6: Luoghi dei punti fissi: a linea intera le branche stabili, in tratteggiato la branca instabile; si noti la biforcazione per a=0. 7.2.3 Caso 2D: Competizione fra popolazioni (ecologia, epidemiologia) Diamo ora un esempio con N=2, cioè in 2D. Consideriamo due specie viventi (animali o piante) nello stesso habitat (nicchia ecologica). Diciamo x il numero di predatori e y il numero di prede. I predatori x muoiono dopo un tempo t (velocità di morte –y/t) e crescono nutrendosi di y con una velocità legata al prodotto xy delle due popolazioni (cosa intuitiva: la Capitolo 7: Dinamica non lineare e caos 151 probabilità di incontri aumenta con il numero di individui di ambo le specie). Le prede decrescono perché sono mangiate e crescono a un ritmo R perché trovano nutrimento nelle nicchia (p. es., x sono linci e y lepri). Dunque se non c’è interazione (B=0) x morirà come e −t τ , e y crescerà come Rt. Le eq. dinamiche sono dunque: x x& = Bxy − τ y& = − Bxy + R Le due eq. qui presentate danno un modello di competizione fra popolazioni (Volterra e Lotka). Dal punto di vista dimensionale, le tre grandezze B, R e 1/t sono tutte e tre misurate in s-1, per essere omogenee al primo membro che ha la derivata temporale. Risolvere le eq. non è immediato. Svolgiamo lo studio come nel caso 1D. I punti fissi sono (fatti x& = y& = 0 , si divide la prima eq. per x, ammesso che x ≠ 0 ): 1 y= , x = Rτ Bτ e considerando le deviazioni dall’equilibrio { ξ = x−x η = y−y ⇒⇒ { ξ& = αη η& = −αη − ξ , τ dove si è abbreviato a=BRt. Cerchiamo soluzioni esponenziali, in modo che ξ& = λξ η& = λη Sostituendo, avremo le due eq. algebriche: λ − α ξ 1 = 0 α + λ η τ Ricordiamo, a chi non fosse familiare con la notazione matriciale, che la precedente scrittura condensa due eq. che si esplicitano moltiplicando in modo 152 F. T. Arecchi, Caos e Complessità nel Vivente ordinato gli elementi della prima riga della matrice 2x2 per quelli della colonna, e poi facendo lo stesso per la seconda riga. Siccome cerchiamo soluzioni non nulle per (ξ ,η ) , allora deve essere nullo il determinante della matrice 2x2, cioè la somma dei prodotti della prima diagonale e della seconda cambiata di segno. λ2 + αλ + α α α2 α α = 0 ⇒⇒ λ1, 2 = − ± ( − ) = − ± iω τ 2 4 τ 2 dove abbiamo chiamato ω la quantità sotto radice, che è negativa purché sia verificata la condizione: α 2 4 < α τ , cioè: ατ <4 Abbiamo cioè oscillazioni a frequenza ω smorzate con una velocità a/2=BRt 2/4. Ciò vuol dire che le soluzioni di equilibrio sono stabili. Variando i parametri o complicando le eq. con un termine di morte (per vecchiaia o malattia) anche per le prede, si ottengono oscillazioni permanenti come osservate in equilibri ecologici su tempi lunghi. Figura 7.7: Oscillazioni temporali nelle popolazioni di prede e predatori in un habitat chiuso e rifornito di cibo per le prede. 7.2.4 Caso 3D: Andamenti qualitativi Passiamo a un sistema 3D, cioè a tre variabili reali accoppiate non linearmente. Attorno a un punto di equilibrio l’analisi lineare darà un piano e una retta che contengono le direzioni di espansione e contrazione per soluzioni rispettivamente instabili e stabili, come mostrato nei casi di fig.7.8 Capitolo 7: Dinamica non lineare e caos 153 Figura 7.8: Esempi di varietà stabili e instabili di un punto fisso in 3D. 7.3 Sistemi eccitabili. Modello di FitzHugh e Nagumo Consideriamo due specie con popolazioni u e α che evolvono con le eq. du dα = f (u , α ),........ = ε ⋅ g (u.α ) dt dt Dove 0 < ε << 1 , cioè il sottosistema α è lento rispetto ad u ; per cui α è semplicemente un parametro costante nell’eq. di u Le soluzioni stazionarie (u 0 , α o ) sono le intersezioni delle due curve: f=0, g=0 sul piano ( u , α ); le f=0, g=0 siano rispettivamente una curva a Z e una verticale; per ogni valore di α si ha un’intersezione con f=0. 154 F. T. Arecchi, Caos e Complessità nel Vivente A seconda delle pendenze mutue nei punti di intersezione, questi possono essere stabili o instabili. Ad esempio, in fig.7.9a se α è una variabile lenta (rispetto ad u), che varia in modo periodico fra α 1 e α 2 , allora u ha oscillazioni di rilassamento come in fig.7.9b: u segue la propria linea di zero fra A e B, ma in B precipita, su una scala di tempi piccola rispetto al moto lento di v, da B a C, e così via. Figura 7.9: (a) Stato stazionario u 0 che si aggiusta istantaneamente al valore imposto da α : gli stati stazionari sulle linee tratteggiate sono instabili. (b) oscillazioni di rilassamento di u, per effetto di una variazione lenta periodica di α . Presentiamo ora il modello di FitzHugh e Nagumo, in cui f=0 è una cubica e g=0 una retta. Uniformiamoci alla notazione corrente e scriviamo le eq. come: dv = f (v) − w = v(0.3 − v)(v − 1) − w, dt dw = bv − γw dt La fig.7.10 mostra il caso monostabile e bistabile (due intersezioni stabili e una instabile) al variare della pendenza della retta g=0 cioè w = bv γ . Figura 7.10: Piano di fase nel caso (a) stato stazionario stabile ma eccitabile; e (b) tre stati stazionari di cui O, S2 stabili ma eccitabili, ed S1 instabile. Capitolo 7: Dinamica non lineare e caos 155 È evidente la caratteristica di eccitabilità. Una perturbazione sull’asse v, con v>a provoca un’ampia escursione della traiettoria di fase; il corrispondente segnale temporale è dato in fig.7.11. −3 Figura 7.11: Nel caso di b = γ = 2 ⋅ 10 allora w è una variabile lenta e avremo una situazione come fig.7.9, ruotata di 900. Partendo dallo stato stazionario (0, 0), se si dà una piccola perturbazione fino a P si torna indietro a (0, 0); ma se la perturbazione arriva ad A, allora comincia un’escursione ampia ABCDO che in BC e DO segue da vicino la linea f=0. In (b) si mostrano gli andamenti temporali. 7.4 Esponenti di Lyapunov e attrattori, il caos deterministico. Abbiamo visto che la linearizzazione attorno a un punto fornisce localmente una dinamica lineare, con un numero di esponenti pari al numero N di gradi di libertà (cioè di variabili accoppiate; diremo questo numero le dimensioni del sistema dinamico). Se ripetiamo questa operazione locale su molti punti della traiettoria e prendiamo una media, introdurremo degli esponenti medi detti esponenti di Lyapunov (L). Se partiamo da un volume di condizioni iniziali (un segmento per N=1; un quadrato per N=2, a rigori sarebbe un rettangolo, ma possiamo riscalare le variabili per semplificare il ragionamento; un cubo per N=3, ecc), i vari lati del volume si contraggono o espandono con il corrispondente esponente di L. 156 F. T. Arecchi, Caos e Complessità nel Vivente Figura 7.12: Spettro dei segni degli esponenti di Lyapunov e corrispondenti attrattori, per sistemi dissipativi in 1, 2 e 3 dimensioni. Figura 7.13: Forme degli attrattori Per comprendere le fig.7.12 e 7.13 riferiamoci a un sistema dissipativo. Per N=1 avremo un segmento ε di condizioni iniziali che si contrae ad un punto per grandi t. La crescita media e λt richiede dunque un esponente λ < 0 . Per N>1, sarà ∑ λi < 0 , a per λ = 0 avremo in corrispondenza la conservazione della misura iniziale. Ciò definisce una traiettoria: se invece di dare per Capitolo 7: Dinamica non lineare e caos 157 condizione iniziale un punto diamo un pacchetto ε di punti, ogni punto entro ε evolve allo stesso modo e la misura si conserva nel tempo. Si chiama attrattore il luogo asintotico da cui non si fuoriesce e in cui si è persa memoria dello stato iniziale; per dinamica conservativa il volume iniziale NON si contrae ∑ λi = 0 e pertanto si conserva sempre memoria delle condizioni iniziali e NON c’è attrattore. Tornando ai sistemi dissipativi, chiameremo bacino d’attrazione il dominio di tutte le condizioni iniziali che confluiscono su un attrattore. Se riprendiamo l’eq. di par.7.2.2, la forza discende da un potenziale V(x): x& = ax − x 3 = − dV 1 1 ⇒⇒ V ( x) = − ax 2 + x 4 dx 2 4 Per a<0 la quadratica è una parabola verso l’alto, così come la quartica, e si ha un solo punto fisso stabile (attrattore) x=0; tutto l’asse x è il bacino d’attrazione, perché qualunque condizione iniziale x0 converge a x=0 come −at x0 e at = x 0 e (trascurando la correzione non lineare, che muore più rapidamente). Invece per a>0 la quadratica è verso il basso e V ha una doppia buca come in fig.3.1b quindi l’asse x si divide in due bacini d’attrazione, che convergono rispettivamente verso ± a . Per l’unicità delle soluzioni di un’eq, differenziale a partire da una condizione iniziale, i bacini d’attrazione relativi ad attrattori diversi non si intersecano mai. Figura 7.14: Due esempi di attrattori regolari in 3D. 158 F. T. Arecchi, Caos e Complessità nel Vivente 7.5 Attrattori strani e dimensioni frattali Figura 7.15: Attrattore per le tre eq. accoppiate: x& = −10 x + 10 y y& = − y + 28 x − xz z& = − 8 z + xy 3 (Lorenz, 1963) Nel caso 3D e per certi valori dei parametri (si vedano ad es. i coefficienti nelle tre eq. di fig.7.15), si ha lo spettro di Lyapunov (-, 0, +). Nella direzione (–) si ha contrazione, cioè due condizioni iniziali distanti tendono ad avvicinarsi, nella direzione (0) si una traiettoria e nella direzione (+) si ha espansione cioè due punti inizialmente vicini tendono a separarsi: un’incertezza iniziale nell’assegnazione della coordinata secondo questa direzione si amplifica. Ora, assegnare con esattezza una coordinata iniziale implica che essa sia espressa da un numero razionale, ma in genere sarà un numero reale che dobbiamo approssimare con una versione troncata a un numero finito di cifre: ciò implica uno sparpagliamento della condizione iniziale su tutti quei punti che hanno in comune la parte troncata e differiscono per qualche cifra successiva. Insomma il calcolo ci darà un ventaglio di traiettorie divergenti una dall’altra e questa è una mancanza di predicibilità che chiamiamo caos deterministico; caos perché dà un’incertezza, deterministico perché non c’è bisogno di rumore ma emerge da solo tre eq. accoppiate. Siccome però il sistema è dissipativo, un volume iniziale si deve contrarre e diventare <3D: dei tre lati di un cubetto iniziale, quello secondo (- ) va a un Capitolo 7: Dinamica non lineare e caos 159 punto, quello secondo (0) resta invariato e quello secondo (+) si espande: avremo pertanto una dimensione globale >2 ma <3, cioè un numero frazionario fra 2 e 3. Il significato di una dimensione frattale è spiegato in fig.7.16. Intanto notiamo che, dato l’aspetto “arcigno” delle eq. non lineari, in genere non esistono soluzioni analitiche e bisogna ricorrere a soluzioni numeriche al computer. È per questo che malgrado queste cose fossero già presenti a H. Poincaré nel 1890, abbiamo dovuto aspettare lo sviluppo dei computers per affrontare questi problemi. Figura 7.16: Dimensioni frattali <1 per l’insieme di Cantor e >1 per la curva di Koch. 160 F. T. Arecchi, Caos e Complessità nel Vivente 7.6 Sezioni di Poincaré e mappe iterative Invece di seguire tutta la traiettoria in 3D, ci limitiamo a considerarne le intersezioni con un piano 2D (se siamo in n-D, con un iperpiano (n-1)-D). La cosa è spiegata in fig.7.17. In tal caso, dobbiamo cercare una relazione funzionale che lega l’intersezione n-esima alla successiva, cioè (mappa di ritorno di Poincaré): rr r x n +1 = f ( x n ) dove i vettori indicano le posizioni sul piano di Poincaré. Nel caso dissipativo 3-D la traiettoria(esp. 0)sarà traversa al piano e sul piano giacciono le due direzioni con esp. - e +. Ma siccome ∑ λ < 0 deve essere λ− > λ+ . Ammettiamo che sia λ− >> λ+ ; allora la sezione di Poincaré non copre una parte di piano ma si assottiglia a una linea e la mappa diventa unidimensionale x n +1 = f ( x n ). Molte considerazioni euristiche sul caos sono sviluppate per mappe sull’intervallo (0, 1), cioè per 0< x n , x n +1 <1. Figura 7.17: Esempi di sezioni di Poincaré per moti in 3-D. Capitolo 7: Dinamica non lineare e caos 161 7.7 Informazione di un segnale caotico Introduciamo una partizione dello spazio delle fasi in cellette di volume finito; fatte di cubetti di lato ε . Tutto l’attrattore sarà coperto da un numero finito M di celle. La cella i-sima sarà visitata Mi volte, ad essa spetta pertanto la probabilità: M pi (ε ) = i M È ovvio che le probabilità dipendono dalla risoluzione ε scelta. Con queste probabilità costruiamo un’informazione di Shannon: I (ε ) = −∑ pi log pi Introduciamo una dimensione di informazione: D1 = lim I (ε ) log ε Dove il limite va considerato per ε → 0 , cioè vanno compensati gli errori che possono derivare da una risoluzione grossolana Confrontiamo D1 con la dimensione frattale derivata da considerazioni geometriche in fig.7.13 e che riscriviamo qui come: D0 = − log N log ε Le due definizioni coincidono se ogni celletta dell’attrattore è riempita con probabilità uniforme p=1/N; ma in genere l’attrattore ha “densità” diverse in regioni diverse, perciò la D1 è più appropriata della dimensione geometrica D0. Consideriamo ora l’evoluzione temporale del segnale caotico, e, oltre alla partizione con risoluzione ε del segnale, introduciamo una risoluzione τ nello scandire il tempo. Consideriamo la probabilità congiunta Pd di localizzare il segnale nelle cellette i1 , i2 ,...id rispettivamente ai tempi τ ,2τ ,....., dτ . Costruiamo l’informazione congiunta: I d = −∑ Pd log Pd 162 F. T. Arecchi, Caos e Complessità nel Vivente Ora, sappiamo che un moto regolare non “consuma” informazione, basta dare le condizioni iniziali e si può predire qualunque futuro. Invece in un moto caotico l’informazione si perde per la divergenza di traiettorie che partono da punti vicini. A che velocità si perde l’informazione? Dividiamo l’informazione congiunta per il tempo dτ su cui si è accumulata. Stiamo perciò consumando informazione a velocità: K = lim lim lim Id dτ Il triplo limite vuol dire che dobbiamo fare: i) d → ∞ ii) ε → 0 iii) τ → 0 . K si chiama entropia di Kolmogorov; essa rappresenta la velocità di perdita dell’informazione e si dimostra essere uguale alla somma degli esponenti di Lyapunov positivi. Nel caos 3-D ve ne uno solo e K coincide con quello. 7.8 I quattro livelli di descrizione di un sistema fisico. Figura 7.18: Come abbiamo già visto euristicamente in fig.0.1, abbiamo quattro casi; apparentemente, il quarto sembra inutile, perché quando c’è caos non c’è bisogno di noise per introdurre un’incertezza. In effetti, un generico sistema non lineare ha parecchi attrattori caotici, e il noise serve a saltare da un all’altro. PARTE III La fisica del vivente 8 La complessità biologica 8.1 Ordine e Complessità 8.1.1 L’ordine in fisica Nella fisica si considerano due tipi di ordine: statico, come regolarità geometrica (i cristalli), e dinamico, come predicibilità del futuro. Entrambi i punti di vista sono riconducibili al concetto di invarianza sotto una certa classe di operazioni. Questo concetto ha un’estrema potenza logica, poiché la ricerca di leggi fisiche si può identificare con la ricerca di regole di invarianza (le simmetrie). Esso permette di dedurre le simmetrie quando si sviluppa la dinamica a partire da una forma di interazione nota. Viceversa, lo studio delle simmetrie permette la caratterizzazione di una dinamica non nota. Dunque, l’ordine viene così a coincidere con l’invarianza di un sistema per trasformazioni nello spazio-tempo. Esempi familiari sono l’invarianza per traslazione, xàx+a e quella per rotazione, xàx exp(i ϕ ) con i unità immaginaria, che caratterizzano i cristalli. Un ordine più sottile è la similitudine o invarianza per trasformazione di scala xàcx. Essa è, se vista su scala logaritmica, riconducibile a una periodicità traslazionale: logxà logx+loga. Esempi di oggetti simili sono l’insieme di Cantor e la curva di Koch, discussi in par.7.5. Per questi oggetti occorre introdurre il concetto di dimensione frattale. Partiamo da un segmento di lunghezza l e dividiamolo in 3 tratti. Asportiamo la parte centrale e ripetiamo l’operazione nei tratti restanti. Continuando così, costruiremo l’insieme di Cantor. Se invece rimpiazziamo la parte centrale con gli altri due lati di un triangolo equilatero, e continuiamo così, otteniamo la curva di Koch. In ambo i casi abbiamo oggetti che presentano invarianza di scala. Infatti, un ingrandimento di un terzo della terza riga è identico all’intero della seconda riga, e così a ogni livello di partizione. Ricopriamo ciascuno di questi oggetti con N regoli di lunghezza r, dove r è tale da assicurare che non si perda risoluzione a ogni passo della partizione. All’aumentare del numero di partizioni, la dimensione frattale Do, definita come D 0 = ln N ln (1 r ) Capitolo 8: La complessità biologica 165 è un invariante rispetto a successive frammentazioni. Nel caso di oggetti invarianti per trasformazione di scala in 2, 3, 4,. . . dimensioni, il regolo sarà un quadrato, un cubo, e un ipercubo di lato r. 8.1 2 Ordine e disordine nella termodinamica Nella seconda metà del 1800, la termodinamica si è presentata come un livello di descrizione della realtà del tutto indifferente alla costituzione microscopica, facendo uso di variabili (temperatura, entropia) non desunte dalla dinamica delle particelle. La meccanica statistica ha tentato di correlare i due livelli di descrizione della realtà, costruendo i concetti di temperatura ed entropia come proprietà d’insieme della materia. Ma la seconda legge della termodinamica (aumento dell’entropia per un sistema isolato) non era deducibile dagli assiomi di Newton: occorreva un’ipotesi aggiuntiva di tipo qualitativo (lo Stosszahlansatz di L.Boltzmann). Cerchiamo di definire il disordine e l’ordine in rapporto all’informazione che riusciamo ad acquisire su un sistema. Supponiamo di avere una miscela di due tipi di molecole, A e B. Dividiamo il recipiente che le contiene in volumetti uguali. In quanti modi possiamo distribuirle nei volumetti in modo che le A siano tutte da una parte e le B dall’altra? Oppure, in quanti modi possiamo distribuirle senza restrizioni su dove devono andare? Nel secondo caso ci sono molti più modi di distribuirle. E intuitivo che il disordine è tanto maggiore quanto maggiore è il numero di configurazioni in cui si possono disporre le molecole A e B nei volumetti, in modo che globalmente si raggiunga lo stesso risultato (tecnicamente: il numero di microstati che portano allo stesso macrostato). Il logaritmo del numero n di queste configurazioni, o microstati, è l’entropia, o grado di disordine (a parte una costante moltiplicativa che si identificherà con la costante di Boltzmann e che per semplicità porremo uguale a l), S (n ) = ln n Ma questa, che è in definitiva l’incertezza, rappresenta anche quello che C.E.Shannon (1948) ha chiamato l’informazione I sul sistema. Se gli n microstati che realizzano la configurazione in esame sono tutti equiprobabili, la probabilità di ciascuno sarà p=l/n, per cui la relazione precedente può essere riscritta: S = I = ln (1 p ) = − ln p 166 F. T. Arecchi, Caos e Complessità nel Vivente Se ora le scelte non sono equiprobabili, ma a ogni disposizione i (microstato) va attribuita una probabilità pi, dovremo sostituire la precedente con una media pesata: S = I = − ln p = −∑i pi ln pi La seconda legge della termodinamica prevede che l’entropia cresca in media nel tempo. Pertanto l’equilibrio corrisponde alla situazione di massima entropia, o disordine, e le caratteristiche termodinamiche di un sistema si costruiscono calcolando il massimo dell’entropia con i vincoli imposti dalla conoscenza macroscopica che abbiamo sul sistema. Se si valutano le pi a partire dalla conoscenza microscopica del sistema, queste obbediscono a un’equazione di Liouville (deterministica) e l’entropia è indipendente dal tempo. Ciò equivale a dire che l’entropia iniziale è nulla, perché si parte al tempo iniziale con pi=1 se la cella i è occupata o pi= O se è vuota, e l’entropia rimane zero. Per fare evolvere il sistema verso la massima entropia si seguono due tipi di approccio. a) Grana grossa. Si media la distribuzione di probabilità su piccoli volumi dello spazio delle fasi, formando un’entropia a grana grossa Con questa media teniamo in conto la nostra ignoranza delle precise condizioni iniziali. In tale modo l’entropia cresce, così come cresce l’incertezza nella localizzazione delle particelle di una goccia d’inchiostro che si diffonde nell’acqua. Il limite concettuale di questi approcci è che l’aumento di entropia sembra dipendere dalle procedure di media. b) Accoppiamento con bagno termico. Assumiamo che è impossibile assegnare alle pi equazioni deterministiche del moto, a causa delle fluttuazioni introdotte dal resto del mondo sul sistema osservato. Questa trattazione è particolarmente adatta per sistemi aperti, dove non ha più senso la tendenza all’equilibrio. In tal caso caratterizziamo il sistema con la perdita di informazione nell’unità di tempo. Questo pertanto è l’indicatore più opportuno dell’evoluzione dell’ordine: lo definiremo più avanti, dopo aver mostrato come l’informazione si perde non solo per fluttuazioni dovute al disturbo di un bagno termico, ma anche per limiti intrinseci alla dinamica deterministica. Capitolo 8: La complessità biologica 167 8.1.3 Caos deterministico come limitazione dinamica a/l’ordine Nel 1896 H.Poincaré scopriva quella che oggi chiamiamo instabilità asintotica. Formuliamo la questione in modo semplice. Nello spazio delle fasi al tempo t=0 scegliamo condizioni iniziali prossime, rappresentate da due punti separati da una piccola distanza ε . Può accadere che la separazione fra le traiettorie che emergono dai due punti aumenti esponenzialmente, come ε ⋅ exp(λt ) , con λ > 0 . Ciò vuol dire che, se fissiamo una risoluzione δ del nostro apparato di misura, per qualunque ε esisterà un tempo t tale che ε exp λτ > δ Per t > τ vedremo due traiettorie distinte per la stessa condizione iniziale, che per noi è immersa dentro ε . Il teorema di unicità per la soluzione di un’equazione differenziale vale se partiamo da un punto ideale ( ε = 0 ), ma ciò non ha senso in fisica. Per es. se l’insieme delle condizioni iniziali è dato dai numeri reali fra 0 e l, di questi possiamo fissare con un numero finito di cifre solo i numeri razionali; mentre i numeri irrazionali, avendo un numero infinito di cifre decimali, sarebbero determinati solo con un tempo di acquisizione infinito. Questa estrema sensibilità alle condizioni iniziali in presenza di instabilità asintotiche rappresenta una rivoluzione concettuale in quanto limita l’ordine dinamico della fisica newtoniana (la predicibilità è limitata nel tempo). Questa critica alle convinzioni formatesi impropriamente all’interno della fisica è ottenuta nell’ambito di una teoria dinamica, considerando solo la genericità delle, direzioni instabili e l’impossibilità di una precisa caratterizzazione di un numero, senza alcun bisogno d’invocare un bagno termico o di ricorrere ad altre ipotesi extradinamiche. Eppure questa rivoluzione sfuggì ai contemporanei di Poincaré e non ne furono sviluppate le conseguenze. La fisica era presa da altri problemi (le regolarità degli spettri atomici, la radioattività), che spostavano l’interesse verso la microfisica, dove bastavano modelli kepleriani (si pensi all’atomo di E.Rutherford). A partire dal 1950, da una parte la disponibilità di potenti elaboratori elettronici, dall’altra la spinta di problemi pratici, come la stabilità delle orbite dei satelliti o l’affidabilità delle previsioni meteorologiche, riportò in auge questa linea di ricerca. Nel 1963 E.Lorenz, in un modello di instabilità idrodinamica a tre equazioni non lineari, scopriva la non periodicità del flusso che ne scaturisce. 168 F. T. Arecchi, Caos e Complessità nel Vivente Vediamo dunque delinearsi un terzo livello di descrizione del reale, quello del caos deterministico. Sembra l’unione di due termini contraddittori, perché il determinismo (primo livello) implica l’ordine, mentre di solito si ottiene il disordine (secondo livello) con l’aggiunta di fluttuazioni esterne; ma il termine è stato coniato proprio per denotare una mancanza di predicibilità intrinseca alla dinamica, senza bisogno di un deus ex machina. 8.1.4 Ordine e informazione C’è una differenza osservabile fra il caos di Boltzmann e quello di Poincaré? Sì, e fondamentale. Nel primo caso, la stocasticità delle fluttuazioni fa vagare il sistema su una regione dello spazio delle fasi che ha la dimensionalità N di tutto il sottospazio permesso dagli integrali primi del moto (per es. energia, ecc.). Le cose sono differenti per il caos deterministico. Riferiamoci, per semplicità, a sistemi dissipativi, per cui non si conserva il volume nello spazio delle fasi. Pertanto, quali che siano le condizioni iniziali, asintoticamente il sistema sarà confinato a una regione di dimensioni D minori di N. Consideriamo, per es. una dinamica in N=3, come nel caso di Lorenz. Gli attrattori associati a moti regolari, o ordinati, avranno D=O se sono punti fissi, D=l se cicli limite, o D=2 se tori corrispondenti a moti periodici con due frequenze incommensurabili. Invece nel caso di Lorenz, e quando i parametri delle equazioni sono aggiustati in modo da avere una direzione espandente, cioè una dipendenza sensibile dalle condizioni iniziali, l’attrattore sarà un frattale, cioè avrà dimensione D frazionaria: 2<D<3. L’attrattore frattale peculiare del caos deterministico è stato chiamato attrattore strano. Queste differenze legate alla topologia dell’attrattore hanno un equivalente più suggestivo legato al contenuto d’informazione sul futuro del sistema, che si può avere osservando il sistema stesso per un certo lasso di tempo. Sia la dimensione, sia l’informazione persa per unità di tempo sono invarianti del sistema, cioè caratteristiche intrinseche non legate a un cambiamento di rappresentazione; ma, mentre la dimensione è un invariante statico, l’informazione per unità di tempo è un invariante dinamico, detto entropia metrica, o entropia di Kolmogorov. Definiamo anzitutto il primo oggetto. Supponiamo. che il sistema abbia un attrattore A. Sia φ (ε ) una partizione finita φ1 , φ 2 , φ 3 , K, φ q del bacino di attrazione di A, fatta con cubetti di lato ε (il bacino di attrazione è il luogo di tutte le condizioni iniziali per le quali, per t → −∞ , i punti del sistema confluiscono in A). Misuriamo ora una lunga serie temporale X1, X2, . . . , Xm di Capitolo 8: La complessità biologica 169 posizioni del sistema e contiamo il numero Mi di volte per cui il segnale visita φi . Con la probabilità: Pi =Mi/M costruiremo un’informazione di Shannon I(e) = - ? Pi In Pi, con i che varia da l a q. In analogia con quanto detto per Do, definiamo ora la dimensione di informazione: D1 = − lim I (ε ) ln ε dove il limite va considerato per ε → 0 . Questa definizione ha un significato intuitivo immediato: abbiamo rimpiazzato ln(N) nella definizione di Do con ‹-ln(p)›. In Do ogni intervallo aveva uguale massa; qui dobbiamo pesare le varie regioni con la relativa probabilità di occupazione. Per introdurre ora un invariante dinamico, dopo aver suddiviso lo spazio delle fasi in scatole di lato ε , misuriamo lo stato del sistema a intervalli di tempo τ . Sia P(i1i2 ,...id ) = Pd la probabilità congiunta che X (t = τ ) sia nella scatola il, X (t = 2τ ) nella scatola i2, e così via. L’informazione dipendente dal tempo sarà costruita con questa probabilità congiunta: I d (t ) = −∑ Pd ln Pd . i1 Questa è l’informazione necessaria per localizzare il sistema su una particolare traiettoria i1, i2, i3,…, id con una data precisione (se si conosce a priori la probabilità Pd); pertanto, Id+1-Id è l’informazione in più, necessaria per predire in quale cella id* +1 sarà il sistema, sapendo che esso era stato prima in i1, i2, i3,…, id. Ciò vuol dire che Id+1-Id misura la nostra perdita di informazione fra il tempo d e il tempo d+l. La perdita di informazione globale nell’intervallo dτ sarà la somma di tutti gli incrementi I n +1 − I n (n ≤ d ) su tutti gli intervalli; pertanto da I1=0 (conoscenza della situazione iniziale) si avrà I1+I3-I2+I4-I3……=Id. Se ora 170 F. T. Arecchi, Caos e Complessità nel Vivente dividiamo l’incremento globale d’informazione Id necessario per seguire la traiettoria per il tempo trascorso, e passiamo al limite per tempi lunghi ( d → ∞ ) e risoluzione spazio-temporale massima (τ → 0, ε → 0 ) otteniamo la perdita d’informazione per unità di tempo, che è la citata entropia metrica: K = lim I d (τ ) / dτ . Il limite ε → 0 (che va preso dopo d → ∞ ) rende K indipendente dalla particolare partizione. K risponde alla domanda: se osserviamo il sistema per un tempo dτ , così lungo che l’informazione per unità di tempo diventi invariante, che, informazione abbiamo sul futuro? Orbene, la risposta è: (a) K = O per un sistema ordinato; infatti, in un sistema deterministico, una volta esauriti i transitori, non si ha un extra d’informazione per un extra di osservazione; (b) K → ∞ per un sistema disordinato; infatti, per quanto a lungo si osservi un moto browniano, non si sa mai dove il sistema andrà a un istante successivo; (c) K finito per un sistema caotico, e precisamente: K = ∑λ + (somma di tutti gli esponenti positivi, cioè corrispondenti a direzioni espandenti dello spazio delle fasi; nel caso di N=3 quale ad es. Lorenz, c’è un solo esponente positivo e perciò K = λ ). Si noti che le situazioni fisiche più comuni corrispondono a (c). 8.1.5 Ordine a partire dal caos Esistono due tipi di ordine: l’ordine della morte termica, quando, per Tà0, le fluttuazioni sono irrilevanti e prevalgono le interazioni fra particelle vicine, dando luogo a una struttura macroscopica ordinata che riflette le simmetrie elementari, e l’ordine fuori dall’equilibrio, che nasce in un sistema aperto quale risposta a messaggi che vengono dall’esterno attraverso il contorno. Cominciamo dal primo caso. Mentre per un sistema isolato l’equilibrio corrisponde al massimo dell’entropia S, per un sistema la cui temperatura T sia mantenuta costante da un bagno termico l’equilibrio corrisponde al minimo dell’energia libera F, dove F si ottiene sottraendo TS dall’energia interna U del sistema: F = U − TS = min . Capitolo 8: La complessità biologica 171 Ciò vuol dire che l’equilibrio è il risultato di una competizione fra energia ed entropia. La temperatura stabilisce il peso relativo dei due fattori. Per Tà0, il termine sottrattivo è irrilevante, F minimo implica U minimo e quindi si impongono strutture macroscopiche, che, riflettendo vincoli microscopici, hanno di necessità S=O; si hanno pertanto strutture ordinate, come i cristalli, per cui l’energia di legame fra atomi vicini prevale sulle fluttuazioni. Ad alte temperature, invece, è essenziale per minimizzare F il contributo sottrattivo TS, che implica un massimo di entropia; si ha pertanto il disordine molecolare (transizioni allo stato di liquido e di gas). In questo tipo di ordine il passaggio dal microscopico al macroscopico si ottiene per somma di blocchi sempre più estesi di atomi e, appena il singolo blocco contiene un numero sufficiente di atomi da poterne trascurare le fluttuazioni, ogni successiva estensione corrisponde a puri cambiamenti di scala, senza che si passi attraverso una dimensione critica o di soglia. L’invarianza di scala permette l’applicazione del gruppo di rinormalizzazione. La transizione all’ordine, in questo caso, è controllata solo dalla temperatura e dalla dimensionalità del sistema. Passiamo al secondo caso. Se consideriamo un sistema fuori dall’equilibrio termodinamico, qual è un laser, cioè un sistema aperto che riceve energia incoerente e la trasforma in energia ordinata (nel caso del laser l’ingresso è sotto forma di eccitazioni atomiche e l’uscita è radiazione elettro-magnetica) il punto cruciale è un meccanismo di retroazione o feedback. Senza la retroazione si avrebbe una normale lampada, in quanto i dipoli atomici che costituiscono le singole antenne emittenti sarebbero scorrelati fra di loro e il campo risultante sarebbe incoerente. Per effetto della retroazione i dipoli sono correlati in fase dal campo e ciò indipendentemente da simmetrie spaziali: gli atomi possono avere distanze mutue qualsiasi, come accade in un gas: in quanto è il campo che assegna localmente le fasi. Intervengono alcuni concetti nuovi rispetto al caso del cristallo. a) Per una data riflettività degli specchi laser (frazione di campo che, invece di uscire, retroagisce) occorre un numero critico di atomi eccitati affinché il campo retroagente sia sufficiente a mettere in passo i dipoli, cioè prevalga sugli atti individuali di emissione spontanea. Il ruolo di parametro di controllo, che nel sistema termodinamico è la temperatura, nel sistema fuori dall’equilibrio è il grado di eccitazione esterna (pompa in un laser, velocità d’immissione dei reagenti in un’instabilità chimica, gradiente termico in un’instabilità convettiva in fluido, ecc.). 172 F. T. Arecchi, Caos e Complessità nel Vivente b) Il parametro d’ordine non è più determinato da una media canonica, ma è fissato dalla geometria del contorno ed è pertanto scorrelato dalle proprietà microscopiche dei componenti elementari. Nelle equazioni di campo che regolano l’evoluzione di un mezzo continuo (laser o fluido) scomponiamo la dinamica in gradi di libertà o modi, e seguiamo di ciascun modo l’evoluzione temporale. Per capire questo concetto di modo partiamo da, una cavità vuota, senza guadagno e senza perdite. Il campo obbedisce all’equazione d’onda e si può sviluppare in somma di soluzioni elementari indipendenti (modi), la cui simmetria dipende dal contorno. Per es. per una cavità rettangolare i modi saranno onde piane. Se ora introduciamo guadagno e perdite, i modi non saranno più indipendenti l’uno dall’altro. All’aumentare dell’eccitazione, per un modo privilegiato le perdite saranno compensate dal guadagno fornito dal meccanismo di retroazione e quel modo diventerà instabile, cioè passerà da smorzato a esaltato. La sua velocità di crescita passerà da negativa a positiva, cioè per uno zero, e pertanto esso sarà particolarmente lento, per cui potrà asservire tutte le altre variabili, nel senso che queste ultime contribuiscono con i loro valori di equilibrio rispetto alla variabile lenta (eliminazione adiabatica delle variabili veloci). Illustriamo in dettaglio le analogie e le differenze fra l’ordine indotto abbassando la temperatura in un sistema in equilibrio (transizione di fase termodinamica) e l’ordine indotto in un sistema fuori dall’equilibrio quando un parametro esterno (o di controllo) supera un valore di soglia. In questo secondo caso ci si riferisce soprattutto al laser. Sistemi in equilibrio termodinamico Le tre caratteristiche principali del punto critico di una transizione di fase del secondo ordine sono rappresentate nella fig.8.1, per una transizione paraferromagnetica: ‹M› è la magnetizzazione media (parametro d’ordine), ∆M 2 è la varianza nelle fluttuazioni di M (che diverge al punto critico) e τ c è la vita media delle correlazioni nelle fluttuazioni ∆M (0)∆M (t ) del parametro d’ordine (anche questa diverge al punto critico, fornendo una larghezza spettrale nulla, cioè il reciproco 1 τ c va a zero: rallentamento critico). Le caratteristiche della fig.8.1 sono qualitativamente spiegate dal modello di Landau. Trascuriamo le variazioni spaziali e consideriamo un singolo dominio, caratterizzato da una variabile dinamica q. Capitolo 8: La complessità biologica 173 L’energia libera può essere rappresentata dallo sviluppo F = F0 (T ) + αq 2 + β q 4 Fo(T) è lentamente variabile in T, β > 0, e α = a(T − Tc ) La distribuzione di probabilità di q è: dove a > 0 . P(q) = N exp[− F (q) k B T ] dove N è il fattore di normalizzazione; la probabilità è massima per F minimo. La fig.8.2 mostra come F e P dipendano da q e T. Il luogo dei punti stazionari q(T) ha una branca termodinamica stabile q=O, che per T=Tc si biforca in due 174 F. T. Arecchi, Caos e Complessità nel Vivente branche simmetriche con q ≠ 0 . La scomparsa del termine quadratico per T=Tc dà una F(q) con fondo piatto, che permette fluttuazioni ampie e lente. Sistemi fuori dall’equilibrio La macrofisica (fisica dei fluidi, dei corpi elastici, dei campi elettromagnetici, ecc.) è descritta da equazioni differenziali. alle derivate parziali di un campo (di velocità, di deformazione, elettromagnetico, ecc.) rispetto al tempo e alle coordinate spaziali. Nel caso di un sistema delimitato, scegliendo un’opportuna base discreta (la più opportuna è quella definita dalle autofunzioni dell’equazione del campo libero, con le effettive condizioni al contorno) si può sviluppare il campo in modi e ridurre le equazioni di campo a equazioni ordinarie nelle ampiezze di ciascun modo. Nell’approssimazione lineare i modi saranno disaccoppiati e ciascuno avrà una dinamica descritta da un’equazione lineare con soluzioni del tipo exp(-at), dove ogni a = iω + γ include la pulsazione propria ω di ciascun modo e il suo smorzamento γ . L’introduzione delle non linearità induce accoppiamenti modo-modo che non permettono di risolvere separatamente ciascun modo. A questo punto, sarà impossibile trattare un gran numero di equazioni accoppiate. Tuttavia, le situazioni sperimentali suggeriscono che in un sistema portato fuori dall’equilibrio esista un modo che per primo diventa instabile, compensando le propria perdite con un guadagno fornito dall’eccitazione esterna. Ad esempio nel caso dell’instabilità convettiva di un fluido in una cella scaldata dal basso, caso già considerato in fig.4.3, il parametro d’ordine è la componente verticale Vz del primo modo di velocità, che ha un massimo al centro della cella e si annulla in alto e in basso (fig.8.3). Un altro modo (fig.4.3b) ha due rulli in verticale, e così via. In un laser (fig.8.4), la cavità a specchi ha una serie di risonanze equispaziate in frequenza di c/(2L), con L distanza fra gli specchi, c velocità della luce, e di Capitolo 8: La complessità biologica 175 queste può accadere che una sola sia accoppiata alla riga atomica che genera guadagno. In tal caso, solo per questa risonanza privilegiata le perdite possono essere compensate dal guadagno. Distinguiamo fra una dinamica veloce, regolata dall’equazione d’onda omogenea, che dà lo spettro delle risonanze, e una dinamica lenta, legata alla competizione fra i meccanismi di perdita e di guadagno analogamente a come, in radiotecnica, si descrive separatamente la propagazione della portante ad alta frequenza e la modulazione a bassa frequenza che trasporta l’informazione. La separazione fra le due scale di tempi è in genere molto netta in un laser. La dinamica lenta del laser a singolo modo è pertanto descritta da una sola equazione non lineare nel parametro q (ampiezza del campo), dq dt = f (q ) + ξ (t ) dove, in prima approssimazione, f (q ) = Aq − Bq 3 con A guadagno netto, B primo termine non lineare, e abbiamo indicato con ξ (t ) le forze stocastiche che riassumono le fluttuazioni dovute all’accoppiamento con il bagno termico. 176 F. T. Arecchi, Caos e Complessità nel Vivente Perché questa legge di forza: l’ampiezza q cresce linearmente con il guadagno netto. Questo è la differenza fra i processi di emissione stimolata che danno il nome (LASER = Light Amplification (by) Stimulated Emission (of) Radiation) e le perdite per fuga di parte della luce fuori dalla cavità; nei primi ogni fotone in cavità può “stimolare” l’emissione di un altro fotone da parte di un atomo che sia nello stato alto, come mostrato in fig.2.17, nel salto da n=3 a n=2, nella fuga si perdono parte dei fotoni verso l’esterno. A = guadagno di emissione stimolata − perdite Dunque: e pertanto: q& = Aq . Per intensità alte (cioè quadrati del campo q2 alti) l’atomo può riacquistare un fotone, tornare allo stato alto n=3 e da qui ricadere; globalmente ha ceduto un fotone ma ha impegnato nel tornar su un fotone che poteva essere adoperato per stimolare l’emissione da un altro atomo: ciò equivale a una riduzione di guadagno che scriviamo come -Bq2. In totale: f (q) = Aq − Bq 3 . Come nel moto browniano c’è una forza collettiva frenante più un noise legato ai vari urti molecolari, così nell’emissione stimolata c’è la forza media f(q) e in più una forza stocastica che tiene conto dei processi spontanei per cui un atomo può scendere da n=3 a n=2 e cedere un fotone anche spontaneamente, in assenza di uno stimolo, il fotone spontaneo però non è correlato agli altri ma agisce da noise, con fase a caso. Se diciamo 1 1 V (q ) = − ∫ f (q )dq = − Aq 2 + q 4 2 4 il potenziale della forza f(q) e consideriamo ξ (t ) come un processo stocastico gaussiano a media nulla e con ampiezza di correlazioni σ , risulta che la distribuzione stazionaria di probabilità di q è: P(q) = N exp[− V (q) σ ] Si noti che la P(q) ha la struttura formale della legge termodinamica. Inoltre, il potenziale V(q) somiglia all’energia libera di Landau, per cui si avranno curve analoghe a quelle della fig.8.2, con il ruolo di T rimpiazzato dal guadagno netto A e il ruolo di parametro d’ordine dall’ampiezza del campo q. Capitolo 8: La complessità biologica 177 H.Haken ha applicato il metodo qui descritto per il laser ad altre instabilità che portano a un solo parametro d’ordine (l’ampiezza del modo più lento), introducendo il termine sinergetica per descrivere la dinamica di una struttura ordinata corrispondente al modo lento che per primo diventa instabile. 8.1.6 Ordine globale e ordine locale: le funzioni di correlazione Abbiamo visto come le fluttuazioni termodinamiche o la dipendenza sensibile dalle condizioni iniziali pongano dei limiti all’ordine naturale della fisica newtoniana, e abbiamo descritto l’ordine in base a indicatori globali, legati in ogni caso all’incertezza sul sistema, cioè alla quantità di informazione necessaria L’entropia è un’opportuna media. Ma una media, come singolo indicatore, non può esaurire la ricchezza di un oggetto complesso. Se invece di domandarsi quanti sono i possibili microstati interroghiamo diversamente il sistema, l’entropia è incapace di darci una risposta. Per es. se prendiamo un centimetro cubico di vetro (N~ 10 22 molecole) e lo configuriamo come una sferetta o come un bicchiere, la differenza di forma è ovvia anche a un bimbo, ma l’entropia non è in grado di discriminare fra le due configurazioni, perché la differenza relativa sarebbe dell’ordine di N -1/2, cioè di qualche parte su 1011 , e pertanto ben oltre la risoluzione di qualunque apparato di misura. Si noti che la difficoltà nasce se le pi si riferiscono alle coordinate microscopiche; se invece esse sono medie su opportuni volumi macroscopici. Ma come individuare questo spazio opportuno? Qualunque sistema cognitivo, dal nostro cervello a quello di un animale e ai possibili schemi di intelligenza artificiale di cui possiamo dotare sistemi automatici di riconoscimento di immagini, è sensibile all’ordine locale. Ciò appare evidente dai meccanismi di scansione dell’occhio umano quando prende conoscenza di un oggetto Questo ordine locale è rappresentato dalle funzioni di correlazione. Prendiamo un segnale y(x) apparentemente disordinato e a media spaziale nulla, quale rappresentato nella fig.8.5. Definiamo funzione di correlazione a due punti la seguente media di prodotti di y(x), misurati a coppie di distanza d fissa: G(d) = (1/N) (y(x1)y(xl +d)+ y(x2)y(x2 +d)+…) = <y(x)y(x+d)>. Per semplicità, abbiamo ammesso, sia in questa definizione, sia nella fig.8.4, che valga un’invarianza traslazionale in modo che G(d) non dipenda da x, cioè consideriamo un caso statisticamente omogeneo. Più in generale, G(d,x) 178 F. T. Arecchi, Caos e Complessità nel Vivente dipenderà anche dalla posizione x attorno a cui si esegue la misurazione. E chiaro il significato di G(d): se le coppie di punti sono separate meno della dimensione media delle irregolarità, allora G(d) sarà molto grande. Per d=0 la correlazione avrà il valore massimo: G(0) = <y(x)y(x)>=<y2>, e a partire da questo si ridurrà, in quanto in genere i prodotti potranno essere di segni differenti, finché, per d molto grande, ci sarà una compensazione fra termini positivi e negativi nella somma e si avrà G (d → ∞ ) = 0 . La fig.8.5.1 rappresenta tre correlazioni, legate, rispettivamente, a una superficie liscia, a una superficie periodica, e a una situazione disordinata, per es. quella disegnata in alto. Ovviamente, le stesse considerazioni si possono sviluppare per un segnale y(t) funzione del tempo. In tal caso la funzione G(d) misurerà la correlazione temporale o «memoria» del segnale y(t). Diciamo che G(d) misura l’ordine locale, in quanto indica di quanto occorre spostarsi, a partire da un certo punto, per perdere memoria dall’ordine. Abbiamo visto così il differente ruolo di due parametri medi: l’entropia e la funzione di correlazione. Per quanto riguarda l’ordine locale, la correlazione a due punti introdotta è solo la più semplice fra una serie di possibili medie, o funzioni di correlazione, che saranno ovvie generalizzazioni (su tre punti, su Capitolo 8: La complessità biologica 179 quattro, e così via). Sia nella psicologia della cognizione, sia nella modellizzazione teorica di un sistema esteso, s’attribuisce importanza decrescente a funzioni di correlazione di ordine superiore. Ciò è vero quando un dettaglio, un’irregolarità, influenza solo i punti immediatamente vicini, e il suo effetto non si propaga a distanza (ordine a corto raggio). In tal modo, s’arriva a una descrizione sintetica, esprimibile in termini di poche medie (dette variabili collettive, o parametri d’ordine, del sistema). Per es. la descrizione usuale di un fluido vicino all’equilibrio è fatta con le prime tre medie rispetto alla distribuzione statistica delle posizioni e velocità delle molecole del fluido. 8.1.7 La complessità L’approccio su delineato può aver successo per sistemi semplici, che godono di invarianza traslazionale (cioè che sono omogenei), ma è di scarsa utilità per un organismo biologico, strutturato in organi e tessuti con morfologia e funzioni diverse. In questo caso sembra più appropriato un approccio genetico, che descriva la successione di eventi in base a cui l’organismo acquista una struttura vieppiù complessa. Un conveniente parametro descrittivo è la complessità, algoritmica C, cioè la lunghezza della minima istruzione da fornire a un elaboratore ideale per simulare il comportamento del sistema (G.Chaitin). Per un sistema dinamico semplice, la complessità è associabile all’insieme delle coppie di valori del parametro di controllo e del parametro d’ordine, caratterizzanti le successive biforcazioni che hanno portato il sistema alla sua configurazione finale. La fig.8.2 illustra, per es. la prima di queste cascate di biforcazioni. Per un sistema più complicato (vetro di spin, rete di neuroni) il diagramma delle successive biforcazioni somiglia all’albero filogenetico della teoria evolutiva. Per un organismo vivente, la complessità deve riuscire a descrivere la chimica-fisica delle molecole, e successivamente la sintesi degli organi, e infine l’albero evolutivo che connette l’organismo a quelli più semplici. Si tratta ovviamente di livelli gerarchici differenti di descrizione. Un riduzionismo ingenuo aveva tentato di ridurre il più complesso al più semplice, ma tale procedura «costruttivista» ha rappresentato un programma privo di giustificazioni logiche e di successi reali, ormai abbandonato (P.W.Anderson: More is different, Science 177, pp.393-399, 1972). Da quanto detto, risulta che la complessità di un Batterio è estremamente maggiore di quella di una supernova. A titolo qualitativo, si dà nella fig.8.6 un diagramma della complessità C in funzione dell’entropia metrica K. Come si vede, un cristallo perfetto (K=0) e un gas perfetto all’equilibrio termico (K → ∞ ) sono entrambi 180 F. T. Arecchi, Caos e Complessità nel Vivente poco complessi: basta dare la descrizione del singolo componente elementare e poi iterarla (nel primo caso esattamente, nell’altro come media statistica), invece, il massimo di complessità spetta a sistemi con velocità intermedia (K) di perdita di informazione, quali i viventi. Figura 8.6: Diagramma della complessità C in funzione dell’entropia metrica K. In effetti la definizione di C data da Chaitin darebbe una curva crescente con un massimo per K grandi; la C rappresentata in figura emerge dalle considerazioni che svilupperemo in par.8.4, quindi va vista come un anticipo di quanto diremo lì. 8.2 Modelli di vita I tentativi di costruire forme elementari di vita a partire da molecole semplici non hanno finora prodotto risultati significativi: la vita sulla terra risale a circa 4 miliardi di anni, spesi per lo più in forme primitive, i procarioti. Solo negli ultimi 700 milioni di anni si sono sviluppati gli organismi eucarioti (vedi par.4.1). In mancanza di informazione dettagliata sulle fasi di un così lungo processo, dobbiamo limitarci a congetture, che però oggi possiamo verificare con simulazioni al computer in cui contraiamo i tempi di evoluzione su scale accessibili alle nostre misure. Capitolo 8: La complessità biologica 181 I requisiti minimi perché un sistema abbia la vita sembrano essere: i) self-replication = capacità di autoriprodursi, è come il guadagno netto nel laser; ii) mutation = variazioni a caso, come il noise nel moto browniano; iii) survival of the fittest = competizione per cui prevale chi ha maggiori capacità riproduttive. Costruiamo un sistema artificiale che obbedisca a questi tre requisiti. Consideriamo N stringhe di l istruzioni (ciascuna può prendere p valori; p=2 per stringhe binarie, p=4 per DNA). Il numero Ng di genotipi (cioè combinazioni di istruzioni) diversi è N g ≤ N . Sia ni il numero di stringhe del genotipo i. Allora: Ng N = ∑ ni 1 Con riferimento a i), chiamiamo ε i = dni dt la velocità di riproduzione del genotipo i. Definiamo fitness la media: Ng ε = ∑εi 1 ni ≡ ∑ ρiε i N Dove ρ i è la frazione di genotipo i sul totale N. Con riferimento a ii), introduciamo la velocità di mutazione: R( mutazioni ) sito ⋅ sec Rl è allora la probabilità che la stringa lunga l abbia 1 mutazione/sec. Avremo l’eq. cinetica per il genotipo i: dni N = (ε i−ε − Rl )ni + Rl ≡ γ i ni + C dt Ng Dove abbiamo chiamato C un termine di sorgente pari al trasferimento da altri genotipi j ≠ i , e γ i il fattore di crescita netto (cioè, in gergo laser, la differenza fra guadagno e perdite). 182 F. T. Arecchi, Caos e Complessità nel Vivente Fin qui abbiamo considerato una semplice equazione lineare; se il trasferimento da altri genotipi è trascurabile, C ≈ 0 , avremo la soluzione: ni (t ) = ni (0)e γ i t Come nel caso del laser (vedi fig.8.4) avremo una competizione fra genotipi. Che cosa determina la variabilità genetica ε i ? Nella stringa ci sono “cold spots” cioè istruzioni che, se mutate, portano alla morte. La distribuzione delle cold spots determina la fitness. L’eq. su scritta non dà il quadro completo, in quanto le cold spots sono come la non linearità che abbiamo visto essere essenziali nel laser per dare la transizione di fase. All’equilibrio (d/dt=0) l’eq. cinetica dà: ni = C γi La biologia degli organismi digitali permette di affrontare il problema dell’influenza di mutazione e selezione su periodi lunghi (migliaia di generazioni), in quanto la macro-evoluzione darwiniana predice risultati su questi tempi. Ora, cambiamenti macroevoluzioni in organismi biochimici possono essere studiati solo attraverso la storia degli animali e piante domestici delle, o attraverso i dati fossili e le somiglianze nelle sequenze molecolari fra specie. Si tratta di osservazioni senza possibilità di variare i parametri di controllo. In alternativa si può studiare l’evoluzione in batteri e virus, con tempi corti di generazione; occorrono però anni per avere migliaia di generazioni. Invece con organismi digitali bastano giorni, e si può studiare il ruolo di mutanti multipli all’interno della stessa popolazione (interferenza clonale). Per approfondimenti si veda: C.Adami, Introduction to Artificial Life, Springer Verlag, 1998. 8.3 La complessità biologica. Uno dei problemi centrali della biologia evolutiva è se la complessità aumenta nell’evoluzione. Ci sono tre opinioni: che aumenti, che i dati disponibili siano insufficienti a decidere, che “non vi sia alcuna linea di progresso che caratterizzi la storia della vita” (S.J.Gould, Full House: the spread of excellence from Plato to Darwin, Harmony Books, New York, 1996). Non c’è neanche accordo su come definire la complessità. Finora (par.0.2 e par.8.2) ci siamo messi nell’ottica del fisico, che si interessa ai sistemi dinamici, Capitolo 8: La complessità biologica 183 e pertanto cerca la complessità dei processi; siccome questi sono computazioni, le misure di complessità in dinamica sono complessità computazionale. Una misura che salga e poi scenda in funzione del grado di caos, come in fig.8.6, è stata introdotta da Crutchfield e Young (Inferring statistical complexity, Phys. Rev. Lett, 63, 105, 1989; vedi la discussione su FT.Arecchi e A.Farini, Lexicon of Complexity, Studio Editoriale Fiorentino1996); tuttavia essa caratterizza l’informazione necessaria a predire lo stato futuro del sistema (o il simbolo successivo in una sequenza simbolica) ma non si interroga sul loro significato in un mondo complesso: era la critica fatta al par.0.2. La complessità biologica deve rispondere su forma, o su funzione, o sulla sequenza che li genera. Altre complessità di sequenze come la effective measure complexity di P.Grassberger (Int. J. Theor. Phys. 25, 907, 1986) giostrano fra correlazioni a corto e lungo raggio in modo da dare la predizione ottimale del simbolo successivo della sequenza. Ma noi sappiamo che la sequenza che codifica una proteina non ha alcuna relazione con la funzione, e pertanto le correlazioni fra simboli della sequenza non hanno rilevanza biologica. Invece, dobbiamo cercare correlazioni di questi simboli con aspetti dell’ambiente entro cui la sequenza è funzionale; cioè la complessità si riferisce all’informazione immagazzinata nella sequenza su un particolare ambiente. Come si misura L’entropia di una popolazione X di sequenze, ciascuna con probabilità pi, è: H ( X ) = −∑ pi log p i i (somma sui differenti genotipi i nell’insieme X). Se non c’è selezione, tutte le sequenze sono equiprobabili: N 1 1 Hmax( X ) = −∑ log = logN N 1 N In una popolazione infinita, il numero dei genotipi è dato dalla grandezza dell’alfabeto dei monomeri (D=2 per bits, D=4 per DNA) elevato alla lunghezza L della sequenza, per cui l’entropia incondizionata, preso il log in base D, è L: N = D L ⇒⇒ H max = L Se c’è selezione, le pi sono disuniformi. 184 F. T. Arecchi, Caos e Complessità nel Vivente Chiamando E (environment) l’ambiente esterno, I(X:E) l’informazione che X ha di E, e H(X|E) l’entropia condizionata di X dato E (da calcolare con le probabilità condizionate: n (E) pi = i N si ha: I ( X : E ) = H max − H ( X E ) = L + ∑ pi log pi L’errore nelle pi, definite come abbondanze, è trascurabile solo per popolazioni infinte. Rimpiazziamo sommando le entropie per sito, definite con le probabilità di trovare il nucleotide i in posizione k. H (k ) = − ∑ p (k ) log p (k ) i i = A,T ,G ,C i L’entropia è bene approssimata dalla somma sui siti: L H ( X ) ≈ ∑ H (k ) k =1 Segue che la complessità biologica, ben differente dalla complessità algoritmica, è: I ( X : E ) ≈ C1 ( X ) = L − ∑ H (k ) k Si noti che C1 esclude le correlazioni fra siti, che invece si manifestano sotto forma di epistasi, cioè di interazioni fra mutazioni diverse(si possono escludere o rinforzare a vicenda). La selezione naturale aumenta la complessità Si dice che l’evoluzione darwiniana aumenta la fitness di una popolazione, ma questo è un dato difficile da misurare; sembra più proprio dire che l’evoluzione aumenta l’informazione che una popolazione ha sulla sua nicchia, cioè C1. La formula precedente dice che l’informazione si rivela, in un insieme di sequenze adattate, come quei simboli che sono conservati (fissati) sotto mutazioni. Supponiamo che una mutazione vantaggiosa abbia luogo: se il vantaggio che essa induce è sufficiente a fissare la mutazione, C1 ne è accresciuta; invece una mutazione deleteria non viene conservata. Dunque la selezione naturale opera come un filtro che fa fluire l’informazione dentro il genoma, ma impedisce che ne scappi. Capitolo 8: La complessità biologica 185 Siccome l’evoluzione è lenta, verifichiamo queste idee su casi di vita artificiale. Gli organismi digitali sono programmi di calcolo che si riproducono, mutano e competono per le risorse. Essi sono definiti da sequenze di istruzioni che ne rappresentano il menoma. Non sono simulati ma vivono nel computer: devono copiare il menoma per sopravvivere nella memoria e competono per spazio e tempo di calcolatore con gli altri programmi. il premio, che consiste in extra-tempo di esecuzione va ai fenotipi, dunque la selezione opera su questi. Lo spazio genetico (cioè lo spazio dei programmi) è alto-dimensionale e perciò un gran numero di genotipi si mappano su un particolare fenotipo, rendendo la ricerca di un ottimo globale impraticabile: è come vagare in un paesaggio dell’energia con moltissimi minimi e cadere di solito in un minimo relativo senza raggiungere il minimo assoluto. Per sopravvivere nel loro mondo, gli organismi digitali devono riprodursi velocemente e usare bene le risorse disponibili, cioè il tempo di CPU (Central Processing Unit). Senza tempo di CPU non sopravvivono, perché non possono fare copie di se stessi. Vediamo come evolve la fitness (fig.8.7a, da C.Adami, What is complexity? BioEssays, 24, 1084, 2002): i salti corrispondono a mutazioni che hanno (per usare il gergo delle transizioni di fase) spostato il sistema in un’altra regione di parametri di controllo, causando pertanto biforcazioni, che su questa scala di tempi si presentano come salti; si noti in particolare quello al tempo 70.000, a cui una mutazione ha creato un genotipo molto superiore agli altri. All’aumento di fitness è associato un aumento di informazione e pertanto di complessità. La fig.8.7b presenta una complessità crescente nel tempo, a parte la caduta iniziale e nei periodi immediatamente successivi ad ogni transizione (salto in fig.8.7a); la prima è dovuta al fatto che le istruzioni introdotte come condizione iniziale non hanno ancora avuto tempo di sentire le mutazioni; circa il picco e successiva caduta che accompagna ogni transizione, ciò è dovutola fatto che ogni mutazione si trascina delle istruzioni neutrali (prive di benefici) che subito dopo sono randomizzate. In conclusione le mutazioni permettono di esplorare lo spazio delle fitness, con un metodo analogo al cosiddetto metodo Montecarlo in meccanica statistica delle situazioni computazionalmente complesse. Questa sequenza di mutazioni e successivi aggiustamenti dà all’evoluzione un carattere di opportunismo, senza schemi tracciati a priori, che F.Jacob ha chiamato”tinkering”, o “bricolage” (non conosco una parola italiana altrettanto espressiva). 186 F. T. Arecchi, Caos e Complessità nel Vivente Figura 8.7: a) Velocità di replicazione (fitness)del più abbondante genotipo su una popolazione di 3.600 organismi digitali. Il tempo è misurato in “updates”, dove un update è il tempo di esecuzione di 30 istruzioni per ciascuno dei 3.600 programmi nella popolazione. b) Complessità in funzione del tempo per una popolazione che si adatta a un ambiente; a parte la caduta iniziale legata alle condizioni iniziali, la complessità cresce nel tempo, salvi gli intorni delle transizioni (si veda l’esempio tratteggiato). 8.4 Motori molecolari, metabolismo L’ineluttabilità del secondo principio della termodinamica fu illustrata agli inizi del 1900 da Smoluchowsky con riferimento al dispositivo illustrato in fig.8.8. Se T1>T2 si ha un legittimo motore termico. Ma se le temperature sono uguali, nasce la domanda: si può ritenere che essendo bloccati i moti in una direzione, saranno efficaci solo quelli nell’altra, per cui – pur essendo gli urti molecolari nelle due direzioni equiprobabili – solo un tipo sarà efficace e si ha lavoro netto, violando il secondo principio? No, perché la molla dell’arpionismo ha fluttuazioni dell’ordine di kBT, per cui occasionalmente si può sganciare anche quando dovrebbe chiudere, e per T1=T2 queste fluttuazioni compensano esattamente gli urti sulle pale del mulino. Figura 8.8: Il sistema ruota dentata-arpionismo (ratchet and pawl). Le parti in movimento sono immaginate così piccole da sentire i bombardamenti casuali delle molecole d’aria. La Capitolo 8: La complessità biologica 187 ruota dentata è connessa da un albero a un mulino; essa ruota in una sola direzione, perché ne blocca il moto nella direzione opposta. Le pale del mulino sono bombardate in modo casuale e trascinano la ruota dentata. Una puleggia sull’albero permette lavoro di sollevamento su un peso. Dunque non si può violare il secondo principio della termodinamica, cioè non si può fare lavoro in ambiente isotermo. Se però abbiamo una fonte di energia che accende e spegne un potenziale spazialmente asimmetrico come in fig.8.9 si ha un moto di molecole verso destra, giustificato dalle considerazioni sul moto browniano e sulla diffusione che abbiamo sviluppato precedentemente. Su questo principio è basato il trasporto “attivo”, cioè il passaggio di ioni Na+, K+, Ca2+ attraverso membrane cellulari contro un gradiente sfavorevole, cioè alla rovescia di come avviene la diffusione descritta a par.6.2 (lavoro chimico). Su questo principio è anche impostato il motore molecolare che nel muscolo fa scorrere la miosina sulla actina, causando così la contrazione muscolare (lavoro fisico). In ambo i casi l’energia per l’alternarsi dei potenziali è fornita dalla reazione esoenergetica: ATP ⇒ ADP + P che libera circa 0,3 eV. Figura 8.9: Meccanismo del motore browniano I potenziali ON (a dente di sega asimmetrico) e OFF (piatto) si alternano nel tempo. Nella fase ON le molecole sono addensate su un minimo. Nella fase OFF diffondono. Nella successiva fase ON i pacchetti si concentrano sui minimi, ma per l’asimmetria si ha una deriva netta verso destra. Tutte le transazioni energetiche nei viventi sono rifornite da ATP, come mostrato in fig.8.10. La fig.8.11 mostra come sulla membrana dei mitocondri si 188 F. T. Arecchi, Caos e Complessità nel Vivente ripristina l’ATP a partire da ADP, con un motore molecolare rotatorio attivato da un flusso di protoni, cioè ioni H+. Figura 8.10: Come i combustibili metabolici (carboidrati, grassi) forniscono l’energia per attivare ATP da ADP sulla membrana dei mitocondri. L’ATP sviluppa poi in dettaglio il fabbisogno per il lavoro fisico e chimico: 70 kg/giorno vuol dire circa 1g/sec; cioè il 10% di tutto l’ATP è sempre impegnato. Figura 8.11: Motore molecolare rotatorio dell’enzima che catalizza la formazione o l’idrolisi di ATP. L’enzima, detto ATP-asi, è intercalato nella membrana dei mitocondri ed è costituito da un gruppo di molecole F0 che fa da rotore sul principio del motore lineare di fig.6.9, ruotando in un senso (sintesi) o nell’altro (idrolisi) a seconda che ci sia un flusso di protoni (ioni H+) verso l’interno o verso l’esterno del mitocondrio. Il complesso di gruppi molecolari detto F1 ospita i siti dove avvengono le reazioni. Capitolo 8: La complessità biologica 189 Abbiamo visto che un motore molecolare può risalire una collina di potenziale: in effetti, in fig.8.9 continuiamo ad avere un moto netto verso destra anche se lo stato OFF, invece di essere orizzontale, è leggermente in salita verso destra. È questa la base del trasporto attivo, che ritroveremo nel cap.9 come responsabile dei potenziali di azione nei neuroni. Su questo stesso principio dell’arpionismo browniano sono basati i giochi di Parrondo (fig.8.12). Il gioco A corrisponde a lanciare una moneta truccata, in cui le probabilità delle due facce non sono uguali. Il gioco B è più complesso: se il capitale X(t) accumulato fino al tempo t è divisibile per 3 allora si sceglie la variante di destra, che (per ε piccoli) dà un’alta probabilità di perdita; se non lo è, si sceglie la variante di sinistra, dove prevale la probabilità di vincita. La simulazione di fig.8.13 mostra che, giocando separatamente A o B per un piccolo ε , si perde sempre. Invece alternando i due giochi, o con le regole indicate o a caso, si vince. I due giochi emulano i due potenziali dell’arpionismo browniano. Che accadrebbe se introducessimo più di due giochi? Osservando la fig.8.13, vediamo che aumentando a o b in [a,b], il guadagno si riduce; un rapido scambio produce più guadagno. Perciò introducendo più giochi [a, b, c,…] rallenta la frequenza di scambio e riduce il guadagno. Questo spiega anche: i) perché la riproduzione sessuale a due partners è più adatta di quella asessuata; ii) perché non c’è convenienza ad andare oltre due partners. Figura 8.12: Costruzione dei giochi di Parrondo. I giochi si formano con tre monete truccate, scambiandone i lanci a seconda del capitale presente. 190 F. T. Arecchi, Caos e Complessità nel Vivente Figura 8.13: L’effetto di giocare A e B individualmente e di scambiare invece fra A e B con la regola di Parrondo. La simulazione è stata fatta con ε =0,005 giocando A per a volte e B per b volte, e così via fino a 100 giochi. Media su 50 mila prove. I valori di a e b sono mostrati nelle coppie [a,b]. Mentre il capitale medio <X(t)> decresce per solo A o solo B, esso cresce per qualunque coppia [a,b] anche per alternanze a caso (random). 8.5 Dall’individuo al collettivo: le forme regolari. Per passare da un individuo a un collettivo, elaboriamo alcune strategie. i) ordine tutti gli oggetti si comportano allo stesso modo( x n = x1 ) o con uno scarto prevedibile ( x 2 = x1 + a,...ecc ). ii) ordine dinamico lo scarto fra un oggetto e il successivo dipende dal tempo a (t ) ed è la soluzione di un’eq. differenziale ordinaria x& = f (x) . iii) pattern =forma se gli oggetti x n sono in posizioni spaziali distinte n, possono interagire mutuamente: allora non c’è solo la dinamica locale x& n = f ( x n ) ma anche termini di accoppiamento con siti vicini. Ad es. la derivata seconda dell’eq. di diffusione si può approssimare come differenze fra posizioni contigue e una dinamica locale più accoppiamenti con vicini dà: x& n = f ( x n ) + D( x n +1 + x n −1 − 2 x n ) dove il suffisso è un indice di sito. Capitolo 8: La complessità biologica 191 Passando a uno spazio continuo r, chiamiamo campo x(r,t) una funzione del sito e del tempo. La versione continua della precedente eq. è: ∂x ∂2 = f ( x) + D 2 x ∂t ∂r e si chiama eq. di reazione-diffusione, perché combina una dinamica locale (che può essere una reazione chimica) con una diffusione spaziale; il campo x(r, t) (ad es. una concentrazione chimica) è generato localmente da f(x) ma può provenire anche da siti vicini. L’eq. è la base della morfogenesi. L’ampiezza E di un’onda (acustica, elettromagnetica, ecc) obbedisce a: 2 ∂2E 2 ∂ E = c .. ∂t 2 ∂r 2 dove c è la velocità dell’onda. Perché E sia un’onda, si vede con una ~ trasformata di Fourier spaziale E (r , t ) ⇒ E (k , t ) per cui: ∂2E ~ ⇒ −k 2 E . 2 ∂r ~ Ne segue che l’eq. per E è ordinaria ~ d 2E ~ 2~ = −c 2 k 2 E ≡ −ω 0 E 2 dt La cui risolvente, come sappiamo, è ~ E = A(k ) cos ω 0 t + B(k ) sin ω 0 t cioè oscillazioni sinusoidali nel tempo. Se viceversa trasformiamo nel tempo ( E (r , t ) ⇒ E (r , ω ) , si ottiene operando la trasformata sulla derivata temporale ( d 2E ω2 ( 2 ( = − E ≡ − k 0 E dr2 c2 che dà soluzioni cicliche nello spazio. Combinando i due risultati, abbiamo un’onda nello spazio-tempo. iv) campo medio L’approssimazione di campo medio consiste nel sostituire l’effetto di tutti i vicini a un sito con un campo efficace che è la media su tutto il sistema. Allora tutti gli individui si comportano allo stresso modo e basta descrivere 192 F. T. Arecchi, Caos e Complessità nel Vivente la dinamica di un singolo. Abbiamo applicato questa approssimazione nel modello di Landau, nel laser e nell’eq. cinetica del modello di vita. Si torna al caso ii). 8.6 Le reti Abbiamo visto due modi di costruire un collettivo a partire da individui: - considerando oggetti che si comportano tutti allo stesso modo (singola equazione ordinaria), - oppure ammettendo un modo regolare di accoppiare siti vicini (per es. diffusione o onde). Non abbiamo ancora una strategia per descrivere accoppiamenti fra un numero variabile di siti: tale è la situazione di Internet, della rete di distribuzione elettrica, delle connessioni di una compagnia aerea, ma tale è anche lo scambio fra sostanze chimiche in una cellula o fra neuroni nel cervello. rete cellula internet reti sociali WWW compagnia aerea cervello Nodi molecole computers esseri umani pagine Web aeroporti neuroni connessioni reazioni chimiche telefonia Relazioni sociali hyperlinks tratte connessioni sinaptiche Parametri delle reti 1) L = distanza media fra due nodi. Cioè numero di siti da visitare nella traiettoria più corta (introdotto dal sociologo S.Milgram nel 1967, per caratterizzare quanti passaggi separano due individui nell’ambito di un certo compito, per es. la catena di persona che mi porta a qualcuno che conosce direttamente il presidente degli USA; L=6, numero alquanto piccolo fece nascere la dizione di SW=Small World). Se colleghiamo a caso dei siti, abbiamo i random graphs o ER (da P.Erdos e A. Renyi che li introdussero attorno al 1950): essi sono SW, perché: L ≈ log N << N Dove N è il numero di nodi. Invece per grafi regolari è: L≈N Capitolo 8: La complessità biologica 193 2) Connettività k e C (clustering = frazione dei tripletti transitivi). Sia i collegato ad altri 4 nodi (diremo connettività ki=4 ) se tutti fanno parte della stessa combriccola, cioè sono mutuamente collegati, allora il numero totale di collegamenti è: k (k − 1) ni = i i 2 Se ni < ni definiamo clustering la frazione C= ni 2 ni = ni k i (k i − 1) In un grafo random, C coincide con la probabilità p di collegamento, e in genere sarà: C ER = p << 1 . C >> C ER In reti reali sarà: Figura 8.14: Schema dei nodi e connessioni in WWW e Internet. In WWW i nodi sono documenti web, connessi da hyperlinks direzionali (URL). In Internet i nodi sono i routers e i computers, connessi fisicamente da fili e cavi. Le figure da 8.14 a 8.18 danno esempi concreti, con la relativa nomenclatura nelle didascalie. 194 F. T. Arecchi, Caos e Complessità nel Vivente Si tratta di materia di studio recente e non ancora sistemata. Si insiste molto sulla topologia, ma si assumono le connessioni al 100%; mi spiego: nel caso delle connessioni fra neuroni, eventuali modifiche di topologia hanno luogo ai tempi lunghi necessari per distruggere ponti sinaptici o costruirne altri (settimane o mesi). Invece sulla scala dei secondi o minuti, passando da un’esperienza a un’altra, si ha un diverso riconnettersi, legato al fatto che una connessione fisicamente esistente non è detto sia attivata in transitorio. Figura 8.15: Schema di un grafo bipartito, come quello dei film e degli attori apparsi in essi. Abbiamo quattro film 1-4 e undici attori A-K con connessioni fra ogni attore e i film a cui ha partecipato. In basso: il grafo per gli undici attori. Figura 8.16: La procedura di ri-connessione random del modello di Watts-Strogatz (1998), che interpola fra un reticolo regolare ad anello e una rete random senza alterare il numero di nodi o connessioni. Partiamo da 20 nodi, ciascuno connesso ai suoi 4 vicini prossimi. Per p=0 si ha l’anello originale, per p crescente la rete aumenta il disordine finché a p=1 tutte le connessioni sono random. Capitolo 8: La complessità biologica 195 La fig.8.17 mostra il vantaggio delle reti SW (tipo small world) intermedie fra regolari e random: si ha una piccola separazione, come nelle random, ma si mantiene un grande clustering, come nelle regolari. Figura 8.17: Il regime intermedio fra p=0 (regolari) e p=1 (random) caratteristico degli SW gode di ambo i vantaggi (basso L e alto C ) che nei due estremi appaiono separati. Figura 8.18: Collocazione di reti complesse nello spazio delle tre caratteristiche rilevanti: Randomness–Modularità–Eterogeneità. La prima misura la casualità nel processo di costruzione della rete. La seconda misura quanto l’architettura sia fatta di moduli che si ripetono. La terza misura la diversità nella distribuzione delle connessioni. La regione delle reti altamente eterogenee, random e strutturate gerarchicamente in moduli è le più occupata. A questa regione appartengono le reti prive di scala o scale-free (SF). 196 F. T. Arecchi, Caos e Complessità nel Vivente Distribuzione dei gradi Detto grado di un nodo la sua connettività k, non tutti i nodi hanno lo stesso k. La densità di probabilità P(k) può corrispondere a una scala definita k , come nei grafi random che hanno: P(k ) ≈ e −k k Oppure può essere a legge di potenza, cioè senza una scala definita (SF) come per WWW e per reti metaboliche: P ( k ) ≈ k −γ (con γ ≅ 3 ) Dal punto di vista della robustezza, una rete SF è molto robusta, perché la probabilità più alta si riferisce a nodi a basso k che pertanto sono i più numerosi e dove è più plausibile che si localizzi un guasto accidentale; invece un guasto mirato (attacco terroristico) si localizza su uno dei pochi nodi ad alto k (tipo hub nella rete aeroportuale) e perciò provoca un danno consistente. Il pregio della robustezza spiega perché le reti metaboliche ed ecologiche (vedi fig.8.18) siano SF. 8.7 Bibliografia • C.Adami, Introduction to Artificial Life, Springer Verlag, 1998. • C.Adami, What is complexity? BioEssays, 24, 1084, (2002). • P.W.Anderson: More is different, Science 177, pp.393-399, (1972). • FT.Arecchi e I.Arecchi I simboli e la realtà, Jaca Book, Milano, 1990. • FT.Arecchi e A.Farini “Lexicon of Complexity” (Società Editrice Fiorentina, Firenze, 1997). • R.D.Astumian Thermodynamics and Kinetics of a Brownian Motor, Science 276, 917, (1997). • R.D.Astumian e P.Hanggi, Brownian Motors, Physics Today, Novembre 2002. • A.L.Barabasi, Linked; The New Science of Networks, Perseus, Cambridge, MA, 2002. • S.J.Gould, Full House: the spread of excellence from Plato to Darwin, Harmony Books, New York, 1996). 9 Processi percettivi: sincronizzazione di reti e aspetti quantistici 9.1 Fisica delle percezioni 9.1.1 Fisica chimica dei primi stadi della visione Una sorgente (il sole, una lampada) invia i suoi raggi ad un oggetto, su cui vogliamo acquisire informazione. I raggi modificati (trasmessi o riflessi) dall’oggetto sono raccolti dall’occhio e elaborati dal cervello, che di conseguenza prende delle decisioni. Fra le decisioni, alcune possono riguardare lo stesso sistema di misura, cioè possono implicare un riaggiustamento per migliorare i dettagli (feedback), talvolta anche mediante l’inserzione di lenti nel cammino sorgente-oggetto (ad esempio il proiettore di diapositive), oppure nel cammino oggetto-occhio (occhiali, microscopi, telescopi). Ricordiamo dal cap.2 che tutti i colori visibili corrispondono a fotoni tra 2 eV (rosso) e 4 eV (violetto). La cosa importante è che uno, e un solo fotone per volta può “dialogare” con un atomo o una molecola: questo è quel che chiamiamo “interazione radiazione-materia” e che ha luogo nella sorgente (emissione di fotoni), nell’oggetto (sparpagliamento di fotoni) e nell’occhio (assorbimento di fotoni). Vediamo cosa succede nell’occhio. La cornea e il cristallino trasmettono un’immagine del mondo esterno sullo strato di cellule fotoricettrici disposte sulla superficie posteriore della retina. Ciascuna cellula assorbe la luce da un punto dell’immagine e genera un segnale elettrico corrispondente alla quantità di luce che viene assorbita. Negli occhi dei vertebrati ci sono due tipi di cellule ricettrici, bastoncelli e coni. Entrambi contengono una membrana fotosensibile con molecole di pigmento che assorbe la luce. Nella retina umana ci sono tre tipi di coni sensibili a diversi tipi di colore. I bastoncelli (in inglese rods) hanno un pigmento rossastro detto rodopsina. La membrana fotosensibile dei bastoncelli consiste di una pila di dischi che somigliano a delle monete sovrapposte. Una sostanza che diffonde trasporta l’informazione dai dischi, dove la luce è assorbita, alla membrana superficiale, dove si genera il segnale elettrico. Il trasportatore si chiama in gergo cGMP (guanosin-monofosfato ciclico). Vediamo come si genera il segnale elettrico. Fuori dalla cellula la concentrazione di Na+ è alta e quella di K+ è bassa, mentre all’interno è il contrario. Le differenze di concentrazione sono mantenute da una pompa 198 F. T. Arecchi, Caos e Complessità nel Vivente metabolica. Al buio il flusso di cariche causa una differenza di potenziale di -40 mV. Quando un bastoncello assorbe un fotone si blocca il flusso di sodio. Ciò riduce la corrente di buio e aumenta la polarizzazione negativa a -70 mV; l’impulso di -30 mV ha una durata di meno di un millisecondo e, visto su una scala temporale lunga appare come un picco. Si noti che nei fotoricettori dei vertebrati le cellule si iperpolarizzano, mentre le membrane delle normali cellule nervose si depolarizzano. È questo un esempio cospicuo di trasporto attivo, introdotto a par.6.5. Come fa l’assorbimento di luce a bloccare gli ioni sodio? Sembra che il cGMP faccia da “portiere” all’imbocco dei canali ionici. L’apertura di un singolo poro richiede la presenza cooperativa di tre molecole di cGMP: siamo in presenza di un interruttore molecolare che rivela cambiamenti piccolissimi nella concentrazione di cGMP. La catena di eventi molecolari che ne blocca l’azione è stata studiata da G.Wald. La rodopsina ha un pigmento con una componente che assorbe la luce, il cis-retinale. Quando il retinale nella rodopsina assorbe un fotone (fig.9.1) esso cambia configurazione da cis a trans; la molecola diventa enzimaticamente attiva, e questa attività permette di spostare il cGMP dall’ingresso dei canali ionici. Un solo fotone sposta centinaia di cGMP e ciò blocca l’entrata di un milione di ioni sodio. In corrispondenza a pochi fotoni al secondo abbiamo una corrente che supera il milione di ioni sodio al secondo: siamo in presenza di un fotomoltiplicatore chimico. Figura 9.1: Schema del processo di assorbimento di un fotone. La molecola, nello stato fondamentale A (cis) salta allo stato eccitato per assorbimento di un fotone della banda Vis. (zona del visibile accessibile a quella molecola) e da qui decade sullo stato B (trans). L’energia disponibile nel ritorno da B ad A è utilizzata per il controllo dei canali ionici. Se il fotone é IR (infrarosso) la sua energia non è sufficiente per raggiungere lo stato eccitato. Se il fotone fosse UV (ultravioletto), sarebbe in grado di portare la molecola al livello C, per cui la coordinata orizzontale (separazione tra le parti della molecola) può diventare estremamente grande (dissociazione). Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 199 Cerchiamo di descrivere l’interazione tra le cellule fotoricettrici e i fotoni rifacendoci alle considerazioni del par.1.4. Normalmente la molecola è a riposo in A; quando arriva un fotone visibile, (in figura abbiamo indicato la banda di fotoni visibili fra 1.4 e 1.8 eV) acquista l’energia pari alla freccia, cioè salta nello stato di energia superiore (quello rappresentato da una linea inclinata) da cui può poi passare nella buca B, non direttamente accessibile da A. Da B, attraverso una catena di processi ritorna in A e la differenza di energia è restituita sotto forma di segnale elettrico che viaggia nel nervo ottico. Abbiamo cioè visto un fotone! Se però il fotone è IR, è troppo piccolo per permettere il passaggio A-B e non registriamo niente. Se invece illuminiamo la retina con un fotone UV, questo è così grosso che la molecola si può dissociare. Per fortuna le parti esterne dell’occhio assorbono i fotoni UV e impediscono che la retina sia distrutta. 9.1.2 Gli stadi del processo visivo Il processo visivo inizia dunque con la trasformazione dei fotoni in segnali elettrici che viaggiano fino a sensibilizzare la corteccia visiva. Questi vengono trasmessi attraverso un complesso sistema di giunzioni nervose, in cui segnali provenienti da diversi fotoricettori sono sommati e confrontati. Ciò permette di ottenere informazioni sulla forma, il movimento e il colore del mondo circostante. Cerchiamo di vedere in maggior dettaglio come ciò avvenga. La retina è composta da 125 milioni di fotoricettori. Le loro fibre nervose, o assoni, si suddividono in un certo numero di rami che portano a un secondo stadio di cellule nervose. Queste a loro volta sono connesse con un terzo stadio di cellule chiamate cellule gangliari. Gli assoni di queste cellule gangliari si riuniscono a formare il nervo ottico. Da ciascun occhio esce circa un milione di fibre del nervo ottico. Alcune fibre restano nello stesso lato del cervello dell’occhio da cui escono, mentre altre vanno al lato opposto. Tutte queste fibre terminano su due gruppi di cellule, i corpi genicolati laterali, che rappresentano come delle stazioni intermedie tra la partenza (retina) e l’arrivo (corteccia visiva primaria) fig.9.2. Da qui, dopo essere passata da uno strato all’altro attraverso diversi insiemi di cellule connesse sinapticamente, l’informazione è inviata a una serie di aree visive superiori, situate nelle vicinanze; ognuna di queste distribuisce l’informazione su molte altre aree. 200 F. T. Arecchi, Caos e Complessità nel Vivente Figura 9.2: Percorso del segnale visivo dalla retina alle aree corticali più alte. A ciascuno stadio una cellula riceve un segnale di ingresso da molte cellule, e a sua volta invia il proprio segnale a molte cellule. Sono mostrati pochi neuroni, mentre il processo reale coinvolge milioni di neuroni. Senza scendere in eccessivi dettagli possiamo dire che l’assone di ogni cellula è come una linea di trasmissione su cui l’informazione si propaga sotto forma di impulsi elettrici. Al “bottone” di connessione fra una cellula e l’altra (sinapsi) l’informazione è veicolata da neurotrasmettitori. Ogni cellula si comporta come un circuito a soglia, che si “accende” quando la somma algebrica dei segnali di ingresso (indicando con + i segnali eccitatori e con – i segnali inibitori) supera un certo valore. Per comprendere meglio il passaggio di tali segnali, immaginiamo di avere un animale di fronte a uno schermo e di posizionare un microelettrodo vicino o all’interno di una fibra del nervo ottico. Variando i segnali luminosi sullo schermo e osservando la risposta del microelettrodo possiamo capire quale segnale debba arrivare sulla retina per influenzare la fibra selezionata. Ciò che si osserva è che l’area della retina che influenza una fibra del nervo ottico ha tipicamente dimensioni pari a circa un millimetro di diametro. Questa regione è chiamata “campo ricettivo” della cellula. Il campo ricettivo di una singola cellula gangliare ha, sulla retina, una dimensione di circa 1 mm di diametro, in modo da sottendere un arco di 3,5 gradi, che corrisponde ad un oggetto di circa 1 cm di diametro alla distanza di 2 metri. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 201 Figura 9.3: Risposte di cellule del corpo genicolato aventi il campo ricettivo di tipo centroperiferia. Nel diagramma temporale ciascuna linea verticale rappresenta un singolo impulso registrato nella cellula. In assenza di stimoli luminosi o con luce che copre l’intero campo ricettivo, la cellula scarica casualmente. Con una piccola macchia luminosa al centro, la cellula scarica rapidamente. Invece un anello di luce sulla periferia inibisce la cellula. Il grafico a destra mostra la risposta di una cellula, di tipo centro-on, in funzione della dimensione della macchia. La risposta massima si ottiene quando la macchia luminosa (1 grado) copre solo la zona centrale on. Quando la macchia invade la zona inibitoria, il numero di impulsi diminuisce. Se confiniamo la luce in modo che raggiunga solo una zona centrale molto piccola del campo ricettivo, possiamo forzare le cellule gangliari a produrre fino a 50 impulsi durante il primo decimo di secondo della stimolazione (fig.9.3, 4° riga). In seguito la scarica si stabilizza con un ritmo di 100 impulsi al secondo. Se invece illuminiamo l’intero campo ricettivo la cellula risponderà con molto meno impulsi (2°riga). Infatti la cellula fa un confronto tra la luce che colpisce la piccola zona centrale del campo ricettivo e quella che colpisce il bordo esterno. L’illuminazione della zona centrale può ad esempio eccitare la cellula, mentre quella del bordo può inibirla. Queste cellule gangliari vengono dette avere una zona centrale “on” e una periferia “off”. Esistono anche cellule gangliari con una zona centrale inibitoria e una periferia eccitatoria. Le prime forniscono una risposta massima in caso di stimolo luminoso su sfondo scuro, mentre le seconde reagiscono a macchie scure su uno sfondo luminoso. Anche le cellule del corpo genicolato laterale hanno un comportamento che può essere descritto in maniera simile. Considerando le cellule della corteccia visiva primaria, incontriamo diversi stadi nell’elaborazione dell’informazione. 202 F. T. Arecchi, Caos e Complessità nel Vivente Le cellule del primo stadio hanno un comportamento “centro-periferia” simile alle cellule genicolate. Anche nel secondo stadio vi sono cellule con una zona inibitoria e una eccitatoria, ma le geometrie di questi campi ricettivi sono diverse da quelle prima considerate. Tali campi sono realizzati per vedere una linea luminosa su sfondo scuro, una linea scura su sfondo luminoso, o un confine tra zona chiara e scura. Quello che abbiamo presentato è solo un esempio. Per ulteriori processi elementari di rivelazione, si rimanda al libro di D.H.Hubel, che insieme con T.Wiesel ha avuto un ruolo pionieristico nell’esplorazione di questi processi. 9.1.3 Cellule magno e parvo Abbiamo finora considerato cellule che forniscono informazioni relative al contrasto o alle differenze di luminosità e che quindi servono per la percezione delle forme. In realtà chiunque si trovasse a dover descrivere il fenomeno della visione non parlerebbe solo di forme, ma anche di colore, movimento, profondità. È da notare che effettivamente il cervello divide il compito visivo in maniera simile. Il corpo genicolato laterale può essere visto come diviso in due parti: per la diversa dimensione delle loro cellule, queste due parti vengono denominate “magno” e “parvo”. Questi due tipi di cellule ricevono il segnale di ingresso da due differenti tipi di cellule nella retina. La parte “magno” riceve il segnale da grandi cellule retiniche, mentre la parte “parvo” da cellule retiniche piccole. Anche negli ultimi stadi della corteccia le due parti mantengono la loro separazione e sembrano avere funzioni differenti. Mentre le cellule “magno” ricevono il segnale di ingresso in parallelo da tutti e tre i tipi di coni e non riconoscono quindi i colori, le cellule “parvo” sono estremamente sensibili al colore. Il loro centro infatti riceve un segnale da uno dei coni responsabili della visione del colore, mentre il bordo è attivato da un altro cono. Le cellule “magno” in compenso sono assai più sensibili ai cambiamenti di intensità luminosa. 9.1.4 Le cellule Blob I due rami del cammino visivo, legati alle cellule “parvo” e “magno”, mantengono dunque la loro separazione nella corteccia. Alla fine degli anni ‘70 si cominciò a sospettare che, almeno a livello corticale, esistesse un terzo ramo del percorso visivo. Infatti, usando tecniche di colorazione, si identificarono negli strati più esterni della corteccia disomogeneità, con aree periodiche di Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 203 colore più scuro, a forma di nuvolette di fumo a sezione trasversale, larghe un quarto di millimetro e distanziate di mezzo millimetro. Hubel chiamò queste disomogeneità “blob”. Le cellule blob sono cellule sensibili al colore con un centro e una periferia, ma funzionano in maniera assai più complessa rispetto alle cellule del genicolato. La zona centrale può ricevere il segnale di ingresso da due dei coni, ma in maniera opposta. Ad esempio, illuminare i coni rossi permette di eccitare la zona centrale, mentre illuminare i coni verdi la inibisce. Stimolando il centro della cellula, essa può eccitarsi o inibirsi a seconda della luce che riceve, sia essa rossa o verde. In luce bianca la cellula non risponde in alcun modo, visto che riceve contemporaneamente due segnali opposti, dato che la luce bianca contiene sia la parte verde che quella rossa dello spettro. 9.2 Feature binding e codice temporale 9.2.1 Il Feature Binding (integrazione neuronale) L’integrazione neuronale consiste nell’instaurarsi di un legame fra neuroni anche distanti i cui campi ricettivi hanno estratto dettagli diversi della stessa figura. Tale legame (feature binding) rappresenta uno stato collettivo caratterizzato da tutti quei neuroni, anche distanti, i cui treni di impulsi si sincronizzino. Studi psicofisici hanno mostrato che l’analisi di scene visuali implica almeno due fasi. Nella prima, le strutture elementari degli oggetti, il colore, il movimento e l’orientazione dei contorni, sono rivelate in maniera locale e parallela. Successivamente, questi componenti sono connessi in unità organizzate per fornire la base di una rappresentazione coerente degli oggetti. Come già mostrato dagli studi degli psicologi della Gestalt, questo processo segue certi criteri che includono per esempio la prossimità o la somiglianza delle strutture (Köhler). Ovviamente il problema del legame, come descritto nel campo della psicofisica, ha il suo corrispettivo ad un livello neurobiologico. Un meccanismo per l’integrazione è necessario per molte ragioni. Per prima cosa, i neuroni nei centri visivi hanno campi ricettivi ristretti che, nei primi stadi dell’elaborazione, sono piccoli rispetto alle dimensioni tipiche degli oggetti. In secondo luogo, il meccanismo deve agire su distanze considerevoli per permettere il legame tra differenti aree visive. È oramai comunemente accettato che differenti classi di strutture di oggetti siano elaborate in distinte aree corticali servendosi di “mappe di struttura” (Felleman e Van Essen). Nella scimmia sono state 204 F. T. Arecchi, Caos e Complessità nel Vivente individuate più di trenta aree visive, e nel gatto venti, che differiscono considerevolmente nella proprietà di risposta dei loro neuroni. Quindi, l’attività neuronale di diverse aree deve essere integrata per stabilire una rappresentazione degli oggetti complessi. Inoltre, un meccanismo di legame è necessario, dal momento che sono spesso presenti nel campo visivo molti oggetti che attivano neuroni in un grande numero di aree corticali. Allora si deve poter selezionare la struttura corrispondente a un determinato oggetto, separando le risposte relative ad esso da quelle dei neuroni attivati da altri oggetti per evitare un’illusoria identità di strutture. È stato suggerito che il problema del legame potesse essere risolto da un meccanismo di integrazione temporale (Von der Malsburg) consistente nella connessione in insiemi coerenti di neuroni corticali grazie alle sincronizzazione delle loro scariche. La sincronizzazione tra scariche neuronali potrebbe fornire un elegante modo di etichettare le risposte come funzionalmente correlate e di selezionarle per ulteriori meccanismi associati dal momento che la sincronizzazione può essere facilmente rivelata con la coincidenza di neuroni in altre aree del cervello (Singer e Gray 1995). L’assenza di sincronizzazione tra differenti insiemi potrebbe essere utilizzata per isolare lo sfondo e ottenere una segmentazione delle scene visive (fig.0.5). Questo meccanismo di legame temporale evita i tranelli di precedenti modelli. Era stato suggerito (Barlow) che oggetti complessi potessero essere rappresentati dall’attività di un numero molto piccolo di neuroni o addirittura da uno solo. Un grave difetto di questa teoria del neurone singolo o “neurone della nonna” è che ogni nuovo oggetto richiederebbe l’“arruolamento” di nuove cellule dedicate nella corteccia visiva. Quindi il numero di neuroni richiesto per un’adeguata rappresentazione di un ambiente visivo realistico crescerebbe oltre ogni plausibile stima fisiologica. Il legame temporale evita questa limitazione dal momento che gli stessi neuroni possono essere ricombinati in nuove strutture rappresentazionali semplicemente cambiando la loro relazione temporale. L’assunto principale del modello “feature binding” è che la sincronizzazione stabilisca legami che non sarebbero possibili se le uniche dimensioni di codifica fossero la frequenza degli impulsi e i livelli di attivazione. Infine, l’influsso top-down, dovuto a memorie già presenti che stabiliscono aspettazioni e che riaggiustano le soglie di scarica dei vari neuroni in modo da sincronizzarli (tema che riprenderemo parlando di ART), gioca un ruolo importante per la segmentazione di una scena e l’isolamento dello sfondo, il che Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 205 non accade per modelli più classici della segmentazione visuale come quello proposto da Marr. 9.2.2 Il feature binding negli altri sistemi funzionali Fenomeni simili sono riscontrabili in altri sistemi funzionali. La sincronizzazione, ad esempio, è nota come importante nell’apparato olfattivo, dove questi fenomeni sono collegati all’integrazione dell’informazione di odori (Freeman). Nella corteccia uditiva, oscillazioni sincronizzate sono state descritte da molti gruppi di ricerca. Negli uomini questi fenomeni sono stati osservati grazie a tecniche di EEG e MEG (elettro e magneto encefalogramma) (Pantev et al.). Vi sono evidenze sperimentali che suggeriscono che la sincronizzazione possa giocare un ruolo importante per l’integrazione neurale sensorio-motoria. Nelle scimmie è stata registrata la sincronizzazione tra le aree corticali sensoria e motoria. Risultati simili sono stati ottenuti in un recente studio sui gatti svegli che erano stati allenati per svolgere un compito di coordinazione visuomotoria. In questi animali i potenziali di campo locale sono stati registrati con elettrodi impiantati in diverse aree della corteccia visiva, parietale e motoria. Il risultato di questi studi mostra che la sincronizzazione delle risposte neuronali non accade solo all’interno del sistema visivo, ma anche tra aree visive e parietali e tra corteccia parietale e motoria. Inoltre, gli esperimenti dimostrano che la coerenza temporale tra le aree registrate cambia drammaticamente a seconda delle situazioni in cui si trova l’animale. Tutti questi fattori suggeriscono che la sincronizzazione possa essere di grande importanza per la coordinazione visuomotoria e possa servire per mettere in rapporto gli aspetti sensoriali e motori del comportamento. La specificità di tali interazioni potrebbe permettere, per esempio, la canalizzazione selettiva di informazioni sensorie a differenti programmi motori che vengono eseguiti contemporaneamente. 9.2.3 Feature binding e sincronizzazione: dagli animali all’uomo Mentre negli animali di laboratorio si inseriscono microelettrodi nella scatola cranica, in grado di isolare l’attività elettrica del singolo assone e avere gli impulsi come in fig.0.5, nel caso di soggetti umani si deve ricorrere a sonde meno traumatiche. Incollando molti elettrodi sullo scalpo (niente di irreversibile: basta lavarsi dopo!) si può registrare l’attività elettrica sotto forma di EEG (Elettro-Encefalo-Grammi). La risoluzione temporale è buona (al millisec), ma spazialmente si raccolgono i potenziali provenienti da regioni 206 F. T. Arecchi, Caos e Complessità nel Vivente vicine e non necessariamente correlate, sicché il segnale EEG è molto “sporco” e sembra affetto da rumore. Tecnica alternativa di visualizzazione dell’attività cerebrale: la f-MRI (Functional Magnetic Resonance Imaging), che è sensibile al flusso sanguigno e all’ossigenazione micro-vascolare; il contrasto magnetico è dovuto al ferro nell’emoglobina. La f-MRI ha una scarsa risoluzione sia spaziale sia temporale; va bene per localizzare collettivamente aree cerebrali impegnate nello stesso compito. Lo stesso dicasi per la PET (Positron Emission Tomography), che misura la concentrazione nei tessuti di radio-isotopi immessi nel sangue. Entrambi i metodi si basano sul maggior afflusso di sangue in aree impegnate in un compito. In fig.9.4 e 9.5 si riportano i risultati di un’indagine EEG in transitorio in soggetti umani; a partire dal tempo t=0 si mostra un’immagine significativa (un profilo femminile) ed una non significativa e si registra l’attività EEG da tutti gli elettrodi, selezionando in particolare la cosiddetta banda γ attorno a 40 Hz (separazione media di 25 msec fra le spikes). Nella prima figura (fig.9.4) si nota che l’EEG si attiva attorno ai 200 ms e poi 800 ms; la differenza fra i due casi sembra solo quantitativa e non qualitativa. Per capire di più, si esplorano le correlazioni di fase fra i segnali provenienti dai vari elettrodi (fig.9.5) e si vede che: i) Nel caso significativo, a 200 ms c’è una forte correlazione fra la zona occipitale corrispondente all’area visiva e la zona della PFC (corteccia prefrontale) che è molto sviluppata negli umani rispetto ai primati; nel caso non-significativo, manca questa correlazione di fase. ii) a 800 ms c’è correlazione fra PFC e aree motorie e linguistiche in ambo i casi. Interpretazione (si veda il rozzo schizzo di sezione cerebrale in cima a fig.9.4): la PFC è il centro decisionale, che raccoglie l’informazione sensoria, lo elabora nei 600 ms che intercorrono fra l’arrivo a PFC e il suo collegamento con aree motorie, e poi spedisce i comandi per azioni. Queste sono: catturare una preda o cibo, sfuggire a un predatore (e fin qui vale per tutti gli animali) o parlare di quanto visto (e questo sembra specifico degli umani). Dunque, pare che una sessione percettiva è considerata compiuta dopo 200 ms. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 207 Figura 9.4: Risposta transitoria di un soggetto umano esposto a un’immagine significativa (in alto: profilo facciale di donna) e non significativa (in basso: immagine priva di elementi semantici) applicate al tempo t=0. Dopo 200 ms l’EEG dà segnale sulla banda γ (centrata sui 40 Hz). Dopo tace fino a 800 ms, quando ritorna. A parte differenze quantitative, non sembra che ci siano differenze qualitative fra i due casi. Ma la fig.9.5, seguente, (vedi didascalia) giustifica i fatti riassunti nello schema riportato in alto: a 200 ms la corteccia visiva posta nell’occipite si collega con la PFC (Pre Frontal Cortex = corteccia pre-frontale) che è un centro decisionale particolarmente sviluppato negli uomini rispetto ai primati; dopo altri 600 ms, spesi in elaborazione, la PFC si collega con le aree motorie e linguistiche. 208 F. T. Arecchi, Caos e Complessità nel Vivente Figura 9.5: L’EEG è catturato da diecine di elettrodi incollati allo scalpo. Nella figura si mostra il cranio del soggetto (fronte verso il basso, come risulta dagli occhiali). I cerchietti indicano gli elettrodi. A sinistra caso asemantico (no perception) a destra immagine significativa. In ambo i casi la banda γ si accende a 200 e 800 ms. Ma analizzando in dettaglio i segnali dei vari elettrodi, a 200 ms c’è a destra una correlazione di fase fra corteccia visiva e PFC; questa correlazione è assente a sinistra; interpretazione: non c’è trasferimento di informazione significativa alla PFC e l’accensione della banda γ è incoerente. Invece a 800 ms in ambo i casi scatta una correlazione, interpretazione: la PFC attiva l’area linguistica per dire quel che vede. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 209 9.3 ART (Teoria della Risonanza Adattiva) 9.3.1 Codifica delle informazioni L’apparente singolarità e coerenza di un’esperienza dipende da come il cervello esamina gli eventi ambientali. Una tale elaborazione si concentra sul contesto. Se si guarda a un’immagine complessa, come la fotografia di un volto noto, si è in grado di riconoscerla all’istante, mentre è impossibile individuarla guardandola pezzo per pezzo. Una tale elaborazione dipendente dal contesto emerge a causa del fatto che il cervello opera sui dati sensoriali in parallelo piuttosto che in sequenza. Normalmente i segnali visivi provenienti da una certa scena raggiungono i nostri occhi contemporaneamente, così che un’elaborazione parallela comincia nella retina. Per elaborare l’insieme come un intero, esso deve essere ricodificato. Una tale operazione di ricodifica è detta “working memory”, e registra le tracce di memoria a breve termine. Per identificare eventi familiari, il cervello confronta le tracce a breve termine con le categorie che ha immagazzinato. A queste categorie si accede usando le tracce della memoria a lungo termine, che rappresenta le esperienze precedenti che sono state acquisite grazie ad un processo di apprendimento. 9.3.2 Il dilemma stabilità-plasticità In qualche modo noi siamo in grado di apprendere rapidamente nuovi fatti, senza essere costretti a dimenticarne altri. Come fa il cervello a tenere memoria in maniera stabile degli avvenimenti precedenti, mantenendo allo stesso modo la plasticità necessaria per imparare nuove cose? È il dilemma stabilità-plasticità. Vi sono molti interessanti esempi relativi al sistema visivo e auditivo che mostrano come il cervello potrebbe risolvere tale dilemma. Ciascun esempio può essere spiegato grazie ad un approccio di tipo computazionale detto ART (Teoria della Risonanza Adattiva). Nonostante l’estrema varietà di compiti che il cervello deve compiere, i circuiti neurali che governano molti processi sembrano basarsi su uno stesso insieme di principi computazionali. In parte, la connessione risiede in una caratteristica fondamentale delle funzioni del cervello umano: le nostre percezioni vengono confrontate con precedenti percezioni. Un aspetto assai interessante emerge da un’immagine chiamata figura di Ehrenstein, che consiste in linee nere tracciate in maniera radiale su un foglio di 210 F. T. Arecchi, Caos e Complessità nel Vivente carta. La mente costruisce un cerchio immaginario all’interno delle linee radiali, il che rende la figura simile al disegno che un bambino potrebbe fare del sole, un disco luminoso circolare bianco con le linee nere a rappresentare i raggi. Infatti, il disco immaginario appare più luminoso rispetto al resto dello sfondo. Una tale percezione è una proprietà emergente e collettiva di tutte le linee che si genera solo quando esse sono disposte in modo adatto (fig.9.6). Perché vediamo un disco luminoso che non esiste? Figura 9.6: A sinistra la figura di Ehrenstein. Si percepisce un cerchio illusorio, formato dalle punte interne delle linee, che racchiude un’area apparentemente più luminosa. Una tale percezione dipende dal pattern complessivo, non comparendo in caso di una disposizione diversa (a destra). Un livello più elevato dell’elaborazione visiva risiede nelle categorie di riconoscimento, che controllano l’aspettativa di quello che potremmo vedere, come una faccia o una lettera. Un aspetto fondamentale del riconoscimento degli oggetti dipende da come noi acquisiamo categorie che includono differenti esempi dello stesso oggetto, come la stessa lettera stampata in differenti dimensioni o forme. 9.3.3 Memorie a breve e a lungo termine L’ART include due principali tipi di processi di memoria: quella a breve e quella a lungo termine. La memoria a breve termine raccoglie gli stimoli, mentre quella a lungo termine cataloga le informazioni acquisite. Nell’ART l’informazione può passare dalla memoria a breve termine a quella a lungo termine durante l’apprendimento, e fare il percorso inverso durante il processo di richiamo. Le informazioni vengono codificate nella memoria a breve termine grazie a percorsi di attivazione attraverso una rete di neuroni. La memoria a lungo termine invece codifica grazie a pesi stabiliti adattivamente all’interno dei cammini che uniscono i neuroni nelle varie aree. Questi pesi moltiplicano il segnale durante il suo cammino prima che esso giunga al neurone di arrivo. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 211 Una rete ART opera in accordo a regole specifiche (vedi fig.0.7). Così si ha un’accensione di tipo top-down quando, in assenza di ogni segnale di ingresso bottom-up, vengono sensibilizzate cellule che normalmente risponderebbero a una certa classe di stimoli, e altre vengono inibite. Viceversa, se una cellula riceve un segnale bottom-up sufficientemente grande, in assenza di qualunque segnale di ingresso top-down, la cellula genera lo stesso un segnale di uscita, che viene detto attivazione automatica. Durante l’accoppiamento la cellula riceve contemporaneamente segnali di ingresso top-down e bottom-up. Un processo top-down amplifica selettivamente alcuni aspetti di uno stimolo e ne sopprime altri, aiutando ad accentrare l’attenzione su informazioni che corrispondono alle nostre attese. Questo processo di messa a fuoco ci aiuta a filtrare alcune parti del segnale sensorio, che rischierebbe altrimenti di essere incomprensibile, evitando in questo modo di destabilizzare le categorie memorizzate precedentemente. L’aspettazione di tipo top-down potrebbe risolvere il dilemma stabilità-plasticità, creando un meccanismo di messa a fuoco e evitando che segnali spuri possano erodere le categorie già memorizzate. 9.3.4 Il meccanismo di feedback e la “novità” D’altro canto, se un’aspettazione top-down è in grado di influenzare uno stimolo bottom-up, nulla impedisce che il segnale bottom-up così modificato possa riattivare le aspettazioni top-down, innescando così un ciclo di feedback. Quando questo ciclo raggiunge l’equilibrio, i segnali bloccano le attivazioni in uno stato risonante. Per spiegare più chiaramente questa risonanza, richiamiamo (fig.0.5) che gruppi di neuroni devono sincronizzare le loro scariche per dare l’idea del gatto. Ma i campi ricettivi corrispondenti ai vari elementi del gruppo possono avere più o meno luminosità, contrasto, colore, e pertanto dare luogo localmente a sequenze di impulsi più o meno frequenti. Per raggiungere il “feature binding”, bisogna che dall’alto (memorie pregresse) arrivi un’ipotesi interpretativa che ritocca le soglie di scarica delle cellule, aggiustandone le frequenze di impulsi in modo da creare il legame collettivo. Se la percezione è quella aspettata si crea una risonanza tra top-down e bottom-up per cui la percezione viene confermata: abbiamo visto giusto! È possibile affermare che solo gli stati risonanti del cervello possano condurre alla consapevolezza, e il tempo necessario ad arrivare ad un tale risonanza è quello che serve per avere la percezione di un evento (i 200 ms di fig.9.4). 212 F. T. Arecchi, Caos e Complessità nel Vivente Riassumendo, i segnali top-down rappresentano le aspettazioni acquisite dal cervello di cosa il segnale bottom-up potrebbe rappresentare, aspettazioni basate sull’esperienza passata. Un processo di paragone rafforza e amplifica le caratteristiche del segnale che sono consistenti con le aspettazioni top-down, mentre sopprime le caratteristiche inconsistenti. Esistono dati neurofisiologici che suggeriscono che il feedback dalla corteccia ai corpi genicolati laterali funzioni proprio come una rete ART, con un circuito di retroazione che esamina le ipotesi fornite da strutture interne all’attività corticale. Il feedback delle reti ART permette di fornire un modello del riconoscimento visivo degli oggetti. Una rete ART consiste infatti in un sottosistema attenzionale che è in grado di creare categorie e aspettazioni in risposta a segnali di ingresso sensoriali. Esiste inoltre un sottosistema orientante che viene attivato da eventi “nuovi” e che mette in grado il sottosistema attenzionale di categorizzarli in maniera stabile. In altre parole, l’interazione tra i due sottosistemi permette di risolvere il problema stabilità-plasticità in presenza di molti dati sensoriali. Un segnale di ingresso viene registrato come un pattern di attivazione della memoria a breve termine, che stimola a sua volta la memoria a lungo termine attraverso un processo bottom-up e inibisce il sottosistema orientante. Fintanto che la memoria a breve termine esamina il segnale di ingresso, il sistema orientante resta inattivo, in quanto l’eccitazione provocata dal segnale e l’inibizione provocata dalla memoria a breve termine si equilibrano. Successivamente, la memoria a breve termine attiva una categoria nella memoria a lungo termine che corrisponda il più possibile ai dati sensoriali. L’attivazione di una categoria può essere interpretata come il “fare un’ipotesi” riguardo al segnale di ingresso. La categoria prescelta provoca un segnale di uscita che mette in moto il processo top-down. Il segnale top-down quindi funziona da aspettazione, e attivare l’aspettazione può essere interpretato come verificare un’ipotesi. Se la configurazione nella memoria a breve termine si avvicina molto al segnale originale di ingresso sensoriale, il sottosistema orientante non entra in azione. Come reagisce invece la rete quando l’aspettazione top-down non coincide con i pattern della memoria a breve termine? In questo caso il sistema attenzionale produce una configurazione modificata della memoria a breve termine, in modo da contenere solo le poche parti che corrispondono all’aspettazione top-down. Questa configurazione rimuove le inibizioni al Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 213 sottosistema orientante mettendolo in azione. Tale sottosistema invia un segnale che fa ricominciare la ricerca, ripartendo dall’originale segnale sensoriale. Il ciclo continua finché non viene individuata la corretta categoria, o finche non si rende necessario creare una nuova categoria, poiché il sistema si trova di fronte ad una “novità”. 9.4 Caos e dinamica neuronale: il caos omoclinico e la propensione alla sincronizzazione. 9.4.1 Neuroni e laser Dinamica del singolo neurone Soma Potenziali di azione Assone ingressi Dinamica non lineare (di soglia) c Ingresso b a SOGLIA Treni di spikes sull’assone Figura 9.7: Schema del singolo neurone considerato come un sistema dinamico non lineare. I vari ingressi in arrivo sulle dendriti da altri neuroni si sommano nel soma della cellula, dove si confrontano con una non linearità, in base a cui generano dei potenziali d’azione che viaggiano sull’assone e arrivano alle sinapsi dove vengono comunicati ad altri neuroni, o sotto forma elettrica o chimica (codificando l’attività elettrica dell’assone in c flusso di neurotrasmettitori). I tre casi di segnale totale di ingresso con i corrispondenti treni di spikes sembrano suggerire un modello di neurone eccitabile (modello di FitzHugo e Nagumo): sotto soglia non c’è praticamente niente, sopra soglia si ha una frequenza che cresce con il sopra-soglia. In effetti la dinamica è in genere più complessa, includendo l’eccitabilità come uno dei possibili comportamenti. La fig.9.7 schematizza alcune caratteristiche dinamiche del singolo neurone, e sembra presentarlo come un sistema eccitabile. Abbiamo visto in par.7.4 che un sistema eccitabile è il risultato della competizione di due sottosistemi. Ora, la dinamica dei potenziali di membrana è molto più ricca, ed è quindi agevole individuare condizioni operative in regime caotico. Senza entrare nei dettagli del modello di Hodgkin e Huxley, rifacciamoci alle considerazioni di opportunità presentate nell’Introduzione: dal punto di vista della fitness, un 214 F. T. Arecchi, Caos e Complessità nel Vivente neurone caotico risulta vincente ai fini di una codifica rapida e sensibile degli stimoli di ingresso. Presentiamo le condizioni ottimali di un caos individuale da cui emerge una situazione ordinata collettiva, accoppiando folle di individui simili. Dal 1986 all’Istituto Nazionale di Ottica a Firenze si studia un tipo di caos chiamato omoclinico (HC). Ne abbiamo anticipato gli aspetti cruciali nell’Introduzione. Prima di illustrare il modo di generarlo, vediamone le caratteristiche (fig.9.8). Figura 9.8: Segnale sperimentale di intensità di uscita da un laser caotico (figura successiva). (a) Sequenza di impulsi (spike) quasi identici, separati da intervalli (ISI) erratici, indicazione di caos, come d’altronde si può vedere dai piccoli segnali non ripetitivi nell’intervallo inter-spike. (b): zoom di due impulsi successivi (si veda la magnificazione della scala temporale) per mostrare la ripetibilità dei segnali alti, quelli che chiamiamo spikes. Si noti che se introduciamo una soglia possiamo isolare le spikes cancellando i segnali bassi caotici. (c): riportando su tre assi il valore I(t) dell’intensità al tempo t e i due valori dopo piccoli ritardi τ e 2τ (metodo di embedding) si costruisce uno spazio delle fasi tridimensionale che ci mostra come l’orbita si chiuda ad ogni giro (più o meno lungo a seconda del valore di ISI). La figura è ottenuta su molte spikes successive. La parte della spirale percorsa da un sola linea corrisponde agli impulsi alti ripetitivi; la matassa caotica verso il centro corrisponde agli impulsi bassi non ripetitivi. Come detto nella didascalia della figura, l’aspetto essenziale di questa dinamica è il ritorno di impulsi identici, ma non equispaziati: qui sta il caos, che non è più codificabile in un aspetto geometrico (p. es. dimensione frattale) in quanto conveniamo che tutto l’interesse sia concentrato sulla posizione Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 215 temporale delle spikes. Considerando queste tutte di area uguale ad 1 e strettissime, il segnale idealizzato è: f (t ) = ∑ δ (t − t i ) E l’informazione rilevante è nei tempi {t i } o, se si vuole, nelle ISI: {ISI } = {t i − t i −1 } 9.4.2 Come nasce HC. C O 2 laser w ith feedback Skeleton of the 3D m odel x& = − k 0 x (1 − k 1 sin z ) + Gxy , y& = − 2Gxy − γy + p0 , z& = β (− z + b0 − R ⋅ x ). 2 X Y z laser intensity population inversion feedback signal Figura 9.9: Un laser a CO2 su singolo modo darebbe un’intensità di uscita stabile. Se inseriamo un modulatore elettro-ottico di perdite (EOM) nella cavità ottica delimitata dalla coppia di specchi curvi. Il segnale di tensione che pilota EOM è prelevato da un rivelatore di intensità Det. Posto a valle di uno specchio e la tensione di Det è amplificata da un amplificatore di guadagno R, che ha una seconda entrata cui è applicata una tensione continua di polarizzazione B0 (Bias). Fissato un valore di pressione di gas nel tubo di CO2 e una corrente di scarica, sarà fissato il grado di eccitazione P0 che alimenta molecole nello stato alto, chiamiamo y la differenza fra la popolazione dello stato alto e di quello basso (in gergo: inversione di popolazione). Chiamiamo x l’intensità del campo laser, e z la tensione di feedback applicata a EOM. Le tre variabili x, y, z, obbediscono alle eq. differenziali non lineari scritte in figura. Si noti che z dipende linearmente da x, ma x ed y si scambiano un termine non lineare di emissione stimolata con coefficiente G; inoltre EOM dà una perdita aggiuntiva che va come sin2z. È agevole variare R e B0 (parametri di controllo) per passare da regime eccitabile a regime periodico e a regime caotico. La fig.9.9 mostra lo schema di laboratorio e le eq. del moto. Trattandosi di un sistema 3D, si possono aggiustare i parametri di controllo per andare in HC. In effetti essendo CO2 una molecola e non un atomo, i due livelli n=3 ed n=2 su cui costruiamo l’interazione stimolata fra x e y sono accoppiati ad altri livelli rotazionali molecolari. Per avere un modello che riproduca fedelmente il comportamento sperimentale, occorre aggiungere altre 3 eq. con altre 3 variabili 216 F. T. Arecchi, Caos e Complessità nel Vivente che chiamiamo genericamente r, s, v. Non stiamo a descriverne il significato: diciamo subito che sono necessarie per un accordo quantitativo, ma nelle vicinanze del fuoco di sella solo le variabili principali x, y, e z subiscono un rallentamento critico (vedi fig.0.6). Le altre si adattano velocemente ai valori assunti da x, y, e z e perciò non contribuiscono localmente alla dinamica. Alla stessa tregua il modello di Hodgkin e Huxley per i potenziali di membrana accoppia più di 3 eq., ma solo 3 contano ai fini della dinamica HC vicino al punto di sella. Lontano il comportamento sarà differente, ma a noi interessa l’intorno della sella, dove la suscettibilità a stimoli esterni è più alta e dove è più facile il controllo di HC, come già discusso a fig.0.6. Figura 9.10: Nel sistema HC del laser (a sinistra) il caos è confinato nel quadratino attorno alla matassa caotica; al di fuori si ha un moto regolare. L’esponente massimo di Lyapunov è positivo solo all’interno del quadratino, ma mediando su tutta l’orbita resta un valore positivo, cioè il sistema è caotico, come appare dalla irregolarità delle ISI. Nel modello di Lorenz (a destra) il caos è uniformemente spalmato su tutto l’attrattore, e si può calcolare il massimo esponente di Lyapunov su qualunque porzione della traiettoria: diciamo che c’è un riempimento “ergodico” dell’attrattore. Sincronizzare sistemi dello stesso tipo vuol dire, a sinistra, sincronizzare le spikes alte senza preoccuparsi dell’erba caotica (tagliata da un opportuno accoppiamento tra sistemi che non sente i segnali piccoli. Invece a destra non si può operare una selezione e occorre sincronizzare TUTTO il segnale. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 217 9.4.3 La propensione a sincronizzarsi Confrontiamo HC con il caos convenzionale ai fini della sincronizzazione di una rete di sistemi identici accoppiati. La fig.9.10 spiega la differenza fra i due sistemi. Se ora applichiamo un piccolo segnale esterno a un solo sistema di una rete di sistemi HC accoppiati, qual è la “propensione” a sincronizzarsi, invece di andare ciascuno per conto proprio con le proprie ISI ? La questione è cruciale, perché la rete HC sembra un modello plausibile per uno strato sensorio della corteccia (visivo, auditivo ecc.) e il sistema di ingresso che riceve il segnale esterno può essere il primo strato di neuroni accoppiati direttamente con i trasduttori dei sensi. Figura 9.11: Confronto in scala logaritmica della propensione di una rete HC (cerchietti) con una rete di Lorenz (quadratini). Introduciamo un indicatore di coerenza definito come: R= [ ISI δ (ISI ) ] dove ISI denota la media su tutti gli intervalli e δ (ISI ) ≡ ( ISI − ISI ) 2 2 denota la radice quadrata della varianza, cioè la fluttuazione media. In una distribuzione del tutto casuale R=1, per un’oscillazione regolare R → ∞ . Se prendiamo sia Lorenz sia HC in assenza di segnale esterno, si ha R=1, se applichiamo una piccola modulazione (dell’1%) a un parametro di controllo, al variare della frequenza della modulazione esterna (segnale) rispetto alla frequenza interna: ω 0 = 2π ISI 1 218 F. T. Arecchi, Caos e Complessità nel Vivente Abbiamo una variazione di 4 ordini di grandezza per HC e nessuna variazione per Lorenz. R1% / R free L’indicatore Rappresenta la propensione alla sincronizzazione (fig.9.11). L’evoluzione naturale ha selezionato sistemi ad alta propensione per fare reti cerebrali. Figura 9.12: Sincronizzazione dell’intensità laser ad una modulante esterna dell’ordine dell’1% applicata a un parametro di controllo. (a): Se la frequenza è vicina alla frequenza interna dello HC si ha un locking 1:1; (b) e (c): a più basse frequenze, si hanno locking 1:2 e 1:3; (d): a più alta frequenza, si ha locking 2:1 Studiamo come un singolo HC si sincronizza con un segnale sinusoidale esterno (fig.9.12). A seconda della frequenza della modulazione esterna, si hanno differenti regimi di bloccaggio (locking) della posizione delle spikes alla fase della modulante. Se si sposta gradualmente la frequenza in giù o su rispetto alla frequenza interna, sarà sempre più difficile mantenere il locking 1:1. Il confronto fra una variazione continua di frequenza e l’ordine discreto di locking Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 219 fa sì che, prima di passare al 1:2 o al 2:1, l’HC agganciato a 1:1 abbia dei salti temporali di ± 2π , cioè dia una spike in meno o in più come mostrato nella parte inferiore di fig.9.13 (phase slip). La parte superiore mostra una striscia di circa 1000 spikes (separazione media di 0,5 ms ) su cui il numero di phase slips va da +60 a -40 al variare della frequenza. L’informazione a tempi lunghi sull’andamento dei phase slips permette di riaggiustare il periodo dell’orologio esterno fino a cancellare qualunque phase slip, applicando così la frequenza più adatta al sistema. Ciò suggerisce un pace maker adattivo per i malati che hanno dovuto impiantare un pace maker cardiaco artificiale, a causa di difetti di quello naturale. Figura 9.13: Andamento dei phase slips al variare della frequenza di modulazione Passiamo ora da un singolo HC con modulazione esterna a una rete di 40 siti HC accoppiati fra prossimi vicini (cioè il numero i invia segnali a, e ne riceve da, i ± 1 ). Ciò vuol dire che nella terza eq. di fig.9.9, lo z di i sente non solo l’x di i, ma anche una frazione ε di x di i ± 1 . 220 F. T. Arecchi, Caos e Complessità nel Vivente Figura 9.14: Diagrammi sito (orizzontale) - tempo (verticale) dei treni di spikes HC; ogni spike essendo rappresentata da un punto. ε = (a) 0.0; (b) 0.05; (c) 0.1; (d) 0.12; (e) 0.25. Per alto accoppiamento le spike sono sincronizzate su tutti i siti a meno di un ritardo fra un sito e il successivo; riducendo ε , compaiono degli “strappi” corrispondenti a phase slips fra siti adiacenti, in assenza di accoppiamento ( ε = 0 ) ogni HC va per conto proprio. Dunque i 40 siti si sincronizzano per un certo grado di accoppiamento mutuo. Questo esempio si riferiva alla sincronizzazione spontanea in assenza di uno stimolo esterno e, come si vede con un taglio verticale, ogni singolo sito si mantiene HC nel tempo. Analogamente possiamo studiare la sincronizzazione di tutta la rete in presenza di uno stimolo esterno applicato a un singolo sito. 9.4 4 Il bursting e i neuroni dei generatori di moti a-semantici Ci stiamo occupando di come una rete di neuroni risponda collettivamente a uno stimolo. Dare un significato a una percezione vuol dire (fig.9.4 e 9.5) stimolare le aree motorie di conseguenza. Ma ci sono dei movimenti automatici (cardiaco, respiratorio, digestivo) che vanno eseguiti indipendentemente da stimoli esterni, in modo asemantico. In questo caso non c’è convenienza a stare “all’erta” in regime HC, ma basta alternare raffiche (bursts) periodiche di spikes a intervalli quiescenti di riposo. Usando lo stesso sistema dinamico e spostando un parametro di controllo, il bias BO dell’amplificatore di feedback, un po’ in su o in giù rispetto al regime di HC, si va ad un comportamento periodico (fig.9.15a) con frequenza che cresce con lo spostamento del parametro di controllo (9.15c) o al contrario in regime quiescente (9.15b). Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 221 Figura 9.15: Regimi periodico (a) e quiescente (b) nel sistema con dinamica omoclinica, al variare di un parametro di controllo rispetto al regime HC (c); nel caso periodico la frequenza cresce monotonamente col parametro ∆B . Basandoci su questa informazione, possiamo far sì che un laser con dinamica omoclinica alterni intervalli di raffiche periodiche con intervalli quiescenti, senza mai andare caotico. Basta aggiungere un secondo anello di feedback dal rivelatore allo EOM, ma filtrato a bassa frequenza rispetto alla frequenza delle spikes. Il comportamento è mostrato in fig.9.16. Possiamo considerare questo comportamento come metafora di quanto fanno i neuroni che pilotano il muscolo cardiaco, In regime normale abbiamo 60 battiti al minuto che consistono nell’alternanza di contrazioni muscolari con intervalli di riposo, come in fig.9.16b). Nel riposo notturno il ritmo scende a 45 battiti al minuto (fig.9.16a). Viceversa, sotto sforzo, possiamo avere 120 battiti al minuto (fig.9.16c). 222 F. T. Arecchi, Caos e Complessità nel Vivente Figura 9.16: Regime di bursting realizzato in un laser con feedback, aggiungendo un altro anello di feedback a bassa frequenza. Il segnale a bassa frequenza è rappresentato dal tratteggio 9.5 Chi legge l’informazione codificata in una rete di neuroni: la funzione di Wigner rimpiazza l’homunculus Abbiamo visto nella sezione precedente che l’informazione di un sistema HC è contenuta nella sequenza di spikes: f (t ) = ∑ δ (t − t i ) cioè nei tempi di arrivo delle spikes o nella loro separazione temporale: {ISI } = {t i − t i − 1 } Non possiamo pensare a un ipotetico homunculus che legga il segnale e decida. Se questo esistesse e avesse consistenza, a sua volta avrebbe un sistema percettivo con un (homunculus dell’homunculus) che lo legge, e così via. Cerchiamo più seriamente di estrarre l’informazione HC con componentistica fisica. Modo per esplorare f(t): ci si mette a t, si trasla il segnale a sinistra e a destra dello stesso tempuscolo τ / 2 ; se fra i segnali traslati c’è qualche Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 223 sovrapposizione, in corrispondenza della “coincidenza” abbiamo un’area 1; contiamo tutti gli 1, e ripetiamo l’operazione per altre traslazioni. Se ora sommassimo le coincidenze parziali, avremmo un conteggio globale che non ci dice dove (a quali ti) sono localizzate le spikes; allora nel sommare distinguiamo ogni traslazione con un fattore di fase exp(iωτ ) ; avremo dunque come risultato: W (t , ω ) = ∫ f (t − τ 2) f (t + τ 2)e iωτ dτ Dunque l’informazione completa è contenuta in una funzione biimensionale, dove, si noti bene, ω non è il trasformato di Fourier di t, ma di τ . La W fu introdotta da Wigner nel 1932 in meccanica quantistica. Un aspetto peculiare della somma con fasi è che, se abbiamo una funzione che è la somma di due pacchetti a frequenza diversa e localizzati a tempi diversi, come in fig.9.17, W non ha solo due regioni che sono le W separate dei due pezzi, ma ha anche una regione intermedia con frange di interferenza. Figura 9.17: In alto: segnale temporale f(t) formato da due sinusoidi troncate a frequenze e tempi diversi. In basso: funzione di Wigner in 2D (asse orizzontale: tempo; asse verticale: frequenza). Oltre alle due zone separate spettanti alle due parti isolate, c’è anche una zona intermedia che è l’interferenza fra le due parti pesate dalla fase relativa. 224 F. T. Arecchi, Caos e Complessità nel Vivente Questo nuovo strumento introduce una classe di misure non-locali che abbiamo chiamato “codice temporale”. Quando, con una sonda locale ad altissima risoluzione, misuriamo il valore istantaneo f(t) al tempo t, allora l’informazione su f(t) si presenta come la parte alta della fig.9.17, che ci è familiare dalle introduzioni pedagogiche ai segnali. Il guaio è che una sonda con risoluzione infinita è un mito mentale, e invece dobbiamo fare i conti con la strumentazione che abbiamo a disposizione, Ciò implica ricorrere alla W ed avere anche le interferenze fra le varie parti della sequenza che compongono il segnale. La procedura chiamata da noi codice temporale non è limitata ai segnali cerebrali. In qualunque spartito musicale, rappresentiamo (anche se grossolanamente) l’intensità del suono in funzione di frequenza e tempo (fig.9.18). Figura 9.18: Lo spartito musicale rappresenta la frequenza acustica al variare del tempo; la notazione pp (pianissimo) e ff (fortissimo) indica il grado di intensità da associare ad ogni zona del piano frequenza-tempo. Il problema è diventato di attualità nei laboratori di ottica dei laser, quando si lavora con impulsi ai femtosecondi (10-15 s). In tal caso, non esistono operazioni fisiche (gate) in grado di ritagliare una porzione dell’impulso, e si è ricorsi alla funzione di Wigner, senza citare Wigner (c’è una mancanza di conoscenza reciproca fra campi diverse di indagine), ma chiamando la tecnica FROG (Frequency Resolved Optical Gating). La fig.9.19 mostra perché non basta l’informazione dell’inviluppo, acquisibile con tecniche di autocorrelazione: se all’interno dell’impulso la frequenza varia, come nel cinguettio (chirp) di un uccello, per avere l’informazione completa occorre ricorrere a W. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 225 Figura 9.19: Spettrogrammi (in basso) di impulsi a inviluppo gaussiano e a frequenza che varia entro l’impulso, cioè chirped (chirp vuol dire cinguettio di uccello). Lo spettrogramma, come lo spartito musicale, dà l’intensità per varie coppie frequenza-tempo. La rappresentazione in frequenza-tempo è detta spettrogramma, e il modo di acquisire la W in laboratorio è indicato in fig.9.20. Figura 9. 20 Come si fa la FROG: il segnale E(t) viene ritardato da un sistema di specchi. I due segnali, originale e ritardato, sono inviati a un cristallo che genera la seconda armonica (SHG) cioè il quadrato del segnale in arrivo. Come abbiamo visto al par.5.7 per eterodina e olografia, preleviamo solo il doppio prodotto e lo inviamo a uno spettrometro che ne fa la trasformata di Fourier. Sommando tutti i contributi al variare del ritardo, abbiamo realizzato la W (anche se i tecnici dei laser non citano Wigner!) 226 F. T. Arecchi, Caos e Complessità nel Vivente Ora che abbiamo visto le connessioni con la scrittura musicale e la misura dei femtosecondi, torniamo al cervello. Siamo in grado di individuare le sequenze di operazioni che portano a W? Nel caso temporale, non siamo ancora in grado di seguire la formazione di W. Ricordiamo però che la decisione è successiva alla sincronizzazione dei neuroni di uno strato sensorio. Non è tanto la forma d’onda sul singolo neurone che interessa, ma piuttosto il tessuto delle forme d’onda su tutti i siti: qualcosa come lo schema di fig.9.14. L’informazione completa richiede di fare le stesse operazioni nel tempo e nello spazio Ora lo spazio a disposizione di uno strato sensorio è bidimensionale. In effetti, riferendoci alla prima corteccia visiva, in gergo V1; questa è anatomicamente strutturata in colonne di sei strati, ma su tutta una colonna l’informazione è fortemente correlata (non è il caso qui di scendere a dettagli) per cui è sufficiente classificare la variazione bidimensionale dell’informazione. Semplifichiamo il problema considerando un segnale in una dimensione spaziale x. La funzione di Wigner corrispondente è: W ( x, k ) = ∫ f ( x − ξ 2) f ( x + ξ 2)e ikξ dξ Per costruirla con il metodo del ritardo variabile di fig.9.20, avremmo bisogno di un cursore mobile che trasli il segnale spaziale di ± ξ / 2 e poi faccia il prodotto delle due parti con un fattore di fase, sommando il tutto. Vediamo come si possano utilizzare aspetti fisici noti. I neuroni presentati a fig.9.5 permettono di estrarre la derivata prima e seconda spaziali del segnale di ingresso (fig.9.21). D’altronde c’è evidenza di successive convergenze nei vari strati visivi V1, V2, V3, fino ad arrivare alla corteccia infero-temporale (ITC); l’ampiezza angolare del campo recettivo passa così da 3° a quasi 180°. In queste successive convergenze, se a ogni nodo ci sono neuroni centroperiferia, si fanno derivate successive. In definitiva, sommando i vari termini, si ottiene lo sviluppo di Taylor di una funzione traslata spazialmente, senza bisogno di cursore mobile. Dovrebbe essere altrettanto agevole individuare i meccanismi fisici delle altre operazioni che contribuiscono a costruire la W. Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 227 Figura 9.21: Abbiamo mostrato in fig.9.5 che alcuni tipi di neuroni del corpo genicolato laterale e della V1, studiati da Hubel e Wiesel, hanno una risposta a un’illuminazione retinica che è di segno opposto fra centro e periferia della cellula. Se le regioni (+/-) sono concentriche e lo stimolo di ingresso è una gaussiana spaziale, si ha una derivata seconda della gaussiana, che è rappresentata alla figura inferiore per diverse geometrie. Se il centro e la periferia non sono concentrici, ci sarà anche un contributo di derivata prima. 9.6 Il ruolo del tempo di decisione: aspetti quantistici nei processi percettivi. 9.6.1 Il tempo di decisione e la decoerenza In attesa che la ricerca neuroscientifica chiarisca gli interrogativi aperti, diciamo che per una codificazione a spikes la funzione di Wigner è uno strumento necessario per estrarre tutta l’informazione. Da quanto detto ci aspettiamo che l’elaborazione implichi un dominio di variabilità con due 228 F. T. Arecchi, Caos e Complessità nel Vivente dimensioni spaziali più il tempo, perciò la funzione di Wigner andrebbe scritta in 6 dimensioni come: W (t , ω ; x, k1 ; y, k 2 ) Limitiamoci a esplorare proprietà e limiti della funzione bidimensionale Da fig.9.17 sembrerebbe che un segnale composto di due parti comunque separate nel tempo debba produrre interferenza. D’altra parte la ricerca neurofisiologica (fig.9.6 e 9.7) ha mostrato che il tempo di percezione T = 200ms rappresenta un’unità decisionale, nel senso che quanto accade tra due tempi separati di più di T è visto come due eventi distinti. Ci si aspetta pertanto che i circuiti cerebrali introducano una funzione di taglio (cut off) che limiti a 200 ms il confronto fra i segnali traslati su cui è costruita W. Introduciamo questo taglio come segue: W (t , ω ) = ∫ f (t + τ 2) f (t − τ 2) exp(iωτ ) g (τ )dτ dove la funzione di cut-off è una gaussiana di area 1 (per semplicità non esplicitiamo la normalizzazione ) e semilarghezza T : ( g (τ ) ≈ exp − τ 2 T 2 ) 2 dove T ≈ 200 ms Per usare il gergo della meccanica quantistica, diremo che T è un tempo di decoerenza oltre il quale due segnali percettivi non si correlano più in fase, cioè non danno luogo a interferenza. 9.6.2 Intermezzo quantistico La presenza di interferenza fra le parti che compongono uno stato sovrapposizione è l’indicatore del comportamento quantistico (il caso del gatto di Schroedinger, per il quale in principio ci sarebbe un’interferenza fra gatto vivo e gatto morto; interferenza non osservabile in pratica, perché tagliata a tempi di decoerenza molto più piccoli di qualunque tempo osservabile). Questa interferenza è la base del computer quantistico; se un problema è frammentabile in molte opzioni o sottosistemi legati da relazioni coerenti, e la soluzione nasce dalla sovrapposizione interferenziale di questi, allora un’evoluzione temporale si può eseguire su ciascuno dei sottosistemi in parallelo, e alla fine dei calcoli si lasciano interferire le varie sottosoluzioni per ricavare lo stato finale del sistema. Facciamo un esempio: sia un sistema composto di N sottosistemi, e il tempo totale di calcolo cresca Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 229 esponenzialmente con N (par.1.2). Se l’evoluzione nel corso del calcolo mantiene la coerenza di fase, allora conviene eseguire N calcoli separati in parallelo e alla fine sovrapporre i risultati parziali per avere lo stato globale. La difficoltà pratica di una computazione quantistica è legata ai tempi di decoerenza. Se diciamo D la distanza fra i due sottostati di uno stato sovrapposizione e conosciamo il tempo di smorzamento τ 1 di ciascuno dei sottostati, le relazioni di fase fra i due stati muoiono entro un tempo di decoerenza dato da: τ τ dec = 21 D h −34 dove h ≅ 10 J ⋅ s è la costante di Planck. Si noti che D2 è un’area in uno spazio di variabili coniugate, energia-tempo oppure coordinata-impulso; il prodotto di una base per un’altezza dà proprio joule x secondi quindi il fattore di riduzione a denominatore è adimensionale. Inserendo dati pratici, si vede che già micro-sistemi composti di pochi atomi o fotoni danno tempi di decoerenza inaccessibili. Pertanto un computer quantistico pratico è oggi non fattibile. 9.6.3 Il caso del codice temporale Nell’elaborare treni di spikes siamo in presenza di un formalismo quantistico: infatti l’interferenza di fig.9.17 assume anche valori negativi, perciò la W non può essere interpretata come una probabilità classica. Si può obiettare che nella fisica del cervello non sono emersi aspetti quantistici. La mia critica all’attuale stato interpretativo della fisica microscopica è che il formalismo quantistico non svela l’essenza del mondo microscopico, ma si limita a riportare quanto è accessibile alle nostre misure. Occorre il rigore della critica di Kant: possiamo parlare solo di fenomeni, misurati con un protocollo preciso, senza inventarsi un nuovo fenomeno a cui non abbiamo accesso. Se riprendiamo la formulazione assiomatica della meccanica quantistica, vediamo che l’apparato di misura ideale ivi introdotto è “locale” cioè è in grado di leggere il valore di una variabile in un punto (r, t) dello spazio-tempo. Invece il codice temporale implica un misuratore di Wigner non-locale che accumula dati, ordinati da un fattore di fase, e li legge globalmente. 230 F. T. Arecchi, Caos e Complessità nel Vivente Questa enunciazione astratta può essere capita con riferimento ad un esperimento classico di interferenza di Young (fig.9.22). M2 a S b M1 Figura 9.22: Esperimento di Young. Fra una sorgente luminosa S e un misuratore locale di intensità luminosa M1 si intercala uno schermo con due fenditure a e b a distanza variabile; variando la separazione a-b, M1 registra picchi e valli di un segnale interferenziale. Interpretazione classica: l’oggetto di investigazione è una sorgente complessa, formata da S e dallo schermo; i due fori sono sorgenti di onde sferiche che si incontrano su M1 con fase reciproca dipendente dalla posizione di a e b. Interpretazione alternativa equivalente: la sorgente S non dà alcuna interferenza, l’apparato di misura non-locale M2=M1+a+b genera frange di altezza variabile con la separazione a-b. Se allora siamo in presenza di un corretto formalismo quantistico, dobbiamo rispondere a tre questioni: i) qual’è la costante C che rimpiazza h nel formalismo quantistico del codice cerebrale? ii) quanto vale C, e si può ovviare al difficile problema della decoerenza, prospettando un computer quantistico basato sul codice temporale in una rete di sistemi HC? iii) perché nella fisica microscopica h si presenta come costante universale, tant’è vero che viene reputata come essenza del mondo microscopico? 9.6.4 Entropia delle percezioni Ricapitoliamo i dati neuro fisiologici: abbiamo treni di spikes di durata 200 ms, fatti di spikes da 1ms con separazione minima 3 ms e separazione media (legata alla banda γ sui 40 Hz) di 25 ms. Se introduciamo delle scatole (bins) Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici 231 di 3ms, ciascuna avrà un impulso o sarà vuota: in codice binario, potremmo avere un numero di percezioni massimo PM pari a: 2 200 3 ≅ 2 66 ≅ 10 22 . Ma non tutte le sequenze hanno uguale probabilità: sarà improbabile trovare 00000…oppure 11111……. Pesando con la separazione media, si trova un’entropia per unità di tempo pari ad α = 0,54 . Il numero di percezioni su 200 ms è allora: PM = 2 S = 2 0,54⋅66 ≅ 1011 Tenuto conto che al massimo abbiamo 5 percezioni distinte al secondo, e che l’arco della vita umana è sui 3 ⋅ 10 9 sec , pari a 90 anni, il numero massimo di percezioni immagazzinabili risulta 1,5 ⋅ 1010 , cioè il 15% della capacità calcolata. Data la grossolanità del calcolo, la cosa è soddisfacente, cioè l’evoluzione ci ha equipaggiato con un cervello adeguato alla durata della nostra vita, senza molti sprechi. Supponiamo di troncare una percezione a un tempo ∆T <T . Introduciamo un’indeterminazione ∆P nel numero di percezioni, pari al numero di tutte quelle percezioni i cui ISI sono identici fino a ∆T e che differiscono di almeno un bit nell’intervallo T − ∆T . Avremo: ∆P = 2 α (T −∆T ) = PM ⋅ 2 −α∆T Approssimiamo questa relazione di incertezza con un’iperbole tangente in un punto. Data la grande differenza fra esponenziale e iperbole, il valore che stiamo per calcolare è solo orientativo e varia molto con ∆T . Abbiamo ad es.: ∆P∆T ≡ C = 620 parole x bins Convertiamo in Js per confrontarci con h . Un bin corrisponde a 3 ms. Un salto di parola corrisponde a un salto elementare da un attrattore caotico a uno vicino. Ricordiamo che abbiamo escluso una dinamica regolare per il singolo neurone, per evitare un’energia di attivazione troppo alta, diciamo dell’ordine di 1 eV. Non esistono stime per il salto fra due attrattori caotici. Possiamo dire che l’energia deve essere maggiore di kBT, altrimenti il salto avverrebbe spontaneamente e non ci sarebbero percezioni affidabili. Diamo come stima 10 kBT, pari a 0,25 eV. Moltiplicando per i 108 neuroni della corteccia visiva, abbiamo: 2,5 ⋅ 10 7 eV ≅ 3,6 ⋅ 10 −12 J 232 F. T. Arecchi, Caos e Complessità nel Vivente Con questi fattori di conversione si trova: ∆P∆T ≡ C = 6 ⋅ 10 −12 Js ≅ 10 22 h È questo il quanto nel codice percettivo. Si noti che non c’entra niente con h , con buona pace di chi (come Penrose) ha cercato di individuare una dinamica quantistica microscopica nel cervello, che è molto fantasioso. Con questa C si possono valutare processi di decoerenza e ritagliare una computazione quantistica. Si noti che l’unico requisito è stato un misuratore non locale; niente di legato a coscienza ecc: pertanto si può progettare una rete di siti HC collegati e da leggere con un codice di Wigner, e costruire un computer quantistico macroscopico. 9.6.5 Ruolo delle misure non locali in fisica microscopica Di fronte a un oggetto macroscopico (una mela, una sedia) possiamo girarvi attorno e acquisire un numero grande di immagini 2D (ricordo che ogni immagine è 2D, perché ottenuta tagliando i fronti d’onda con un rivelatore 2D, la retina o la telecamera): la collezione di tutte le immagini 2D permette una ricostruzione tomografica, apprezzando aspetti 3D non immediati. Di fronte a un atomo, dobbiamo interrogarlo con un fascio sonda fatto di particelle o fotoni; in ambo i casi non raccogliamo sul rivelatore un singolo oggetto scatterato, ma un insieme con cui ricostruiamo le strutture, come abbiamo discusso nel par.5.6 a proposito della strutturistica delle biomolecole. Stiamo registrando spettrogrammi di funzioni di correlazione, cioè lo strumento di osservazione è non-locale nel senso su discusso. Siamo in ambo i casi nell’ambito della QED (elettrodinamica quantistica) che è caratterizzata da una costante di struttura fine adimensionale α . Premesso che la nonlocalità delle misure introduce in modo fondamentale una relazione di indeterminazione fra lunghezza minima osservabile e impulso della particella, e presa per ora h come un’incognita da determinare, la minima distanza osservabile fra due elettroni, detta lunghezza di Compton lC, sarà legata al massimo impulso di un elettrone mc , dalla relazione: lC = h mc Allora α risponde alla domanda: a quante l C devo mettere due elettroni affinché l’energia di repulsione elettrostatica uguagli l’energia di riposo? Capitolo 9: Processi percettivi. Sincronizzazione di reti e aspetti quantistici Risolvendo la relazione: e2 = mc 2 . α ⋅ lC Si trova: α= 233 e2 hc Interpretata finora come h ⇒ α ; proponiamo che venga letta come α ⇒ h . Se il microscopico fosse tutto QED, quel che ho detto sarebbe abbastanza pacifico; ma perchè h vale anche in QCD? (cromodinamica quantistica, o teoria corrente delle interazioni sub-nucleari). La risposta è che sia QED sia QCD sono teorie fenomenologiche, a scale grandi 10-16 cm, entrambe derivabili da una teoria fondamentale alla scala di Planck di 10-33 cm; questa teoria ancora non esiste. 9.7 Bibliografia • • • • • • • • • • • FT.Arecchi e A.Farini “Lexicon of Complexity” (Società Editrice Fiorentina, Firenze, 1997). FT.Arecchi “Chaotic Neuron Dynamics, Synchronization and Feature Binding: Quantum Aspects” in Mind and Matter, vol.1, n.1, p.3, (2003). H.B.Barlow “Single units and sensation: a neuron doctrine for perceptual psychology?” Perception, 1, 371, (1972). D.J.Felleman e D.C.Van Essen “Distributed hierarchical processing in the primate cerebral cortex” Cerebral Cortex, 1, 1, (1991). W.J.Freeman “Nonlinear neural dynamics in olfaction as a model for cognition” in Dynamics of sensory and cognitive processing by the brain ed. E.Basar (Springer, Berlino, 1988). S.Grossberg “The attentive brain” The American Scientist, 83, 439, (1995). D.H.Hubel “Occhio, cervello e visione” (Zanichelli, Bologna, 1989). W.Köhler “Gestalt psychology” (Bell & Sons, Londra, 1930). D.Marr “Vision” (Freeman, San Francisco, 1982). C.Von der Malsburg “The correlation theory of brain function” in Models of Neural Networks II, Editors E. Domany, J. L. van Hemmen e K. Schulten (Springer, Berlino, 1981). W.Singer e C.M.Gray “Visual Feature Integration and the Temporal Correlation Hypothesis” Annu. Rev. Neurosci. , 18, 555, (1995). 10 Conclusioni: linguaggi e complessità Ricapitoliamo quanto abbiamo esplorato nei capitoli precedenti. Partendo dal suggerimento di Galileo a M.Welser (1610) di “non tentare le essenze, ma contentarsi delle affezioni quantitative”, abbiamo frammentato un oggetto di esperienza nelle connotazioni suscettibili di misurazione. Arrivando al limite logico di postulare particelle elementari che ricompongono e “spiegano” il tutto, abbiamo esplorato la dinamica della singola particella; ma nel mettere in contatto molte particelle, sono nati i problemi del caos e della complessità. Nel caso particolare di un oggetto esposto a disturbi ambientali, abbiamo cercato di condensare il ruolo di questi in una descrizione termodinamica, e di evidenziare i cambiamenti (transizioni di fase) indotti sull’oggetto. Quando siamo passati al vivente, abbiamo cercato di sfruttare un apparato di conoscenze già sviluppato, e siamo riusciti a spiegare i bilanci energetici, e - con la metafora del computer - alcuni dei processi cerebrali più elementari. I problemi su cui si svilupperà la ricerca nel prossimo futuro sono problemi di comunicazione fra individui distinti; ora, se il singolo individuo ha un repertorio sufficientemente ricco di possibili risposte a uno stimolo, il numero di possibili scenari che emergono è estremamente alto e variato, non riducibile allo schema ingenuo di R.Carnap (1931) “La costruzione logica del mondo”; il tentarne una classificazione completa implica la complessità che abbiamo visto nella crescita esponenziale delle combinazioni possibili. Dovremo rigorosamente delimitare il livello gerarchico a cui vogliamo collocare un programma scientifico e prendere come individui da far interagire non le particelle elementari, descrivibili classicamente con posizione e velocità e quantisticamente aggiungendo ulteriori connotazioni in numero finito (ad es. spin), ma dei sottosistemi già strutturati e da caratterizzare con proprietà globali, con una gamma ampia di possibili risposte, che dipendono dal tipo di discorso che si sta sviluppando attorno; allora il singolo individuo subisce gli effetti dell’ambiente, ma a sua volta modifica l’ambiente. Passiamo in rassegna alcuni fra i problemi aperti. 10.1 I problemi aperti 10.1.1 Dogma centrale della biologia molecolare Consiste nella sequenza univoca: gene-RNA-proteina (vedi cap.4, in particolare fig.4.2). Capitolo 10: Conclusioni: linguaggi e complessità 235 Per oltre 50 anni, si è partiti dal presupposto: un gene produce una proteina, arrivando a una vulgata come ”progettare” i bambini o istituire una polizia del DNA che scopra futuri criminali. Durante gli ultimi anni, risultati inaspettati dello HGP (Human Genome Project) hanno mostrato i limiti del dogma: alcuni geni codificano più di una proteina, altri non codificano alcuna proteina (P.H.Silverman, The Scientist, vol.18, n.32 del 24 maggio 2004). Le due compagnie farmaceutiche (Celera e Human Genome Science) che hanno classificato il genoma umano hanno concluso nel 2001 con un conteggio di meno di 30 mila, ben al di sotto dei 100 mila attesi. Ma 30 mila è come una mosca; allora come mai siamo diversi? E come conciliare 30 mila geni con oltre un milione di proteine? Risposta: ”Un singolo gene può dar luogo a trascrizioni multiple, e pertanto a molte proteine distinte con funzioni distinte, mediante alternative splicing (cioè taglia/ricuci di spezzoni di sequenze) e dunque siti alternativi di inizio e termine della trascrizione” ( J.C.Venter et al. ”Sequence of the human genome” Science, 291, 1304-51, 2001). La fig.10.1 (tratta dall’articolo citato di Silverman) descrive lo stato del problema. Figura 10.1: Il dogma centrale della biologia molecolare come formulato negli anni 1950 proponeva un’espressione unidirezionale del gene. La transcrittasi inversa ha scosso questo modello. L’aggiunta di modificazioni post-traduzione delle proteine ha ulteriormente modificato il quadro. Ancor più recentemente, molteplici fattori che controllano l’espressione del gene a tutti gli stadi del processo sono stati scoperti a livello di trascrizione, di traduzione e di post-traduzione. E’ stato detto: “La maggior parte dei cambiamenti evoluzionari fra specie può essere avvenuta a livello di regolazione del gene” (A.G.Clark et al. 236 F. T. Arecchi, Caos e Complessità nel Vivente ”Inferring nonneutral evolution from human-chimp mouse orthologous gene trios”, Science, 302, 1960 del 2003). La combinazione di soli tre geni, ciascuno con mille possibili varianti, offre un miliardo di possibilità alla selezione naturale. Ciò spiega perché nel preCambriano si sia passati in pochissimo tempo dagli unicellulari a una varietà enorme di organismi (S.J.Gould, Wonderful Life, Norton, New York, 1989), senza dover attendere l’accadere di mutazioni nella sequenza di basi indotte da raggi cosmici o altri eventi stocastici. Queste considerazioni correggono le ingenuità di un approccio dogmatico, quale raccontato in Il caso e la necessità da J.Monod nel 1970. Per rifarci al caso dei lessici e dei codici poetici, sarebbe come dire che l’Ebraico della Bibbia, che ha solo 5000 parole (N.Frye, Il grande codice, Einaudi, Torino 1980) o il Greco dell’Odissea, che ha solo 6800 parole (www.perseus.tufts.edu) non siano in grado di essere espressivi come l’Inglese moderno che ha 500 mila vocaboli! 10.1.2 Il codice cerebrale Abbiamo visto nel cap.9 l’enorme vantaggio, in termini di densità di informazione, del codice temporale (sincronizzazione di spikes) rispetto a un codice di conteggio (quante spikes cadono in un intervallo temporale). Nelle fig.0.5 e 0.6 abbiamo spiegato in che consista il “feature binding” e come la posizione temporale delle spikes sia influenzata dal repertorio delle esperienze precedenti conservate in memoria. Nasce allora la domanda: esiste una codifica univoca per cui a una percezione corrisponde un treno di spikes e viceversa? Se fosse così, potremmo anticipare un futuro in cui una macchina-spia legge i moti segreti di un soggetto, e non esisterà più una sfera del privato. Ho affrontato questo problema nel lavoro: F.T.Arecchi “Chaotic Neuron Dynamics, Synchronization and Feature Binding: Quantum Aspects” in Mind and Matter, vol.1, n.1, p.3 (2003), citato al cap.9. In quel lavoro ho ricordato che, impiantando microelettrodi nel sistema olfattivo di una locusta, la presentazione ripetuta dello stesso odore dà luogo allo stesso treno di spikes (G.Laurent), invece nel caso di un coniglio lo stesso odore, pur dando luogo alla stessa reazione globale (avvicinarsi al cibo) è associato in tempi differenti a codificazioni diverse(W.Freeman). In effetti fra i primi strati sensori e le decisioni della corteccia motoria avvengono molteplici interazioni bottom-up / top-down, per cui la codifica è un equilibrio fra stimoli esterni e congetture memorizzate. Questo comporta un aspetto strettamente soggettivo di una Capitolo 10: Conclusioni: linguaggi e complessità 237 sensazione; p.es. il rosso di un drappo di Tiziano è lo stesso per me e per un altro che sta guardando lo stesso quadro? Parlandone, traduciamo l’esperienza visiva in un codice verbale con un lessico di estensione del tutto incommensurabile. Queste sensazioni soggettive sono dette “qualia” dai filosofi della mente. Ebbene, le locuste sono dei quasi-automi con un canale univoco stimolo-risposta, invece il coniglio è più sofisticato, ha già una sua vita privata. Questo spazio di memoria dove conserviamo la nostra vita passata per influenzare le decisioni future può essere più o meno ricco, più o meno efficiente nel collegarsi a una situazione presente; parleremo più in là dell’autismo come limite a questa efficienza. 10.1.3 Il linguaggio verbale - La complessità dei testi Stiamo esplorando le modalità di comunicazione fra diversi individui che possono interagire. Si può trattare di comunicazione fra geni e proteine, fra cellule diverse attraverso messaggeri chimici o elettrici, fra piante e animali diversi, fra gruppi sociali che possono ricorrere a codici diversi per scambi all’interno del gruppo e per scambi collettivi fra gruppi, e così via. Chiamiamo linguaggi le modalità specifiche di comunicazione, caso per caso. In particolare, consideriamo il linguaggio verbale fra individui umani. Polisemia vuol dire pluralità di significati di una parola: legata al fatto che con un lessico limitato (5000 parole nell’Ebraico della Bibbia, 100.000 in una lingua moderna) vogliamo descrivere un numero enorme di situazioni diverse che sperimentiamo. Allora la stessa parola acquista significati diversi a seconda del contesto, cioè dell’ambiente cui si riferisce e delle correlazioni col resto del discorso, cioè con le parole che la precedono e la seguono. Tutto ciò è indicato nello schema di fig.10.2. Nella parte superiore di fig.10.2 abbiamo indicato la zona di incertezza associata a una singola parola; si tratterà in genere di una nube di possibili significati che andrebbe visualizzata in uno spazio multidimensionale, posto che si riesca a stabilire una metrica dei significati (cosa non realizzabile oggi, e forse mai). In due dimensioni, la nube diventa un’area di incertezza; questo è corretto se abbiamo frantumato un oggetto nei suoi ingredienti elementari, ad ognuno dei quali spetta una incertezza di Heisenberg posizione-velocità, come mostrato in fig.0.3. La parte centrale di fig.10.2 indica come si costruisce un resoconto: pescando al nostro repertorio lessicale, adattiamo parole polisemiche 238 F. T. Arecchi, Caos e Complessità nel Vivente alla situazione che stiamo sperimentando; ogni parola sarà anche influenzata dalle precedenti scelte lessicali del discorso (sarà cioè con-testuale). Abbiamo detto prima che il collegamento con le memorie pregresse può essere più o meno efficace. Un recente romanzo (M.Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi, 2003) tratta di un ragazzo autistico, la cui patologia può essere così espressa in termini di verbalizzazione: l’area di incertezza per ogni parola è nulla, il ragazzo si attacca per ogni parola al primo significato recepito e non è in grado di attribuirne un altro; di conseguenza non sa calarsi nelle situazioni che gli vengono prospettate di volta in volta a parole, ma ne costruisce altre che gli danno angoscia perché il resoconto verbale da lui ricostruito differisce da quanto osserva. La parte inferiore della fig.10.2 indica come, esposti a un resoconto verbale, ci ricreiamo la situazione corrispondente. Un buon narratore ci cala nella situazione da lui prefigurata; questo accade nella grande poesia (Nel mezzo del cammin di nostra vita…; Dolce e chiara è la notte e senza vento….). Rapporti linguaggio-realtà Polisemia (pluralità di significati della parola) Significati scelti dal contesto (l’ambiente più il resto del discorso) portano a due discorsi distinti, ma entrambi basati su realtà. Processo inverso: situazioni paradossali dei significati= discorso di fantasia create dalla scelta soggettiva Figura 10.2: Si indica con un cerchio in uno spazio di significati l’area di incertezza da associare a una parola che può assumere tutti i diversi significati compresi nell’area. Un discorso è la connessione con regole grammaticali (sintassi) di una sequenza di parole; il significato per ogni parola è stabilito dalla situazione cui il discorso si riferisce e dalle connessioni col resto del discorso. In un’opera letteraria, se il lettore ha bene interpretato le scelte di significati dell’autore, può ricostruire il mondo dell’autore, cioè una situazione nuova; se l’autore ha scelto significati al limite delle aree di variabilità di ciascuna parola, possono emergere situazioni paradossali senza un equivalente nella realtà ordinaria che sperimentiamo. Capitolo 10: Conclusioni: linguaggi e complessità 239 Un autore può, in modo provocatorio, connettere termini che portino a situazioni paradossali: si pensi a L.Carrol, Alice nel paese delle meraviglie, o a D.Hofstadter, Goedel, Escher e Bach. In questo gruppo classificherei i divulgatori che fanno un uso non accurato di termini della scienza, anche se il loro risultato è spesso involontario. Si noti peraltro che questo è il campo di azione di qualunque intelligente persuasore che voglia imporre il suo punto di vista; è quello che insegnavano i Sofisti e contro cui si era scagliato Socrate in nome della verità; è quel che è tornato in auge con i moderni persuasori, dai politici ai venditori di prodotti, si veda al riguardo C.Perelman, La nuova retorica (trattato dell’argomentazione), Einaudi, 1980. 10.1.4 Complessità nell’evoluzione biologica Quella che negli anni passati è stata chiamata auto-organizzazione andrebbe in effetti chiamata etero-organizzazione, perché emerge sempre da uno scambio linguistico fra un individuo e l’ambiente circostante (fig.10.3). Complessità biologica: risposta più adatta ad una sfida ambientale (fitness) A B C’ C’’ Non auto-organizzazione, ma etero-organizzazione Figura 10.3: Evoluzione non univoca di un individuo, la cui dinamica interna preveda le transizioni A-B-C-… La presenza di perturbazioni ambientali può orientare l’evoluzione come A-B-C’ oppure A-B-C’’. 10.1.5 Complessità nella risposta immunitaria Il sistema immunitario dei vertebrati è una rete di molecole e cellule specializzate a distinguere ciò che è proprio e ciò che è estraneo all'organismo. Le sue caratteristiche sono specificità, adattamento e memoria. Il sistema immunitario usa due strategie diverse e correlate. Gli elementi di 240 F. T. Arecchi, Caos e Complessità nel Vivente riconoscimento della risposta immunitaria sono proteine solubili chiamati anticorpi prodotti dalle plasmacellule. Nella risposta immunitaria cellulare, i linfociti T uccidono le cellule che portano sulla loro superficie conformazioni estranee. I linfociti T stimolano anche la risposta umorale aiutando le cellule B, i precursori delle plasmacellule. I linfociti nascono nel midollo delle ossa. Circa la metà di essi passano attraverso il timo e vengono trasformati in cellule T che costituiscono gli effettori principali della immunità cellulare. Le cellule T e B riconoscono il materiale antigenico (agente estraneo) mediante anticorpi incorporati nella membrana plasmatica che funzionano come recettori di superficie. Tuttavia mentre al riconoscimento dell'antigene segue, nella serie T, una normale blastizzazione con produzione di cloni seguita dalla produzione di molecole con funzione di messaggeri (linfochine), la risposta all'antigene delle cellule B è più complessa e porta alla formazione di cloni capaci di produrre e secernere anticorpi circolanti. Una infezione mette in movimento, nell'organismo ospite, meccanismi di ordine immunologico, variamente proiettati, a seconda che si tratti di una prima infezione o di una reinfezione. La prima infezione determina una risposta immunitaria, prevalentemente svolta da cellule immuno competenti (macrofagi, linfociti) cui si affianca un apporto umorale, di provenienza immunoglobulinica. Nella prima penetrazione i microbatteri danno luogo a un processo infiammatorio locale, una restante parte viene fagocitata da macrofagi - a guisa di corpo estraneo - e trasportata nelle strutture linfatiche ove l'antigene micobatterico è presentato ai linfociti T e B che, in tal modo, acquisiscono una memoria immunologica specifica. I linfociti sono un tipo di leucociti, con il compito di reagire in modo specifico nei confronti di qualsiasi agente estraneo. Ogni linfocito possiede sulla membrana un recettore con una sola capacità combinatoria: ciò significa che è in grado di riconoscere e legarsi a un solo antigene. La specificità rimane immutata durante la vita del linfocito, il quale la trasmette alle cellule-clone in cui si riproduce: questa espansione cellulare determina l’aumento del numero dei linfociti capaci di reagire verso quel determinato antigene. Ma non è solo la specificità a conferire ai linfociti il ruolo speciale nella difesa dell’organismo. Infatti, in seguito al riconoscimento, che genera una risposta immunitaria primaria, alcuni linfociti vivono per lungo tempo conservando una memoria del riconoscimento. I linfociti-memoria, che hanno già riconosciuto l’agente infettivo, venendo nuovamente a contatto con lo stesso antigene danno origine a Capitolo 10: Conclusioni: linguaggi e complessità 241 una risposta secondaria, molto più rapida e intensa. Al contrario degli altri leucociti responsabili di una risposta immunitaria aspecifica, innata, i linfociti innescano una risposta immunitaria specifica, che utilizza meccanismi di difesa basati sul riconoscimento dell’invasore. Le due caratteristiche della risposta adattativa (specificità e memoria), oltre a conferire l’immunità naturale da malattie infettive, rendono possibile la profilassi delle malattie infettive attraverso la vaccinazione. I linfociti circolano nel sangue e nel sistema linfatico controllando ogni distretto dell’organismo. Dal punto di vista funzionale sono distinti in due principali tipi, i linfociti B e T. I linfociti T Prendono nome dal fatto che, dopo essere stati prodotti nel midollo osseo, migrano nel timo, dove avviene la loro maturazione, per cui imparano a riconoscere le cellule dell’organismo. Si evita così che possano reagire contro cellule dell’organismo di cui fanno parte, distruggendole. Il riconoscimento degli antigeni da parte dei linfociti T avviene tramite un recettore di membrana. I linfociti T maturi sono di due tipi fondamentali: T helper (aiutanti) e citotossici o soppressori. I linfociti T helper per riconoscere l’antigene devono venire in contatto con cellule macrofagiche che “presentino” loro l’antigene. I macrofagi possono fagocitare una struttura estranea, digerirla e demolire la struttura antigenica. Alla fine i frammenti di antigene verranno esposti sulla superficie cellulare del macrofago. Quando viene in contatto con il macrofago, il linfocito T helper può riconoscere specificamente i frammenti: questo evento attiva il linfocito T helper, che quando rincontra la struttura antigenica secerne una inteleuchina-2. Questa a sua volta attiva quei linfociti T citotossici che abbiano anch’essi riconosciuto lo stesso antigene, inducendoli a dividersi e a dare origine a un clone di cellule citotossiche, capaci di uccidere tutte le cellule che presentano quell’antigene. I linfociti B Nell’organismo umano, i linfociti B maturano nello stesso organo in cui nascono, il midollo osseo. In seguito passano nel circolo sanguigno, ma, essendo più sedentarie dei linfociti T, tendono a localizzarsi nei linfonodi, dove costituiscono ammassi cellulari, detti follicoli primari, e solo una piccola percentuale rimane in circolo. Di tutto il processo di maturazione, la tappa più importante porta alla comparsa delle immunoglobuline di membrana. Un linfocito B maturo viene attivato dal contatto con l’antigene che si lega specificamente alle immunoglobuline della classe IgM e IgD esposte sulla sua 242 F. T. Arecchi, Caos e Complessità nel Vivente membrana. In seguito a questo contatto specifico, il linfocito B diviene suscettibile a una serie di molecole segnale (linfochine) rilasciate da un linfocito helper, che abbia a sua volta riconosciuto lo stesso antigene. Il legame di queste linfochine con i loro recettori specifici induce il linfocito B a dividersi attivamente e a generare un clone di cellule figlie. Da queste prenderanno origine due tipi di cellule: le plasmacellule e i linfociti B memoria. Le prime sono a vita breve, capaci di produrre una gran quantità di anticorpi o immunoglobuline, e destinate a morire una volta cessata questa funzione; le seconde sono cellule con una vita molto lunga, con il compito di mantenere il “ricordo” dell’antigene che è stato riconosciuto per la prima volta dalla cellula capostipite del clone. Esistono cinque tipi diversi di immunoglobuline (Ig) con funzioni diverse: IgM: sono le Ig che vengono prodotte per prime nella prima risposta immunitaria. IgG: sono numericamente più rilevanti, vengono prodotte dopo le IgM nella prima risposta immunitaria e costituiscono le Ig di memoria; si legano ai macrofagi, permettendo loro di individuare efficacemente il bersaglio da fagocitare. Le IgG sono anche capaci di scatenare un’efficace cascata di reazioni biochimiche, che si concludono con l’uccisione del microrganismo. Inoltre, le IgG sono l’unica classe anticorpale efficace contro le tossine batteriche. IgA: sono le Ig quantitativamente più rilevanti nelle secrezioni bronchiali, salivari, intestinali e genitourinarie. Costituiscono un vero e proprio sistema difensivo nelle mucose, rappresentando la prima barriera specifica che si oppone alla penetrazione del materiale antigenico nell’organismo. IgE: sono responsabili delle manifestazioni allergiche; liberando istamina e altri mediatori. Le IgE svolgono inoltre un importante ruolo nella difesa dai parassiti, in particolar modo dai vermi. IgD: sono presenti solo sulla superficie dei linfociti B, con particolari funzioni di recettore. Allergie e intolleranze: Sono due disturbi con caratteristiche ben distinte, prima fra tutte la produzione di anticorpi. Nell’allergia, infatti, l’organismo produce quantità esagerate di IgE, mentre le intolleranze sono dovute generalmente a deficit enzimatici come avviene, per esempio, nell’intolleranza al latte causata da un deficit di lattasi. Inoltre, i tempi di manifestazione dei sintomi, dal momento di Capitolo 10: Conclusioni: linguaggi e complessità 243 contatto con l'antigene (la sostanza in grado di stimolare una reazione negli organismi ad essi sensibilizzati), sono diversi a seconda si tratti di allergia o intolleranza: più rapidi nella prima e più lunghi (anche di alcuni giorni) nella seconda. In alcuni casi l'intolleranza può restare latente nei primi anni di vita, per poi manifestarsi nell'età adulta. A differenza dell’allergia, l’intolleranza è “dose-dipendente”, cioè legata alla quantità di alimento che viene ingerito. 10.1.6 Malattie dinamiche L’emergenza di una dinamica anomala in un sistema fisiologico si manifesta come un improvviso cambiamento qualitativo nel comportamento di alcune variabili fisiologiche. Non si tratta di una infezione di un agente patogeno, ma di un fenomeno descrivibile in termini di dinamica non lineare e su cui si può intervenire con controlli se si hanno in anticipo indicatori dell’insorgere del fenomeno. Queste patologie sono state chiamate malattie dinamiche, la casistica è vasta (epilessia, tremori senili, singhiozzo, aritmie cardiache ecc.). Al riguardo è stato dedicato un numero speciale del giornale Chaos (vol.5, n.1 del Marzo 1995) dell’American Institute of Physics. Ci limitiamo a descrivere brevemente l’epilessia (F.Lopes da Silva et al., “Epilepsies as dynamical diseases of brain systems: basic models of the transition between normal and epileptic activity.”, Epilepsia, vol.44, Suppl.12, pp.72-83, 2003). Le reti di neuroni implicate nell’epilessia hanno una dinamica multistabile, cioè possono cadere in attrattori diversi. Illustriamo il fenomeno modellizzando due stati: uno normale di attività apparentemente casuale, e uno parossistico caratterizzato da oscillazioni sincrone (attacco epilettico). Nello spazio delle fasi, i due bacini di attrazione sono separati da una linea di confine (che in molti casi può essere un frattale). Si può ritenere che il passaggio dall’attività normale a quella parossistica abbia luogo attraverso tre scenari. Tipo (I): nelle cosiddette crisi di assenza la distanza fra i due attrattori è piccola rispetto a cervelli normali, per fattori genetici o di sviluppo, e pertanto piccole fluttuazioni dei parametri inducono una crisi. In altri tipi (epilessie della corteccia limbica) la distanza fra attrattori è grande e non bastano fluttuazioni, ma le reti hanno parametri instabili, modificabili da fattori endogeni (II) o esogeni (III). In questi casi il passaggio può essere graduale e se ne può anticipare l’insorgere monitorando l’EEG. 244 F. T. Arecchi, Caos e Complessità nel Vivente Abbiamo inserito questi cenni a sistema immunitario (con malattie autoimmuni) e malattie dinamiche perché in ambo i casi la patologia può essere vista come un difetto di comunicazione, cioè un errore linguistico. 10.1.7 Neuroeconomia, ecc. A questo punto, mi rendo conto che introdurre la polisemia è come scoperchiare il vaso di Pandora: si presentano moltissime situazioni familiari per cui finora sono state fornite spiegazioni insoddisfacenti. Ad esempio, la neuroeconomia, per cui è stato attribuito il Nobel 2002 per l’economia a Vernon Smith, consiste nella rinuncia al dogma post-cartesiano di agenti razionali che operano scelte economiche dopo aver conseguito la “certezza” sui dati che regolano una certa situazione (è questa la base dell’economia classica fondata da Adam Smith). Si indagherà piuttosto sul retroterra psicologico che influenza una scelta, cercando sperimentalmente di isolare quei meccanismi ripetitivi che permettono una previsione affidabile. Sono le emozioni, assai più della ragione, a guidare le nostre scelte economiche. E basta “guardare” nel cervello per scoprire che il senso di equità pesa più del vantaggio personale, come dimostra una ricerca recente (A.G.Sanfey. et al “The Neural Basis of Economic Decision-Making in the Ultimatum Game.”, Science, Jun, 13, pp.1755-1758, 2003). Concludiamo queste note dicendo che quelli offerti sono solo alcuni esempi. Questo libro va visto come una struttura aperta, da cui partire per affrontare in modo non convenzionale scenari noti ma non del tutto chiariti.