...

Complessità e caos - Facoltà di Scienze della Formazione

by user

on
Category: Documents
18

views

Report

Comments

Transcript

Complessità e caos - Facoltà di Scienze della Formazione
IL CAOS E LA REGOLA: UNA SFIDA ALLA COMPLESSITA’1
Santo Di Nuovo, Francesco Coniglione
1. Il caos e la complessità: un nuovo ‘paradigma’ scientifico?
«Dove comincia il caos si arresta la scienza classica […] L’aspetto irregolare della natura, il suo
lato discontinuo e incostante, per la scienza sono stati dei veri rompicapo o peggio mostruosità»
(Gleick, 1989, p. 9). Sembra che ad iniziare dagli anni ’70 la scienza abbia cominciato per la prima
volta ad affrontare ciò che fino ad allora era stato rigorosamente tenuto ai suoi margini. Il caos e la
complessità sono stati affrontati da molteplici punti di visti da scienziati di diversa formazione e in
campi diversi: dalla fisica alla chimica, dalla biologia alla psicologia, dall’economia alla sociologia.
Da questi studi e dalle riflessioni epistemologiche che ne sono scaturite s’è venuta a configurare
una vera e propria sfida al modo in cui sinora si è intesa la scienza. La ‘nuova scienza’ si
caratterizzerebbe infatti per la fine del riduzionismo, dell’analisi dei sistemi nei termini delle loro parti
componenti, del determinismo, della linearità dei processi; per un approccio olistico alla realtà,
screditato da decenni di positivismo e di logicismo riduzionista. E’ addirittura l’annuncio di una “terza
rivoluzione” nella fisica moderna, dopo quella della relatività e della meccanica quantistica (Casati,
1991).
Infatti le teorie della complessità e lo studio dei sistemi caotici sembrano contestare due
capisaldi della scienza empirica tradizionalmente intesa: il determinismo riduttivistico e la causalità
lineare (cfr. Musso, 1997). Tanto più un sistema è complesso, tanto più l’evoluzione di esso è
imprevedibile; minime variazioni delle condizioni iniziali producono effetti, anche molto rilevanti,
non deterministicamente connessi alle condizioni stesse: sviluppo che viene definito ‘caotico’ proprio
per la sua impredicibilità. Per questi aspetti la complessità costituirebbe una sfida alle regole della
scienza: “è l’irruzione dell’incertezza irriducibile nelle nostre conoscenze, è lo sgretolarsi dei miti
della certezza, della completezza, dell’esaustività, dell’onniscienza che per secoli – quali comete –
hanno indicato e regolato il cammino e gli scopi della scienza moderna” (Bocchi e Ceruti, 1991, pp. 78).
Lo studio della complessità, che nasce con la riflessione sulla teoria dei sistemi avanzata da von
Bertalanffy (1971), a sua volta proceduto da altri pionieri (ad esempio il russo Bogdanov: cfr. De
Angelis 1996), ha ricevuto nuovo impulso negli ultimi due decenni dai contributi di filosofi e
scienziati di varia formazione scientifica (Morin, 1984; Atias e Le Moigne, 1984; Prigogine e
Stengers, 1984), e da quei ricercatori che hanno dato vita nel 1984 all’Istituto di Santa Fe (Waldrop,
1992). Essa ha finito con l’interessare progressivamente ambiti sempre più diversi delle scienze, dalla
biologia alla fisica e alla chimica, dalla psicofisiologia all’epistemologia genetica e alle neuroscienze.
In particolare nelle scienze umane la teoria della complessità ha avuto interessanti applicazioni in
ambito cognitivo (Van Geert, 1994; Robertson e Combs, 1995; Finke e Bettle, 1996), riabilitativo
(Guess e Sailor, 1993), pedagogico (Cambi, Cives, Fornaca, 1991; de Mennato 1999a), sociologico
(Luhmann, cfr. Zolo 1983; Eve, Horfsall e Lee, 1997), etico (Quattrocchi, 1984), giuridico (Van de
Kerchove e Ost , 1988; Aleo, 1999).
Di recente anche la psicologia clinica si è aperta alle prospettive della complessità e della
causalità non-lineare sia nella definizione e nella comprensione delle psicopatologie sia nella ricerca
sugli interventi psicoterapici (Freeman, 1992; Orsucci, 1996; Bütz, 1997; Chamberlain e Bütz, 1998;
Pubblicato in: Psicologia a più dimensioni (a cura di M. Bellotto e A. Zatti), ed. F. Angeli, Milano 2002, pp.
102-130.
1
La versione definitiva del testo è stata redatta durante un soggiorno di studio e ricerca presso l’Istituto di
Psicologia dell’Università Adam Mickiewicz di Poznan (Polonia). Gli autori ringraziano il direttore dell’Istituto,
prof. Jerzy Brzezinski, per aver discusso con loro gli argomenti qui trattati ed aver fornito utili suggerimenti.
1
Ceruti e Lo Verso, 1998). “Il risultato di questo cambiamento di prospettiva – ha scritto Mahoney
(1992, p. 14) – è stato letteralmente destabilizzante per il tradizionale punto di vista sulla verità, sulla
realtà e la conoscenza ma, al tempo stesso, entusiasmante per nuove e non tradizionali escursioni in
questi stessi ambiti”.
In effetti, la ricerca clinica e psico-sociale – ambiti su cui sarà centrato il presente contributo - è
ricca di esempi che pongono con evidenza il problema della complessità, dell’indeterminismo e della
non-linearità.
a. Un primo esempio deriva dall’orientamento alla scelta della facoltà universitaria. La scelta, e
l’orientamento ad essa, tiene conto di fattori abbastanza prevedibili e ‘regolari’: corrispondenza
tra fattori soggettivi (attitudini, interessi, motivazioni, capacità di adattamento, ecc.) e ‘oggettivi’:
tipo di preparazione acquisita, tipo di discipline previste nei curriculi, difficoltà del corso. A questi
si associano fattori aleatori, alcuni parzialmente prevedibili (andamento del mercato del lavoro e
prospettive occupazionali), altri particolarmente complessi e difficilmente prevedibili quali le
possibili variazioni nel tempo delle condizioni economiche, motivazionali, emotive, le variazioni
nei curriculi, le condizioni di adattamento richieste dalla specifica situazione di facoltà, ecc. Sulla
possibilità di affrontare questa complessità torneremo dopo aver presentato alcuni strumenti
metodologici alternativi a quelli della ricerca tradizionale, insufficienti a questo scopo.
b. Un secondo esempio – che pure verrà ripreso più avanti - può essere tratto dagli studi
sull’efficacia della psicoterapia. Anche in questo caso è possibile distinguere fattori le cui
regolarità sono abbastanza note (relazione tra tecniche, sintomi, caratteristiche del terapista e del
paziente) e cambiamenti aleatori riguardanti status economico, luogo di residenza, relazioni
sociali e affettive, subentrare di malattie fisiche o lutti familiari, interruzioni forzate, intromissioni
incontrollabili di terze persone, ecc.: insomma quei fattori imponderabili che rendono il procedere
della terapia non lineare e ‘caotico’.
Le realtà complesse e multideterminate, e i comportamenti caotici da esse esibiti, comportano due
aspetti:
- limitata scomponibilità della struttura complessa dell’evento, per cui le operazioni di riduzione
sono sempre molto limitative della conoscenza della realtà;
- limitata prevedibilità degli sviluppi futuri.
Queste caratteristiche - spesso associate, ma non sovrapponibili - contraddicono i principi-base
delle scienze positive. La riconsiderazione di esse ha costituito un elemento di crisi nelle scienze
‘forti’ e a maggior ragione è elemento centrale della revisione delle metodologie delle scienze umane,
di per sé più esposte ai rischi della imponderabilità e complessità connessi all’analisi della
soggettività.
Nel presente contributo si cercherà di discutere la possibilità di realizzare nell’ambito delle
ricerche psico-sociali un approccio simile a quello adoperato in altre scienze per i sistemi caotici e
complessi; ma prima di far ciò riteniamo sia necessario rispondere ad alcune domande di carattere
epistemologico, e cioè:
- Le nuove prospettive concernenti il caos e la complessità possono configurare un modo nuovo di
essere della scienza (‘paradigma’ in senso kuhniano) che segna una discontinuità rispetto sia alla
scienza classica sia a quella che si è consolidata negli ultimi venti anni?
- Oppure il problema consiste piuttosto nella necessità di adeguare le immagini filosofiche ed
epistemologiche della scienza ad una prassi di ricerca che mantiene comunque una continuità col
passato, pur nelle differenze di metodologia e analisi dei dati empirici? E in particolare quali sono
le ricadute sulla ricerca psico-sociale?
2. “Universo-orologio” e determinismo
2.1 L’immagine classica della scienza
L’immagine dell’universo consegnateci dalla fisica classica, così come forgiata da Galilei e
Newton, ci descrive gli eventi della natura come analoghi a quelli di un perfetto orologio; un orologio
2
che aveva solo bisogno, pensava Newton, di essere ricaricato di tanto in tanto da Dio; o che, come
riteneva Leibniz, andava avanti da solo in moto perpetuo; ma in ogni caso una macchina caratterizzata
dalla immutabile precisione e dalla massima prevedibilità. Il corso delle sue lancette, per esprimerci
nei termini della metafora, era segnato sin dall’inizio, al momento in cui esso veniva caricato, ed era
sempre possibile, con perfetta simmetria, prevedere il loro stato in qualsiasi momento del futuro o
retrovedere nel passato il cammino da esse percorso.
Alla base di tale immagine sta l’incorporazione della matematica nella scienza della natura,
evento che segna il più evidente distacco dalla scienza antica. A tale scopo, secondo Galilei, è
necessario liberare la natura da tutti i suoi accidenti, semplificarla, renderla sempre più ideale, ridurla
a parametri noti, tali da rendere applicabili i calcoli geometrici. E’ cioè necessario non ragionare più
su sfere e superficie scabre, imperfette, rugose o cedevoli, così come ci sono mostrate da una
circospetta indagine empirica, bensì prendere in esame sfere ideali, corpi perfettamente lisci, moti
perfettamente uniformi. Insomma bisogna elaborare concetti che non possono essere la semplice
astrazione dall’esperienza, dalle sue proprietà comuni, ma piuttosto costituiscono una creazione
controfattuale, in polemica con l’esperienza stessa. La scienza non consiste nella semplice
registrazione e generalizzazione dei fenomeni, in tutte le particolarità del loro svolgersi, bensì mira a
cogliere il processo nella sua forma pura, libera da influssi casuali. Non è un caso che un contestatore
della scienza moderna e della sua “irrealistica” immagine del mondo come Feyerabend (1979) critichi
appunto per ciò la metodologia di Galilei, rivendicando la maggior capacità della scienza di Aristotele
di rimanere aderente all’empirico, al senso comune.
Sin dalle origini della scienza moderna, dunque, si è ben consapevoli della ‘imperfezione’ del
mondo, dal suo andamento ‘caotico’ ed irregolare, della molteplicità dei fattori che ne influenza il
corso, della difficoltà ad applicare una matematica lineare ad una natura nella quale non sono
ritrovabili quelle perfette forme postulate dalla geometria. La scienza per Galilei, in polemica con la
fedeltà al mondo fenomenico della fisica aristotelica, consiste nel creare modelli fisici non realistici,
costruiti mediante l’assunzione di valori e proprietà non empiricamente riscontrabili e quindi che non
possono essere il frutto dell’astrazione di proprietà comuni. E’ proprio grazie a tale operazione
idealizzante, grazie appunto alla sua capacità di creare mondi possibili di terse e perfette figure concettuali, che si è potuta costituire la scienza moderna; solo grazie alla sostituzione dell’esperienza
scientifica a quella di tutti i giorni, dell’oggetto fisico all’oggetto comune, la matematica ha potuto
congiungersi con la “discretezza” dei dati sensibili.
L’astrazione idealizzante, dunque, è stato un momento fondamentale per la costruzione della
dinamica galileiana e della nuova scienza della natura. Grazie ad essa, la matematica da tecnica e
strumento di calcolo, diventa metodo di conoscenza, assumendo un vero e proprio ruolo costitutivo. Si
potrebbe dire che il problema del rapporto tra essa e la natura viene ad invertirsi rispetto all’età
classica. Il problema non è più: data una natura, trovare la tecnica che la descriva o lo strumento
migliore per la sua conoscenza; bensì, data la matematica, trovare o ‘creare’ una natura che sia da essa
concettualizzabile; ovvero rispondere alla domanda: “come deve essere la natura affinché essa possa
essere trattata matematicamente”? Galilei rispose che ciò è possibile solo semplificando ed
idealizzando il nostro mondo naturale, solo costruendo di esso modelli ideali ai quali fossero
applicabili gli strumenti della matematica. Viene a crearsi così un sempre più accentuato scarto tra
l’immagine scientifica della natura e quella consegnataci del senso comune, nella complessità e
caoticità degli eventi che ci circondano.
La scienza successiva non si discostò da questo modo galileiano di intendere i concetti da essa
impiegati, anche se a ciò non sempre si accompagnò una adeguata consapevolezza metodologica. Non
vi sono dubbi che Newton, nonostante abbia utilizzato una fraseologia induttivista che gli veniva dalla
filosofia del suo tempo, abbia fatto uso nella sua dinamica di concetti ideali e modelli matematici (cf.
Such 1977, 1990; Boscarino 1990), perfezionando ulteriormente la fusione tra matematica e realtà
grazie alla creazione di un nuovo potente strumento quale il calcolo infinitesimale, ignoto a Galilei e
Cartesio: il frutto di questa imponente costruzione è quella che viene chiamata meccanica classica
(cfr. Israel 1996, pp. 108-113). Anche i grandi scienziati dell’800 non ebbero dubbi circa il modo di
interpretare il proprio lavoro teorico; così Boltzmann, in polemica con l’orientamento tipicamente
espresso da Mach, riteneva che nessuna equazione fosse una semplice trascrizione dell’esperienza, ma
piuttosto una sua idealizzazione, per cui nella conoscenza il pensiero non riproduce o semplicemente
astrae dall’esperienza, ma fa di essa un modello (Bild) mentale, grazie al quale riesce a rappresentare
una molteplicità di fenomeni (Ageno 1992). Sulla medesima via troviamo anche Hertz e lo stesso
3
Einstein (Barone 1983). Uno dei più chiari esempi in questo senso è fornito da Werner Heisenberg
(1959, tr. it. 1978) il quale ben intese il significato dell’opera di Newton e quindi il senso complessivo
del procedere della scienza, mettendo in luce il modo nuovo in cui essa forgia il proprio strumentario
teorico mediante la procedura della idealizzazione, che è da tener distinta dalla normale astrazione
empirista e che è piuttosto assimilabile al modo con cui procede l’arte (Heisenberg 1966). Una
consapevolezza ben presente anche nella scienza moderna, persino in ambiti di ricerca che sembrano
più legati a ideali descrittivisti: anche la metallurgia, ha sottolineato John Archibald Wheeler, «non ci
mostra mai il ferro perfetto, mai un perfetto reticolo cristallino. Solitamente troviamo protuberanze,
occlusioni, fratture e imperfezioni che separano campi di struttura cristallina quasi ideale - ma mai
assolutamente ideale... Non [per questo] abbandoniamo il concetto di cristallo ideale, quando
apprendiamo che la natura non ne offre mai uno» (Wheeler 1983, p. 398).
2.2 I riflessi epistemologici
Ma la meccanica classica e tutta la scienza che l’ha assunta come modello hanno finito per
condividere un ideale conoscitivo contrassegnato da alcuni caratteri che si riassumono in alcune
parole chiave. Innanzi tutto meccanicismo, ovvero convinzione che tutti i fenomeni fossero spiegabili
in termini di elementi ultimi, tra di loro in interazione secondo le leggi della meccanica newtoniana
(Israel 1996, Cini 1994); di conseguenza riduzionismo, ovvero la tesi che «le proprietà globali sono
univocamente determinate dalle interazioni tra componenti (ad esempio, la simmetria di un cristallo è
determinata dalla simmetria dei legami interatomici) e pertanto la fisica macroscopica (o macrofisica)
è completamente deducibile dalla fisica delle interazioni fondamentali (o microfisica)» (Arecchi 1986,
p. 69). Alla base dell’impostazione riduzionistica sta la convinzione che il mondo microscopico sia
più semplice di quello macroscopico e quindi che per comprendere quest’ultimo sia sufficiente scomporre i sistemi complessi in modo da trovare le loro componenti semplici governate dalle tradizionali
leggi della meccanica. Una volta fatto ciò si pensa sia possibile formulare una espressione matematica,
detta lagrangiana, grazie alla quale ricavare (mediante integrazione) le equazioni dinamiche che
descrivono il divenire del sistema. Trovata la lagrangiana tutto era spiegato. Dunque determinismo,
ovvero l’idea che ogni processo fisico sia governato da leggi causali che definiscono in modo univoco
i suoi stadi futuri, una volta noto lo stato iniziale.
Tale impostazione viene sintetizzata in maniera esemplare dal grande scienziato Laplace, che in
un famoso passo del suo Essai philosophique sur les probabilités fornisce il sigillo filosofico della
scienza classica: «Dobbiamo dunque considerare lo stato presente dell'universo come effetto del suo
stato anteriore, e come causa di quello che seguirà. Una intelligenza che a un dato o istante conoscesse
tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se
fosse inoltre abbastanza vasta da sottoporre questi dati all’analisi, abbraccerebbe nella stessa formula i
moti dei più grandi corpi dell'universo e quelli dell’atomo più leggero. [...] La regolarità che
l’Astronomia ci mostra nel moto delle comete ha luogo, senza alcun dubbio, in tutti i fenomeni. La
curva descritta da una semplice molecola d’aria o di vapori è regolata in modo altrettanto certo delle
orbite planetarie: non vi è alcuna differenza fra di esse se non quella che vi mette la nostra ignoranza»
(Laplace 1825, tr. it. p. 33).
In questo brano sono contenuti tutti gli elementi della concezione classica della scienza,
consegnataci da Newton e dai suoi successori (anche se ovviamente non sono mancate le voci di
dissenso, come quelle di Pierre Duhem ed Ernst Mach). Da mettere in evidenza è come in questa
descrizione della conoscenza umana fornita da Laplace sia stato bandito del tutto il caso, che viene
derubricato a mera espressione della nostra ignoranza: una volta che si posseggano le informazioni
complete (cioè l’espressione quantitativa delle forze, le posizioni e le velocità iniziali dei corpi) e si
abbia la capacità di risolvere le relative equazioni differenziali, allora tutto diventa prevedibile e la
descrizione dello stato e del divenire dell’universo è esaustiva. Ciò che chiamiamo caso non è altro
che la nostra incapacità, tutta umana, di tener conto di ciò che invece la mente divina, nella sua
onniscienza, ha presente. La complessità del reale è una pura apparenza, in quanto esso è ricostruibile
a partire da semplici leggi fondamentali, purché si conoscano con esattezza le condizioni iniziali dei
singoli processi fisici.
Certo, di fronte alla circostanza che non si potevano di fatto conoscere tutte le condizioni
iniziali del sistema, si pensava che una loro conoscenza approssimata fosse sufficiente per calcolare in
modo pure approssimato il comportamento del sistema stesso. In tal caso si faceva ricorso, come
proponeva appunto di fare Laplace, al calcolo delle probabilità: esso permetteva di conciliare la
4
convinzione sulla natura determinista del mondo con la necessità di approntare uno strumento
scientifico che fornisse quelle conoscenze ‘ausiliarie’, in grado di farci superare lo scarto tra la nostra
conoscenza del reale e la sua natura. Ancora oggi, di fronte alla incertezza derivante dalla
imprevedibilità, il calcolo probabilistico aiuta permettendo di effettuare previsioni attendibili nel caso
di eventi ripetibili per i quali si possono compiere serie di osservazioni, oppure di prendere decisioni
non aleatorie nei confronti di eventi futuri non ripetibili. L’introduzione del calcolo delle probabilità
non muta in nulla, come già evidenziava Laplace, il carattere deterministico e meccanicista del
mondo, anzi l’approccio probabilistico è spesso subordinato ad una visione deterministica della
causalità (Israel, 1996).
2.3 L’inizio della crisi: le riflessioni sul caos
La limitazione epistemica derivante dalla incompleta conoscenza dei sistemi fisici era stata
evidenziata anche da Poincaré col famoso problema dei tre corpi (Barrow-Green 1996), in cui si
dimostrava che anche in un sistema assai semplice come quello costituito da tre corpi interagenti (per
es. nel caso della meccanica celeste, il sole e due pianeti) diventa impossibile fare previsioni esatte sul
comportamento delle soluzioni delle equazioni dinamiche, a causa dell’inesattezza delle informazioni
che possediamo sullo stato iniziale del sistema: «Una causa piccolissima che ci sfugge determina un
effetto considerevole che non possiamo non notare, e allora diciamo che questo effetto è dovuto al
caso. Se conoscessimo esattamente le leggi della natura e la situazione dell’universo nell’istante
iniziale potremmo predirne esattamente lo stato in un istante qualunque. Ma, anche quando le leggi
naturali non avessero più segreti per noi, non potremmo conoscere la situazione che
approssimativamente. Se questo ci permette di prevedere con la stessa approssimazione la situazione
ulteriore, ciò è sufficiente, e noi diciamo che il fenomeno è stato previsto, che esso è regolato da leggi;
ma non è sempre così, in quanto può accadere che piccole differenze nelle condizioni iniziali ne
generino di molto grandi nei fenomeni finali; un piccolo errore riguardo alle prime produrrebbe un
errore enorme sulle ultime. La predizione diviene impossibile e abbiamo così il fenomeno casuale»
(Poincaré 1991, p. 138).
Già è contenuta in questo brano di Poincaré tutta la problematica che sta alla base della nascita
delle teorie del caos e della complessità; solo che nel matematico francese permaneva ancora quella
tipica impostazione laplaciana che contrappone conoscenza umana e realtà effettiva della natura,
attribuendo solo alla prima l’impossibilità della previsione ed invece trasferendo sulla seconda la tersa
struttura analitica dell’analisi infinitesimale. In tale passaggio si evidenzia il pericolo annidato nel
modo di concepire l’impresa scientifica consegnatoci dai suoi fondatori: la possibilità che il modello
ideale e matematizzato si sostituisca alla natura, trasformandosi in una vera e propria ontologia
naturalistica e così reificandosi in permanenti strutture metafisiche. Si smarrisce la consapevolezza
metodologica dell’artificialità di ogni modello scientifico, con la conseguenza di un cortocircuito
teorico tra conoscenza della natura e natura conosciuta.
3: L’immagine epistemologica della ‘nuova scienza’: dall’ordine al caos
3.1 Le regole del caos
Quanto detto trova una sua diretta applicazione nelle teorie del caos che sono state proposte
negli ultimi anni, e che hanno modificato radicalmente l’immagine della scienza. Ma in cosa
consistono in sostanza le acquisizioni concettuali che sono state il frutto della scienza del caos? Le
molte situazioni sperimentali studiate (spesso assai semplici, come il caso delle oscillazioni del
pendolo vincolato, di semplici calcoli numerici o della crescita della popolazione di una data specie in
un determinato ambiente) hanno sottolineato l’importanza della cosiddetta “dipendenza sensibile dalle
condizioni iniziali”: essa, ben nota ai matematici sin dalla fine dell’Ottocento (oltre a Poincaré, anche
Hadamard), ha avuto una applicazione in campo fisico quando il meteorologo Lorenz, studiando nel
1963 mediante simulazioni al calcolatore un modello di evoluzione dell’atmosfera, ha scoperto un
sistema di equazioni che danno una descrizione semplificata del moto atmosferico. Tuttavia egli si
avvide che tali equazioni sono non-lineari: a meno di non conoscere lo stato iniziale del sistema con
infinita precisione, la nostra capacità di previsione presto svanisce. Questa estrema sensibilità sul dato
di partenza (appunto di “dipendenza sensibile dalle condizioni iniziali”) significa che le strutture
circolatorie dell’atmosfera potrebbero essere determinate dalla più piccola perturbazione: anche dal
5
battito d’ali di una farfalla. Queste indagini di Lorenz, che di solito sono ritenute l’atto ufficiale di
nascita della “scienza del caos”, ed anche altre simili effettuate in seguito (come gli studi sulle turbolenze nei liquidi di David Ruelle), hanno messo bene in luce come piccolissime variazioni nelle
condizioni iniziali di un sistema dinamico producono variazioni che crescono esponenzialmente
all’evolvere del sistema fino a raggiungere uno stato in cui non è possibile più ricostruire lo stato
iniziale del sistema (se ne perde la “memoria”) e viene a cadere ogni possibilità di previsione degli
stati futuri. E’ appunto quanto accade con i fenomeni meteorologici, dove le capacità di previsione
raggiungono al massimo una o due settimane, appunto per l’estrema sensibilità alle condizioni iniziali
da essi posseduta.
Abbiamo in questo caso a che fare col cosiddetto “caos deterministico”, caratterizzato dal fatto
che il comportamento caotico è determinato da equazioni di tipo deterministico molto semplici
(Schuster 1984; Croquette 1991). E’ sulla base di comportamenti simili che molti scienziati impegnati
in queste ricerche hanno ritenuto ormai definitivamente venute meno le assunzioni di base della fisica
classica, e cioè il determinismo ed il riduzionismo.
3.2 Le strutture dissipative e l’auto-organizzazione dei sistemi
Un altro settore assai importante che ha anche contribuito alla crisi della visione classica della
scienza è stato quello che ha studiato le cosiddette strutture dissipative, cioè sistemi termodinamici
non isolati, in cui sia ha interscambio di energia con l’esterno. In questo caso ad essere messo in crisi
è il concetto di reversibilità del tempo. La sua analisi critica è nata nell’ambito della termodinamica e
si è in particolare sviluppata con lo studio dei sistemi termodinamici non in equilibrio da parte di Ilya
Prigogine. L’irreversibilità è tipica dei fenomeni della termodinamica ma è anche la caratteristica di
tutti i fenomeni reali. Con la irreversibilità il tempo ha una ‘freccia’: c’è un prima e un dopo. Invece
ciò non avviene nei fenomeni reversibili tipici della meccanica e dell’elettromagnetismo. Mentre i
fenomeni reversibili possono svolgersi in un senso o nell’altro rispetto al tempo, quelli irreversibili
vanno in un’unica direzione: una zolletta di zucchero che si scioglie nell’acqua disperderà in modo
uniforme le proprie molecole nel liquido, ma mai potremo vedere che le molecole si riaggregano per
formare nuovamente la zolletta di zucchero. Tuttavia ciò vale per sistemi in equilibrio termodinamico
che, pur potendo scambiare energia con l’ambiente esterno, sono caratterizzati in ogni loro parte dalla
presenza uniforme di proprietà come la temperatura, la pressione, la composizione chimica, ecc. Ma in
natura non esistono sistemi in equilibrio: pur realizzandosi comportamenti organizzati ed ordinati,
tuttavia si è sempre lontani dall’equilibrio (Prigogine 1981).
Merito di Prigogine è quello di aver studiato sistemi aperti che scambiano materia ed energia
con l’ambiente circostante, cioè sistemi dissipativi che ricevono e consumano continuamente energia
tratta dall’esterno. Le strutture dissipative sono caratterizzate dalla loro sensibilità alla fluttuazione:
mentre nei sistemi isolati vicini all’equilibrio le fluttuazioni si attenuano rapidamente, invece una
piccola fluttuazione in una struttura dissipativa non lineare può essere amplificata e far passare il
sistema ad una situazione macroscopica nuova, impredicibile quanto la fluttuazione che la causa. Tale
situazione può far comparire un ordine assente nel sistema originario: il sistema si auto-organizza
mediante una spinta autopoietica. Ecco perché Prigogine parla di “ruolo costruttivo del non
equilibrio”. Un esempio è dato dalla instabilità di Bénard: un liquido riscaldato, arrivato ad un certo
gradiente, manifesta una struttura di colonne montanti di convezione (cfr. Prigogine 1981, pp. 81-83;
Vidal e Roux, 1991). Da ciò il grande passo: la vita è un ordine che sorge per fluttuazione in un
sistema aperto, quale quello della superficie terrestre, che riceve energia dal sole. Prigogine sembra
gettare un ponte tra la scienza meccanicistica newtoniana (con i caratteri precedentemente detti) e il
mondo della vita. Anche in ciò si manifesta la fine del determinismo: «Il determinismo dinamico cede
il posto alla complessa dialettica tra caso e necessità, alla distinzione tra le regioni di instabilità e le
regioni tra le due biforcazioni in cui le leggi medie, deterministiche, dominano. L’ordine per
fluttuazione contrappone all’universo statico della dinamica un mondo aperto, la cui attività genera la
novità, la cui evoluzione è al tempo stesso evoluzione, creazione e distruzione, nascita e morte»
(Prigogine e Stengers 1981, pp. 196-197).
3.3 Un cambiamento di paradigma?
Caos, irreversibilità, strutture dissipative, ordine dal caos: con la nascita di questi nuovi campi
del sapere sembra proprio che la fisica di oggi abbia operato un cambio di paradigma. Termini una
volta in disuso o screditati sembrano ritornare di nuovo attuali: totalità, olismo, organicismo,
6
finalismo, creazione dal nulla. Alla fisica dei corpi ideali, delle superfici perfettamente lisce, dei gas
perfetti, degli stati di equilibrio, dei sistemi isolati, insomma alla fisica della linearità, succede la fisica
dell’irregolare, del singolare, del complesso, del non isolato, della interazione, ovvero della nonlinearità. Una fisica, insomma, più “flessibile”, più umana, più sensibile alle peculiarità ed alle piccole
differenze, meno astratta ed universalizzante. Ed in effetti, i risultati conseguiti nell’ormai imponente
letteratura scientifica sui sistemi caotici e sulle strutture complesse (di cui si può trovare una sintesi
rigorosa in Nicolis, 1995) hanno senza dubbio portato fondamentali contributi alla nostra conoscenza
della natura in settori che sono stati sinora trascurati dalla scienza ufficiale. Non mancano tuttavia
interpretazioni – quale quella del ‘costruttivismo radicale’ - che lasciano adito a dubbi e
contraddizioni, in quanto operano un passaggio, non sempre consapevole, dal piano epistemico a
quello ontologico. Questo rischio, che si annidava nello stesso atto di nascita della nuova scienza, si
accompagna a volte all’attivazione di veri e propri ‘miti’ come quelli indicati da Eve (1997): che il
caos equivalga ad una completa casualità, che non esista via di mezzo tra sistemi caotici e non caotici,
che le teorie del caos siano utilizzabili solo nelle scienze naturali e che rendano impossibile una
scienza sociale empirica, oppure al contrario, che la loro applicazione nelle scienze sociali debba
sostituire del tutto ogni altro approccio tradizionale.
Per evitare questi rischi è bene precisare alcuni punti nel merito delle nuove teorie del caos e
della complessità.
3.4 Caos: al di là dei ‘miti’
Innanzitutto il comportamento caotico e complesso è generato da equazioni assai semplici;
quando si adoperano nuovi strumenti matematici, questi sono nuovi rispetto alla fisica classica, ma
non certo da un punto di vista matematico (è il caso dell’utilizzo fatto da Thom della topologia, che è
una scienza assai “tradizionale” e “razionale”); i sistemi non-lineari sono ben noti da tempo, anche se
il loro studio è stato enormemente potenziato solo di recente grazie alla possibilità di simulare al
computer, mediante un numero altissimo di iterazioni, comportamenti altrimenti non analizzabili con i
tradizionali strumenti matematici.
Inoltre è ormai ben chiaro che non è vero che impredicibilità ed indeterminismo vanno insieme:
è infatti possibile concepire un universo completamente deterministico nel quale il futuro è sconosciuto ed inconoscibile e nel quale sono pertanto possibili delle novità imprevedibili. Come affermano
Robertson e Combs (1995, pp. 12-13): «Determinismo e predicibilità non sono sinonimi: equazioni
deterministiche possono portare a risultati non prevedibili – caos – quando c’è un feedback all’interno
del sistema». E’ stato anche scoperto da Mitchell Feigenbaum che la transizione (mediante
raddoppiamenti di periodo) verso il caos manifesta certe caratteristiche universali indipendenti dal
sistema in esame: «anche se con il caos viene meno la predicibilità, c’è pur sempre un ordine
matematico soggiacente» (Davies, 1998, p. 7). Infine, è ormai convinzione comune che i
comportamenti caotici sono nella realtà molto più numerosi di quelli regolari: la regolarità e la
linearità sono una eccezione e non la regola.
Per cogliere questa irregolarità è stata creata una nuova geometria, diversa da quella euclidea: la
geometria dei frattali di Benoit Mandelbrot (1975, tr. it. 1987). E’ grazie a questa che è possibile descrivere le traiettorie invarianti di evoluzione dei sistemi caotici. La geometria del caos è la geometria
non analitica degli oggetti frattali ed è frattale un oggetto (ad esempio la curva di Koch) caratterizzato
dalla autosomiglianza.
La stessa eleborazione della “fuzzy logic” ad iniziare dagli anni ’60 dal matematico di origine
iraniana Zadeh è avvenuta allo scopo di permettere la descrizione razionale di processi non
dicotomici, in cui i valori di verità non siano polarizzati tra lo zero (il falso) e l’uno (il vero), in modo
da creare un’interfaccia tra dati descritti simbolicamente per mezzo di termini del linguaggio comune
(come “alto”, “caldo”, “circa…”, ecc.) e dati numerici, permettendo in tal modo di avvicinare la
complessità ricca di sfumature del mondo reale alla concettualizzazione necessaria per intervenire in
esso. Ma anche in questo caso, la trattazione del “vago”, dello “impreciso”, del “confuso” fa uso di un
linguaggio matematico estremamente rigoroso e formalizzato che ha trovato espressione in una nuova
branca scientifica coltivata per lo più nei dipartimenti di matematica all’interno di una teoria degli
insiemi generalizzata mediante l’introduzione del concetto di sottoinsieme fuzzy, della quale la teoria
degli insiemi standard non sarebbe altro che un caso particolare.
A livello metodologico, occorre prendere atto della inadeguatezza degli strumenti concettuali
che sono stati sinora adoperati per capire la natura della scienza, sia essa quella classica che quella
7
postclassica, e proporre metodologie capaci di rispondere in modo più adeguato alle esigenze poste
dalla teoria della complessità. Ciò consente anche di rispondere adeguatamente alla domanda se si sia
dimostrata inadeguata l’immagine di scienza interna ad una certa tradizione epistemologica, oppure la
scienza (e la sua razionalità) in quanto tale. Sono entrati in crisi dei paradigmi scientifici oppure dei
paradigmi metodologici? La consapevolezza di questo dilemma è presente tra gli stessi scienziati
creatori delle nuove teorie di cui ci stiamo occupando.
3.5 L’esigenza dei modelli
Emerge chiaramente la consapevolezza, sempre più maturata negli ultimi tempi, che
l’evoluzione della conoscenza deve essere intesa nei termini di una successione di modelli, ciascuno
dei quali è più accurato dei precedenti, ma sempre incompleto2. Afferma Mandelbrot, il creatore della
geometria frattale: «Quando si rappresenta un fenomeno reale si fa un modello, poi lo si corregge
ancora, lo si migliora costantemente, ma il modello in se stesso non va mai confuso con la cosa reale,
la realtà è sempre più complicata del modello» (Mandelbrot 1989, p. 17).
E’ questo il cuore del modo di procedere della scienza classica: essa costruisce degli oggetti
ideali non esistenti in natura in quanto solo ad essi sono applicabili le equazioni matematiche. La
termodinamica non ha a che fare con i gas, ma con i gas ideali; la dinamica non tratta dei corpi, ma di
corpi perfettamente rigidi ed elastici; la superficie su cui rotola la sfera di Galilei non è una superficie
qualunque, ma una superficie perfettamente liscia e così via. Insomma le teorie scientifiche non
parlano della natura in sé e per sé, ma di un suo modello idealizzato: scambiare tale modello con la
natura in quanto tale e quindi ritenere che la realtà sia fatta di gas ideali, di corpi rigidi e così via
sarebbe scambiare il piano epistemico per quello ontologico. Ed affinché il modello sia applicabile
alla realtà è necessario introdurre in esso delle correzioni che ne modificano le assunzioni irrealistiche
e le sostituiscano con descrizioni realistiche, in tal modo complicando l’espressione della legge;
oppure è necessario mettere in atto delle procedure che permettano un calcolo approssimato che tenga
conto delle deviazioni che il comportamento reale del sistema fisico osservato mette in luce rispetto
alle previsione del modello idealizzato.
Se si assolutizza un approccio matematico di tipo lineare, la possibilità, dimostrata dal teorema
di esistenza e unicità delle equazioni differenziali ordinarie, di trovare una soluzione univoca una
volta note le coordinate di partenza, ha la sua traduzione filosofica nel principio del determinismo
illustrato da Laplace. Quello che all’inizio era un postulato metafisico, che reggeva tutta la scienza a
partire dal ’600, riceve una sua traduzione nel linguaggio matematico (Cauchy dimostra il teorema nel
1837) e quindi rimbalza sul reale giustificandone una lettura determinista: una semplice concezione
filosofica del mondo diventa ora il risultato della sua conoscenza scientifica e viene avallato dai crismi
della sua razionalità.
Viceversa, la consapevolezza del carattere modellizzante della scienza mette in luce come
l’unica relazione possibile tra questa e la ‘rugosa’ esperienza, la vaga e sfuggente fisionomia del
mondo che ci circonda, non è altro che quella di concretizzazione: la “nuova scienza” del caos e della
complessità non farebbe altro, in tal modo, che far cadere alcune assunzioni idealizzanti presenti nella
fisica classica in modo da render conto di alcuni aspetti della realtà trascurati, e ben a ragione, dalla
prima. La geometria frattale, la fuzzy logic, la termodinamica dei processi irreversibili, la fisica
nonlineare ecc., sono momenti successivi, tappe, del progressivo articolarsi della scienza verso
modelli sempre più concreti nei quali sono rimossi presupposti che, alla luce delle nuove indagini e
dei nuovi ambiti fenomenici studiati, si dimostrano “irrealistici” e non adeguati alla loro
concettualizzazione. Ma pur sempre modelli rimangono, essendo la distanza tra conoscenza e reale
colmabile solo asintoticamente, a meno di non prendere la scorciatoia del misticismo, come accade in
Fritjof Capra (1982, 1997).
La ‘rivoluzione’ nella scienza, allora, non è altro che la scoperta dei limiti di validità del
dominio di una data teoria, scoperta che viene fatta quando si è voluto, per analogia, estendere le
formulazioni della teoria al di fuori del suo dominio originario. In tale senso – ha affermato Bernardini
(1993, p. 23) - «non ci sono più “leggi sbagliate” in fisica finché limitiamo il loro uso ad un
ragionevole ambito di validità. Possono tuttavia esserci inappropriate generalizzazioni e fallimenti al
di fuori dell’ambito di applicazione originario: ciò non implica che le leggi siano sbagliate, ma
2
Questo approccio basato sulla costruzione di modelli ideali è stato particolarmente sviluppato all’interno della
cosiddetta ‘Scuola di Poznan’ (cfr. Nowak, 1980; Brzezinski e al., 1990; Coniglione, 1991).
8
soltanto che sono state usate in modo non corretto». Prigogine rivoluziona la termodinamica non
perché ne rivela errate le formulazioni, ma in quanto ne esibisce i limiti di applicazione e quindi
formula, per le strutture dissipative che stanno fuori del suo dominio, una nuova teoria più ampia.
3.6 Una metodologia dal caos: applicabilità alle scienze psico-sociali
Assumendo un atteggiamento metodologico corretto, si può concludere che la scoperta dei
fenomeni caotici non segna la fine della causalità, ma che occorre una metodologia più adeguata in
grado di cogliere i nessi all’interno di fenomeni complessi: fenomeni non più concettualizzabili da un
approccio come quello finora utilizzato nella scienza, che si è occupata prevalentemente di sistemi le
cui variabili possono essere legittimamente ridotte e controllate mediante disegni sperimentali tipici
della ricerca di laboratorio.
Occorre dunque domandarsi: in che misura gli strumenti teorici messi in opera nelle “nuove
scienze” possono essere proficuamente utilizzati anche nella metodologia clinica e psico-sociale? In
che senso il diverso modo di ‘guardare’ alla natura - sganciato da ogni intenzionalità ontologica e
senza estrapolazioni di carattere metafisico - può costituire anche un punto di vista utile in campi
diversi dalla sua origine? In fin dei conti anche la scienza classica ed il modello newtoniano della
scienza, pur rivelatosi oggi nei suoi effettivi limiti di applicazione, ha tuttavia avuta una funzione
euristica fondamentale anche in campi assai lontani dal suo ambito originario. Il carattere
paradigmatico di uno nuovo indirizzo di ricerca si estrinseca proprio a questo proposito: nell’essere
capace di suscitare estensioni disciplinari, nuove applicazioni in settori diversi, articolazioni teoriche
che riescono a concettualizzare ambiti fenomenici che prima sfuggivano alla presa razionale.
4. Complessità e ricerca empirica: una convivenza possibile?
4.1 Adeguare la ricerca alla realtà complessa: una sfida metodologica
La non prevedibilità che in certi ambiti di ricerca – come quelli psico-sociali – deriva dalla
applicazione della logica lineare può avere come possibile esito o una paralisi decisionale nella ricerca
e nell’intervento sulla complessità, oppure una ricerca di prevedibilità e di ‘regolarità’ all’interno della
caoticità: quell’ “ordine nel caos” di cui parlavano già Prigogine e Stengers (1984). Tali aspetti di
regolarità sono appunto quelli individuati nelle nuove scienze, come nella geometria dei frattali di
Mandelbrot e negli studi sulle invarianze nell’evoluzione dei sistemi caotici: «nel caos vi è ordine:
soggiacenti al comportamento caotico vi sono eleganti forme geometriche che creano l’aleatorietà così
come il cartaio mescola un mazzo di carte o un cuoco mescola l’impasto di un dolce» (Crutchfield e
al., 1989, p. 22). Perché questa prevedibilità sia possibile, entro certi limiti, occorre dunque che le
‘regole’ nel caos vengano cercate con metodi appropriati.
Quanto detto comporta nella ricerca empirica, per esempio psicologica o sociale, la necessità di
chiarire i criteri e i limiti della riduzione della complessità – necessaria, e più marcata nelle scienze
umane che in quelle fisico-naturali - e i criteri di analisi dei dati e, più in generale, metodologici.
4.2 Aspetti relativi all’analisi dei dati empirici
Le consuete analisi prevalenti nella statistica fisheriana, diffusa nelle scienze psicologiche e
sociali, basano la possibilità di generalizzazione3, e quindi di interpretazione della complessità, sul
calcolo della probabilità.
Come già detto, questo calcolo consente di assumere un comportamento razionale di fronte
all’incertezza, non solo nella ricerca scientifica, ma anche nella vita quotidiana: spesso ci troviamo
infatti a dover prendere decisioni rispetto ad eventi futuri non prevedibili, oppure a dover effettuare
previsioni basandosi su una serie di osservazioni già compiute di cui occorre prefigurare il ‘trend’
successivo.
Nel primo caso la probabilità aiuta permettendo di calcolare la possibilità di verificarsi degli
eventi all’interno di certi fattori aleatori4; nel secondo di effettuare un calcolo di ‘forecasting’ rispetto
3
Per generalizzazione si intende qui quel processo inferenziale che consente di estendere i risultati ottenuti su
campioni agli universi di soggetti e di stimoli, rispetto ai quali si intendono trarre delle conclusioni di ordine
teorico o applicativo. Prescindiamo, in questa sede, dai complessi problemi epistemologici e filosofici che,
com’è noto, sono legati alla generalizzazione induttiva.
9
ad una serie temporale di cui sono noti i cicli precedenti (si pensi alle previsioni dell’andamento
dell’economia). In entrambi i casi la probabilità tende in qualche modo a ‘prevedere l’imprevedibile’.
Alcuni esempi possono essere tratti da settori diversi della ricerca psico-sociale:
- Fiducia nella possibilità che un certo evento (l’atteggiamento dell’insegnante) sia predittore di
altri (apprendimenti scolastici da parte degli allievi). La verifica probabilistica è affidata alla
regressione multipla, ricercando se e rispetto a quali variabili dipendenti il predittore è
statisticamente significativo.
- Applicazioni della statistica bayesiana alla scelta e ai processi decisionali che le determinano: ad
esempio, calcolare le probabilità di scelta di una facoltà universitaria piuttosto che un’altra in base
a più parametri il cui valore è soggettivamente predefinito.
- Previsione dell’andamento di un processo di crescita a partire dalle regolarità osservate in un
campione ampio e rappresentativo di soggetti, applicandone i parametri allo sviluppo di un certo
soggetto di cui sono note le caratteristiche di base. Gli ambiti di applicabilità sono definiti
mediante criteri probabilistici.
Come si nota da questi esempi, le variabili aleatorie imponderabili possono essere messe tra
parentesi, in quanto ‘superate’ dalla logica della probabilità. In alcuni casi – dipendentemente dal
modello teorico e dalla adeguatezza del campionamento e delle misurazioni - questo è plausibile, in
altri lo è meno o per nulla.
Tuttavia è possibile analizzare questi fenomeni con un’ottica diversa da quella probabilistica,
come evidenziato dallo studio quantitativo del caos, che ha messo in atto delle tecniche diverse, quali
le analisi spettrali, le serie temporali analizzate mediante le trasformazioni di Fourier5, i tassi di
entropia del sistema6, gli esponenti locali di Lyapunov, l’individuazione dell’attrattore dinamico e il
test di correlazione spaziale (per i dettagli su queste tecniche, cfr. Haykin, 1979; Rasband, 1990;
Meyer-Kress, 1992; Wolff, 1992; Ott, Sauer e Yorke, 1994; Brown, 1995). Di recente Rocchi (1999)
ha presentato un esempio di tecnica basata sulla statistica circolare per l’identificazione, all’interno dei
ritmi temporali, di periodi ignoti e non prevedibili a priori.
La possibilità di affiancare alla logica di tipo probabilistico analisi fondate su criteri diversi è
peraltro nota da tempo anche nella statistica tradizionale. Ricordiamo:
a. Le analisi miranti alla riduzione di dati complessi: analisi fattoriale, dei clusters, delle corrispondenze; analisi causale. Esse sono fondate sull’analisi di matrici di correlazione e solo
secondariamente, e solo per certi aspetti, si avvalgono di verifiche probabilistiche. Alcuni esempi:
- i molteplici tratti di personalità – che configurano un oggetto di studio tra i più complessi
della ricerca psicologica - sono stati sintetizzati mediante tecniche di analisi fattoriale, in
cinque grandi fattori o ‘big five’ (estroversione, gradevolezza, coscienziosità, stabilità
emotiva, apertura all’esperienza), la cui sostanziale stabilità è stata verificata in contesti e
culture diversi.
- l’analisi delle corrispondenze è stata ampiamente utilizzata per individuare i fattori essenziali
di fenomeni di estrema complessità quali le rappresentazioni sociali, le decisioni sul voto
politico, gli atteggiamenti verso le minoranze.
4
E’ noto che mediante gli specifici test statistici viene stimata la probabilità che i risultati della ricerca siano
stati ottenuti sulla base degli elementi casuali contenuti nel set di condizioni che definiscono il modello (ipotesi
‘nulla’). Se questa probabilità risulta accettabilmente bassa, in base ad un ‘limite critico’ prefissato, si può
confutare l’ipotesi che l’effetto delle variabili indipendenti su quelle dipendenti non sia diverso da quanto ci
potrebbe attendere sulla base del puro caso. Una volta ragionevolmente escluso il caso nella spiegazione dei
risultati ottenuti, occorre attribuire l’effetto (in termini non matematici, ma logici) ad una plausibile spiegazione
alternativa. Questa alternativa alla casualità è in genere rappresentata dall’ipotesi alternativa, che viene scelta in
anticipo ed è la vera ipotesi ‘sostantiva’ della ricerca.
5
L’analisi di Fourier è basata sulla scomposizione della serie temporale in una somma di componenti
trigonometriche; mediante la costruzione di un periodogramma che rappresenta la grandezza di queste
componenti in relazione alla loro frequenza, si tende ad individuare un filtro che appiana il ‘rumore’ – legato
alla complessità delle variabili in gioco - ed analizza la composizione spettrale della serie.
6
Il tasso di entropia descrive la perdita media di informazione (o il guadagno, dipendentemente dal segno) che il
processo dinamico produce. Esso costituisce una misura della complessità esprimendo quanta informazione
viene assorbita o, reciprocamente, quanta è necessaria per descrivere uno stato futuro del sistema in evoluzione:
più il sistema è complesso, maggiore è il ‘disturbo’ nella comunicazione e più elevato risulta il tasso di entropia.
10
Queste riduzioni non risolvono certamente il problema della spiegazione di fenomeni complessi e
multicausali quali la personalità umana o gli atteggiamenti sociali; contribuiscono però a
evidenziarne delle coordinate che hanno valore euristico oltre che applicativo.
b. Le analisi sequenziali consentono di studiare le interdipendenze in una o più sequenze di eventi,
che possono essere espressi anche in termini categoriali come la distinzione fra comportamenti di
tipo passivo o attivo all’interno di una interazione terapeutica o formativa. Analisi sequenziali
multivariate permettono di studiare più variabili all’interno di fenomeni complessi - per esempio
un gruppo di formazione, un nucleo familiare in terapia - e con diversi comportamenti osservati.
Specifiche strategie sono state messe a punto per verificare aspetti legati non solo alla sequenza di
eventi, ma anche alla durata di essi.
- Possono essere studiate le sequenze di interazioni tra coniugi o tra insegnante e allievo. Dalla
complessità della relazione, apparentemente caotica, può essere estrapolata una serie di
regolarità che ne punteggiano l’andamento.
- Mediante la ‘survival analysis’ è possibile monitorare gruppi in trattamento (ad esempio,
farmacologico o psicoterapeutico) per controllare se e in che misura gli specifici trattamenti
incidono sui tassi di remissione dei sintomi e del mantenimento nel tempo dei benefici
ottenuti, tenendo conto delle molteplici variabili intervenienti.
c.
L’analisi della ‘dimensione degli effetti’ sperimentali (effect size) costituisce la più decisa
contrapposizione alla logica probabilistica. Mentre la significatività statistica si fonda sulla
decisione dicotomica, appunto su basi probabilistiche, delle regioni di accettazione/rifiuto
del’ipotesi ‘nulla’ e dice pertanto se un fenomeno osservato può essere considerato non casuale,
l’effect size esprime il grado in cui la relazione (o la differenza) verificata nella ricerca differisce
da una relazione (o differenza) ‘nulla’ (Cohen, 1988). La dimensione dell’effetto, valutando in
modo continuo quanta varianza della variabile dipendente viene spiegata in funzione della variabile indipendente, può anche essere definita come la intensità della relazione tra la variabile
indipendente (trattamento) e quella dipendente (outcome). Conoscere la dimensione dell’effetto
sperimentale consente delle deduzioni sulla ‘rilevanza’ delle conseguenze della ipotesi stessa, al
di là della sua casualità o meno che viene valutata con le statistiche probabilistiche. Alcuni
esempi:
- la trasmissione disturbata in un sistema complesso e multicausale ha come antidoto
metodologico la ricerca di una ‘pregnanza’ in grado di superare i ‘disturbi’: occorre valutare
quanta ridondanza è necessaria perché l’effetto sia una ricezione del messaggio sufficiente a
comprenderne gli elementi essenziali.
- analisi di dimensione dell’effetto sono state compiute sugli argomenti più diversi della
psicologia sperimentale (ad esempio, effetti dell’interferenza sulla memoria; efficacia di cues
didattici e feedback correttivi sull’apprendimento; influenza delle aspettative dello
sperimentatore) e applicativa (training in servizio per insegnanti, counseling educativo,
formazione al management in setting istituzionali, addestramento in gruppo di assertività;
istruzione basata sul computer sull’apprendimento, e così via: cfr. per un’ampia rassegna
Lipsey e Wilson, 1993). In questi casi il calcolo dell’effect size valuta quantitativamente la
efficacia - piuttosto che la non casualità – dei risultati del trattamento, e costituisce la base
per una cumulazione di più studi che, come vedremo, consente di articolare e differenziare la
complessità in settori di ricerca che non possono essere compiutamente indagati in singole
ricerche basate sull’inferenza probabilistica.
d. L’uso di una logica ‘fuzzy’, nella quale si descrivono eventi che si verificano in una certa misura e
non casuali, randomizzati, che si verificano in tutto o per niente, come avviene invece nel caso della
probabilità (Bouchon-Meunier, 1993; Kosko, 1995; Baldwin, 1996; Zimmermann, 1996).
L’incertezza di molte persone al momento di assumere decisioni importanti può manifestarsi
in vari modi: confusione e scarsa esperienza decisionale; necessità di supporti esterni;
attrazione per diverse opzioni contrastanti tra loro; scarso interesse per la scelta.
L’indecisione non è il polo di una dicotomia (deciso/indeciso), cui può essere applicata la
logica della probabilità, ma piuttosto la posizione su un continuum, che ha interazioni con
altre dimensioni (sicurezza/insicurezza e soddisfazione/insoddisfazione). Si tratta di un
11
tipico aspetto riconducibile ad una logica ‘fuzzy’ capace di concepire una molteplicità di
sfumature nella appartenenza o meno di un dato fattore a un insieme di riferimento.
4.3 Aspetti metodologici
La crisi dei metodi tradizionali di ricerca sperimentale è particolarmente evidente quando
l’oggetto di ricerca è di grande complessità (una classe, una famiglia in terapia, un gruppo di operatori
in formazione, un reparto lavorativo) ed esso va studiato mentre si lavora per mutarne alcune
caratteristiche. La complessità non può essere ridotta artificialmente, selezionando solo alcune
variabili su cui centrare l’attenzione; né ‘fermata’ e studiata trasversalmente in un unico momento
temporale; essa va affrontata olisticamente, senza semplificazioni preliminari, e va seguita nello
sviluppo temporale durante tutto il corso dell’intervento, monitorando le possibili variabili
intervenienti, non prevedibili né controllabili a priori.
Una soluzione, favorita dalla facilità di trattamento di dati molteplici grazie alla potenza degli
elaboratori elettronici, o dalla possibilità di operare simulazioni computerizzate, è quella di aumentare
la complessità del disegno di singole ricerche, con conseguente sofisticazione delle analisi statistiche.
In genere l’incremento di variabili in uno stessa disegno di ricerca conduce – nell’impossibilità di
adeguati piani di campionamento dei soggetti o degli stimoli – a difficoltà interpretative quando non
addirittura ad artefatti e veri e propri errori metodologici e tecnici che sono stati più volte sottolineati
(Cook e Campbell, 1979; Serlin, 1987; Rosnow e Rosenthal, 1989; Kazdin 1991).
In alternativa – coerentemente a quanto esposto nei paragrafi precedenti - è possibile
ricostruire la complessità tramite l’articolazione della teoria in molteplici modelli da concretizzare in
specifiche ipotesi, modelli tra loro interconnessi in un disegno di ricerca complessivo che può
coinvolgere più momenti e più ricercatori. La modellizzazione multivariata prevede la
operazionalizzazione di più modelli, e quindi di più ipotesi, al fine di estendere la validità della ricerca
empirica. La generalizzazione dei risultati delle verifiche empiriche rispetto al modello e alla teoria
può essere facilitata dalla cumulazione di molteplici controlli in condizioni differenti. Un modello è
tanto più robusto e affidabile quanto più è suscettibile di concretizzazioni e quindi di verifiche in
condizioni e con implicazioni diverse; una teoria è tanto più ‘corroborata’ quanto più sono i modelli
da essa derivati che ottengono validazione.
Questa valutazione può essere compiuta in termini quantitativi cumulando una serie di effetti
derivanti da ricerche condotte - dallo stesso autore o da autori diversi - su una stessa ipotesi di lavoro:
la procedura, definita meta-analisi, tiene conto delle varianti della ipotesi relative alle diverse
condizioni di verifica, valutando i fattori ‘moderatori’ dell’effetto principale e la loro interazione7.
Le analisi cumulative di più momenti di ricerca possono corrispondere in qualche modo alle
iterazioni del computer nella simulazione dei processi dinamici caotici, alla ricerca di elementi di
invarianza – e quindi di regolarità – insieme agli elementi di differenziazione.
Citiamo alcuni esempi di ricerca che possono essere condotte in questa ottica.
- Studi sulla efficacia della riabilitazione in ambito educativo: un training (ad esempio, di
apprendimento del problem-solving) che funziona a certe età e con un certo tipo di deficit,
funziona anche ad altre età e con altri deficit? L’efficacia di un training ha portata più generale se
la meta-analisi di una serie di studi che lo usano dimostra che esso funziona altrettanto bene sia
con soggetti normali di diverse età sia con categorie diverse di portatori di handicap; sia in ambito
scolastico che nella riabilitazione in istituzioni.
- Ricerche sulla validità di modelli formativi: modalità di formazione che si sono rivelate efficaci in
certi contesti lo sono, e in che misura, anche in altri? Anche in questo caso una verifica
cumulativa può dire se e in che misura il training è ‘generalizzabile’, in quanto i suoi effetti
risultano estensibili a caratteristiche diverse di soggetti e di condizioni; il modello di riferimento
7
La meta-analisi consente la sintesi e il confronto sistematico dei risultati quantitativi di una serie di studi presi
in esame. In essa si procede calcolando anzitutto una media ponderata degli ‘effetti’ ottenuti nella serie di
ricerche, e compiendo quindi una valutazione delle caratteristiche di invarianza della serie stessa. Utilizzando
appropriate statistiche, si esamina se la variabilità interna alla serie di effetti studiati cumulativamente può essere
spiegata da artefatti metodologici (ad esempio, ampiezza dei campioni o attendibilità degli strumenti usati nei
diversi studi), oppure da variabili presenti negli studi da cui gli effetti sono derivati, e che contribuiscono a
‘moderare’ l’effetto principale. Per approfondimenti, cfr. Di Nuovo (1995).
12
sarà tanto più solido quanto più è utilizzabile, magari con opportune modifiche, in contesti e
setting diversi.
Altro aspetto metodologico fondamentale per interpretare il cambiamento anche nei suoi
aspetti caotici è il monitoraggio longitudinale dei fenomeni in evoluzione, spontanea o provocata da
specifici interventi (Menard, 1991). In questo caso si procede analogamente a quanto nello studio dei
fenomeni complessi avviene in altri settori, ad esempio nelle scienze naturali, in metereologia, in
economia: non si ricercano previsioni a lungo termine degli sviluppi del fenomeno complesso
(peraltro impossibili), ma se ne segue l’evoluzione mentre esso si svolge, senza scomporne le variabili
ma valutandone olisticamente i cambiamenti. Esempi nei settori della psicologia educativa e clinica:
- Valutazione periodica dell’intervento didattico, formativo o riabilitativo per verificare se vengono
raggiunti gli obiettivi che l’intervento si era posti; in caso contrario, valutare quali sono gli
elementi che hanno deviato il percorso da quello che era prevedibile sulla base delle condizioni
iniziali, in modo da operare gli opportuni aggiustamenti.
- Monitoraggio dell’andamento di un trattamento riguardante situazioni di patologia, per valutare se
e in che misura si verifichino degli effetti di rilevanza e significanza (meaningfulness) clinica –
piuttosto che probabilisticamente ‘significativa’ – rispetto agli obiettivi terapeutici, quali la
eliminazione del problema per cui l’intervento è stato intrapreso, e/o la diminuzione del rischio di
ricaduta, e/o il rientro dei livelli di funzionamento del soggetto nei limiti della norma definita
rispetto alla popolazione di riferimento.
4.4 Opzioni e ‘responsabilità’ nella ricerca sulla complessità
Caratteristica comune alle tecniche di analisi dei dati e dei metodi volti ad affrontare la
complessità fin qui presentate è la necessità di opzioni soggettive del ricercatore, che sceglie i
parametri dell’analisi e i criteri metodologici da utilizzare.
- Nella verifica probabilistica i criteri di ‘significatività’ sono tradizionalmente assunti ad un livello
di rischio di casualità del 5% o dell’1%, più raramente dell’1‰ (rispettivamente p<.05, p<.01,
p<.001). L’arbitrarietà di questi limiti critici – in un contesto di presunta ‘obiettività’ della verifica
statistica – è stata ribadita da diversi autori (Cohen, 1988; Rosnow e Rosenthal, 1989).
- Nella statistica bayesiana vanno definite a priori le probabilità di scelta fra i possibili fattori, e le
probabilità di verificarsi degli eventi all’interno dei fattori stessi.
- Nell’analisi delle serie temporali e sequenziali la punteggiatura delle fasi va definita in base a
criteri prestabiliti.
- Le tecniche di riduzione dei dati dipendono dalle opzioni via via definite dal ricercatore: per
esempio nell’analisi fattoriale, i criteri di estrazione dei fattori e il numero di essi da ritenere; le
modalità di rotazione dei fattori.
- La ‘dimensione dell’effetto’ (effect size), ha anch’essa dei limiti critici convenzionalmente assunti
per determinare se l’effetto riscontrato è ‘piccolo’, ‘medio’ oppure ‘grande’: Cohen (1988) ha
proposto come misure di questi limiti un coefficiente di correlazione equivalente al coefficiente ‘r’
rispettivamente di .10, .30 e .50; altri autori (Haase, Waechter e Solomon, 1982) hanno ottenuto
limiti analoghi basandosi sulla valutazione delle distribuzioni di frequenza dei risultati ottenuti in
un campione rappresentativo di ricerche pubblicate in un dato settore.
- A livello metodologico, la operazionalizzazione dei modelli, il modo in cui essi possono essere
concretizzati, la conseguente derivazione delle ipotesi, la scelta dei campioni e delle strategie di
cumulazione dei dati comportano opzioni e scelte continue nella progettazione e nella esecuzione
della ricerca.
La significatività clinica (clinical meaningfulness) viene valutata in base a criteri di
‘miglioramento’ rispetto a caratteristiche predefinite: ad esempio, un effetto di miglioramento
può essere definito rilevante o meno, procedendo al confronto fra i singoli soggetti (o gruppi di
soggetti) sottoposti a trattamento terapeutico e le distribuzioni normative di soggetti ‘funzionali’
o ‘disfunzionali’ rispetto alla variabile trattata (Jacobson, 1988). L’effetto di miglioramento può
essere considerato sufficiente se il punteggio del soggetto (o la media del gruppo) dopo il trattamento si colloca a più di 2 deviazioni standard rispetto alla media della distribuzione
‘disfunzionale’ e a non più di 2 deviazioni standard rispetto alla distribuzione della popolazione
‘funzionale’. La decisione sulla rilevanza del risultato empiricamente ottenuto viene presa in base
a considerazioni di tipo ‘fattuale’.
13
Tutte le previsioni di eventi complessi e multicausali, potenzialmente caotici, e tutte le riduzioni
della complessità dipendono dunque da scelte operate in uno specifico contesto, e possono essere
valutate con criteri non di ‘verità’ ma di ragionevolezza o, in termini tecnici, di massima
verosimiglianza (likelihood), oppure secondo parametri derivanti dalle teorie o dalla rilevanza
pragmatica, parametri che vengono assunti dal ricercatore o dall’operatore che compie l’intervento di
cui vuole valutare l’efficacia.
La ‘responsabilità soggettiva’ nell’assunzione di questi criteri, nell’esplicitazione delle
epistemologie di riferimento e degli approcci teorici privilegiati dal ricercatore, fondano una modalità
di ricerca che – con riferimento al settore educativo – è stata definita ‘partigiana’ (de Mennato, 1999b)
e che coinvolge in misura rilevante anche gli aspetti applicativi delle discipline psico-sociali.
5. Lo studio empirico della complessità: due esempi di ricerca-intervento.
Torna utile a questo punto riprendere i due esempi accennati nel paragrafo iniziale, per
illustrare meglio quanto fin qui detto circa la differenza tra approccio tradizionale di ricerca e
approccio che tiene conto della complessità e degli elementi di caoticità presenti in un percorso
evolutivo.
5.1 Orientamento scolastico-professionale
E’ noto che le componenti del processo di scelta della carriera sono molteplici e tutte
interagenti tra loro, alcune prevedibili, altre meno o per nulla. Esse riguardano le aree di sviluppo
psicologico e psicosociale che costituiscono i prerequisiti essenziali di una scelta ‘matura’: coscienza
di sé, autonomia, capacità di adattamento (assertività, gestione delle frustrazioni e dello stress),
motivazioni, valori e interessi lavorativi. Altre variabili sono relative alla congruenza tra le aree
psicologiche citate e le scelte scolastico-professionali; essenziale al riguardo è l’efficacia del processo
decisionale e della capacità di problem-solving, sia durante il percorso di maturazione che al momento
della scelta. Senso di autostima e ‘self-efficacy’, e capacità di perseveranza sono le variabili che
mediano tra le caratteristiche di personalità e l’efficacia delle scelte. Parallelamente a questi percorsi
di congruenza vanno tenute in considerazione due componenti importanti quali la stabilizzazione delle
attitudini e la progressiva presa di coscienza di esse da parte degli studenti, e la formazione ad un
metodo di studio adeguato. Tutte le componenti fin qui esaminate devono confluire nel processo
decisionale che consente di superare l’incertezza presente in ogni problema di scelta, ma spesso
estremamente marcata nelle scelte scolastiche e professionali.
La complessità derivante dall’interazione tra queste variabili, può essere trattata nella logica
della ricerca tradizionale mediante analisi miranti alla riduzione di dati complessi (analisi fattoriale, o
delle corrispondenze, analisi causale): a condizione però che si resti in un’ottica di ricerca conoscitiva
e ‘trasversale’, non implicante un intervento di modificazione del percorso messo in atto dai soggetti.
Questo tipo di ricerca e’ complessa nel senso che vengono utilizzate modalità di analisi dei dati
sofisticate ma non nella impostazione epistemologica e metodologica.
Diversa è invece la situazione in cui si intende valutare longitudinalmente il percorso di
maturazione della scelta e le conseguenze di essa, tanto più se esso è guidato da interventi specifici –
quali quelli di orientamento scolastico-professionale – di cui occorre valutare l’efficacia. Specialmente
il rapporto tra scelte e riuscita negli studi e/o realizzazione lavorativa successiva richiede periodi di
follow-up lunghi, durante i quali è poco conoscibile o poco controllabile il tipo, il peso e la direzione
delle variabili intervenienti: si determina così una situazione tipicamente ‘caotica’, in quanto le
variazioni nei predittori iniziali non sono a loro volta predicibili con la precisione necessaria per avere
una sufficiente attendibilità delle previsioni dei possibili effetti.
La ricerca predittiva su queste variabili viene in genere compiuta solo a livello statisticoprobabilistico, e i risultati sono operativamente poco rilevanti perché è difficile tenere conto nel lavoro
educativo quotidiano di variabili poco conoscibili o ponderabili. E’ utile solo in termini generali
sapere quanti soggetti orientati ad una certa scelta abbiano trovato lavoro – e quindi che probabilità ha
di ottenere lo stesso risultato chi compie, in condizioni diverse, la stessa scelta – se non sappiamo
quali variabili soggettive (variabili di personalità, capacità di adattamento, ecc.) ed esterne (come le
condizioni economiche o le variazioni nel contesto familiare e ambientale) abbiano determinato l’esito
più o meno soddisfacente in termini occupazionali, al di là delle variabili socio-ambientali abbastanza
conosciute ma troppo generiche per poter essere utilizzate nel lavoro orientativo personalizzato.
14
Molto più utile è invece monitorare il procedere dell’iter decisionale del soggetto, e delle
conseguenze che man mano esso provoca in interazione con le variabili intervenienti, con i rispettivi
feedbacks a livello cognitivo ed emozionale: monitoraggio che è peraltro concretamente possibile
nella scuola (prima del momento della scelta) tramite l’azione di orientamento educativo e dopo la
scelta universitaria mediante le risorse – ancora poco utilizzate - del tutorato. Analisi di tipo
sequenziale o delle serie temporali, e poi una analisi cumulativa dei risultati ottenuti dal monitoraggio
dei singoli soggetti potrebbe consentire di valutare in modo articolato l’efficacia del modello di
cambiamento evidenziando le regolarità o le variazioni in situazioni e contesti differenti.
5.2 Ricerca sulla psicoterapia
La ricerca sulla psicoterapia può avvalersi di analisi ‘trasversali’ che ad esempio studiano, con
i metodi tradizionali della ricerca sperimentale, le relazioni tra caratteristiche del paziente e tipo di
terapia e/o di terapista prescelto, oppure le differenze tra pazienti distinti per tipo e gravità di
patologia, o ancora le relazioni tra tecniche usate e caratteristiche del terapista (molte ricerche di
questo tipo possono essere reperite nel reading curato da Bergin e Garfield, 1994).
Altri aspetti, dagli sviluppi certamente non lineari e ‘caotici’ nel senso prima definito,
andrebbero invece meglio studiati con tecniche adeguate a queste caratteristiche: esempi specifici
sono contenuti in Chamberlain e Bütz (1998) con riferimento alle prospettive umanistico-esistenziali,
alla psicofarmacologia, e agli aspetti organizzativi e interculturali.
In una serie di recenti studi, la relazione cliente-terapista è stata studiata in termini di processo
potenzialmente caotico mediante un metodo idiografico definito ‘analisi dei piani sequenziali’
(Schiepek e al., 1997). Il metodo, che si basa su una classificazione gerarchica a diverse fasi delle
interazioni verbali e non verbali del terapista e del paziente analizzate su un singolo caso, consente di
interpretare le componenti deterministiche e stocastiche, lineari e non lineari, del processo relazionale
che instaura durante una psicoterapia.
Una analoga metodologia viene utilizzata da Kowalik e al. (1997) per analizzare le serie
temporali prescindendo dall’assunto di stazionarietà, cioè di stabilità dell’attrattore dinamico durante
tutto il periodo della misurazione. Vengono ipotizzati cambiamenti dinamici periodici nelle modalità
tipiche di interazione e le misure di caoticità utilizzate (quali il tasso di entropia e gli esponenti locali
di Lyapunov) confermano l’esistenza di specifiche fasi di transizione critica durante il processo
terapeutico.
Gli autori concludono che “la psicoterapia può essere descritta come un processo caotico non
stazionario … nel processo psicoterapeutico o, più in generale, di interazione sociale, l’informazione è
trasmessa non solo attraverso una serie di singoli segnali (simboli verbali, non verbali, significato e
intensità dei piani, così come i loro patterns di successione), ma anche attraverso la specifica
irregolarità dei segnali. L’irregolarità e il caos hanno in se stessi un significato e non solo solo un
‘disturbo’ che si sovrappone al segnale ‘puro’ … Una analisi non lineare dei processi dinamici in
terapia può offrire un approccio per comprendere la intuizione terapeutica … Il problema della
limitata prevedibilità in psicoterapia si può spiegare con le teorie dei sistemi dinamici non lineari …
Nonostante la imprevedibilità del processo interattivo, i nostri risultati suggeriscono che esiste una
struttura interna in questo processo, un ordine all’interno del caos. L’aspetto centrale del caos
deterministico è che esso non consiste in una casualità erratica. Al contrario, la forma e la
dimensionalità dell’attrattore sottostante determina la dinamica del sistema” (Kowalik e al., 1997, pp.
207-211)
Sempre con riferimento alla ricerca sulla psicoterapia, segnaliamo gli studi sulla efficacia del
trattamento terapeutico: ambito in cui esiste una grande complessità di variabili, dalle quali occorre
enucleare un ‘effetto’ principale (i cambiamenti verificati nello stato psicologico del paziente) e i
fattori ‘moderatori’, ossia le variabili che incidono nel facilitare o ostacolare il processo di
cambiamento: tipo di terapia, caratteristiche del terapista, del paziente, tipo e livello della patologia
iniziale, condizioni del setting, qualità della relazione e della “alleanza” terapeutica, fenomeni che
avvengono all’interno della terapia. Un progetto di ricerca sulla valutazione della psicoterapia è in
corso da qualche anno, con la partecipazione di psicoterapeuti e ricercatori di diverso indirizzo
teorico-metodologico operanti sia nelle strutture pubbliche che nel privato. Il progetto, denominato
VALTER (VALutazione delle TERapie psicologiche: cfr. Di Nuovo e al., 1998), prevede la raccolta,
mediante alcuni strumenti comuni, e la cumulazione, avvalendosi anche di tecniche meta-analitiche, di
dati longitudinali sia sul processo terapeutico che sugli esiti parziali e finali. In esso si tenta di
15
affrontare empiricamente un fenomeno talmente complesso da non poter essere trattato in modo
esauriente in singole ricerche.
Alla luce di questi esempi, è opportuno ribadire l’incidenza che in questi percorsi di ricerca e
intervento assumono le opzioni soggettive implicate nella scelta dei parametri dell’analisi e dei criteri
metodologici impiegati per la verifica: aspetto che deve fare riflettere sulla esigenza di formazione alla
responsabilità, e addirittura di eticità, di quanti operano in questo delicato settore della ricerca
scientifica e dell’attività professionale.
6. Per concludere. Mettere ordine nel caos?
Abbiamo cercato di mostrare come la ricerca di regole per comprendere una realtà complessa
– una volta liberata dagli equivoci e dalle sovrastrutture ideologiche non rilevanti ai fini
dell’operatività metodologica – sia un percorso possibile in ambito clinico e psico-sociale.
La ricerca empirica applicata (per esempio in psicologia) ha finora usato la verifica
probabilistica prevalentemente all’interno di una modellizzazione deterministica; l’esperienza
accumulata dalle ricerche condotte alla luce delle teorie della complessità ha però messo in evidenza
come leggi deterministiche possono generare comportamenti caotici. Viceversa, in fenomeni
complessi e apparentemente caotici possono essere riscontrate delle regolarità e quindi degli elementi
di prevedibilità.
Inoltre, le recenti teorie del caos hanno evidenziato come lo studio dei fenomeni complessi sia
meglio affrontabile con una metodologia che non assume la linearità come unico orizzonte possibile
per la ricerca. Vanno pertanto individuate, anche in campo psico-sociale, metodologie adatte a
studiare fenomeni la cui natura complessa sfugge a tale approccio deterministico di tipo lineare, come
avviene per la maggior parte dei fenomeni studiati in questi campi.
Nell’analisi di eventi complessi, l’ambito della ‘previsione’ può utilizzare proficuamente sia
tecniche basate sulla probabilità sia analisi non probabilistiche; l’ambito della ‘comprensione’ può
avvalersi di metodiche di riduzione della complessità, ricercandone gli elementi essenziali; l’ambito
della ‘verifica’ può procedere al controllo degli eventi potenzialmente caotici monitorandoli mentre
essi si verificano, e corroborando così l’efficacia degli interventi clinici e psico-sociali.
L’approccio metodologico che si basa sulla teorie del caos e della complessità è inoltre utile in
un contesto sociale e culturale in cui sempre più – come ricordano Finke e Bettle (1996) – il futuro è
incerto e imprevedibile, per cui le forme di adattamento cognitivo ed emotivo possono trarre utilità da
un pensiero più flessibile e indeterministico e pertanto più idoneo a trattare situazioni caotiche e
complesse. La concretizzazione di questo pensiero e la formazione delle giovani generazioni alla
pratica di esso è una delle sfide che la ‘nuova scienza’ non può mancare di accogliere.
Bibliografia
Ageno, M. (1992) Le origini dell’irreversibilità. Bollati Boringhieri, Torino.
Aleo S. (1999) Diritto penale e complessità. Giappichelli, Torino.
Arecchi, F.T. (1986) Caos e ordine nella fisica. In: R. Serra e G. Zanarini (a cura di), Tra ordine e caos.
Autorganizzazione e imprevedibilità nei sistemi complessi. CLUEB, Bologna, pp. 67-91.
Atias C., La Moigne J.-L. (1984) Exchanges avec Edgar Morin: Science et conscience de la complexité,
Editions de l’Université, Aix-en-Provence.
Baldwin J. F. (Ed.) (1996) Fuzzy logic. Wiley, New York.
Barone, F. (1983) Immagini filosofiche della scienza. Laterza, Bari.
Barrow-Green, J. (1996) Poincaré and the Three Body problem. Oxford University Press, Oxford.
Bergin A. E., Garfield S.L. (Eds) (1994) Handbook of psychotherapy and behavior change (4th ed.). John
Wiley & Sons, New York.
Bernardini C. (1991) Natura vera e natura pensata, Sapere, 3, pp. 18-24.
Bocchi, G., Ceruti, M. (1991) Presentazione. In: G. Bocchi, M. Ceruti (a cura di) La sfida della
complessità. Feltrinelli, Milano 1991 (6ª ed.).
Bouchon-Meunier P. (1993) La logique flou. Presses Universitaire de France, Paris.
Boscarino G. (1990). Absolute Space and Idealization in Newton. In: J. J. Brzezinski, F. Coniglione,
T.A.F. Kuipers, L. Nowak (Eds), Idealization: II, Forms and applications. Poznan Studies in the
16
Philosophy of the Sciences and the Humanities, vol. 17, Rodopi, Amsterdam, pp.131-149.
Brown C. (1995) Chaos and catastrophe theories. Sage, London.
Brzezinski J., Coniglione F., Kuipers T.A.F., Nowak L. (Eds) (1990) Idealization: II, Forms and
applications. Poznan Studies in the Philosophy of the Sciences and the Humanities, vol. 17, Rodopi,
Amsterdam. Bütz M.R. (1997) Chaos and complexity. Implications for psychological theory and
practice. Taylor & Francis, Washington.
Cambi F., Cives G., Fornaca R. (1991) Complessità, pedagogia critica, educazione democratica. La Nuova
Italia, Firenze.
Capra F. (1982) Il Tao della fisica, Adelphi, Milano 1982.
Capra F. (1997) La rete della vita, Milano, Rizzoli 1997.
Casati, G. (a cura di) (1991) Il caos. Le leggi del disordine. Le Scienze Ed., Milano.
Ceruti M, Lo Verso G. (a cura di) (1998) Epistemologia e psicoterapia: complessità e frontiere
contemporanee. Cortina, Milano.
Chamberlain L., Bütz M.R. (1998) Clinical chaos. A therapist’s guide to nonlinear dynamics and
therapeutic change. Taylor & Francis, Washington.
Cini, M. (1994). Un paradiso perduto. Dall’universo delle leggi naturali al mondo dei processi evolutivi.
Feltrinelli, Milano.
Cohen J. (1988) Statistical power analysis for the behavioral sciences. 2ª ed. Erlbaum, Hillsdale.
Cook T.D., Campbell D.T. (1979). Quasi-experimentation. Design and analysis issues for field settings.
Houghton Mifflin, Boston.
Coniglione, F. (1991). Realtà ed astrazione. Scuola polacca ed epistemologia post-positivista. CUECM,
Catania.
Costantini D. (a cura di) (1997) Caso, probabilità e statistica. Le Scienze-Quaderni, n. 98.
Croquette, V. (1991) Determinismo e caos. In: G. Casati (a cura di), Il caos. Le leggi del disordine. Le
Scienze Ed., Milano, pp. 34-49.
Crutchfield, J.P, Doyne Farme, J., Packard, N.H., Shaw R.S. (1987) Il caos. In: G. Casati (a cura di), Il
caos. Le leggi del disordine. Le Scienze Ed., Milano, pp. 22-33.
Davies, P. (1998) La “Nuova Fisica”: una sintesi. In: P. Davies (a cura di), La nuova fisica, 2ª ed, Bollati
Boringhieri: Torino, pp. 1-7.
De Angelis, V. (1996) La logica della complessità. Introduzione alla teoria dei sistemi. Bruno Mondadori,
Milano.
de Mennato P. (1999a) Fonti di una pedagogia della complessità. Liguori, Napoli.
de Mennato P. (1999b) La ricerca ‘partigiana’. Teoria di ricerca educativa. 2ª ed., Liguori, Napoli.
Di Nuovo S. (1995) La meta-analisi. Borla, Roma.
Di Nuovo S., Lo Verso G., Di Blasi M., Giannone F. (1998) Valutare le psicoterapie. F. Angeli, Milano.
Eve R. A. (1997) So where are we now? In: R.A. Eve, S. Horsfall, M.E. Lee (Eds)Chaos, complexity and
sociology. Sage, London, pp. 269-279.
Eve R.A., Horsfall S., Lee M.E. (Eds) (1997) Chaos, complexity and sociology. Sage, London.
Feyerabend P.K. (1979) Contro il metodo, Feltrinelli, Milano.
Finke R.A., Bettle J. (1996) Chaotic cognition. Principles and applications. Lawrence Erlbaum, Hillsdale.
Freeman W.J. (1992) Chaos in psychiatry. Biological Psychiatry, 31, pp. 1079-1081.
Galilei, G. (1632) Dialogo sopra i due massimi sistemi del mondo. In:Opere, 2ª vol., a cura di F. Brunetti,
Torino, UTET, 1980.
Gleick J. (1987) Caos, il sorgere di una nuova scienza. Rizzoli, Milano.
Guess D., Sailor W. (1993) Chaos theory and the study of the human behavior: implications for special
education and developmental disabilities. Journal of Special Education, 27, pp. 16-34.
Haase R.F., Waechter D.M., Solomon G.S. (1982). How significant is a significant difference? Average
effect size of research in counseling psychology. Journal of Counseling Psychology, 29, pp. 58-65.
Haykin S. (1979) Nonlinear methods of spectral analysis. Springer Verlag, Berlin.
Heisenberg W. (1959) Mutamenti nelle basi della scienza. Boringhieri, Torino 1978.
Heisenberg W. (1966) Fisica e filosofia. Il Saggiatore, Milano.
Israel G. (1996) La visione matematica della realtà. Laterza, Roma-Bari.
Jacobson N.S. (ed.). (1988) Defining clinically significant change. Behavioral Assessment, 10 (2, special
issue).
Kazdin A. E. (1991). Research design in clinical psychology, 2nd ed. Pergamon Press, Helmsford.
Kosko B. (1995) Il fuzzy-pensiero. Teoria e applicazioni della logica fuzzy. Baldini & Castoldi, Milano.
17
Kowalik Z.J., Schiepek G., Kumpf K., Roberts L.E, Elbert T. (1997) Psychotherapy as chaotic process II.
The application of nonlinear analysis methods on quasi time series of client-therapist interaction: a
nonstationary approach. Psychotherapy Research 7, pp. 197-218.
Laplace, P.S. (1825). Essai philosophique sur les probabilités. Trad. it. Saggio sulla probabilità, Bari,
Laterza 1951.
Lipsey M.W., Wilson, D.B. (1993). The efficacy of psychological, educational, and behavioral treatment:
confirmation from meta-analysis. American Psychologist, 48, pp. 1181-1209.
Mahoney M.J. (1992) Per una riconciliazione con la logica dei processi complessi. Complessità e
Cambiamento 1, pp. 13-16.
Mandelbrot, B. (1975)Gli oggetti frattali. Forma, caso e dimensione. Einaudi, Torino 1987.
Mandelbrot, B. (1989) Conversazione con G. Giorello, in: La geometria della natura, Theoria, Milano.
Mayer-Kress G. (Ed.) (1992) Dimensions and entropies in chaotic systems. Springer Verlag, Berlin.
Menard S. (1991) Longitudinal research. Sage, Newbury Park.
Morin E. (1984) Scienza con coscienza, F. Angeli , Milano.
Musso P. (1997) Filosofia del caos, Milano, Angeli.
Nicolis, G. (1995). Introduction to Nonlinear Science, Cambridge, Cambridge University Press.
Nowak L. (1980) The structure of idealization. Towars a systematic interpretation of the Marxian idea of
science. Reidel, Dordrecht.
Orsucci F. (1996) Caos e complessità in psicopatologia. Giornale Italiano di Psicopatologia, 3, pp. 267271.
Ott E., Sauer T., Yorke J. A. (1994) Coping with chaos. Analysis of chaotic data and the exploitation of
chaotic systems. Wiley, New York.
Poincaré, H. (1991) L’Analyse et la recherche, Paris, Hermann.
Prigogine, I. (1981) La termodinamica della vita, in I. Prigogine, La nuova alleanza. Uomo e natura in una
scienza unificata, Longanesi, Milano (2ª ed.).
Prigogine,I., Stengers, I. (1981) La nuova alleanza. Metamorfosi della scienza, Einaudi, Torino.
Prigogine I., Stengers I. (1984) Order out of chaos. Man’s new dialogue with nature. Bantam Books, New
York.
Quattrocchi P. (1984) Etica, scienza, complessità. Franco Angeli, Milano.
Rasband S.N. (1990) Chaotic dynamics of nonlinear systems. Wiley, New York.
Robertson R., Combs A. (Eds.) (1995) Chaos theory in psychology and the life sciences. Erlbaum,
Hillsdale.
Rocchi M.B.L. (1999) La massimizzazione della lunghezza del vettore medio per l’identificazione di
periodi sconosciuti in ritmometria. TPM, Testing, Psicometria, Metodologia, 6, pp.51-59.
Rosnow R.L., Rosenthal R. (1989). Statistical procedures and the justification of knowledge in
psychological science. American Psychologist, 44, pp. 1276-1284.
Schiepek G., Kowalik Z.J., Shütz A., Köhler M., Richter K., Strunk G., Mühlnickel W., Elbert T. (1997)
Psychotherapy as chaotic process I. Coding the client-therapist interaction by means of Sequential
Plan Analysis and the search for chaos: a stationary approach. Psychotherapy Research 7, pp. 173194.
Schuster, H.G.S. (1984) Deterministic Chaos, Physik-Verlag, Weinheim.
Serlin, R.C. (1987) Hypothesis testing, theory building, and the philosophy of science. Journal of
Counseling Psychology, 34, 365-371.
Such, J. (1977) Idealization and Concretization in Natural Sciences. In: Poznan Studies in the Philosophy
of Sciences and the Humanities, 1-4, pp. 49-73.
Such, J. (1990) The Idealizational Conception of Science and the Structure of the Law of Universal
Gravitation. In: J. J. Brzezinski, F. Coniglione, T.A.F. Kuipers, L. Nowak (Eds), Idealization: II,
Forms and applications. Poznan Studies in the Philosophy of the Sciences and the Humanities, vol.
17, Rodopi, Amsterdam, pp.125-130.
Van de Kerchove M., Ost F. (1988) Le système juridique entre ordre et désordre. Presses Universitaires de
France, Paris.
Van Geert P. (1994) Dynamic systems of development. Change between complexity and chaos. Harvester
Wheatsheaf, Hempstead.
Vidal, C. , Roux, J.-C. (1991) Come nasce la turbolenza. In G. Casati (a cura di) Il caos. Le leggi del
disordine. Le Scienze Ed., Milano, pp. 141-151.
von Bertalanffy, L. (1971) Teoria generale dei sistemi. Isedi, Milano.
18
Waldrop, M.M. (1992). Complexity. The Emerging Science at th Edge of Order and Chaos, Bew York,
Simon & Schuster. Trad. it. Complessità. Uomini e idee al confine tra ordine e caos, Torino, Instar
Libri 1995.
Wheeler, J.A. (1983). On recognizing ‘Law without law’. American Journal of Physics, 51, pp. 393-412.
Wolff R.C.L. (1992) Local Lyapunov exponents: looking closely to chaos. Journal of Royal Statistical
Society, B54, pp. 353-371.
Zimmermann H. J. (1996) Fuzzy set theory and its applications. 3rd ed. Kluwer, Boston.
Zolo D. (1983) Funzione, senso, complessità. Introduzione a N. Luhmann, Illuminismo sociologico, Il
Saggiatore, Milano.
19
Fly UP