Complessità e caos - Facoltà di Scienze della Formazione
by user
Comments
Transcript
Complessità e caos - Facoltà di Scienze della Formazione
IL CAOS E LA REGOLA: UNA SFIDA ALLA COMPLESSITA’1 Santo Di Nuovo, Francesco Coniglione 1. Il caos e la complessità: un nuovo ‘paradigma’ scientifico? «Dove comincia il caos si arresta la scienza classica […] L’aspetto irregolare della natura, il suo lato discontinuo e incostante, per la scienza sono stati dei veri rompicapo o peggio mostruosità» (Gleick, 1989, p. 9). Sembra che ad iniziare dagli anni ’70 la scienza abbia cominciato per la prima volta ad affrontare ciò che fino ad allora era stato rigorosamente tenuto ai suoi margini. Il caos e la complessità sono stati affrontati da molteplici punti di visti da scienziati di diversa formazione e in campi diversi: dalla fisica alla chimica, dalla biologia alla psicologia, dall’economia alla sociologia. Da questi studi e dalle riflessioni epistemologiche che ne sono scaturite s’è venuta a configurare una vera e propria sfida al modo in cui sinora si è intesa la scienza. La ‘nuova scienza’ si caratterizzerebbe infatti per la fine del riduzionismo, dell’analisi dei sistemi nei termini delle loro parti componenti, del determinismo, della linearità dei processi; per un approccio olistico alla realtà, screditato da decenni di positivismo e di logicismo riduzionista. E’ addirittura l’annuncio di una “terza rivoluzione” nella fisica moderna, dopo quella della relatività e della meccanica quantistica (Casati, 1991). Infatti le teorie della complessità e lo studio dei sistemi caotici sembrano contestare due capisaldi della scienza empirica tradizionalmente intesa: il determinismo riduttivistico e la causalità lineare (cfr. Musso, 1997). Tanto più un sistema è complesso, tanto più l’evoluzione di esso è imprevedibile; minime variazioni delle condizioni iniziali producono effetti, anche molto rilevanti, non deterministicamente connessi alle condizioni stesse: sviluppo che viene definito ‘caotico’ proprio per la sua impredicibilità. Per questi aspetti la complessità costituirebbe una sfida alle regole della scienza: “è l’irruzione dell’incertezza irriducibile nelle nostre conoscenze, è lo sgretolarsi dei miti della certezza, della completezza, dell’esaustività, dell’onniscienza che per secoli – quali comete – hanno indicato e regolato il cammino e gli scopi della scienza moderna” (Bocchi e Ceruti, 1991, pp. 78). Lo studio della complessità, che nasce con la riflessione sulla teoria dei sistemi avanzata da von Bertalanffy (1971), a sua volta proceduto da altri pionieri (ad esempio il russo Bogdanov: cfr. De Angelis 1996), ha ricevuto nuovo impulso negli ultimi due decenni dai contributi di filosofi e scienziati di varia formazione scientifica (Morin, 1984; Atias e Le Moigne, 1984; Prigogine e Stengers, 1984), e da quei ricercatori che hanno dato vita nel 1984 all’Istituto di Santa Fe (Waldrop, 1992). Essa ha finito con l’interessare progressivamente ambiti sempre più diversi delle scienze, dalla biologia alla fisica e alla chimica, dalla psicofisiologia all’epistemologia genetica e alle neuroscienze. In particolare nelle scienze umane la teoria della complessità ha avuto interessanti applicazioni in ambito cognitivo (Van Geert, 1994; Robertson e Combs, 1995; Finke e Bettle, 1996), riabilitativo (Guess e Sailor, 1993), pedagogico (Cambi, Cives, Fornaca, 1991; de Mennato 1999a), sociologico (Luhmann, cfr. Zolo 1983; Eve, Horfsall e Lee, 1997), etico (Quattrocchi, 1984), giuridico (Van de Kerchove e Ost , 1988; Aleo, 1999). Di recente anche la psicologia clinica si è aperta alle prospettive della complessità e della causalità non-lineare sia nella definizione e nella comprensione delle psicopatologie sia nella ricerca sugli interventi psicoterapici (Freeman, 1992; Orsucci, 1996; Bütz, 1997; Chamberlain e Bütz, 1998; Pubblicato in: Psicologia a più dimensioni (a cura di M. Bellotto e A. Zatti), ed. F. Angeli, Milano 2002, pp. 102-130. 1 La versione definitiva del testo è stata redatta durante un soggiorno di studio e ricerca presso l’Istituto di Psicologia dell’Università Adam Mickiewicz di Poznan (Polonia). Gli autori ringraziano il direttore dell’Istituto, prof. Jerzy Brzezinski, per aver discusso con loro gli argomenti qui trattati ed aver fornito utili suggerimenti. 1 Ceruti e Lo Verso, 1998). “Il risultato di questo cambiamento di prospettiva – ha scritto Mahoney (1992, p. 14) – è stato letteralmente destabilizzante per il tradizionale punto di vista sulla verità, sulla realtà e la conoscenza ma, al tempo stesso, entusiasmante per nuove e non tradizionali escursioni in questi stessi ambiti”. In effetti, la ricerca clinica e psico-sociale – ambiti su cui sarà centrato il presente contributo - è ricca di esempi che pongono con evidenza il problema della complessità, dell’indeterminismo e della non-linearità. a. Un primo esempio deriva dall’orientamento alla scelta della facoltà universitaria. La scelta, e l’orientamento ad essa, tiene conto di fattori abbastanza prevedibili e ‘regolari’: corrispondenza tra fattori soggettivi (attitudini, interessi, motivazioni, capacità di adattamento, ecc.) e ‘oggettivi’: tipo di preparazione acquisita, tipo di discipline previste nei curriculi, difficoltà del corso. A questi si associano fattori aleatori, alcuni parzialmente prevedibili (andamento del mercato del lavoro e prospettive occupazionali), altri particolarmente complessi e difficilmente prevedibili quali le possibili variazioni nel tempo delle condizioni economiche, motivazionali, emotive, le variazioni nei curriculi, le condizioni di adattamento richieste dalla specifica situazione di facoltà, ecc. Sulla possibilità di affrontare questa complessità torneremo dopo aver presentato alcuni strumenti metodologici alternativi a quelli della ricerca tradizionale, insufficienti a questo scopo. b. Un secondo esempio – che pure verrà ripreso più avanti - può essere tratto dagli studi sull’efficacia della psicoterapia. Anche in questo caso è possibile distinguere fattori le cui regolarità sono abbastanza note (relazione tra tecniche, sintomi, caratteristiche del terapista e del paziente) e cambiamenti aleatori riguardanti status economico, luogo di residenza, relazioni sociali e affettive, subentrare di malattie fisiche o lutti familiari, interruzioni forzate, intromissioni incontrollabili di terze persone, ecc.: insomma quei fattori imponderabili che rendono il procedere della terapia non lineare e ‘caotico’. Le realtà complesse e multideterminate, e i comportamenti caotici da esse esibiti, comportano due aspetti: - limitata scomponibilità della struttura complessa dell’evento, per cui le operazioni di riduzione sono sempre molto limitative della conoscenza della realtà; - limitata prevedibilità degli sviluppi futuri. Queste caratteristiche - spesso associate, ma non sovrapponibili - contraddicono i principi-base delle scienze positive. La riconsiderazione di esse ha costituito un elemento di crisi nelle scienze ‘forti’ e a maggior ragione è elemento centrale della revisione delle metodologie delle scienze umane, di per sé più esposte ai rischi della imponderabilità e complessità connessi all’analisi della soggettività. Nel presente contributo si cercherà di discutere la possibilità di realizzare nell’ambito delle ricerche psico-sociali un approccio simile a quello adoperato in altre scienze per i sistemi caotici e complessi; ma prima di far ciò riteniamo sia necessario rispondere ad alcune domande di carattere epistemologico, e cioè: - Le nuove prospettive concernenti il caos e la complessità possono configurare un modo nuovo di essere della scienza (‘paradigma’ in senso kuhniano) che segna una discontinuità rispetto sia alla scienza classica sia a quella che si è consolidata negli ultimi venti anni? - Oppure il problema consiste piuttosto nella necessità di adeguare le immagini filosofiche ed epistemologiche della scienza ad una prassi di ricerca che mantiene comunque una continuità col passato, pur nelle differenze di metodologia e analisi dei dati empirici? E in particolare quali sono le ricadute sulla ricerca psico-sociale? 2. “Universo-orologio” e determinismo 2.1 L’immagine classica della scienza L’immagine dell’universo consegnateci dalla fisica classica, così come forgiata da Galilei e Newton, ci descrive gli eventi della natura come analoghi a quelli di un perfetto orologio; un orologio 2 che aveva solo bisogno, pensava Newton, di essere ricaricato di tanto in tanto da Dio; o che, come riteneva Leibniz, andava avanti da solo in moto perpetuo; ma in ogni caso una macchina caratterizzata dalla immutabile precisione e dalla massima prevedibilità. Il corso delle sue lancette, per esprimerci nei termini della metafora, era segnato sin dall’inizio, al momento in cui esso veniva caricato, ed era sempre possibile, con perfetta simmetria, prevedere il loro stato in qualsiasi momento del futuro o retrovedere nel passato il cammino da esse percorso. Alla base di tale immagine sta l’incorporazione della matematica nella scienza della natura, evento che segna il più evidente distacco dalla scienza antica. A tale scopo, secondo Galilei, è necessario liberare la natura da tutti i suoi accidenti, semplificarla, renderla sempre più ideale, ridurla a parametri noti, tali da rendere applicabili i calcoli geometrici. E’ cioè necessario non ragionare più su sfere e superficie scabre, imperfette, rugose o cedevoli, così come ci sono mostrate da una circospetta indagine empirica, bensì prendere in esame sfere ideali, corpi perfettamente lisci, moti perfettamente uniformi. Insomma bisogna elaborare concetti che non possono essere la semplice astrazione dall’esperienza, dalle sue proprietà comuni, ma piuttosto costituiscono una creazione controfattuale, in polemica con l’esperienza stessa. La scienza non consiste nella semplice registrazione e generalizzazione dei fenomeni, in tutte le particolarità del loro svolgersi, bensì mira a cogliere il processo nella sua forma pura, libera da influssi casuali. Non è un caso che un contestatore della scienza moderna e della sua “irrealistica” immagine del mondo come Feyerabend (1979) critichi appunto per ciò la metodologia di Galilei, rivendicando la maggior capacità della scienza di Aristotele di rimanere aderente all’empirico, al senso comune. Sin dalle origini della scienza moderna, dunque, si è ben consapevoli della ‘imperfezione’ del mondo, dal suo andamento ‘caotico’ ed irregolare, della molteplicità dei fattori che ne influenza il corso, della difficoltà ad applicare una matematica lineare ad una natura nella quale non sono ritrovabili quelle perfette forme postulate dalla geometria. La scienza per Galilei, in polemica con la fedeltà al mondo fenomenico della fisica aristotelica, consiste nel creare modelli fisici non realistici, costruiti mediante l’assunzione di valori e proprietà non empiricamente riscontrabili e quindi che non possono essere il frutto dell’astrazione di proprietà comuni. E’ proprio grazie a tale operazione idealizzante, grazie appunto alla sua capacità di creare mondi possibili di terse e perfette figure concettuali, che si è potuta costituire la scienza moderna; solo grazie alla sostituzione dell’esperienza scientifica a quella di tutti i giorni, dell’oggetto fisico all’oggetto comune, la matematica ha potuto congiungersi con la “discretezza” dei dati sensibili. L’astrazione idealizzante, dunque, è stato un momento fondamentale per la costruzione della dinamica galileiana e della nuova scienza della natura. Grazie ad essa, la matematica da tecnica e strumento di calcolo, diventa metodo di conoscenza, assumendo un vero e proprio ruolo costitutivo. Si potrebbe dire che il problema del rapporto tra essa e la natura viene ad invertirsi rispetto all’età classica. Il problema non è più: data una natura, trovare la tecnica che la descriva o lo strumento migliore per la sua conoscenza; bensì, data la matematica, trovare o ‘creare’ una natura che sia da essa concettualizzabile; ovvero rispondere alla domanda: “come deve essere la natura affinché essa possa essere trattata matematicamente”? Galilei rispose che ciò è possibile solo semplificando ed idealizzando il nostro mondo naturale, solo costruendo di esso modelli ideali ai quali fossero applicabili gli strumenti della matematica. Viene a crearsi così un sempre più accentuato scarto tra l’immagine scientifica della natura e quella consegnataci del senso comune, nella complessità e caoticità degli eventi che ci circondano. La scienza successiva non si discostò da questo modo galileiano di intendere i concetti da essa impiegati, anche se a ciò non sempre si accompagnò una adeguata consapevolezza metodologica. Non vi sono dubbi che Newton, nonostante abbia utilizzato una fraseologia induttivista che gli veniva dalla filosofia del suo tempo, abbia fatto uso nella sua dinamica di concetti ideali e modelli matematici (cf. Such 1977, 1990; Boscarino 1990), perfezionando ulteriormente la fusione tra matematica e realtà grazie alla creazione di un nuovo potente strumento quale il calcolo infinitesimale, ignoto a Galilei e Cartesio: il frutto di questa imponente costruzione è quella che viene chiamata meccanica classica (cfr. Israel 1996, pp. 108-113). Anche i grandi scienziati dell’800 non ebbero dubbi circa il modo di interpretare il proprio lavoro teorico; così Boltzmann, in polemica con l’orientamento tipicamente espresso da Mach, riteneva che nessuna equazione fosse una semplice trascrizione dell’esperienza, ma piuttosto una sua idealizzazione, per cui nella conoscenza il pensiero non riproduce o semplicemente astrae dall’esperienza, ma fa di essa un modello (Bild) mentale, grazie al quale riesce a rappresentare una molteplicità di fenomeni (Ageno 1992). Sulla medesima via troviamo anche Hertz e lo stesso 3 Einstein (Barone 1983). Uno dei più chiari esempi in questo senso è fornito da Werner Heisenberg (1959, tr. it. 1978) il quale ben intese il significato dell’opera di Newton e quindi il senso complessivo del procedere della scienza, mettendo in luce il modo nuovo in cui essa forgia il proprio strumentario teorico mediante la procedura della idealizzazione, che è da tener distinta dalla normale astrazione empirista e che è piuttosto assimilabile al modo con cui procede l’arte (Heisenberg 1966). Una consapevolezza ben presente anche nella scienza moderna, persino in ambiti di ricerca che sembrano più legati a ideali descrittivisti: anche la metallurgia, ha sottolineato John Archibald Wheeler, «non ci mostra mai il ferro perfetto, mai un perfetto reticolo cristallino. Solitamente troviamo protuberanze, occlusioni, fratture e imperfezioni che separano campi di struttura cristallina quasi ideale - ma mai assolutamente ideale... Non [per questo] abbandoniamo il concetto di cristallo ideale, quando apprendiamo che la natura non ne offre mai uno» (Wheeler 1983, p. 398). 2.2 I riflessi epistemologici Ma la meccanica classica e tutta la scienza che l’ha assunta come modello hanno finito per condividere un ideale conoscitivo contrassegnato da alcuni caratteri che si riassumono in alcune parole chiave. Innanzi tutto meccanicismo, ovvero convinzione che tutti i fenomeni fossero spiegabili in termini di elementi ultimi, tra di loro in interazione secondo le leggi della meccanica newtoniana (Israel 1996, Cini 1994); di conseguenza riduzionismo, ovvero la tesi che «le proprietà globali sono univocamente determinate dalle interazioni tra componenti (ad esempio, la simmetria di un cristallo è determinata dalla simmetria dei legami interatomici) e pertanto la fisica macroscopica (o macrofisica) è completamente deducibile dalla fisica delle interazioni fondamentali (o microfisica)» (Arecchi 1986, p. 69). Alla base dell’impostazione riduzionistica sta la convinzione che il mondo microscopico sia più semplice di quello macroscopico e quindi che per comprendere quest’ultimo sia sufficiente scomporre i sistemi complessi in modo da trovare le loro componenti semplici governate dalle tradizionali leggi della meccanica. Una volta fatto ciò si pensa sia possibile formulare una espressione matematica, detta lagrangiana, grazie alla quale ricavare (mediante integrazione) le equazioni dinamiche che descrivono il divenire del sistema. Trovata la lagrangiana tutto era spiegato. Dunque determinismo, ovvero l’idea che ogni processo fisico sia governato da leggi causali che definiscono in modo univoco i suoi stadi futuri, una volta noto lo stato iniziale. Tale impostazione viene sintetizzata in maniera esemplare dal grande scienziato Laplace, che in un famoso passo del suo Essai philosophique sur les probabilités fornisce il sigillo filosofico della scienza classica: «Dobbiamo dunque considerare lo stato presente dell'universo come effetto del suo stato anteriore, e come causa di quello che seguirà. Una intelligenza che a un dato o istante conoscesse tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se fosse inoltre abbastanza vasta da sottoporre questi dati all’analisi, abbraccerebbe nella stessa formula i moti dei più grandi corpi dell'universo e quelli dell’atomo più leggero. [...] La regolarità che l’Astronomia ci mostra nel moto delle comete ha luogo, senza alcun dubbio, in tutti i fenomeni. La curva descritta da una semplice molecola d’aria o di vapori è regolata in modo altrettanto certo delle orbite planetarie: non vi è alcuna differenza fra di esse se non quella che vi mette la nostra ignoranza» (Laplace 1825, tr. it. p. 33). In questo brano sono contenuti tutti gli elementi della concezione classica della scienza, consegnataci da Newton e dai suoi successori (anche se ovviamente non sono mancate le voci di dissenso, come quelle di Pierre Duhem ed Ernst Mach). Da mettere in evidenza è come in questa descrizione della conoscenza umana fornita da Laplace sia stato bandito del tutto il caso, che viene derubricato a mera espressione della nostra ignoranza: una volta che si posseggano le informazioni complete (cioè l’espressione quantitativa delle forze, le posizioni e le velocità iniziali dei corpi) e si abbia la capacità di risolvere le relative equazioni differenziali, allora tutto diventa prevedibile e la descrizione dello stato e del divenire dell’universo è esaustiva. Ciò che chiamiamo caso non è altro che la nostra incapacità, tutta umana, di tener conto di ciò che invece la mente divina, nella sua onniscienza, ha presente. La complessità del reale è una pura apparenza, in quanto esso è ricostruibile a partire da semplici leggi fondamentali, purché si conoscano con esattezza le condizioni iniziali dei singoli processi fisici. Certo, di fronte alla circostanza che non si potevano di fatto conoscere tutte le condizioni iniziali del sistema, si pensava che una loro conoscenza approssimata fosse sufficiente per calcolare in modo pure approssimato il comportamento del sistema stesso. In tal caso si faceva ricorso, come proponeva appunto di fare Laplace, al calcolo delle probabilità: esso permetteva di conciliare la 4 convinzione sulla natura determinista del mondo con la necessità di approntare uno strumento scientifico che fornisse quelle conoscenze ‘ausiliarie’, in grado di farci superare lo scarto tra la nostra conoscenza del reale e la sua natura. Ancora oggi, di fronte alla incertezza derivante dalla imprevedibilità, il calcolo probabilistico aiuta permettendo di effettuare previsioni attendibili nel caso di eventi ripetibili per i quali si possono compiere serie di osservazioni, oppure di prendere decisioni non aleatorie nei confronti di eventi futuri non ripetibili. L’introduzione del calcolo delle probabilità non muta in nulla, come già evidenziava Laplace, il carattere deterministico e meccanicista del mondo, anzi l’approccio probabilistico è spesso subordinato ad una visione deterministica della causalità (Israel, 1996). 2.3 L’inizio della crisi: le riflessioni sul caos La limitazione epistemica derivante dalla incompleta conoscenza dei sistemi fisici era stata evidenziata anche da Poincaré col famoso problema dei tre corpi (Barrow-Green 1996), in cui si dimostrava che anche in un sistema assai semplice come quello costituito da tre corpi interagenti (per es. nel caso della meccanica celeste, il sole e due pianeti) diventa impossibile fare previsioni esatte sul comportamento delle soluzioni delle equazioni dinamiche, a causa dell’inesattezza delle informazioni che possediamo sullo stato iniziale del sistema: «Una causa piccolissima che ci sfugge determina un effetto considerevole che non possiamo non notare, e allora diciamo che questo effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell’universo nell’istante iniziale potremmo predirne esattamente lo stato in un istante qualunque. Ma, anche quando le leggi naturali non avessero più segreti per noi, non potremmo conoscere la situazione che approssimativamente. Se questo ci permette di prevedere con la stessa approssimazione la situazione ulteriore, ciò è sufficiente, e noi diciamo che il fenomeno è stato previsto, che esso è regolato da leggi; ma non è sempre così, in quanto può accadere che piccole differenze nelle condizioni iniziali ne generino di molto grandi nei fenomeni finali; un piccolo errore riguardo alle prime produrrebbe un errore enorme sulle ultime. La predizione diviene impossibile e abbiamo così il fenomeno casuale» (Poincaré 1991, p. 138). Già è contenuta in questo brano di Poincaré tutta la problematica che sta alla base della nascita delle teorie del caos e della complessità; solo che nel matematico francese permaneva ancora quella tipica impostazione laplaciana che contrappone conoscenza umana e realtà effettiva della natura, attribuendo solo alla prima l’impossibilità della previsione ed invece trasferendo sulla seconda la tersa struttura analitica dell’analisi infinitesimale. In tale passaggio si evidenzia il pericolo annidato nel modo di concepire l’impresa scientifica consegnatoci dai suoi fondatori: la possibilità che il modello ideale e matematizzato si sostituisca alla natura, trasformandosi in una vera e propria ontologia naturalistica e così reificandosi in permanenti strutture metafisiche. Si smarrisce la consapevolezza metodologica dell’artificialità di ogni modello scientifico, con la conseguenza di un cortocircuito teorico tra conoscenza della natura e natura conosciuta. 3: L’immagine epistemologica della ‘nuova scienza’: dall’ordine al caos 3.1 Le regole del caos Quanto detto trova una sua diretta applicazione nelle teorie del caos che sono state proposte negli ultimi anni, e che hanno modificato radicalmente l’immagine della scienza. Ma in cosa consistono in sostanza le acquisizioni concettuali che sono state il frutto della scienza del caos? Le molte situazioni sperimentali studiate (spesso assai semplici, come il caso delle oscillazioni del pendolo vincolato, di semplici calcoli numerici o della crescita della popolazione di una data specie in un determinato ambiente) hanno sottolineato l’importanza della cosiddetta “dipendenza sensibile dalle condizioni iniziali”: essa, ben nota ai matematici sin dalla fine dell’Ottocento (oltre a Poincaré, anche Hadamard), ha avuto una applicazione in campo fisico quando il meteorologo Lorenz, studiando nel 1963 mediante simulazioni al calcolatore un modello di evoluzione dell’atmosfera, ha scoperto un sistema di equazioni che danno una descrizione semplificata del moto atmosferico. Tuttavia egli si avvide che tali equazioni sono non-lineari: a meno di non conoscere lo stato iniziale del sistema con infinita precisione, la nostra capacità di previsione presto svanisce. Questa estrema sensibilità sul dato di partenza (appunto di “dipendenza sensibile dalle condizioni iniziali”) significa che le strutture circolatorie dell’atmosfera potrebbero essere determinate dalla più piccola perturbazione: anche dal 5 battito d’ali di una farfalla. Queste indagini di Lorenz, che di solito sono ritenute l’atto ufficiale di nascita della “scienza del caos”, ed anche altre simili effettuate in seguito (come gli studi sulle turbolenze nei liquidi di David Ruelle), hanno messo bene in luce come piccolissime variazioni nelle condizioni iniziali di un sistema dinamico producono variazioni che crescono esponenzialmente all’evolvere del sistema fino a raggiungere uno stato in cui non è possibile più ricostruire lo stato iniziale del sistema (se ne perde la “memoria”) e viene a cadere ogni possibilità di previsione degli stati futuri. E’ appunto quanto accade con i fenomeni meteorologici, dove le capacità di previsione raggiungono al massimo una o due settimane, appunto per l’estrema sensibilità alle condizioni iniziali da essi posseduta. Abbiamo in questo caso a che fare col cosiddetto “caos deterministico”, caratterizzato dal fatto che il comportamento caotico è determinato da equazioni di tipo deterministico molto semplici (Schuster 1984; Croquette 1991). E’ sulla base di comportamenti simili che molti scienziati impegnati in queste ricerche hanno ritenuto ormai definitivamente venute meno le assunzioni di base della fisica classica, e cioè il determinismo ed il riduzionismo. 3.2 Le strutture dissipative e l’auto-organizzazione dei sistemi Un altro settore assai importante che ha anche contribuito alla crisi della visione classica della scienza è stato quello che ha studiato le cosiddette strutture dissipative, cioè sistemi termodinamici non isolati, in cui sia ha interscambio di energia con l’esterno. In questo caso ad essere messo in crisi è il concetto di reversibilità del tempo. La sua analisi critica è nata nell’ambito della termodinamica e si è in particolare sviluppata con lo studio dei sistemi termodinamici non in equilibrio da parte di Ilya Prigogine. L’irreversibilità è tipica dei fenomeni della termodinamica ma è anche la caratteristica di tutti i fenomeni reali. Con la irreversibilità il tempo ha una ‘freccia’: c’è un prima e un dopo. Invece ciò non avviene nei fenomeni reversibili tipici della meccanica e dell’elettromagnetismo. Mentre i fenomeni reversibili possono svolgersi in un senso o nell’altro rispetto al tempo, quelli irreversibili vanno in un’unica direzione: una zolletta di zucchero che si scioglie nell’acqua disperderà in modo uniforme le proprie molecole nel liquido, ma mai potremo vedere che le molecole si riaggregano per formare nuovamente la zolletta di zucchero. Tuttavia ciò vale per sistemi in equilibrio termodinamico che, pur potendo scambiare energia con l’ambiente esterno, sono caratterizzati in ogni loro parte dalla presenza uniforme di proprietà come la temperatura, la pressione, la composizione chimica, ecc. Ma in natura non esistono sistemi in equilibrio: pur realizzandosi comportamenti organizzati ed ordinati, tuttavia si è sempre lontani dall’equilibrio (Prigogine 1981). Merito di Prigogine è quello di aver studiato sistemi aperti che scambiano materia ed energia con l’ambiente circostante, cioè sistemi dissipativi che ricevono e consumano continuamente energia tratta dall’esterno. Le strutture dissipative sono caratterizzate dalla loro sensibilità alla fluttuazione: mentre nei sistemi isolati vicini all’equilibrio le fluttuazioni si attenuano rapidamente, invece una piccola fluttuazione in una struttura dissipativa non lineare può essere amplificata e far passare il sistema ad una situazione macroscopica nuova, impredicibile quanto la fluttuazione che la causa. Tale situazione può far comparire un ordine assente nel sistema originario: il sistema si auto-organizza mediante una spinta autopoietica. Ecco perché Prigogine parla di “ruolo costruttivo del non equilibrio”. Un esempio è dato dalla instabilità di Bénard: un liquido riscaldato, arrivato ad un certo gradiente, manifesta una struttura di colonne montanti di convezione (cfr. Prigogine 1981, pp. 81-83; Vidal e Roux, 1991). Da ciò il grande passo: la vita è un ordine che sorge per fluttuazione in un sistema aperto, quale quello della superficie terrestre, che riceve energia dal sole. Prigogine sembra gettare un ponte tra la scienza meccanicistica newtoniana (con i caratteri precedentemente detti) e il mondo della vita. Anche in ciò si manifesta la fine del determinismo: «Il determinismo dinamico cede il posto alla complessa dialettica tra caso e necessità, alla distinzione tra le regioni di instabilità e le regioni tra le due biforcazioni in cui le leggi medie, deterministiche, dominano. L’ordine per fluttuazione contrappone all’universo statico della dinamica un mondo aperto, la cui attività genera la novità, la cui evoluzione è al tempo stesso evoluzione, creazione e distruzione, nascita e morte» (Prigogine e Stengers 1981, pp. 196-197). 3.3 Un cambiamento di paradigma? Caos, irreversibilità, strutture dissipative, ordine dal caos: con la nascita di questi nuovi campi del sapere sembra proprio che la fisica di oggi abbia operato un cambio di paradigma. Termini una volta in disuso o screditati sembrano ritornare di nuovo attuali: totalità, olismo, organicismo, 6 finalismo, creazione dal nulla. Alla fisica dei corpi ideali, delle superfici perfettamente lisce, dei gas perfetti, degli stati di equilibrio, dei sistemi isolati, insomma alla fisica della linearità, succede la fisica dell’irregolare, del singolare, del complesso, del non isolato, della interazione, ovvero della nonlinearità. Una fisica, insomma, più “flessibile”, più umana, più sensibile alle peculiarità ed alle piccole differenze, meno astratta ed universalizzante. Ed in effetti, i risultati conseguiti nell’ormai imponente letteratura scientifica sui sistemi caotici e sulle strutture complesse (di cui si può trovare una sintesi rigorosa in Nicolis, 1995) hanno senza dubbio portato fondamentali contributi alla nostra conoscenza della natura in settori che sono stati sinora trascurati dalla scienza ufficiale. Non mancano tuttavia interpretazioni – quale quella del ‘costruttivismo radicale’ - che lasciano adito a dubbi e contraddizioni, in quanto operano un passaggio, non sempre consapevole, dal piano epistemico a quello ontologico. Questo rischio, che si annidava nello stesso atto di nascita della nuova scienza, si accompagna a volte all’attivazione di veri e propri ‘miti’ come quelli indicati da Eve (1997): che il caos equivalga ad una completa casualità, che non esista via di mezzo tra sistemi caotici e non caotici, che le teorie del caos siano utilizzabili solo nelle scienze naturali e che rendano impossibile una scienza sociale empirica, oppure al contrario, che la loro applicazione nelle scienze sociali debba sostituire del tutto ogni altro approccio tradizionale. Per evitare questi rischi è bene precisare alcuni punti nel merito delle nuove teorie del caos e della complessità. 3.4 Caos: al di là dei ‘miti’ Innanzitutto il comportamento caotico e complesso è generato da equazioni assai semplici; quando si adoperano nuovi strumenti matematici, questi sono nuovi rispetto alla fisica classica, ma non certo da un punto di vista matematico (è il caso dell’utilizzo fatto da Thom della topologia, che è una scienza assai “tradizionale” e “razionale”); i sistemi non-lineari sono ben noti da tempo, anche se il loro studio è stato enormemente potenziato solo di recente grazie alla possibilità di simulare al computer, mediante un numero altissimo di iterazioni, comportamenti altrimenti non analizzabili con i tradizionali strumenti matematici. Inoltre è ormai ben chiaro che non è vero che impredicibilità ed indeterminismo vanno insieme: è infatti possibile concepire un universo completamente deterministico nel quale il futuro è sconosciuto ed inconoscibile e nel quale sono pertanto possibili delle novità imprevedibili. Come affermano Robertson e Combs (1995, pp. 12-13): «Determinismo e predicibilità non sono sinonimi: equazioni deterministiche possono portare a risultati non prevedibili – caos – quando c’è un feedback all’interno del sistema». E’ stato anche scoperto da Mitchell Feigenbaum che la transizione (mediante raddoppiamenti di periodo) verso il caos manifesta certe caratteristiche universali indipendenti dal sistema in esame: «anche se con il caos viene meno la predicibilità, c’è pur sempre un ordine matematico soggiacente» (Davies, 1998, p. 7). Infine, è ormai convinzione comune che i comportamenti caotici sono nella realtà molto più numerosi di quelli regolari: la regolarità e la linearità sono una eccezione e non la regola. Per cogliere questa irregolarità è stata creata una nuova geometria, diversa da quella euclidea: la geometria dei frattali di Benoit Mandelbrot (1975, tr. it. 1987). E’ grazie a questa che è possibile descrivere le traiettorie invarianti di evoluzione dei sistemi caotici. La geometria del caos è la geometria non analitica degli oggetti frattali ed è frattale un oggetto (ad esempio la curva di Koch) caratterizzato dalla autosomiglianza. La stessa eleborazione della “fuzzy logic” ad iniziare dagli anni ’60 dal matematico di origine iraniana Zadeh è avvenuta allo scopo di permettere la descrizione razionale di processi non dicotomici, in cui i valori di verità non siano polarizzati tra lo zero (il falso) e l’uno (il vero), in modo da creare un’interfaccia tra dati descritti simbolicamente per mezzo di termini del linguaggio comune (come “alto”, “caldo”, “circa…”, ecc.) e dati numerici, permettendo in tal modo di avvicinare la complessità ricca di sfumature del mondo reale alla concettualizzazione necessaria per intervenire in esso. Ma anche in questo caso, la trattazione del “vago”, dello “impreciso”, del “confuso” fa uso di un linguaggio matematico estremamente rigoroso e formalizzato che ha trovato espressione in una nuova branca scientifica coltivata per lo più nei dipartimenti di matematica all’interno di una teoria degli insiemi generalizzata mediante l’introduzione del concetto di sottoinsieme fuzzy, della quale la teoria degli insiemi standard non sarebbe altro che un caso particolare. A livello metodologico, occorre prendere atto della inadeguatezza degli strumenti concettuali che sono stati sinora adoperati per capire la natura della scienza, sia essa quella classica che quella 7 postclassica, e proporre metodologie capaci di rispondere in modo più adeguato alle esigenze poste dalla teoria della complessità. Ciò consente anche di rispondere adeguatamente alla domanda se si sia dimostrata inadeguata l’immagine di scienza interna ad una certa tradizione epistemologica, oppure la scienza (e la sua razionalità) in quanto tale. Sono entrati in crisi dei paradigmi scientifici oppure dei paradigmi metodologici? La consapevolezza di questo dilemma è presente tra gli stessi scienziati creatori delle nuove teorie di cui ci stiamo occupando. 3.5 L’esigenza dei modelli Emerge chiaramente la consapevolezza, sempre più maturata negli ultimi tempi, che l’evoluzione della conoscenza deve essere intesa nei termini di una successione di modelli, ciascuno dei quali è più accurato dei precedenti, ma sempre incompleto2. Afferma Mandelbrot, il creatore della geometria frattale: «Quando si rappresenta un fenomeno reale si fa un modello, poi lo si corregge ancora, lo si migliora costantemente, ma il modello in se stesso non va mai confuso con la cosa reale, la realtà è sempre più complicata del modello» (Mandelbrot 1989, p. 17). E’ questo il cuore del modo di procedere della scienza classica: essa costruisce degli oggetti ideali non esistenti in natura in quanto solo ad essi sono applicabili le equazioni matematiche. La termodinamica non ha a che fare con i gas, ma con i gas ideali; la dinamica non tratta dei corpi, ma di corpi perfettamente rigidi ed elastici; la superficie su cui rotola la sfera di Galilei non è una superficie qualunque, ma una superficie perfettamente liscia e così via. Insomma le teorie scientifiche non parlano della natura in sé e per sé, ma di un suo modello idealizzato: scambiare tale modello con la natura in quanto tale e quindi ritenere che la realtà sia fatta di gas ideali, di corpi rigidi e così via sarebbe scambiare il piano epistemico per quello ontologico. Ed affinché il modello sia applicabile alla realtà è necessario introdurre in esso delle correzioni che ne modificano le assunzioni irrealistiche e le sostituiscano con descrizioni realistiche, in tal modo complicando l’espressione della legge; oppure è necessario mettere in atto delle procedure che permettano un calcolo approssimato che tenga conto delle deviazioni che il comportamento reale del sistema fisico osservato mette in luce rispetto alle previsione del modello idealizzato. Se si assolutizza un approccio matematico di tipo lineare, la possibilità, dimostrata dal teorema di esistenza e unicità delle equazioni differenziali ordinarie, di trovare una soluzione univoca una volta note le coordinate di partenza, ha la sua traduzione filosofica nel principio del determinismo illustrato da Laplace. Quello che all’inizio era un postulato metafisico, che reggeva tutta la scienza a partire dal ’600, riceve una sua traduzione nel linguaggio matematico (Cauchy dimostra il teorema nel 1837) e quindi rimbalza sul reale giustificandone una lettura determinista: una semplice concezione filosofica del mondo diventa ora il risultato della sua conoscenza scientifica e viene avallato dai crismi della sua razionalità. Viceversa, la consapevolezza del carattere modellizzante della scienza mette in luce come l’unica relazione possibile tra questa e la ‘rugosa’ esperienza, la vaga e sfuggente fisionomia del mondo che ci circonda, non è altro che quella di concretizzazione: la “nuova scienza” del caos e della complessità non farebbe altro, in tal modo, che far cadere alcune assunzioni idealizzanti presenti nella fisica classica in modo da render conto di alcuni aspetti della realtà trascurati, e ben a ragione, dalla prima. La geometria frattale, la fuzzy logic, la termodinamica dei processi irreversibili, la fisica nonlineare ecc., sono momenti successivi, tappe, del progressivo articolarsi della scienza verso modelli sempre più concreti nei quali sono rimossi presupposti che, alla luce delle nuove indagini e dei nuovi ambiti fenomenici studiati, si dimostrano “irrealistici” e non adeguati alla loro concettualizzazione. Ma pur sempre modelli rimangono, essendo la distanza tra conoscenza e reale colmabile solo asintoticamente, a meno di non prendere la scorciatoia del misticismo, come accade in Fritjof Capra (1982, 1997). La ‘rivoluzione’ nella scienza, allora, non è altro che la scoperta dei limiti di validità del dominio di una data teoria, scoperta che viene fatta quando si è voluto, per analogia, estendere le formulazioni della teoria al di fuori del suo dominio originario. In tale senso – ha affermato Bernardini (1993, p. 23) - «non ci sono più “leggi sbagliate” in fisica finché limitiamo il loro uso ad un ragionevole ambito di validità. Possono tuttavia esserci inappropriate generalizzazioni e fallimenti al di fuori dell’ambito di applicazione originario: ciò non implica che le leggi siano sbagliate, ma 2 Questo approccio basato sulla costruzione di modelli ideali è stato particolarmente sviluppato all’interno della cosiddetta ‘Scuola di Poznan’ (cfr. Nowak, 1980; Brzezinski e al., 1990; Coniglione, 1991). 8 soltanto che sono state usate in modo non corretto». Prigogine rivoluziona la termodinamica non perché ne rivela errate le formulazioni, ma in quanto ne esibisce i limiti di applicazione e quindi formula, per le strutture dissipative che stanno fuori del suo dominio, una nuova teoria più ampia. 3.6 Una metodologia dal caos: applicabilità alle scienze psico-sociali Assumendo un atteggiamento metodologico corretto, si può concludere che la scoperta dei fenomeni caotici non segna la fine della causalità, ma che occorre una metodologia più adeguata in grado di cogliere i nessi all’interno di fenomeni complessi: fenomeni non più concettualizzabili da un approccio come quello finora utilizzato nella scienza, che si è occupata prevalentemente di sistemi le cui variabili possono essere legittimamente ridotte e controllate mediante disegni sperimentali tipici della ricerca di laboratorio. Occorre dunque domandarsi: in che misura gli strumenti teorici messi in opera nelle “nuove scienze” possono essere proficuamente utilizzati anche nella metodologia clinica e psico-sociale? In che senso il diverso modo di ‘guardare’ alla natura - sganciato da ogni intenzionalità ontologica e senza estrapolazioni di carattere metafisico - può costituire anche un punto di vista utile in campi diversi dalla sua origine? In fin dei conti anche la scienza classica ed il modello newtoniano della scienza, pur rivelatosi oggi nei suoi effettivi limiti di applicazione, ha tuttavia avuta una funzione euristica fondamentale anche in campi assai lontani dal suo ambito originario. Il carattere paradigmatico di uno nuovo indirizzo di ricerca si estrinseca proprio a questo proposito: nell’essere capace di suscitare estensioni disciplinari, nuove applicazioni in settori diversi, articolazioni teoriche che riescono a concettualizzare ambiti fenomenici che prima sfuggivano alla presa razionale. 4. Complessità e ricerca empirica: una convivenza possibile? 4.1 Adeguare la ricerca alla realtà complessa: una sfida metodologica La non prevedibilità che in certi ambiti di ricerca – come quelli psico-sociali – deriva dalla applicazione della logica lineare può avere come possibile esito o una paralisi decisionale nella ricerca e nell’intervento sulla complessità, oppure una ricerca di prevedibilità e di ‘regolarità’ all’interno della caoticità: quell’ “ordine nel caos” di cui parlavano già Prigogine e Stengers (1984). Tali aspetti di regolarità sono appunto quelli individuati nelle nuove scienze, come nella geometria dei frattali di Mandelbrot e negli studi sulle invarianze nell’evoluzione dei sistemi caotici: «nel caos vi è ordine: soggiacenti al comportamento caotico vi sono eleganti forme geometriche che creano l’aleatorietà così come il cartaio mescola un mazzo di carte o un cuoco mescola l’impasto di un dolce» (Crutchfield e al., 1989, p. 22). Perché questa prevedibilità sia possibile, entro certi limiti, occorre dunque che le ‘regole’ nel caos vengano cercate con metodi appropriati. Quanto detto comporta nella ricerca empirica, per esempio psicologica o sociale, la necessità di chiarire i criteri e i limiti della riduzione della complessità – necessaria, e più marcata nelle scienze umane che in quelle fisico-naturali - e i criteri di analisi dei dati e, più in generale, metodologici. 4.2 Aspetti relativi all’analisi dei dati empirici Le consuete analisi prevalenti nella statistica fisheriana, diffusa nelle scienze psicologiche e sociali, basano la possibilità di generalizzazione3, e quindi di interpretazione della complessità, sul calcolo della probabilità. Come già detto, questo calcolo consente di assumere un comportamento razionale di fronte all’incertezza, non solo nella ricerca scientifica, ma anche nella vita quotidiana: spesso ci troviamo infatti a dover prendere decisioni rispetto ad eventi futuri non prevedibili, oppure a dover effettuare previsioni basandosi su una serie di osservazioni già compiute di cui occorre prefigurare il ‘trend’ successivo. Nel primo caso la probabilità aiuta permettendo di calcolare la possibilità di verificarsi degli eventi all’interno di certi fattori aleatori4; nel secondo di effettuare un calcolo di ‘forecasting’ rispetto 3 Per generalizzazione si intende qui quel processo inferenziale che consente di estendere i risultati ottenuti su campioni agli universi di soggetti e di stimoli, rispetto ai quali si intendono trarre delle conclusioni di ordine teorico o applicativo. Prescindiamo, in questa sede, dai complessi problemi epistemologici e filosofici che, com’è noto, sono legati alla generalizzazione induttiva. 9 ad una serie temporale di cui sono noti i cicli precedenti (si pensi alle previsioni dell’andamento dell’economia). In entrambi i casi la probabilità tende in qualche modo a ‘prevedere l’imprevedibile’. Alcuni esempi possono essere tratti da settori diversi della ricerca psico-sociale: - Fiducia nella possibilità che un certo evento (l’atteggiamento dell’insegnante) sia predittore di altri (apprendimenti scolastici da parte degli allievi). La verifica probabilistica è affidata alla regressione multipla, ricercando se e rispetto a quali variabili dipendenti il predittore è statisticamente significativo. - Applicazioni della statistica bayesiana alla scelta e ai processi decisionali che le determinano: ad esempio, calcolare le probabilità di scelta di una facoltà universitaria piuttosto che un’altra in base a più parametri il cui valore è soggettivamente predefinito. - Previsione dell’andamento di un processo di crescita a partire dalle regolarità osservate in un campione ampio e rappresentativo di soggetti, applicandone i parametri allo sviluppo di un certo soggetto di cui sono note le caratteristiche di base. Gli ambiti di applicabilità sono definiti mediante criteri probabilistici. Come si nota da questi esempi, le variabili aleatorie imponderabili possono essere messe tra parentesi, in quanto ‘superate’ dalla logica della probabilità. In alcuni casi – dipendentemente dal modello teorico e dalla adeguatezza del campionamento e delle misurazioni - questo è plausibile, in altri lo è meno o per nulla. Tuttavia è possibile analizzare questi fenomeni con un’ottica diversa da quella probabilistica, come evidenziato dallo studio quantitativo del caos, che ha messo in atto delle tecniche diverse, quali le analisi spettrali, le serie temporali analizzate mediante le trasformazioni di Fourier5, i tassi di entropia del sistema6, gli esponenti locali di Lyapunov, l’individuazione dell’attrattore dinamico e il test di correlazione spaziale (per i dettagli su queste tecniche, cfr. Haykin, 1979; Rasband, 1990; Meyer-Kress, 1992; Wolff, 1992; Ott, Sauer e Yorke, 1994; Brown, 1995). Di recente Rocchi (1999) ha presentato un esempio di tecnica basata sulla statistica circolare per l’identificazione, all’interno dei ritmi temporali, di periodi ignoti e non prevedibili a priori. La possibilità di affiancare alla logica di tipo probabilistico analisi fondate su criteri diversi è peraltro nota da tempo anche nella statistica tradizionale. Ricordiamo: a. Le analisi miranti alla riduzione di dati complessi: analisi fattoriale, dei clusters, delle corrispondenze; analisi causale. Esse sono fondate sull’analisi di matrici di correlazione e solo secondariamente, e solo per certi aspetti, si avvalgono di verifiche probabilistiche. Alcuni esempi: - i molteplici tratti di personalità – che configurano un oggetto di studio tra i più complessi della ricerca psicologica - sono stati sintetizzati mediante tecniche di analisi fattoriale, in cinque grandi fattori o ‘big five’ (estroversione, gradevolezza, coscienziosità, stabilità emotiva, apertura all’esperienza), la cui sostanziale stabilità è stata verificata in contesti e culture diversi. - l’analisi delle corrispondenze è stata ampiamente utilizzata per individuare i fattori essenziali di fenomeni di estrema complessità quali le rappresentazioni sociali, le decisioni sul voto politico, gli atteggiamenti verso le minoranze. 4 E’ noto che mediante gli specifici test statistici viene stimata la probabilità che i risultati della ricerca siano stati ottenuti sulla base degli elementi casuali contenuti nel set di condizioni che definiscono il modello (ipotesi ‘nulla’). Se questa probabilità risulta accettabilmente bassa, in base ad un ‘limite critico’ prefissato, si può confutare l’ipotesi che l’effetto delle variabili indipendenti su quelle dipendenti non sia diverso da quanto ci potrebbe attendere sulla base del puro caso. Una volta ragionevolmente escluso il caso nella spiegazione dei risultati ottenuti, occorre attribuire l’effetto (in termini non matematici, ma logici) ad una plausibile spiegazione alternativa. Questa alternativa alla casualità è in genere rappresentata dall’ipotesi alternativa, che viene scelta in anticipo ed è la vera ipotesi ‘sostantiva’ della ricerca. 5 L’analisi di Fourier è basata sulla scomposizione della serie temporale in una somma di componenti trigonometriche; mediante la costruzione di un periodogramma che rappresenta la grandezza di queste componenti in relazione alla loro frequenza, si tende ad individuare un filtro che appiana il ‘rumore’ – legato alla complessità delle variabili in gioco - ed analizza la composizione spettrale della serie. 6 Il tasso di entropia descrive la perdita media di informazione (o il guadagno, dipendentemente dal segno) che il processo dinamico produce. Esso costituisce una misura della complessità esprimendo quanta informazione viene assorbita o, reciprocamente, quanta è necessaria per descrivere uno stato futuro del sistema in evoluzione: più il sistema è complesso, maggiore è il ‘disturbo’ nella comunicazione e più elevato risulta il tasso di entropia. 10 Queste riduzioni non risolvono certamente il problema della spiegazione di fenomeni complessi e multicausali quali la personalità umana o gli atteggiamenti sociali; contribuiscono però a evidenziarne delle coordinate che hanno valore euristico oltre che applicativo. b. Le analisi sequenziali consentono di studiare le interdipendenze in una o più sequenze di eventi, che possono essere espressi anche in termini categoriali come la distinzione fra comportamenti di tipo passivo o attivo all’interno di una interazione terapeutica o formativa. Analisi sequenziali multivariate permettono di studiare più variabili all’interno di fenomeni complessi - per esempio un gruppo di formazione, un nucleo familiare in terapia - e con diversi comportamenti osservati. Specifiche strategie sono state messe a punto per verificare aspetti legati non solo alla sequenza di eventi, ma anche alla durata di essi. - Possono essere studiate le sequenze di interazioni tra coniugi o tra insegnante e allievo. Dalla complessità della relazione, apparentemente caotica, può essere estrapolata una serie di regolarità che ne punteggiano l’andamento. - Mediante la ‘survival analysis’ è possibile monitorare gruppi in trattamento (ad esempio, farmacologico o psicoterapeutico) per controllare se e in che misura gli specifici trattamenti incidono sui tassi di remissione dei sintomi e del mantenimento nel tempo dei benefici ottenuti, tenendo conto delle molteplici variabili intervenienti. c. L’analisi della ‘dimensione degli effetti’ sperimentali (effect size) costituisce la più decisa contrapposizione alla logica probabilistica. Mentre la significatività statistica si fonda sulla decisione dicotomica, appunto su basi probabilistiche, delle regioni di accettazione/rifiuto del’ipotesi ‘nulla’ e dice pertanto se un fenomeno osservato può essere considerato non casuale, l’effect size esprime il grado in cui la relazione (o la differenza) verificata nella ricerca differisce da una relazione (o differenza) ‘nulla’ (Cohen, 1988). La dimensione dell’effetto, valutando in modo continuo quanta varianza della variabile dipendente viene spiegata in funzione della variabile indipendente, può anche essere definita come la intensità della relazione tra la variabile indipendente (trattamento) e quella dipendente (outcome). Conoscere la dimensione dell’effetto sperimentale consente delle deduzioni sulla ‘rilevanza’ delle conseguenze della ipotesi stessa, al di là della sua casualità o meno che viene valutata con le statistiche probabilistiche. Alcuni esempi: - la trasmissione disturbata in un sistema complesso e multicausale ha come antidoto metodologico la ricerca di una ‘pregnanza’ in grado di superare i ‘disturbi’: occorre valutare quanta ridondanza è necessaria perché l’effetto sia una ricezione del messaggio sufficiente a comprenderne gli elementi essenziali. - analisi di dimensione dell’effetto sono state compiute sugli argomenti più diversi della psicologia sperimentale (ad esempio, effetti dell’interferenza sulla memoria; efficacia di cues didattici e feedback correttivi sull’apprendimento; influenza delle aspettative dello sperimentatore) e applicativa (training in servizio per insegnanti, counseling educativo, formazione al management in setting istituzionali, addestramento in gruppo di assertività; istruzione basata sul computer sull’apprendimento, e così via: cfr. per un’ampia rassegna Lipsey e Wilson, 1993). In questi casi il calcolo dell’effect size valuta quantitativamente la efficacia - piuttosto che la non casualità – dei risultati del trattamento, e costituisce la base per una cumulazione di più studi che, come vedremo, consente di articolare e differenziare la complessità in settori di ricerca che non possono essere compiutamente indagati in singole ricerche basate sull’inferenza probabilistica. d. L’uso di una logica ‘fuzzy’, nella quale si descrivono eventi che si verificano in una certa misura e non casuali, randomizzati, che si verificano in tutto o per niente, come avviene invece nel caso della probabilità (Bouchon-Meunier, 1993; Kosko, 1995; Baldwin, 1996; Zimmermann, 1996). L’incertezza di molte persone al momento di assumere decisioni importanti può manifestarsi in vari modi: confusione e scarsa esperienza decisionale; necessità di supporti esterni; attrazione per diverse opzioni contrastanti tra loro; scarso interesse per la scelta. L’indecisione non è il polo di una dicotomia (deciso/indeciso), cui può essere applicata la logica della probabilità, ma piuttosto la posizione su un continuum, che ha interazioni con altre dimensioni (sicurezza/insicurezza e soddisfazione/insoddisfazione). Si tratta di un 11 tipico aspetto riconducibile ad una logica ‘fuzzy’ capace di concepire una molteplicità di sfumature nella appartenenza o meno di un dato fattore a un insieme di riferimento. 4.3 Aspetti metodologici La crisi dei metodi tradizionali di ricerca sperimentale è particolarmente evidente quando l’oggetto di ricerca è di grande complessità (una classe, una famiglia in terapia, un gruppo di operatori in formazione, un reparto lavorativo) ed esso va studiato mentre si lavora per mutarne alcune caratteristiche. La complessità non può essere ridotta artificialmente, selezionando solo alcune variabili su cui centrare l’attenzione; né ‘fermata’ e studiata trasversalmente in un unico momento temporale; essa va affrontata olisticamente, senza semplificazioni preliminari, e va seguita nello sviluppo temporale durante tutto il corso dell’intervento, monitorando le possibili variabili intervenienti, non prevedibili né controllabili a priori. Una soluzione, favorita dalla facilità di trattamento di dati molteplici grazie alla potenza degli elaboratori elettronici, o dalla possibilità di operare simulazioni computerizzate, è quella di aumentare la complessità del disegno di singole ricerche, con conseguente sofisticazione delle analisi statistiche. In genere l’incremento di variabili in uno stessa disegno di ricerca conduce – nell’impossibilità di adeguati piani di campionamento dei soggetti o degli stimoli – a difficoltà interpretative quando non addirittura ad artefatti e veri e propri errori metodologici e tecnici che sono stati più volte sottolineati (Cook e Campbell, 1979; Serlin, 1987; Rosnow e Rosenthal, 1989; Kazdin 1991). In alternativa – coerentemente a quanto esposto nei paragrafi precedenti - è possibile ricostruire la complessità tramite l’articolazione della teoria in molteplici modelli da concretizzare in specifiche ipotesi, modelli tra loro interconnessi in un disegno di ricerca complessivo che può coinvolgere più momenti e più ricercatori. La modellizzazione multivariata prevede la operazionalizzazione di più modelli, e quindi di più ipotesi, al fine di estendere la validità della ricerca empirica. La generalizzazione dei risultati delle verifiche empiriche rispetto al modello e alla teoria può essere facilitata dalla cumulazione di molteplici controlli in condizioni differenti. Un modello è tanto più robusto e affidabile quanto più è suscettibile di concretizzazioni e quindi di verifiche in condizioni e con implicazioni diverse; una teoria è tanto più ‘corroborata’ quanto più sono i modelli da essa derivati che ottengono validazione. Questa valutazione può essere compiuta in termini quantitativi cumulando una serie di effetti derivanti da ricerche condotte - dallo stesso autore o da autori diversi - su una stessa ipotesi di lavoro: la procedura, definita meta-analisi, tiene conto delle varianti della ipotesi relative alle diverse condizioni di verifica, valutando i fattori ‘moderatori’ dell’effetto principale e la loro interazione7. Le analisi cumulative di più momenti di ricerca possono corrispondere in qualche modo alle iterazioni del computer nella simulazione dei processi dinamici caotici, alla ricerca di elementi di invarianza – e quindi di regolarità – insieme agli elementi di differenziazione. Citiamo alcuni esempi di ricerca che possono essere condotte in questa ottica. - Studi sulla efficacia della riabilitazione in ambito educativo: un training (ad esempio, di apprendimento del problem-solving) che funziona a certe età e con un certo tipo di deficit, funziona anche ad altre età e con altri deficit? L’efficacia di un training ha portata più generale se la meta-analisi di una serie di studi che lo usano dimostra che esso funziona altrettanto bene sia con soggetti normali di diverse età sia con categorie diverse di portatori di handicap; sia in ambito scolastico che nella riabilitazione in istituzioni. - Ricerche sulla validità di modelli formativi: modalità di formazione che si sono rivelate efficaci in certi contesti lo sono, e in che misura, anche in altri? Anche in questo caso una verifica cumulativa può dire se e in che misura il training è ‘generalizzabile’, in quanto i suoi effetti risultano estensibili a caratteristiche diverse di soggetti e di condizioni; il modello di riferimento 7 La meta-analisi consente la sintesi e il confronto sistematico dei risultati quantitativi di una serie di studi presi in esame. In essa si procede calcolando anzitutto una media ponderata degli ‘effetti’ ottenuti nella serie di ricerche, e compiendo quindi una valutazione delle caratteristiche di invarianza della serie stessa. Utilizzando appropriate statistiche, si esamina se la variabilità interna alla serie di effetti studiati cumulativamente può essere spiegata da artefatti metodologici (ad esempio, ampiezza dei campioni o attendibilità degli strumenti usati nei diversi studi), oppure da variabili presenti negli studi da cui gli effetti sono derivati, e che contribuiscono a ‘moderare’ l’effetto principale. Per approfondimenti, cfr. Di Nuovo (1995). 12 sarà tanto più solido quanto più è utilizzabile, magari con opportune modifiche, in contesti e setting diversi. Altro aspetto metodologico fondamentale per interpretare il cambiamento anche nei suoi aspetti caotici è il monitoraggio longitudinale dei fenomeni in evoluzione, spontanea o provocata da specifici interventi (Menard, 1991). In questo caso si procede analogamente a quanto nello studio dei fenomeni complessi avviene in altri settori, ad esempio nelle scienze naturali, in metereologia, in economia: non si ricercano previsioni a lungo termine degli sviluppi del fenomeno complesso (peraltro impossibili), ma se ne segue l’evoluzione mentre esso si svolge, senza scomporne le variabili ma valutandone olisticamente i cambiamenti. Esempi nei settori della psicologia educativa e clinica: - Valutazione periodica dell’intervento didattico, formativo o riabilitativo per verificare se vengono raggiunti gli obiettivi che l’intervento si era posti; in caso contrario, valutare quali sono gli elementi che hanno deviato il percorso da quello che era prevedibile sulla base delle condizioni iniziali, in modo da operare gli opportuni aggiustamenti. - Monitoraggio dell’andamento di un trattamento riguardante situazioni di patologia, per valutare se e in che misura si verifichino degli effetti di rilevanza e significanza (meaningfulness) clinica – piuttosto che probabilisticamente ‘significativa’ – rispetto agli obiettivi terapeutici, quali la eliminazione del problema per cui l’intervento è stato intrapreso, e/o la diminuzione del rischio di ricaduta, e/o il rientro dei livelli di funzionamento del soggetto nei limiti della norma definita rispetto alla popolazione di riferimento. 4.4 Opzioni e ‘responsabilità’ nella ricerca sulla complessità Caratteristica comune alle tecniche di analisi dei dati e dei metodi volti ad affrontare la complessità fin qui presentate è la necessità di opzioni soggettive del ricercatore, che sceglie i parametri dell’analisi e i criteri metodologici da utilizzare. - Nella verifica probabilistica i criteri di ‘significatività’ sono tradizionalmente assunti ad un livello di rischio di casualità del 5% o dell’1%, più raramente dell’1‰ (rispettivamente p<.05, p<.01, p<.001). L’arbitrarietà di questi limiti critici – in un contesto di presunta ‘obiettività’ della verifica statistica – è stata ribadita da diversi autori (Cohen, 1988; Rosnow e Rosenthal, 1989). - Nella statistica bayesiana vanno definite a priori le probabilità di scelta fra i possibili fattori, e le probabilità di verificarsi degli eventi all’interno dei fattori stessi. - Nell’analisi delle serie temporali e sequenziali la punteggiatura delle fasi va definita in base a criteri prestabiliti. - Le tecniche di riduzione dei dati dipendono dalle opzioni via via definite dal ricercatore: per esempio nell’analisi fattoriale, i criteri di estrazione dei fattori e il numero di essi da ritenere; le modalità di rotazione dei fattori. - La ‘dimensione dell’effetto’ (effect size), ha anch’essa dei limiti critici convenzionalmente assunti per determinare se l’effetto riscontrato è ‘piccolo’, ‘medio’ oppure ‘grande’: Cohen (1988) ha proposto come misure di questi limiti un coefficiente di correlazione equivalente al coefficiente ‘r’ rispettivamente di .10, .30 e .50; altri autori (Haase, Waechter e Solomon, 1982) hanno ottenuto limiti analoghi basandosi sulla valutazione delle distribuzioni di frequenza dei risultati ottenuti in un campione rappresentativo di ricerche pubblicate in un dato settore. - A livello metodologico, la operazionalizzazione dei modelli, il modo in cui essi possono essere concretizzati, la conseguente derivazione delle ipotesi, la scelta dei campioni e delle strategie di cumulazione dei dati comportano opzioni e scelte continue nella progettazione e nella esecuzione della ricerca. La significatività clinica (clinical meaningfulness) viene valutata in base a criteri di ‘miglioramento’ rispetto a caratteristiche predefinite: ad esempio, un effetto di miglioramento può essere definito rilevante o meno, procedendo al confronto fra i singoli soggetti (o gruppi di soggetti) sottoposti a trattamento terapeutico e le distribuzioni normative di soggetti ‘funzionali’ o ‘disfunzionali’ rispetto alla variabile trattata (Jacobson, 1988). L’effetto di miglioramento può essere considerato sufficiente se il punteggio del soggetto (o la media del gruppo) dopo il trattamento si colloca a più di 2 deviazioni standard rispetto alla media della distribuzione ‘disfunzionale’ e a non più di 2 deviazioni standard rispetto alla distribuzione della popolazione ‘funzionale’. La decisione sulla rilevanza del risultato empiricamente ottenuto viene presa in base a considerazioni di tipo ‘fattuale’. 13 Tutte le previsioni di eventi complessi e multicausali, potenzialmente caotici, e tutte le riduzioni della complessità dipendono dunque da scelte operate in uno specifico contesto, e possono essere valutate con criteri non di ‘verità’ ma di ragionevolezza o, in termini tecnici, di massima verosimiglianza (likelihood), oppure secondo parametri derivanti dalle teorie o dalla rilevanza pragmatica, parametri che vengono assunti dal ricercatore o dall’operatore che compie l’intervento di cui vuole valutare l’efficacia. La ‘responsabilità soggettiva’ nell’assunzione di questi criteri, nell’esplicitazione delle epistemologie di riferimento e degli approcci teorici privilegiati dal ricercatore, fondano una modalità di ricerca che – con riferimento al settore educativo – è stata definita ‘partigiana’ (de Mennato, 1999b) e che coinvolge in misura rilevante anche gli aspetti applicativi delle discipline psico-sociali. 5. Lo studio empirico della complessità: due esempi di ricerca-intervento. Torna utile a questo punto riprendere i due esempi accennati nel paragrafo iniziale, per illustrare meglio quanto fin qui detto circa la differenza tra approccio tradizionale di ricerca e approccio che tiene conto della complessità e degli elementi di caoticità presenti in un percorso evolutivo. 5.1 Orientamento scolastico-professionale E’ noto che le componenti del processo di scelta della carriera sono molteplici e tutte interagenti tra loro, alcune prevedibili, altre meno o per nulla. Esse riguardano le aree di sviluppo psicologico e psicosociale che costituiscono i prerequisiti essenziali di una scelta ‘matura’: coscienza di sé, autonomia, capacità di adattamento (assertività, gestione delle frustrazioni e dello stress), motivazioni, valori e interessi lavorativi. Altre variabili sono relative alla congruenza tra le aree psicologiche citate e le scelte scolastico-professionali; essenziale al riguardo è l’efficacia del processo decisionale e della capacità di problem-solving, sia durante il percorso di maturazione che al momento della scelta. Senso di autostima e ‘self-efficacy’, e capacità di perseveranza sono le variabili che mediano tra le caratteristiche di personalità e l’efficacia delle scelte. Parallelamente a questi percorsi di congruenza vanno tenute in considerazione due componenti importanti quali la stabilizzazione delle attitudini e la progressiva presa di coscienza di esse da parte degli studenti, e la formazione ad un metodo di studio adeguato. Tutte le componenti fin qui esaminate devono confluire nel processo decisionale che consente di superare l’incertezza presente in ogni problema di scelta, ma spesso estremamente marcata nelle scelte scolastiche e professionali. La complessità derivante dall’interazione tra queste variabili, può essere trattata nella logica della ricerca tradizionale mediante analisi miranti alla riduzione di dati complessi (analisi fattoriale, o delle corrispondenze, analisi causale): a condizione però che si resti in un’ottica di ricerca conoscitiva e ‘trasversale’, non implicante un intervento di modificazione del percorso messo in atto dai soggetti. Questo tipo di ricerca e’ complessa nel senso che vengono utilizzate modalità di analisi dei dati sofisticate ma non nella impostazione epistemologica e metodologica. Diversa è invece la situazione in cui si intende valutare longitudinalmente il percorso di maturazione della scelta e le conseguenze di essa, tanto più se esso è guidato da interventi specifici – quali quelli di orientamento scolastico-professionale – di cui occorre valutare l’efficacia. Specialmente il rapporto tra scelte e riuscita negli studi e/o realizzazione lavorativa successiva richiede periodi di follow-up lunghi, durante i quali è poco conoscibile o poco controllabile il tipo, il peso e la direzione delle variabili intervenienti: si determina così una situazione tipicamente ‘caotica’, in quanto le variazioni nei predittori iniziali non sono a loro volta predicibili con la precisione necessaria per avere una sufficiente attendibilità delle previsioni dei possibili effetti. La ricerca predittiva su queste variabili viene in genere compiuta solo a livello statisticoprobabilistico, e i risultati sono operativamente poco rilevanti perché è difficile tenere conto nel lavoro educativo quotidiano di variabili poco conoscibili o ponderabili. E’ utile solo in termini generali sapere quanti soggetti orientati ad una certa scelta abbiano trovato lavoro – e quindi che probabilità ha di ottenere lo stesso risultato chi compie, in condizioni diverse, la stessa scelta – se non sappiamo quali variabili soggettive (variabili di personalità, capacità di adattamento, ecc.) ed esterne (come le condizioni economiche o le variazioni nel contesto familiare e ambientale) abbiano determinato l’esito più o meno soddisfacente in termini occupazionali, al di là delle variabili socio-ambientali abbastanza conosciute ma troppo generiche per poter essere utilizzate nel lavoro orientativo personalizzato. 14 Molto più utile è invece monitorare il procedere dell’iter decisionale del soggetto, e delle conseguenze che man mano esso provoca in interazione con le variabili intervenienti, con i rispettivi feedbacks a livello cognitivo ed emozionale: monitoraggio che è peraltro concretamente possibile nella scuola (prima del momento della scelta) tramite l’azione di orientamento educativo e dopo la scelta universitaria mediante le risorse – ancora poco utilizzate - del tutorato. Analisi di tipo sequenziale o delle serie temporali, e poi una analisi cumulativa dei risultati ottenuti dal monitoraggio dei singoli soggetti potrebbe consentire di valutare in modo articolato l’efficacia del modello di cambiamento evidenziando le regolarità o le variazioni in situazioni e contesti differenti. 5.2 Ricerca sulla psicoterapia La ricerca sulla psicoterapia può avvalersi di analisi ‘trasversali’ che ad esempio studiano, con i metodi tradizionali della ricerca sperimentale, le relazioni tra caratteristiche del paziente e tipo di terapia e/o di terapista prescelto, oppure le differenze tra pazienti distinti per tipo e gravità di patologia, o ancora le relazioni tra tecniche usate e caratteristiche del terapista (molte ricerche di questo tipo possono essere reperite nel reading curato da Bergin e Garfield, 1994). Altri aspetti, dagli sviluppi certamente non lineari e ‘caotici’ nel senso prima definito, andrebbero invece meglio studiati con tecniche adeguate a queste caratteristiche: esempi specifici sono contenuti in Chamberlain e Bütz (1998) con riferimento alle prospettive umanistico-esistenziali, alla psicofarmacologia, e agli aspetti organizzativi e interculturali. In una serie di recenti studi, la relazione cliente-terapista è stata studiata in termini di processo potenzialmente caotico mediante un metodo idiografico definito ‘analisi dei piani sequenziali’ (Schiepek e al., 1997). Il metodo, che si basa su una classificazione gerarchica a diverse fasi delle interazioni verbali e non verbali del terapista e del paziente analizzate su un singolo caso, consente di interpretare le componenti deterministiche e stocastiche, lineari e non lineari, del processo relazionale che instaura durante una psicoterapia. Una analoga metodologia viene utilizzata da Kowalik e al. (1997) per analizzare le serie temporali prescindendo dall’assunto di stazionarietà, cioè di stabilità dell’attrattore dinamico durante tutto il periodo della misurazione. Vengono ipotizzati cambiamenti dinamici periodici nelle modalità tipiche di interazione e le misure di caoticità utilizzate (quali il tasso di entropia e gli esponenti locali di Lyapunov) confermano l’esistenza di specifiche fasi di transizione critica durante il processo terapeutico. Gli autori concludono che “la psicoterapia può essere descritta come un processo caotico non stazionario … nel processo psicoterapeutico o, più in generale, di interazione sociale, l’informazione è trasmessa non solo attraverso una serie di singoli segnali (simboli verbali, non verbali, significato e intensità dei piani, così come i loro patterns di successione), ma anche attraverso la specifica irregolarità dei segnali. L’irregolarità e il caos hanno in se stessi un significato e non solo solo un ‘disturbo’ che si sovrappone al segnale ‘puro’ … Una analisi non lineare dei processi dinamici in terapia può offrire un approccio per comprendere la intuizione terapeutica … Il problema della limitata prevedibilità in psicoterapia si può spiegare con le teorie dei sistemi dinamici non lineari … Nonostante la imprevedibilità del processo interattivo, i nostri risultati suggeriscono che esiste una struttura interna in questo processo, un ordine all’interno del caos. L’aspetto centrale del caos deterministico è che esso non consiste in una casualità erratica. Al contrario, la forma e la dimensionalità dell’attrattore sottostante determina la dinamica del sistema” (Kowalik e al., 1997, pp. 207-211) Sempre con riferimento alla ricerca sulla psicoterapia, segnaliamo gli studi sulla efficacia del trattamento terapeutico: ambito in cui esiste una grande complessità di variabili, dalle quali occorre enucleare un ‘effetto’ principale (i cambiamenti verificati nello stato psicologico del paziente) e i fattori ‘moderatori’, ossia le variabili che incidono nel facilitare o ostacolare il processo di cambiamento: tipo di terapia, caratteristiche del terapista, del paziente, tipo e livello della patologia iniziale, condizioni del setting, qualità della relazione e della “alleanza” terapeutica, fenomeni che avvengono all’interno della terapia. Un progetto di ricerca sulla valutazione della psicoterapia è in corso da qualche anno, con la partecipazione di psicoterapeuti e ricercatori di diverso indirizzo teorico-metodologico operanti sia nelle strutture pubbliche che nel privato. Il progetto, denominato VALTER (VALutazione delle TERapie psicologiche: cfr. Di Nuovo e al., 1998), prevede la raccolta, mediante alcuni strumenti comuni, e la cumulazione, avvalendosi anche di tecniche meta-analitiche, di dati longitudinali sia sul processo terapeutico che sugli esiti parziali e finali. In esso si tenta di 15 affrontare empiricamente un fenomeno talmente complesso da non poter essere trattato in modo esauriente in singole ricerche. Alla luce di questi esempi, è opportuno ribadire l’incidenza che in questi percorsi di ricerca e intervento assumono le opzioni soggettive implicate nella scelta dei parametri dell’analisi e dei criteri metodologici impiegati per la verifica: aspetto che deve fare riflettere sulla esigenza di formazione alla responsabilità, e addirittura di eticità, di quanti operano in questo delicato settore della ricerca scientifica e dell’attività professionale. 6. Per concludere. Mettere ordine nel caos? Abbiamo cercato di mostrare come la ricerca di regole per comprendere una realtà complessa – una volta liberata dagli equivoci e dalle sovrastrutture ideologiche non rilevanti ai fini dell’operatività metodologica – sia un percorso possibile in ambito clinico e psico-sociale. La ricerca empirica applicata (per esempio in psicologia) ha finora usato la verifica probabilistica prevalentemente all’interno di una modellizzazione deterministica; l’esperienza accumulata dalle ricerche condotte alla luce delle teorie della complessità ha però messo in evidenza come leggi deterministiche possono generare comportamenti caotici. Viceversa, in fenomeni complessi e apparentemente caotici possono essere riscontrate delle regolarità e quindi degli elementi di prevedibilità. Inoltre, le recenti teorie del caos hanno evidenziato come lo studio dei fenomeni complessi sia meglio affrontabile con una metodologia che non assume la linearità come unico orizzonte possibile per la ricerca. Vanno pertanto individuate, anche in campo psico-sociale, metodologie adatte a studiare fenomeni la cui natura complessa sfugge a tale approccio deterministico di tipo lineare, come avviene per la maggior parte dei fenomeni studiati in questi campi. Nell’analisi di eventi complessi, l’ambito della ‘previsione’ può utilizzare proficuamente sia tecniche basate sulla probabilità sia analisi non probabilistiche; l’ambito della ‘comprensione’ può avvalersi di metodiche di riduzione della complessità, ricercandone gli elementi essenziali; l’ambito della ‘verifica’ può procedere al controllo degli eventi potenzialmente caotici monitorandoli mentre essi si verificano, e corroborando così l’efficacia degli interventi clinici e psico-sociali. L’approccio metodologico che si basa sulla teorie del caos e della complessità è inoltre utile in un contesto sociale e culturale in cui sempre più – come ricordano Finke e Bettle (1996) – il futuro è incerto e imprevedibile, per cui le forme di adattamento cognitivo ed emotivo possono trarre utilità da un pensiero più flessibile e indeterministico e pertanto più idoneo a trattare situazioni caotiche e complesse. La concretizzazione di questo pensiero e la formazione delle giovani generazioni alla pratica di esso è una delle sfide che la ‘nuova scienza’ non può mancare di accogliere. Bibliografia Ageno, M. (1992) Le origini dell’irreversibilità. Bollati Boringhieri, Torino. Aleo S. (1999) Diritto penale e complessità. Giappichelli, Torino. Arecchi, F.T. (1986) Caos e ordine nella fisica. In: R. Serra e G. Zanarini (a cura di), Tra ordine e caos. Autorganizzazione e imprevedibilità nei sistemi complessi. CLUEB, Bologna, pp. 67-91. Atias C., La Moigne J.-L. (1984) Exchanges avec Edgar Morin: Science et conscience de la complexité, Editions de l’Université, Aix-en-Provence. Baldwin J. F. (Ed.) (1996) Fuzzy logic. Wiley, New York. Barone, F. (1983) Immagini filosofiche della scienza. Laterza, Bari. Barrow-Green, J. (1996) Poincaré and the Three Body problem. Oxford University Press, Oxford. Bergin A. E., Garfield S.L. (Eds) (1994) Handbook of psychotherapy and behavior change (4th ed.). John Wiley & Sons, New York. Bernardini C. (1991) Natura vera e natura pensata, Sapere, 3, pp. 18-24. Bocchi, G., Ceruti, M. (1991) Presentazione. In: G. Bocchi, M. Ceruti (a cura di) La sfida della complessità. Feltrinelli, Milano 1991 (6ª ed.). Bouchon-Meunier P. (1993) La logique flou. Presses Universitaire de France, Paris. Boscarino G. (1990). Absolute Space and Idealization in Newton. In: J. J. Brzezinski, F. Coniglione, T.A.F. Kuipers, L. Nowak (Eds), Idealization: II, Forms and applications. Poznan Studies in the 16 Philosophy of the Sciences and the Humanities, vol. 17, Rodopi, Amsterdam, pp.131-149. Brown C. (1995) Chaos and catastrophe theories. Sage, London. Brzezinski J., Coniglione F., Kuipers T.A.F., Nowak L. (Eds) (1990) Idealization: II, Forms and applications. Poznan Studies in the Philosophy of the Sciences and the Humanities, vol. 17, Rodopi, Amsterdam. Bütz M.R. (1997) Chaos and complexity. Implications for psychological theory and practice. Taylor & Francis, Washington. Cambi F., Cives G., Fornaca R. (1991) Complessità, pedagogia critica, educazione democratica. La Nuova Italia, Firenze. Capra F. (1982) Il Tao della fisica, Adelphi, Milano 1982. Capra F. (1997) La rete della vita, Milano, Rizzoli 1997. Casati, G. (a cura di) (1991) Il caos. Le leggi del disordine. Le Scienze Ed., Milano. Ceruti M, Lo Verso G. (a cura di) (1998) Epistemologia e psicoterapia: complessità e frontiere contemporanee. Cortina, Milano. Chamberlain L., Bütz M.R. (1998) Clinical chaos. A therapist’s guide to nonlinear dynamics and therapeutic change. Taylor & Francis, Washington. Cini, M. (1994). Un paradiso perduto. Dall’universo delle leggi naturali al mondo dei processi evolutivi. Feltrinelli, Milano. Cohen J. (1988) Statistical power analysis for the behavioral sciences. 2ª ed. Erlbaum, Hillsdale. Cook T.D., Campbell D.T. (1979). Quasi-experimentation. Design and analysis issues for field settings. Houghton Mifflin, Boston. Coniglione, F. (1991). Realtà ed astrazione. Scuola polacca ed epistemologia post-positivista. CUECM, Catania. Costantini D. (a cura di) (1997) Caso, probabilità e statistica. Le Scienze-Quaderni, n. 98. Croquette, V. (1991) Determinismo e caos. In: G. Casati (a cura di), Il caos. Le leggi del disordine. Le Scienze Ed., Milano, pp. 34-49. Crutchfield, J.P, Doyne Farme, J., Packard, N.H., Shaw R.S. (1987) Il caos. In: G. Casati (a cura di), Il caos. Le leggi del disordine. Le Scienze Ed., Milano, pp. 22-33. Davies, P. (1998) La “Nuova Fisica”: una sintesi. In: P. Davies (a cura di), La nuova fisica, 2ª ed, Bollati Boringhieri: Torino, pp. 1-7. De Angelis, V. (1996) La logica della complessità. Introduzione alla teoria dei sistemi. Bruno Mondadori, Milano. de Mennato P. (1999a) Fonti di una pedagogia della complessità. Liguori, Napoli. de Mennato P. (1999b) La ricerca ‘partigiana’. Teoria di ricerca educativa. 2ª ed., Liguori, Napoli. Di Nuovo S. (1995) La meta-analisi. Borla, Roma. Di Nuovo S., Lo Verso G., Di Blasi M., Giannone F. (1998) Valutare le psicoterapie. F. Angeli, Milano. Eve R. A. (1997) So where are we now? In: R.A. Eve, S. Horsfall, M.E. Lee (Eds)Chaos, complexity and sociology. Sage, London, pp. 269-279. Eve R.A., Horsfall S., Lee M.E. (Eds) (1997) Chaos, complexity and sociology. Sage, London. Feyerabend P.K. (1979) Contro il metodo, Feltrinelli, Milano. Finke R.A., Bettle J. (1996) Chaotic cognition. Principles and applications. Lawrence Erlbaum, Hillsdale. Freeman W.J. (1992) Chaos in psychiatry. Biological Psychiatry, 31, pp. 1079-1081. Galilei, G. (1632) Dialogo sopra i due massimi sistemi del mondo. In:Opere, 2ª vol., a cura di F. Brunetti, Torino, UTET, 1980. Gleick J. (1987) Caos, il sorgere di una nuova scienza. Rizzoli, Milano. Guess D., Sailor W. (1993) Chaos theory and the study of the human behavior: implications for special education and developmental disabilities. Journal of Special Education, 27, pp. 16-34. Haase R.F., Waechter D.M., Solomon G.S. (1982). How significant is a significant difference? Average effect size of research in counseling psychology. Journal of Counseling Psychology, 29, pp. 58-65. Haykin S. (1979) Nonlinear methods of spectral analysis. Springer Verlag, Berlin. Heisenberg W. (1959) Mutamenti nelle basi della scienza. Boringhieri, Torino 1978. Heisenberg W. (1966) Fisica e filosofia. Il Saggiatore, Milano. Israel G. (1996) La visione matematica della realtà. Laterza, Roma-Bari. Jacobson N.S. (ed.). (1988) Defining clinically significant change. Behavioral Assessment, 10 (2, special issue). Kazdin A. E. (1991). Research design in clinical psychology, 2nd ed. Pergamon Press, Helmsford. Kosko B. (1995) Il fuzzy-pensiero. Teoria e applicazioni della logica fuzzy. Baldini & Castoldi, Milano. 17 Kowalik Z.J., Schiepek G., Kumpf K., Roberts L.E, Elbert T. (1997) Psychotherapy as chaotic process II. The application of nonlinear analysis methods on quasi time series of client-therapist interaction: a nonstationary approach. Psychotherapy Research 7, pp. 197-218. Laplace, P.S. (1825). Essai philosophique sur les probabilités. Trad. it. Saggio sulla probabilità, Bari, Laterza 1951. Lipsey M.W., Wilson, D.B. (1993). The efficacy of psychological, educational, and behavioral treatment: confirmation from meta-analysis. American Psychologist, 48, pp. 1181-1209. Mahoney M.J. (1992) Per una riconciliazione con la logica dei processi complessi. Complessità e Cambiamento 1, pp. 13-16. Mandelbrot, B. (1975)Gli oggetti frattali. Forma, caso e dimensione. Einaudi, Torino 1987. Mandelbrot, B. (1989) Conversazione con G. Giorello, in: La geometria della natura, Theoria, Milano. Mayer-Kress G. (Ed.) (1992) Dimensions and entropies in chaotic systems. Springer Verlag, Berlin. Menard S. (1991) Longitudinal research. Sage, Newbury Park. Morin E. (1984) Scienza con coscienza, F. Angeli , Milano. Musso P. (1997) Filosofia del caos, Milano, Angeli. Nicolis, G. (1995). Introduction to Nonlinear Science, Cambridge, Cambridge University Press. Nowak L. (1980) The structure of idealization. Towars a systematic interpretation of the Marxian idea of science. Reidel, Dordrecht. Orsucci F. (1996) Caos e complessità in psicopatologia. Giornale Italiano di Psicopatologia, 3, pp. 267271. Ott E., Sauer T., Yorke J. A. (1994) Coping with chaos. Analysis of chaotic data and the exploitation of chaotic systems. Wiley, New York. Poincaré, H. (1991) L’Analyse et la recherche, Paris, Hermann. Prigogine, I. (1981) La termodinamica della vita, in I. Prigogine, La nuova alleanza. Uomo e natura in una scienza unificata, Longanesi, Milano (2ª ed.). Prigogine,I., Stengers, I. (1981) La nuova alleanza. Metamorfosi della scienza, Einaudi, Torino. Prigogine I., Stengers I. (1984) Order out of chaos. Man’s new dialogue with nature. Bantam Books, New York. Quattrocchi P. (1984) Etica, scienza, complessità. Franco Angeli, Milano. Rasband S.N. (1990) Chaotic dynamics of nonlinear systems. Wiley, New York. Robertson R., Combs A. (Eds.) (1995) Chaos theory in psychology and the life sciences. Erlbaum, Hillsdale. Rocchi M.B.L. (1999) La massimizzazione della lunghezza del vettore medio per l’identificazione di periodi sconosciuti in ritmometria. TPM, Testing, Psicometria, Metodologia, 6, pp.51-59. Rosnow R.L., Rosenthal R. (1989). Statistical procedures and the justification of knowledge in psychological science. American Psychologist, 44, pp. 1276-1284. Schiepek G., Kowalik Z.J., Shütz A., Köhler M., Richter K., Strunk G., Mühlnickel W., Elbert T. (1997) Psychotherapy as chaotic process I. Coding the client-therapist interaction by means of Sequential Plan Analysis and the search for chaos: a stationary approach. Psychotherapy Research 7, pp. 173194. Schuster, H.G.S. (1984) Deterministic Chaos, Physik-Verlag, Weinheim. Serlin, R.C. (1987) Hypothesis testing, theory building, and the philosophy of science. Journal of Counseling Psychology, 34, 365-371. Such, J. (1977) Idealization and Concretization in Natural Sciences. In: Poznan Studies in the Philosophy of Sciences and the Humanities, 1-4, pp. 49-73. Such, J. (1990) The Idealizational Conception of Science and the Structure of the Law of Universal Gravitation. In: J. J. Brzezinski, F. Coniglione, T.A.F. Kuipers, L. Nowak (Eds), Idealization: II, Forms and applications. Poznan Studies in the Philosophy of the Sciences and the Humanities, vol. 17, Rodopi, Amsterdam, pp.125-130. Van de Kerchove M., Ost F. (1988) Le système juridique entre ordre et désordre. Presses Universitaires de France, Paris. Van Geert P. (1994) Dynamic systems of development. Change between complexity and chaos. Harvester Wheatsheaf, Hempstead. Vidal, C. , Roux, J.-C. (1991) Come nasce la turbolenza. In G. Casati (a cura di) Il caos. Le leggi del disordine. Le Scienze Ed., Milano, pp. 141-151. von Bertalanffy, L. (1971) Teoria generale dei sistemi. Isedi, Milano. 18 Waldrop, M.M. (1992). Complexity. The Emerging Science at th Edge of Order and Chaos, Bew York, Simon & Schuster. Trad. it. Complessità. Uomini e idee al confine tra ordine e caos, Torino, Instar Libri 1995. Wheeler, J.A. (1983). On recognizing ‘Law without law’. American Journal of Physics, 51, pp. 393-412. Wolff R.C.L. (1992) Local Lyapunov exponents: looking closely to chaos. Journal of Royal Statistical Society, B54, pp. 353-371. Zimmermann H. J. (1996) Fuzzy set theory and its applications. 3rd ed. Kluwer, Boston. Zolo D. (1983) Funzione, senso, complessità. Introduzione a N. Luhmann, Illuminismo sociologico, Il Saggiatore, Milano. 19