...

dott. Mario Palumbo Università di Genova

by user

on
Category: Documents
26

views

Report

Comments

Transcript

dott. Mario Palumbo Università di Genova
DAL RAV AL PIANO DI
MIGLIORAMENTO
Mauro Palumbo
Dipartimento di Scienze della Formazione (Di.S.For.)
Università di Genova
Il contesto
•
Sistema Nazionale di Valutazione (SNV); Direttiva 11/2014;
La buona scuola)
•
Sistemi di valutazione e accountability e miglioramento del
servizio scolastico e della qualità dell’istruzione (Faggioli,
2014; FGA, 2014; Allulli, Farinelli, Petrolino, 2013; Castoldi,
2014; Palumbo, 2013; Paletta, 2011; Scheerens, Mosca,
Bolletta, 2011; Palumbo e Pandolfini, in press a, b);
•
Le due facce della valutazione: accountability e learning;
2
Accountability:

dovere che un soggetto responsabile di
un’organizzazione (o di una politica, di un
progetto) ha di “render conto” a particolari
interlocutori esterni delle scelte fatte, delle attività
e dei risultati di cui è autore o responsabile
 il rapporto di accountability contropartita di un
rapporto di delega di responsabilità (dall’alto o dal
basso)
Mauro Palumbo
3
Accountability:

è la prima funzione della valutazione ad
essere sottolineata
 rischia lo sconfinamento nella concezione di
“controllo”
 ha anche funzione di garanzia per il valutato
 tipica dell’approccio obiettivi-risultati, non
sempre è compatibile con la funzione di
learning
Mauro Palumbo
4
L’ambiguità dell’accountability:
Verso l’alto: risorgente neocentralismo?
Mortificazione delle autonomie? Es. SNV
della scuola, ANVUR …
 Verso il basso: partecipazione e
responsabilizzazione dei cittadini o
creazione di mercato nel pubblico? I servizi
come imprese, gli utenti come clienti e il
new public management

Mauro Palumbo
5
Learning:

connessa al principio del miglioramento
continuo
 Non imparano solo gli attuatori o i decisori
 Anche le teorie (scientifiche o di senso
comune) sottostanti alla programmazione
possono essere cambiate grazie alla
valutazione (vedi Evidence based politics di
Pawson)
Mauro Palumbo
6
Le possibili “logiche” di SNV

a) Quasi-mercato: competizione fra scuole e scelta
delle famiglie => prospettiva NPM

b) Forte controllo centrale attraverso la valutazione
(e il DS?) => prospettiva neocentralistica

c) Partecipazione consapevole dei diversi attori a
migliorare la scuola (secondo i diversi punti di
vista)
=> prospettiva partecipativa
Mauro Palumbo
7
Il Decreto 80/2013: Valutazione
«strumentale»

Ai fini del miglioramento della qualità
dell'offerta formativa e degli apprendimenti,
l'S.N.V. valuta l'efficienza e l'efficacia del
 sistema educativo di istruzione e formazione
Mauro Palumbo
8
efficacia

grado di conseguimento degli obiettivi
previsti o dei risultati attesi (efficacia
interna (o gestionale ) – autovalutazione?
 grado di assolvimento dei bisogni che
costituiscono la ragion d’essere
dell’intervento o del servizio valutato
(efficacia esterna (o sociale) valutazione
esterna?
Mauro Palumbo
9
efficienza
grado di ottimizzazione dell’uso delle
risorse e quindi la possibilità di risparmiare
risorse lasciando stabili gli obiettivi, ovvero
di conseguire risultati migliori con le stesse
risorse
 NON «ottenere i migliori risultati con le
minori risorse possibili»

Mauro Palumbo
10
Le fasi della valutazione
(previste dal Decreto)

a) autovalutazione delle Istituzioni
scolastiche;
 b) valutazione esterna;
 c) azioni di miglioramento;
 d) rendicontazione sociale delle Istituzioni
scolastiche.
Mauro Palumbo
11
a) autovalutazione
«analisi e verifica del proprio servizio sulla
base dei dati resi disponibili dal sistema
informativo del Ministero, delle rilevazioni
sugli apprendimenti e delle elaborazioni sul
valore aggiunto restituite dall’INVALSI, oltre
a ulteriori elementi significativi integrati dalla
stessa scuola»
Mauro Palumbo
12
Come? (il RAV)

elaborazione di un rapporto di
autovalutazione in formato elettronico,
secondo un quadro di riferimento
predisposto dall'INVALSI
 formulazione di un piano di miglioramento;
Mauro Palumbo
13
Quindi poco «auto» … ma
1)
2)
3)
INVALSI fornisce molti dati, la scuola
deve scegliere i più rilevanti
INVALSI fornisce dati ma NON percorsi
di lettura causale dei dati, che sono la base
delle azioni di miglioramento
Importanza degli «ulteriori elementi
significativi integrati dalla stessa scuola»
Mauro Palumbo
14
Esempio di «ulteriori
elementi»

La civicness
 le competenze sociali
 l’integrazione scolastica
 una scuola capace di ragionare sui propri
obiettivi deve essere anche capace sia di
selezionare i dati pertinenti ai suoi obiettivi,
sia di rilevare ulteriori dati, che rispecchino
le sue specifiche priorità.
Mauro Palumbo
15
Ma non è facile …

Per la struttura stessa del RAV
 Per la tendenza a pensare che «solo ciò che
è contabile conta» …
 Per la difficoltà delle scuole a spendere
energie «oltre» il RAV …
Mauro Palumbo
16
b) La verifica …

«individuazione, da parte dell’INVALSI,
delle situazioni da sottoporre a verifica,
sulla base di indicatori di efficienza ed
efficacia previamente definiti
dall’INVALSI medesimo», cui dovrebbe
seguire la visita dei nuclei di valutazione
esterna per consentire la ridefinizione dei
piani di miglioramento (previsto per il 10%
delle scuole, di cui 7% critiche).
Mauro Palumbo
17
b) Valutazione esterna

1) individuazione da parte dell'Invalsi delle
situazioni da sottoporre a verifica, sulla base
di indicatori definiti dall'Invalsi medesimo;
 2) visite dei nuclei di valutazione
 3) ridefinizione da parte delle istituzioni
scolastiche dei piani di miglioramento in
base agli esiti dei nuclei;
Mauro Palumbo
18
c) azioni di miglioramento
Definizione e attuazione da parte delle
istituzioni scolastiche degli interventi
migliorativi anche con il supporto dell'Indire o
attraverso la collaborazione con università,
enti di ricerca, associazioni professionali e
culturali.
Mauro Palumbo
19
c) Definizione degli interventi
migliorativi
Qui sta l’autonomia della scuola; etero
definito in parte il «cosa» migliorare, può
autodefinire il «come».
 Il che presuppone l’identificazione di nessi
causali tra processi e risultati
 Ossia la capacità di individuare i fattori
chiave sui quali intervenire e le strategie di
intervento

Mauro Palumbo
20
Anche perché

Dalla valutazione non emergono ricette, ma
al più criticità
 A) perché il valutatore non è
(necessariamente) un progettista
 B) perché se anche lo fosse non è detto che
conosca per intero finalità, vincoli e
disponibilità all’azione del decisore
Mauro Palumbo
21
esempio

fase a) individua carenze in literacy degli
allievi
 l’INVALSI, in fase b), conferma tale
criticità, e obiettivo di miglioramento
l’incremento delle competenze di literacy
 fase c), azioni di miglioramento, si decide se
aumentare le ore di insegnamento,
modificarne i contenuti, la didattica, le prove
intermedie ...
Mauro Palumbo
22
d) rendicontazione sociale
delle scuole

Accountability verso gli stakeholder
(studenti, famiglie, istituzioni, imprese,
società locale)
 Non esente da rischi (libertà di scelta
famiglie, reazioni della comunità locale)
 Che stimola tuttavia partecipazione
(corresponsabilizzazione)
Mauro Palumbo
23
La Direttiva 11/2014: priorità
strategiche SNV

1. riduzione dispersione/insuccesso
 2. riduzione differenze tra scuole e aree
geografiche nei livelli di apprendimento
 3. rafforzamento competenze di base
studenti rispetto a situazioni di partenza
 4. valorizzazione esiti a distanza (università
e lavoro)
Mauro Palumbo
24
Note a Direttiva …

2. anche le differenze interne alle classi
sono importanti
 3. Valore aggiunto e set minimo di
competenze di base
 4. esiti a distanza punto debole per ora dei
dati SNV
Mauro Palumbo
25
E veniamo al RAV

Risultati
 Processi
 Contesto (interno ed esterno, sintesi del
CIPP)

Valutazione Realista: M + C = O
 (meccanismo più contesto = Outcome)
26
Pregi e difetti RAV

Ha molte delle info necessarie per
evidenziare le criticità
 Rinvia alla capacità di lettura critica delle
scuole
 Ha una struttura rigida (anche se non
predefinisce nessi causali)
 Le rubriche di valutazione sono multicriteri
e quindi la ponderazione è affidata alla
scuola
27
Esempi limiti
Non c’è spazio per ulteriori elementi
aggiunti dalle scuole
 Assume la collinearità (e pari peso) fra
dimensioni, ad esempio risultato medio e
distribuzione interna dei risultati
 Assume ugual peso tra diversi esiti o
processi (questo dovrebbe spingere la
scuola a riflettere sulle sue criticità)

28
Segue limiti

Curriculo, progettazione e valutazione sono
nella stessa rubrica valutativa
 Ambiente di apprendimento: stanno insieme
sia sw che hw (spazi e modalità didattiche)
 Mission e organizzazione possono andare
per conto loro
 Come formazione e lavoro comune …
29
E nelle ultime tre pagine …

Le Priorità strategiche (triennali) riferite
agli ESITI
 I Traguardi (risultati attesi) sulle 4 sub aree
degli esiti (risultati scolastici, risultati prove
standardizzate, competenze chiave e
risultati a distanza)
 Gli obiettivi di processo (annuali)
30
Piccola nota critica

Mix tra modello del ciclo del programma e
bilancio triennale e annuale degli
economisti
 Che si trova anche nei piani delle
performance e nei piani strategici …
 Con una certa deriva quantofrenica che
anche INDIRE non riesce a contenere
31
Ed eccoci al Piano di
Miglioramento

Segue il modello PDCA (ciclo del
miglioramento continuo)
1. Definizione di obiettivi chiari e condivisi
(Pianificazione);
2. Realizzazione delle attività pianificate e
monitoraggio delle stesse (Esecuzione);
3. Valutazione dei risultati ottenuti in relazione agli
obiettivi previsti (Verifica);
4. Eventuali correzioni, verifiche e sviluppi futuri
32
delle azioni svolte (Revisione).
Prevede 4 sezioni
Scegliere gli obiettivi di processo più utili alla
luce delle priorità individuate nella sezione 5 del
RAV
2. Decidere le azioni più opportune per raggiungere
gli obiettivi scelti
3. Pianificare gli obiettivi di processo individuati
4. Valutare, condividere e diffondere i risultati alla
luce del lavoro svolto dal Nucleo di Valutazione
1.
33
1. Obiettivi
Area di
processo
Obiettivi di
processo
Curriculo
progettazione
valutazione
Ob. 1
Ob. 2
Ob. 3
Ambiente di
apprendimento
Ob. 1
Ob. 2
Ob. 3
……
Ob. 1
Ob. 2
…..
Connessione Connessione
alle priorità 1 alle priorità 2
34
Domande guida

Quali sono i nessi tra obiettivi e traguardi?
 Ci sono ridondanze?
 Gli obiettivi coprono in modo
potenzialmente efficace e completo le
priorità dichiarate?
35
Quali obiettivi (annuali) sono i
più opportuni?
Obiettivo di
processo
elencati
Fattibilità
(da 1 a 5)
Impatto
(da 1 a 5)
Prodotto:
valore che
identifica la
rilevanza
dell’intervent
o
1
2
3
36
Domande Guida

Ci sono obiettivi che, anche se importanti,
non è possibile realizzare?
 Su quali obiettivi è opportuno concentrare
le risorse?
 Nota: qui si definiscono le vere priorità e le
azioni su cui impegnarsi. Utile scala 1-5 di
fattibilità e impatto. Albero dei problemi e
degli obiettivi non sempre coincidono …
37
Risultati attesi e
monitoraggio
Obiettivo di
processo in
via di
attuazione
Risultati
attesi
Indicatori
di
Modalità di
monitorag rilevazione
gio
1
2
3
38
Domande Guida

Quali sono gli obiettivi che vogliamo
raggiungere nel prossimo anno come
scuola?
 Quali risultati ci attendiamo da ciascun
obiettivo di processo scelto?
 Quali indicatori utilizzeremo per monitorare
se siamo sulla giusta strada per raggiungere
gli obiettivi? E in che modo li misureremo?
39
Sezione 2. Decidere le azioni per
raggiungere ciascun obiettivo di
processo in due passi

Passo 1 - Ipotizzare le azioni da compiere
considerandone i possibili effetti negativi
e positivi a medio e a lungo termine

Passo 2 - Rapportare gli effetti delle
azioni a un quadro di riferimento
innovativo
 Connessioni con la legge 107/2015
40
Passo 1. Valutazione degli effetti
positivi e negativi delle azioni
Azione
prevista
Effetti
positivi
all’intern
o della
scuola a
medio
termine
Effetti
negativi
all’intern
o della
scuola a
medio
termine
Effetti
positivi
all’intern
o della
scuola a
lungo
termine
Effetti
negativi
all’intern
o della
scuola a
lungo
termine
Azione 1
Azione 2
41
Passo 2. Caratteri innovativi
Caratteri innovativi
dell’obiettivo
Connessione con il
quadro di riferimento
di cui in Appendice A
e B del PdM
42
SEZIONE 3 - Pianificare le azioni di
ciascun obiettivo in tre passi
Passo 1 - Definire l’impegno delle risorse
umane e strumentali
 Passo 2 - Definire i tempi di attuazione
delle azioni
 Passo 3 - Programmare il monitoraggio
periodico dello stato di avanzamento del
raggiungimento dell’obiettivo di
processo

43
Passo 1.a Descrivere l’impegno
di risorse umane interne alla
scuola
Numero
Figure
di ore
Tipologia
professio
aggiuntiv
di attività
nali
e
presunte
Costo
previsto
Fonte
finanziari
a
D.S.
Docenti
ATA
44
Passo 1.b impegno finanziario
per figure professionali esterne
alla scuola e/o beni e servizi
Impegni
finanziari per
tipologia di
spesa
Impegno
presunto
Fonte
finanziaria
Formatori
Consulenti
Attrezzature
45
Passo 2. tempi di attuazione
Mesi
1
2
3
4
5
6
7
…
12
Att.1
Att. 2
Att. 3
46
Passo 3. Monitoraggio
Modifich
Indicato
e/
ri di
Progres
Strume Criticità
necessit
Data di monitor
si
nti di
rilevate
à di
rilevazi
aggio
rilevati
misuraz (Testo
aggiust
one
del
(Testo
ione
libero)
amenti
process
libero)
(Testo
o
libero)
…
….
….
….
….
47
SEZIONE 4 - Valutare, condividere e
diffondere i risultati del piano di
miglioramento in tre passi

Passo 1 - Valutare i risultati raggiunti sulla base
degli indicatori relativi ai traguardi del RAV
 Passo 2 - Descrivere i processi di condivisione del
piano all’interno della scuola
 Passo 3 - Descrivere le modalità di diffusione dei
contenuti e dei risultati del piano sia all’interno
che all’esterno dell’organizzazione scolastica
 Passo 4 - Descrivere le modalità di lavoro del
Nucleo di valutazione
48
Passo 1. Valutare i risultati raggiunti
sulla base degli indicatori relativi ai
traguardi del RAV
Tragua
rdo
Risulta
Data
Indicat
dalla
Risulta
ti
rilevazi
ori
sezione
ti attesi riscont
one
scelti
5 del
rati
RAV
Consid
erazion
i
critiche
e
Differe propost
nza
e di
integra
zione
e/o
modific
a
49
Passo 2. Descrivere i processi di
condivisione del piano all’interno
della scuola
Momenti di
condivisione
interna
Persone
coinvolte
Strumenti
Considerazi
oni nate
dalla
condivisione
50
Passo 3. azioni di diffusione
dei risultati
Metodi/Strument
i
Destinatari
Tempi
51
Passo 4. Descrivere le modalità di
lavoro del Nucleo di valutazione

Composizione
 Attività
 Ruolo del DS
 ….
52
In breve

Proceduralizzazione spinta
 Rischio di perdere il filo e di fare solo quel
che è riconducibile allo schema
 Solo quel che è misurabile e comporta dei
costi
 Con gioco al ribasso sulle priorità
strategiche o sugli obiettivi operativi …
53
Ma dove lo trovo il PdM?

Sito in via di apertura …

http://www.indire.it/category/miglioramento/
54
Obiettivi dell’indagine sulle scuole VALES
•
Approfondire il rapporto fra autonomia scolastica, valutazione e
miglioramento.
•
Fornire strumenti di supporto ai Consulenti e alle scuole per
realizzare i Piani di Miglioramento (PdM) alla luce del Rapporto di
Autovalutazione (R.A.V.) e del Rapporto di Valutazione esterna
(R.V.)
•
NB ricordiamo che R.V. ci sarà nel 10% di scuole, di cui 7% critiche
e 3% no, quindi per ora ne stiamo facendo a meno …
55
Predisporre strumenti e metodologie di analisi
• indagare le modalità con le quali le scuole utilizzano i dati
dell’autovalutazione, della valutazione esterna e i relativi indicatori e indici
per progettare i Piani di Miglioramento;
• predisporre un percorso di ricerca-azione, coinvolgendo i Consulenti e le
scuole in una ricerca partecipata, volta a far emergere “dal basso”, le
dimensioni ritenute prioritarie da ciascun Istituto per migliorare il proprio
servizio;
• definire e condividere metodi e strumenti per supportare le scuole
nell’analisi e nell’impiego efficace dei dati emersi dall’autovalutazione e
dalla valutazione esterna per progettare e realizzare le attività di
miglioramento;
• considerare attentamente e valorizzare le specificità di ciascuna scuola in
relazione a esiti, processi e contesto di riferimento.
56
Le scuole coinvolte
Regione
Denominazione scuola
Città
Tipo istituto
PON
IPSIA SANTARELLA
BARI
Odontotecnico - abbigliamento e moda meccanico - elettrotecnico
PON
I.C. BOCCONE SILVIO
PALERMO
Istituto Comprensivo
PON
L.CLAS.UMBERTO I-NAPOLI-
NAPOLI
Liceo classico
PON
IC LAMEZIA T S. EUFEMIA LAMEZIA
LAMEZIA TERME
Istituto Comprensivo
NORD
I.C. - TORINO-C.SO REGIO PARCO
TORINO
Istituto Comprensivo
NORD
GIOSUE' CARDUCCI
PISA
Istituto magistrale
57
Le fasi della ricerca (I)
 Strutturazione di strumenti da proporre alle scuole per supportarle
nel passaggio dalla valutazione (auto ed etero) al miglioramento:
• identificazione delle specifiche problematiche dell’Istituto;
• conseguente declinazione di obiettivi di miglioramento;
• identificazione delle modalità con cui realizzare il miglioramento desiderato,
attraverso la definizione di specifiche attività da realizzare;
• misurazione del livello di conseguimento degli obiettivi di miglioramento
intermedi e finali attraverso la costruzione di indicatori valutativi
(autovalutazione delle azioni di miglioramento da parte della scuola).
 Prime visite nelle scuole (novembre-dicembre 2014):
• condivisione di finalità, metodi, strumenti e risultati attesi della ricerca con il
Consulente e il Team per il Miglioramento (TpM);
• osservazione “sul campo” dei processi con cui le scuole predispongono i Piani
di Miglioramento;
• compilazione assistita degli strumenti di indagine.
58
Le fasi della ricerca (II)
 Seconde visite nelle scuole (aprile-maggio 2015 ):
• focus group con i Team per il Miglioramento;
• intervista al Consulente;
• approfondimenti qualitativi su: a) valutazione complessiva progetto Vales; b)
valutazione degli strumenti di ricerca proposto da UniGe.
 Somministrazione di un questionario online rivolto ai Team per il
Miglioramento di tutte le scuole coinvolte in Vales (maggio-giugno
2015):
• cogliere il percorso compiuto da ciascuna scuola,
• focus specifico sul processo:
• valutazione complessiva del progetto Vales.
 Domande online a tutti gli insegnanti Vales:
• rilevare concordanze/discordanze fra risposte TpM e insegnanti.
59
Gli strumenti forniti alle scuole
•
Modello del Quadro Logico (Logical Framework)
albero dei problemi
albero degli obiettivi
strategia di intervento
azioni di miglioramento (nessi causali)
costruzione di indicatori (di processo e di risultato)
rendere misurabili gli esiti degli interventi
•
Favorire una riflessione condivisa su obiettivi e priorità della scuola
•
Sollecitare una lettura in chiave di learning
•
Favorire una riflessione che assuma una concezione generativa di
causalità, ovvero ragionare in termini di concause che, a loro volta,
influenzano solo parzialmente gli effetti che ci si prefigge di
ottenere come risultato
60
Prime evidenze emerse
 Significative difficoltà nella definizione degli
miglioramento e di attività concretamente realizzabili
obiettivi
di
 Formulazione Piano di Miglioramento: parafrasi della valutazione?
(in questo il contributo di INDIRE aiuta anche se proceduralizza …)
 Fase del rispecchiamento RAV e RV
 “Ulteriori elementi significativi integrati dalla scuola stessa”: nella
definizione degli interventi migliorativi prende corpo e vigore
l’autonomia della scuola (ma succederà anche con questo PDM?)
 Strumenti di monitoraggio e valutazione
 Figura chiave del DS
 Cosa accadrà dopo?
61
Il progetto Vales: punti di forza
• Opportunità di riflessione condivisa sulla nostra realtà scolastica:
“chi siamo? Dove siamo? Dove vogliamo andare?”
“Vales ci ha costretto a riflettere e a confrontarci”
“Vales ci ha fatto mettere in discussione”
• Valutazione esterna quale ulteriore opportunità per riflettere su noi
stessi
“abbiamo bisogno di qualcuno che ci guardi dall’esterno, che
ci faccia sapere qualcosa su di noi ‘guardandoci da fuori’”
• Occasione per creare un maggior collegamento fra i diversi ordini
di scuola (Istituti Comprensivi e curricolo verticale per es.)
• “è stato un ottimo stimolo, punto di partenza”, “ha dato il ‘la’ a
processi di cambiamento che non sappiamo se porteranno o meno al
miglioramento”
62
Il progetto Vales: criticità
• Mancanza di coinvolgimento/motivazione degli insegnanti non facenti parte
del TpM, “resistenza al cambiamento”, “c’è tanta indifferenza intorno a noi”;
• tempi troppo limitati e ritardi nel ricevere i fondi “abbiamo dovuto fare tutto in
tempi record, così impensabile!”;
• eccesso di documenti burocratici da compilare (ricompilare il RAV; bandi per
selezionare i formatori);
• definizione di indicatori – mancanza di un linguaggio condiviso “la maggior
parte erano per noi vocaboli nuovissimi”;
• insegnanti non adeguatamente preparati, necessità di formazione;
• “è tutto basato sulla nostra buona volontà, nulla è remunerato né
riconosciuto”
• “siamo schiacciati da troppe cose...noi facciamo gli insegnanti!” – individuare
63
e formare ad hoc una risorsa interna alla scuola
Osservazioni conclusive (I)

Dalla valutazione non emergono ricette, ma al più criticità
a) perché il valutatore non è (necessariamente) un progettista
b) perché se anche lo fosse non è detto che conosca per intero
finalità, vincoli e disponibilità all’azione del decisore
Dunque rinvio all’autonomia reale delle scuole e alla loro competenza
valutativa e migliorativa:
- Che si costruisce sul campo
- Non è data una volta per tutte
- Richiede dialogo e riflessione continua
- … e la costante connessione tra teoria e pratica, tra ricerca e azione
64
Osservazioni conclusive (II)
Partecipazione consapevole dei diversi attori a migliorare la scuola

“Comprendere per migliorare”

Valutare per migliorare/innovare o valutare per premiare?
“valutare per
migliorare” (Palumbo e Pandolfini, in press a), School Improvement
(Palumbo, 2014a; 2014b),
Presunta automaticità del nesso virtuoso tra valutazione e miglioramento

Valutazione partecipata
Concezione della valutazione in termini negoziali (Ajello, 2012)
International School Inspection Project (Ehren et al., 2013)
Gli attuatori sono “i migliori aiutanti del valutatore” (Pawson e Tilley, 1997)

Valutazione multidimensionale
“Valutare per l’apprendimento” (Graue e Johnson, 2011)
Oltre un’accountability basata sui test

Approccio evidence based (Hattie, 2013)
“What works?”
65
Riferimenti bibliografici (I)
Ajello A.M. (2012). La valutazione tra controllo e accountability: una sperimentazione
a Trento. Scuola Democratica, N. 6 nuova serie, pp. 117-127.
Allulli G., Farinelli F., Petrolino A. (2013). L’autovalutazione di istituto. Modelli e
strumenti operativi. Milano: Guerini.
Castoldi M. (2014). Capire le prove INVALSI. Una guida intelligente. Roma: Carocci.
Ehren M.C.M., Altrichter G., Mcnamara G., O’hara J. (2013). Impact of Schools
Inspections on Improvement of Schools. Describing Assumptions on Casual
Mechanisms in six European Countries, Educational Assessment, Evaluation and
Accountability, 25 (1/2013), pp. 3-43.
Faggioli M. (a cura di). Migliorare la Scuola. Autovalutazione, valutazione e
miglioramento per lo sviluppo della qualità. Bergamo: Junior-Spaggiari.
Fondazione Giovanni Agnelli (2014). La valutazione della scuola. A cosa serve e
perché è necessaria all’Italia. Roma-Bari: Laterza.
Graue E. e Johnson E. (2011). Reclaiming Assessment Through Accountability That
Is “Just Right”. Teachers College Record, 113(8):1827-1862.
Majone G., Wildavsky A. (1978). Implementation as evolution, Policy Studies Review
Annual 1978, Sage, Beverly Hills, pp. 103-117.
Hattie J. (2013). Visible Learning: A Synthesis of over 800 Meta-analyses Relating to
Achievement. London: Routledge.
66
Riferimenti bibliografici (II)
Paletta A. (2011). Scuole responsabili dei risultati. Accountability e bilancio sociale. Il
Mulino, Bologna.
Palumbo M. (2013), “Istruzione e formazione come ‘motore’ principale dello sviluppo
del Paese. Quale identità e quali priorità?”, in A&D Autonomia e Dirigenza, XXI, 7-89, pp. 4-9.
Palumbo M, Pandolfini V. (in press a). Valutare per migliorare tra retorica e ricerca.
Rassegna Italiana di Valutazione, 59.
Palumbo M, Pandolfini V. (in press b). Valutare e migliorare la scuola: il Sistema
Nazionale di Valutazione, in Landri P. e Maccarini A. (a cura di), Uno specchio per la
valutazione della scuola: paradossi, controversie, vie di uscita. FrancoAngeli: Milano
Palumbo M. (2014 a). Come utilizzare i dati della valutazione esterna e
dell’autovalutazione per compiere scelte di miglioramento, in M. Faggioli (a cura di)
Migliorare la Scuola. Autovalutazione, valutazione e miglioramento per lo sviluppo
della qualità (pp. 93-111). Bergamo: Junior-Spaggiari.
Palumbo M. (2014). Valutare per migliorare: il contributo della valutazione alla scuola.
In Faggioli M., a cura di, Migliorare la Scuola. Autovalutazione, valutazione e
miglioramento per lo sviluppo della qualità (pp. 155-171). Bergamo: Junior-Spaggiari.
Pawson R. e Tilley N. (1997). Realistic evaluation. London: Sage.
Scheerens J., Mosca S., Bolletta R. (a cura di) (2011). Valutare per gestire la scuola,
Governance, leadership e qualità educativa. Milano: Mondadori.
67 UK,
Stern E. (2015), Impact Evaluation. A guide for Commissioneers and Managers,
Mauro Palumbo [email protected]
Dipartimento di Scienze della Formazione (Di.S.F.O.R.)
Università di Genova
68
Fly UP