...

Diapositiva 1 - Dipartimento di Comunicazione e Ricerca Sociale

by user

on
Category: Documents
32

views

Report

Comments

Transcript

Diapositiva 1 - Dipartimento di Comunicazione e Ricerca Sociale
Analisi critica di un rapporto di ricerca:
L’undicesimo rapporto sullo stato del sistema universitario
del CNVSU
Valutazione delle politiche formative
19 Ottobre 2012
Perché abbiamo bisogno di analizzare criticamente
dei rapporti di ricerca?
Obbiettivo finale del progetto di ricerca:
Monitoraggio e valutazione dei cambiamenti nell’ateneo Sapienza (1992 -2012)
Obbiettivo intermedio:
Ricognizione delle dimensioni e dei relativi indicatori impiegati a livello italiano e
internazionale per valutare il sistema universitario, dunque:
individuazione delle principali agenzie di valutazione a livello internazionale e
nazionale;
mappatura e analisi degli indicatori impiegati da tali agenzie;
comparazione tra le agenzie, le dimensioni e gli indicatori;
selezione degli indicatori utilizzabili al fine del monitoraggio e della valutazione
dell’ateneo Sapienza.
Abbiamo bisogno di:
 Analizzare per avere ben presente chi ha prodotto il rapporto, a quali scopi,
utilizzando quali criteri, quali dati e quali tecniche di analisi;
E di farlo
 Criticamente, cioè facendo attenzione alla concettualizzazione dei criteri, alla
costruzione degli indicatori, alla loro parte estranea e a tutti i possibili errori
che non vorremmo replicare.
Cosa abbiamo bisogno di sapere
su un rapporto di ricerca valutativo?
1:
2:
3:
4:
5:
chi ha prodotto il rapporto?
qual è lo scopo del rapporto?
quali sono i criteri di valutazione utilizzati nel rapporto?
quali sono le fonti di dati utilizzate?
quali sono gli indicatori utilizzati?
a: sono riconducibili a uno schema concettuale univoco?
Quale?
… per ognuno di essi:
b: il rapporto di indicazione è chiaramente identificabile?
c: sono calcolati correttamente?
d: i dati su cui si basano sono affidabili?
L’undicesimo rapporto sullo stato del sistema universitario
CNVSU
1: chi ha prodotto il rapporto?
→ Il CNVSU
Comitato nazionale per la valutazione del sistema universitario (CNVSU)
Il CNVSU è stato istituito dall'articolo 2 della legge 19 ottobre 1999, n. 370; il
suo funzionamento è stato disciplinato con D.M. 4 aprile 2000, n. 178; la sua
costituzione è stata disposta con D.M. n. 101 del 14 maggio 2004.
L’Agenzia di Valutazione del Sistema Universitario e della Ricerca (ANVUR)
sostituisce tanto il CNVSU quanto il CIVR; è stata istituita con la legge 286 del
2006 e regolamentata in seguito con il DPR n. 76 del 1 Febbraio 2010 “al fine
di razionalizzare il sistema di valutazione della qualità delle università e degli
enti di ricerca pubblici e privati destinatari di finanziamenti pubblici, nonché
dell’efficienza e dell’efficacia dei programmi statali di finanziamento e di
incentivazione delle attività di ricerca e di innovazione” (art. 2, c. 138).
1: chi ha prodotto il rapporto?
Il
•
•
•
•
•
•
•
•
•
•
CNVSU è un organo istituzionale del Miur con il compito di:
fissare i criteri generali per la valutazione delle attività delle università;
predisporre una relazione annuale sulla valutazione del sistema universitario;
promuovere la valutazione;
determinare la natura delle informazioni e dei dati che i nuclei di valutazione
degli atenei sono tenuti a comunicare;
attuare un programma annuale di valutazioni esterne delle università o di
singole strutture didattiche;
effettuare valutazioni tecniche su proposte di nuove istituzioni universitarie
statali e non statali in vista dell'autorizzazione al rilascio di titoli aventi valore
legale;
predisporre rapporti sullo stato di attuazione e sui risultati della
programmazione;
predisporre studi e documentazione sullo stato dell'istruzione universitaria,
sull'attuazione del diritto allo studio e sugli accessi ai corsi di studio
universitari;
predisporre studi e documentazione per la definizione dei criteri di riparto
della quota di riequilibrio del fondo per il finanziamento ordinario delle
università;
svolgere per il Ministro attività consultive, istruttorie, di valutazione, di
definizione di standard, di parametri e di normativa tecnica.
L’undicesimo rapporto sullo stato del sistema universitario
2: qual è lo scopo del rapporto?
→ La rendicontazione (e la valutazione)
dello stato del sistema universitario
«fornire elementi sulle situazioni, comportamenti ed evoluzioni che si ritengono
validi sia del sistema universitario nel suo complesso, sia delle singole università,
ma anche, e forse soprattutto, di indicare gli elementi di debolezza del sistema se
non veri e propri “campanelli di allarme” che richiedono riflessioni ed interventi a
livello sia centrale che di ciascun ateneo»
In riferimento a:
1 - organizzazione, gestione e risultati dei processi di formazione universitaria:
• la domanda e l’offerta di formazione (cap. 2),
• i servizi agli studenti (cap. 3),
• la formazione alla ricerca (cap. 4).
2 - le caratteristiche e i problemi di gestione delle risorse:
• umane (cap. 5)
• finanziarie (cap. 6).
Al termine del Rapporto viene inoltre presentato un focus sul posizionamento del
sistema universitario italiano in una ottica internazionale (cap. 7).
L’undicesimo rapporto sullo stato del sistema universitario
3: quali sono i criteri di valutazione utilizzati nel rapporto?
→ Il confronto tra le medie degli indicatori
→ L’analisi della variabilità degli indicatori
→ Efficienza, ed efficienza comparabile
«Il Cnvsu, la Crui, il Cun più volte hanno ribadito
che gli indicatori di efficienza dei processi
formativi
usualmente
calcolati
non
sono
confrontabili tra le varie unità produttive, facoltà
e università, poiché non tengono conto della
diversa situazione in termini di risorse disponibili
e del contesto in cui le unità operano, e proprio
per questo gli indicatori sono detti indicatori
“parziali” di efficienza perché non vengono
calcolati a “parità di condizioni”. »
Indicatori
di efficienza
confrontabili
L’undicesimo rapporto sullo stato del sistema universitario
3: quali sono i criteri di valutazione utilizzati nel rapporto?
Efficienza, ed efficienza comparabile?
«Il risultato dei processi formativi, e della loro “efficienza”, è poi
esaminato sia con riguardo al percorso prima di arrivare alla laurea
(in termini di abbandono, “dispersione” e attività o inattività degli
studenti), sia in termini di risultato complessivo dei percorsi
formativi misurato dal numero di laureati (di primo e secondo
livello) e dal tasso di laurea.»
«indicatori di efficienza “comparabili” che consentono di verificare le
difficoltà che si incontrano quando si utilizzano, anche per la
ripartizione dei fondi, indicatori “parziali” di efficienza, cioè
indicatori calcolati non a parità di condizioni (di risorse, di fattori di
contesto, ecc.)»
Efficacia
E’ la capacità di raggiungere gli obiettivi prefissati.
Efficienza
E’ il rapporto tra i risultati ottenuti e i costi supportati.
Efficacia +
Efficacia -
Efficienza +
Efficienza Processi che raggiungono i risultati Processi che raggiungono i risultati
prefissati utilizzando al meglio le
prefissati pur non utilizzando al
loro risorse
meglio le loro risorse
Processi che non raggiungono i
risultati prefissati nonostante
utilizzino al meglio le loro risorse
(risorse troppo scarse rispetto agli
obiettivi)
(risorse ampie rispetto agli
obiettivi)
Processi che non raggiungono i
risultati prefissati non utilizzando al
meglio le loro risorse
L’undicesimo rapporto sullo stato del sistema universitario
4: quali sono le fonti di dati utilizzate?
→ «molteplici fonti statistiche»
•
•
•
•
•
•
•
•
•
NUCLEI, le procedure annuali dei Nuclei di valutazione di Ateneo
Indagini annuali sull’Istruzione Universitaria (Ufficio di statistica MIUR)
Banca Dati Offerta Formativa (MIUR)
Anagrafe Nazionale degli Studenti Universitari (MIUR-CINECA)
Anagrafe dottorati
Anagrafe dottorandi
Indagine Istat “L’inserimento professionale dei dottori di ricerca”
Banca dati del MIUR dell’omogenea redazione dei conti consuntivi
Rilevazione MIUR-CINECA sui Progetti di ricerca di rilevante interesse
nazionale
• Rapporto Education at a glance: OECD indicators
• Classifiche internazionali prodotte da:
• QS World University Ranking
• Times Higher Education
L’undicesimo rapporto sullo stato del sistema universitario
4: quali sono le fonti di dati utilizzate?
«Le elaborazioni presentate utilizzano dati provenienti da molteplici fonti
statistiche che non sono sempre facilmente comparabili per l’universo e il
tempo di riferimento e per la definizione delle variabili»
Esiste una rilevazione ad hoc
La principale rilevazione utilizzata è quella annuale effettuata tramite i Nuclei
di valutazione delle Università, prevista dalla legge n. 370/99.
La procedura NUCLEI è strutturata in sei sezioni: Offerta formativa, Studenti,
Personale, Dati finanziari, Strutture, Ricerca scientifica.
Le fonti sono sempre indicate chiaramente
Le fonti sono spesso accessibili on line
Le fonti sono quasi tutte ufficiali
L’undicesimo rapporto sullo stato del sistema universitario
5: quali sono gli indicatori utilizzati?
Indicatori descrittivi
In relazione alla formazione universitaria si presenta una distinzione tra:
Indicatori di processo → riferibili alla regolarità del percorso di studio
→ riferibili al proseguimento dell’attività di studio
(abbandoni e inattivi)
Indicatori di risultato → «fanno riferimento agli studenti che conseguono il titolo
di studio»
Il rapporto prende in considerazione numerosi aspetti del sistema universitario
e mira a valutarne diverse funzioni, ma non presenta una esposizione chiara
delle motivazioni alla base della scelta degli indicatori, né li classifica in base al
criterio cui fanno riferimento.
L’undicesimo rapporto sullo stato del sistema universitario
5: quali sono gli indicatori utilizzati?
a: sono riconducibili a uno schema concettuale univoco?
Da altre fonti (il rapporto Cnvsu del 2009, p. 5) sappiamo che il Cnvsu, sulla
scorta del Crui, per svolgere la propria attività di valutazione intende definire
e calcolare un sistema di indicatori che, in relazione agli obiettivi perseguiti e
all’oggetto della valutazione, possono essere raggruppati in quattro classi:
1.indicatori di risorse,
2.indicatori di processo,
3.indicatori di risultato (o di outcome),
4.indicatori di contesto,
«con l’obiettivo generale di monitorare i processi e valutarne i risultati».
Nel rapporto tuttavia non vi è traccia di una esposizione di questa
classificazione, soltanto due delle sue classi sono in effetti identificabili
chiaramente nel testo e solo in riferimento ai processi formativi.
L’undicesimo rapporto sullo stato del sistema universitario
5: quali sono gli indicatori utilizzati?
b: il rapporto di indicazione è chiaramente identificabile?
c: sono calcolati correttamente?
d: i dati su cui si basano sono affidabili?
…alcuni esempi!
1.
2.
3.
4.
5.
6.
7.
8.
9.
La domanda di formazione universitaria
La mobilità territoriale
Il carico didattico medio dei docenti
Il proseguimento degli studi
La regolarità dei laureati
I tassi di successo
Gli indicatori di efficienza dell’offerta formativa confrontabili
Il potenziale ricettivo (regionale)
Partecipazione, idoneità e iscrizione di candidati provenienti da altri atenei
per i dottorati di ricerca
10.Età media del personale docente
11.Tassi di partecipazione e successo PRIN
La domanda di formazione universitaria
b: il rapporto di indicazione è chiaramente identificabile?
«…è certamente interessante verificare quanta parte della domanda “potenziale”, misurata,
sia pure approssimativamente, dai maturi della scuola secondaria superiore, si trasforma in
domanda “effettiva”, cioè in immatricolati. A questo riguardo, per comprendere bene il
processo, in realtà è necessario considerare come domanda “potenziale” iniziale il numero dei
giovani della classe di età corrispondente all’età teorica di conseguimento del diploma di
maturità e, successivamente, il numero dei maturi che sono coloro che in pratica si possono
iscrivere all’università».
c: sono calcolati correttamente?
Rapporto percentuale tra Maturi e 19enni
Rapporto percentuale tra Immatricolati e Maturi
Rapporto percentuale tra Immatricolati e 19enni
d: i dati su cui si basano sono affidabili?
La serie dei 19enni è stata ricostruita sulla base di dati Istat. I dati sui maturi dal 2000 al
2007 sono stati tratti dall’Ufficio di statistica del MIUR. Fino al 1998, i dati sugli immatricolati,
iscritti totali, iscritti in corso e laureati e diplomati sono desunti dalle rilevazioni del MIUR al
31 gennaio di ogni anno e tengono conto dei soggetti che hanno pagato la prima rata di
iscrizione; dal 1999 al 2008 i dati sono ricavati dalla Rilevazione sull’Istruzione Universitaria
dell’Ufficio di statistica del MIUR al 31 luglio di ogni anno.
I dati 2009/10 sono da considerarsi provvisori.
La domanda di formazione universitaria
Il problema di queste “percentuali” è identificabile nel fatto che le popolazioni
poste al numeratore e al denominatore includono soggetti diversi, sarebbe stato
più corretto calcolare il rapporto percentuale tra Maturi e 19enni ponendo
al numeratore i Maturi 19enni, il rapporto percentuale tra Immatricolati e
Maturi ponendo al numeratore gli immatricolati che hanno conseguito il
diploma nell’anno precedente, e il rapporto percentuale tra Immatricolati e
19enni ponendo al numeratore gli immatricolati 19enni.
Concettualmente questi ultimi due rapporti possono essere assunti
come indicatori della domanda di formazione universitaria, ma per
assurdo nessuno degli immatricolati potrebbe avere 19anni o essersi
immatricolato l’anno successivo al diploma.
La parte estranea di questi indicatori è dovuta al fatto che non tutta la
domanda potenziale di formazione universitaria risiede tra i maturi o i 19enni,
dunque anche la domanda effettiva include altre parti della popolazione.
E’ difficile concettualizzare un indicatore che controlli questa parte di domanda,
per la difficoltà di individuare i detentori di domanda potenziale.
Sarebbe possibile rendere conto di quanta parte della domanda effettiva non
dipenda dalla domanda potenziale iniziale?
La mobilità territoriale
b: il rapporto di indicazione è chiaramente identificabile?
La mobilità territoriale degli immatricolati per la prima volta al sistema universitario in
Italia è analizzata confrontando la regione di residenza degli studenti immatricolati (esclusi
i residenti all’estero) con la regione sede del corso di studi.
c: sono calcolati correttamente?
•Uscita dalla regione: è la percentuale di studenti che scelgono di immatricolarsi in una
regione diversa da quella di residenza sul totale degli immatricolati residenti nella regione
[= E/A].
•Attrattività delle sedi regionali: è la percentuale di studenti immatricolati in una sede
universitaria della regione ma provenienti da altre regioni sul totale degli immatricolati
iscritti nelle sedi della regione [= D/B].
•Saldo migratorio netto: è la differenza tra gli immatricolati in ingresso e gli immatricolati
in uscita [= D-E].
d: i dati su cui si basano sono affidabili?
La fonte è indicata in appendice: i dati sono elaborati sulla base delle Indagini annuali
sull’Istruzione Universitaria condotte dall’Ufficio di statistica del MIUR e sono aggiornati fino
all’anno accademico 2008/09 e all’anno solare 2009.
* non sono compresi gli studenti residenti all’estero (pari a 11.986)
La mobilità territoriale
Gli indicatori sulla mobilità territoriale sono descrittivi, non presentano problemi
in riferimento al rapporto di indicazione, alla correttezza dei calcoli o
all’affidabilità dei dati.
Tuttavia non si tratta della mobilità territoriale complessiva, infatti si
tiene conto esclusivamente:
-della prima iscrizione
-delle iscrizioni al sistema universitario italiano
-da parte di studenti residenti in Italia.
Il problema di questi indicatori non è la parte estranea, ma il fatto che coprono
solo in parte l’estensione del concetto “mobilità”. Va sottolineato che
l’intestazione della tabella fa riferimento alla “mobilità regionale degli
immatricolati”, dunque risulta corretta.
Tuttavia non sarebbe preferibile includere le altre dimensioni della mobilità?
Il carico didattico medio
b: il rapporto di indicazione è chiaramente identificabile?
«…l’offerta didattica e la sua organizzazione è evidente che essa dipende in modo rilevante,
anche se non esclusivo, dall’entità del corpo docente a disposizione».
[…]
«Per rendersi conto del carico didattico medio dei docenti si può calcolare il numero medio di
immatricolati, di studenti “regolari” e di studenti totali per docente».
c: sono calcolati correttamente?
-Numero di immatricolati per docente di ruolo
-Numero di studenti regolari per docente di ruolo
-Numero di studenti totali per docente di ruolo
d: i dati su cui si basano sono affidabili?
La fonte è indicata in appendice: i dati sono elaborati sulla base delle Indagini annuali
sull’Istruzione Universitaria condotte dall’Ufficio di statistica del MIUR e sono aggiornati fino
all’anno accademico 2008/09 e all’anno solare 2009.
Il carico didattico medio
«Naturalmente il numero di studenti totali per docente è più alto rispetto a
quello degli studenti regolari e degli immatricolati (nell’anno accademico
2009/10 rispettivamente 29,5, 17,1 4,8). Da notare che il numero medio degli
immatricolati e degli studenti per docente si sono ridotti negli ultimi anni in
relazione all’aumento del numero dei docenti, ma ora stanno aumentando,
visto che il numero dei docenti nell’ultimo anno è diminuito e, probabilmente,
diminuirà anche negli anni futuri.
I valori medi di carattere generale riportati nella tabella 2.16 hanno poco
significato in quanto esiste una forte variabilità dei rapporti calcolati a livello di
singola facoltà (si vedano i dati riportati in appendice), che dipende da
molteplici fattori tra cui le caratteristiche e l’organizzazione di corsi di studio e
degli insegnamenti. Tuttavia come si vedrà nel capitolo 7 relativo ai confronti
internazionali, si tratta di un valore medio per il sistema universitario italiano
più alto di quello registrato negli altri Paesi, ciò significa che in media il carico
didattico dei docenti è superiore».
Né gli immatricolati né gli studenti, regolari o totali danno conto però del carico
di lavoro. Sarebbero probabilmente preferibili indicatori più specifici, come il
numero di corsi o di ore di corso per docente?
Il proseguimento degli studi
b: il rapporto di indicazione è chiaramente identificabile?
La quota di iscritti regolari, la quota di immatricolati inattivi e quella di iscritti inattivi e le
mancate iscrizioni al secondo anno sono presentati come indicatori di processo riferibili alla
regolarità e la produttività.
c: sono calcolati correttamente?
-Iscritti regolari sul totale degli iscritti corretto (cioè al netto degli iscritti con a.a. di prima
immatricolazione sconosciuto o già in possesso di un titolo universitario)
-Mancate iscrizioni al II anno sulle immatricolazioni
- Immatricolati “inattivi”, cioè la quota di iscritti ad un anno dall’immatricolazione che non
ha sostenuto alcun esame o acquisito crediti nell’ultimo anno solare
- Iscritti “inattivi”, cioè la quota di iscritti che, nell'anno solare successivo a quello di
riferimento, non sostengono alcun esame o non conseguono alcun credito (calcolati al netto
degli immatricolati inattivi).
d: i dati su cui si basano sono affidabili?
La fonte è indicata in appendice: i dati sono elaborati sulla base delle Indagini annuali
sull’Istruzione Universitaria condotte dall’Ufficio di statistica del MIUR e sono aggiornati fino
all’anno accademico 2008/09 e all’anno solare 2009.
Il totale delle percentuali non dà cento. Perché?
La regolarità dei laureati
b: il rapporto di indicazione è chiaramente identificabile?
Laureati per tempo di conseguimento del titolo dal primo ingresso al sistema universitario.
c: sono calcolati correttamente?
«…laureati per anno di conseguimento del titolo (rispetto al primo ingresso nel sistema
universitario) e durata media degli studi, valori assoluti e percentuali ».
d: i dati su cui si basano sono affidabili?
La fonte è indicata in appendice: i dati sono elaborati sulla base delle Indagini annuali
sull’Istruzione Universitaria condotte dall’Ufficio di statistica del MIUR e sono aggiornati fino
all’anno accademico 2008/09 e all’anno solare 2009.
I tassi di successo
b: il rapporto di indicazione è chiaramente identificabile?
Tasso di successo: numero di laureati in rapporto al numero di immatricolati per coorte.
Tasso di successo con regolarità: numero di laureati regolari in rapporto al numero di
immatricolati per coorte.
c: sono calcolati correttamente?
Tasso di successo – rapporto tra il numero di laureati ed il numero degli immatricolati di
tre anni prima
Tasso di successo con regolarità – rapporto tra il numero dei laureati regolari ed il
numero degli immatricolati di tre anni prima
d: i dati su cui si basano sono affidabili?
La fonte è indicata in appendice: i dati sono elaborati sulla base delle Indagini annuali
sull’Istruzione Universitaria condotte dall’Ufficio di statistica del MIUR e sono aggiornati fino
all’anno accademico 2008/092 e all’anno solare 2009.
«Nell’esame del numero e della regolarità dei laureati nei corsi
triennali si può tenere conto del numero di immatricolati tre anni
prima, non disponendo di dati trasversali e non potendo effettuare
un’analisi per coorti di immatricolati come si potrebbe fare ricorrendo
ai dati dell’anagrafe nazionale degli studenti».
Sarebbe preferibile calcolare gli indicatori per coorte? (!)
Gli indicatori di efficienza dell’offerta formativa confrontabili
Il Cnvsu, ha affidato ad un Gruppo di ricerca una apposita ricerca per
individuare metodi di stima di indicatori di efficienza dell’offerta
formativa confrontabili.
«Adottando un approccio per coorte, sono stati analizzati, mediante
l’applicazione di modelli di frontiera stocastica, i risultati conseguiti, in termini
di avanzamento negli studi, dagli studenti immatricolati nell’a.a. 2004/05 nei
successivi 4 anni di iscrizione, utilizzando un complesso e completo data-base
appositamente costruito con i dati elementari sulla coorte di studenti, nonché
su informazioni sulle risorse, di contesto, ecc., desunti da altre fonti statistiche.
L’applicazione di tali modelli […] ha permesso da un lato di studiare le variabili
che esercitano un’influenza decisiva sui diversi processi considerati e, dall’altro,
ha reso possibile la costruzione di indicatori di efficienza comparabili in grado
di porre in essere confronti ceteris paribus tra le diverse unità statistiche
considerate».
La frontiera viene stimata utilizzando le tecniche econometriche. Si ipotizza di conoscere
la funzione di produzione e si stima la funzione utilizzando i dati a disposizione ma non
si ipotizza che tutte le imprese sono efficienti.
«Le analisi svolte dal gruppo di ricerca hanno riguardato l’intero processo di
formazione universitaria degli immatricolati ad un corso di laurea di primo
livello».
Processi completi:
1) il processo completo di formazione universitaria dei laureati in corso
2) il processo completo di formazione dei laureati entro un anno fuori corso.
Processi intermedi:
3) Il processo di produzione di “capitale umano” al termine del primo anno,
definito in termini di crediti acquisiti attraverso il concetto di studenti
equivalenti al primo anno;
4) Il processo di produzione di “capitale umano” al termine del secondo anno,
definito in termini di crediti acquisiti attraverso il concetto di studenti
equivalenti al secondo anno;
5) Il processo di produzione di “capitale umano” al termine del terzo anno,
definito in termini di crediti acquisiti attraverso il concetto di studenti
equivalenti al terzo anno.
«Il numero di studenti equivalenti “prodotti” al termine del primo anno di
iscrizione (e allo stesso modo per gli studenti “superstiti” negli anni successivi)
è ottenuto rapportando l’ammontare dei crediti conseguiti entro il primo anno
di iscrizione al numero teorico di crediti conseguibili da uno studente in una
laurea triennale, pari generalmente a 60 per ciascun anno di iscrizione».
«Gli indicatori di efficienza comparabili così ottenuti dai modelli
stimati, sono stati confrontati con gli usuali indicatori di efficienza
parziale usualmente calcolati ed utilizzati dal MIUR, al fine di avere
qualche indicazione sulla “validità” in termini di comparabilità di questi
ultimi indicatori.
In generale il confronto per ciascun indicatore delle due graduatorie delle
facoltà, costruite l’una sulla base dell’usuale indicatore di efficienza
parziale e l’altra sulla base degli indicatori di efficienza comparabili,
mostrano una maggiore stabilità nella parte alta e in quella bassa della
classificazione. Si evidenzia invece una maggiore dispersione nella parte
centrale della distribuzione, con facoltà e università che salgono o
scendono nelle graduatorie degli indicatori comparabili rispetto alla
posizione che occupano nella graduatoria degli indicatori “parziali” ».
«Le facoltà “peggiori” o meno efficienti, cioè con indicatore di efficienza
usuale più basso, continuano ad essere “peggiori” anche costruendo un
indicatore di efficienza tecnica che tiene conto delle diverse
caratteristiche degli studenti e delle diverse dotazioni strutturali delle
unità e di contesto. Un discorso analogo vale per gli atenei “migliori” ».
Rapporto di ricerca “Individuazione di un sistema di indicatori per la misura
dell’efficienza della formazione universitaria” , per il CNVSU.
Il potenziale ricettivo (regionale)
b: il rapporto di indicazione è chiaramente identificabile?
«Per avere un’idea del potenziale ricettivo regionale gli alloggi disponibili sono stati rapportati
rispetto al numero degli idonei alla borsa di studio, scegliendo tale dato come
approssimazione del numero di potenziali fruitori dell’alloggio (che invece è costituito dal
sottoinsieme degli studenti fuori sede e pendolari in corso e i fuori corso che possono avere
diritto ad un periodo di proroga per l’alloggio)».
c: sono calcolati correttamente?
Posti alloggio per idonei– rapporto tra il numero di alloggi disponibili e gli idonei alla
borsa di studio
Posti alloggio per immatricolati– rapporto tra il numero di alloggi disponibili ed il
numero degli iscritti totali
d: i dati su cui si basano sono affidabili?
I dati relativi agli interventi degli Enti per il diritto allo studio universitario ed agli
esoneri dalla tassa d’iscrizione e dai contributi universitari sono stati ricavati dalla
rilevazione sul Diritto allo Studio (DSU), condotta dall’ufficio di statistica del MIUR.
I princìpi fondamentali per la realizzazione di un diritto allo studio uniforme
nel territorio (mediante legislazioni delle Regioni) sono contenuti nella legge
quadro sul diritto allo studio, Legge del 2 dicembre 1991, n. 390 , che
ripartisce le competenze tra:
I. lo Stato, che si occupa di indirizzo, coordinamento e programmazione degli
interventi;
II. le regioni, delegate all’attuazione degli interventi volti a rimuovere gli
ostacoli di ordine economico e sociale per la concreta realizzazione del diritto
allo studio universitario;
III.le università, che organizzano i propri servizi, compresi l’orientamento ed
il tutorato, in modo da rendere effettivo e proficuo lo studio universitario.
Gli indicatori dunque sono calcolati per regione con cognizione di
causa. Gli interventi per il diritto allo studio possono entrare negli
aspetti da valutare se il proprio oggetto di valutazione è un singolo
ateneo?
Partecipazione, idoneità e iscrizione di candidati provenienti da
altri atenei per i dottorati di ricerca
b: il rapporto di indicazione è chiaramente identificabile?
«Come regola generale si potrebbe dire che i partecipanti esterni hanno minori possibilità di
risultare idonei rispetto ai partecipanti “interni”, ma il confronto tra atenei non è omogeneo in
quanto, ciascun ateneo ha la possibilità di stabilire le modalità di svolgimento delle prove di
idoneità. […] Il fatto che la percentuale di successo degli interni sia superiore a quella degli
esterni è un elemento tendenzialmente non positivo, specie quando questo si accompagna ad
una forte selezione degli idonei. Non è pensabile infatti che gli esterni siano di qualità
decisamente inferiore e facciano domanda perché pensano di non avere possibilità nella sede
di origine. Anzi frequentemente sono i laureati migliori a fare domanda in più sedi e, nel caso
di più idoneità, scelgono la sede migliore».
% Partecipanti altro Ateneo
% Idonei Altro Ateneo
% Iscritti Altro Ateneo
c: sono calcolati correttamente?
d: i dati su cui si basano sono affidabili?
L’analisi delle caratteristiche dei dottorandi (quali mobilità, tipologia di sostegno finanziario a
supporto della frequenza del corso di dottorato, età all’iscrizione, ecc.) sono state analizzate
facendo riferimento all’Anagrafe dei dottorandi (ovvero gli iscritti ad un corso di dottorato),
la cui disponibilità di dati si estende fino all’anno 2008, includendo quindi coloro che si sono
iscritti al primo anno di un corso di dottorato il cui concorso è stato bandito nel 2008.
Età media del personale docente
b: il rapporto di indicazione è chiaramente identificabile?
«Tra le maggiori criticità del nostro Sistema, come appare anche con confronti internazionali,
vi sono le età del personale docente con valori medi particolarmente elevati. Peraltro, questi
sono aumentati per tutte le qualifiche dal 1988 al 2010 di oltre 5 anni ».
Età media del personale docente per qualifica:
1.Età media dei professori ordinari
2.Età media dei professori associati
3.Età media dei ricercatori
c: sono calcolati correttamente?
d: i dati su cui si basano sono affidabili?
I dati e le informazioni relativi alla consistenza ed alle caratteristiche del personale docente
sono ricavate dagli archivi MIUR-CINECA.
«E’ evidente che la notevole quota di nuovi entrati nei ruoli dopo la riforma dei
concorsi del 1998 e l’abbassamento delle età per la permanenza in servizio
degli ultimi anni, non sono riuscite a realizzare l’atteso ringiovanimento del
corpo docente ed è, invece, prevalso il naturale invecchiamento di quanti erano
già presenti nel sistema.
Le particolari distribuzioni delle età del personale consigliano, tuttavia, di
trattare con cautela i soli valori medi, in quanto sono presenti distinte
concentrazioni in alcune fasce di età.
Nel 2010, le età più frequenti per ricercatori e professori associati
risultano rispettivamente di 38 anni e di 48 anni, molto diverse da quelle
del 1998 quando erano di 49 e 52. Per i professori ordinari, invece, l’età più
frequente era nel 1998 di 58 anni e diventa di 63 anni nel 2010. E’ questa una
osservazione che conferma una modesta ma costante tendenza alle azioni di
ricambio generazionale per ricercatori e professori associati e un particolare
“addensamento” nel ruolo dei professori ordinari di soggetti prossimi ai limiti di
età, naturalmente causato dal passare del tempo».
Tassi di partecipazione e successo PRIN
b: il rapporto di indicazione è chiaramente identificabile?
«Tra le entrate finalizzate degli Atenei un posto di rilievo spetta ai finanziamenti dei
Progetti di ricerca di rilevante interesse nazionale (i cosiddetti PRIN)».
1.
2.
3.
4.
% di partecipanti su docenti presenti
% di valutati positivamente su partecipanti
% di finanziati su valutati positivamente
Finanziamento Miur (KEuro)
c: sono calcolati correttamente?
d: i dati su cui si basano sono affidabili?
«[…]si utilizzano i dati rilevati dalla apposita banca dati Miur-Cineca, anche se non sono
completamente omogenei con i dati dei bilanci delle università utilizzati in questo capitolo».
QS World University Ranking
Il ranking QS fa riferimento a 500 “Top universities”, il cui elenco è aggiornato
annualmente. Le università vengono valutate sulla base di 6 indicatori:
1. la valutazione dei pari (Academic peer review),
2. la valutazione dei datori di lavoro (Employer review),
3. la presenza di studenti stranieri (International students),
4.la presenza di docenti stranieri (International faculty),
5.le pubblicazioni, pesate in base al numero di citazioni (Citations per faculty),
6.le pubblicazioni, pesate in base al rapporto tra studenti e docenti (Student faculty).
Si tratta di indicatori che misurano la qualità dei processi formativi e della ricerca, unendo
così ad indicazioni qualitative di stakeholders, importanti informazioni quantitative; la
completezza della valutazione è quindi buona, pur se anche questo tipo di comparazioni
non è completamente esente da fattori di contesto nazionali
The QS University Rankings http://www.topuniversities.com/worlduniversityrankings/
l ranking THE http://www.timeshighereducation.co.uk/
I criteri del ranking QS SAFE dei sistemi universitari nazionali
1. System
This represents an evaluation of the overall strength of the system based on the
performance of all the institutions from that country meeting a certain qualifying
standard. More precisely, the number of institutions ranked 500 or higher, in the
given country, divided by the average position of those institutions.
2. Access
Widening participation is one of the hottest issues on the higher education
agenda today. The first component of delivering against that agenda, for any
given country, is having sufficient places at universities of an internationally
recognised standard. This indicator is calculated based on the number of places
at top 500 universities from the subject country (specifically the total number of
FTE students at the universities from that country featuring in the top 500 in
the QS World University Rankings™) divided by an indicator of population size
(specifically the square root of the population).
I criteri del ranking QS SAFE dei sistemi universitari nazionali
3. Flagship
There is some international debate as to whether a country with limited funds
ought to dilute their funds across many institutions in a system or concentrate
funds with a view to building at least one "world class university". Whether by
direct investment, or by riding the wave of domestic competition, the
performance of a country's leading university is a credit to the system from
whence it comes. This indicator takes the form of a normalized score based on
the global performance of the leading university from the country in question.
4. Economic
Not all nations, or higher education institutions within nations have access to
equal funds. The strength of the country's economy is a major factor but also
cultural influences that may affect factors such as industrial funding or alumni
donations play a role. This indicator recognizes two key factors, firstly the
relative fiscal emphasis that the given government places on higher education
and secondly, the impact or effectiveness of that investment – essentially
recognising performance relative to investment. The indicator takes an indexed
score (5 points for a university in the top 100, 4 points for 101-200, 3 points
for 201-300, 2 for 301-400 and 1 for 401-500) and factors it against the GDP
per capita for the country in question.
Un paio di domande…
su cui riflettere!
Come organizzereste le informazioni circa le agenzie di valutazione,
a livello nazionale ed internazionale, per la valutazione delle
politiche formative?
Come organizzereste le informazioni circa i rapporti di ricerca, a
livello nazionale ed internazionale, per la valutazione delle politiche
formative?
Come organizzereste le informazioni circa gli indicatori utilizzati, a
livello nazionale ed internazionale, per la valutazione delle politiche
formative?
Fly UP