Comments
Transcript
LA VALUTAZIONE 360° PER VERIFICARE L`EFFICACIA DELLA
LA VALUTAZIONE 360° PER VERIFICARE L’EFFICACIA DELLA FORMAZIONE Di Dr. Laura Belli – Partner EBC Consulting – www.ebcconsulting.com PARAGRAFO 1 ROI: ritorno sull’ investimento (return on investment) o ritorno dalla formazione (return on instruction)? http://www.ebcconsulting.com/valutazione-efficacia-della-formazione-del-personale.html Come si fa a sapere se il programma formativo che abbiamo scelto è efficace? La formazione che abbiamo frequentato – o alla quale abbiamo mandato nostri collaboratori – può avere effetti a lungo termine sul comportamento professionale dei singoli e dell’organizzazione? Un intervento formativo può incrementare la produttività o l’efficienza? E se sì, come posso misurarne i benefici? Queste sono le domande che, sempre più spesso, vengono poste nelle organizzazioni circa la formazione ed i suoi risultati, attesi od effettivi che siano. Domande alle quali, pur nella consapevolezza del fatto che la formazione non può che consentire un passaggio di conoscenza e/o di stimoli e che è la loro implementazione nella quotidianità professionale ciò che consente il miglioramento delle performance personali ed organizzative, cerca di dare risposta la valutazione della formazione intesa nella sua accezione più recente. Valutazione, però, non intesa come mera determinazione del valore, del peso e della validità dei programmi e delle attività, bensì come utilizzo di componenti di giudizio derivanti da procedure articolate e complesse che si avvalgono anche di strumenti di misurazione oggettiva, ma che non si riducono – e riducono il responso finale – solo a questi. Del resto, solo attraverso un’attività valutativa “spalmata” nel tempo e più vicina ad una logica di ricerca che non di semplice misurazione, appare possibile valutare l’effettivo ritorno della formazione nella sua accezione più ampia e completa. Appare possibile, cioè, valutare non solo i suoi risultati immediati (output) intesi come meri servizi e/o prestazioni offerte, ma anche i suoi effetti indotti (outcomes) intesi come quegli effetti che si realizzano quando gli output raggiungono i loro destinatari e che si determinano anche successivamente ed al di l° di questi, nell’ambito di una catena di influenza intra ed extraorganizzativa. Quindi, non soltanto una misurazione che presuppone, è vero, la disponibilità di riferimenti oggettivi e può far ipotizzare l’eliminazione di qualsiasi incertezza attraverso la corretta applicazione di metodologie, ma rende anche l’intero processo un po’ troppo meccanicistico e rigido. Bensì un momento di confronto critico e dialettico con i risultati, diretti e mediati, dell’azione formativa. In sostanza, la valutazione va sì ad esaminare – in chiave anticipatoria oltreché retrospettiva - la validità, il merito il valore di programmi ed attività formativi, ma la sua valenza principale e fondante diventa quella di risorsa per le scelte future e, quindi, per l’evoluzione stessa delle organizzazioni. PARAGRAFO 2 Un po’ di ordine tra teorie e metodi Per arrivare ad inquadrare precisamente lo strumento 360° e le sue utilità nell’ambito della valutazione della formazione occorre dare alcune indicazioni di massima sugli aspetti teorici considerati nella sua ideazione ed implementazione. Una modellizzazione per interpretare processi di valutazione dovrebbe, a parere di chi scrive, considerare come variabili: o Il concetto di valutazione o Le metodologie usate o Gli attori coinvolti nella valutazione o Il modo in cui usare i dati provenienti dalla valutazione Per ciò che riguarda, in particolare, le metodologie di valutazione si possono considerare 4 macroclassi: 1. le metodologie focalizzate su efficacia e qualità ( cercano di cogliere gli effetti della formazione direttamente in termini di output e outcome); 2. le metodologie economiche (cercano di definire l’impiego di risorse connesso al raggiungimento dei risultati) 3. le metodologie professionali (attività realizzate o, quantomeno, ideate con l’intervento di figure professionali di alta specializzazione e/o professionalizzate attraverso adeguato training) 4. le metodologie procedurali (orientate a fattori come imparzialità, equità, legittimità e trasparenza piuttosto che ad efficienza ed efficacia). Lo strumento 360° va inserito nell’ambito delle metodologie professionali sia perché la sua ideazione non può che essere frutto di studi di psicologia del lavoro applicata alle teorie sulle Competenze, sia perché la sua somministrazione ed interpretazione può essere effettuata solo da professionisti abituati a lavorare (o formati) sulla base di tali teorie. Sempre a livello di metodologie, poi, la dottrina raggruppa le forme di valutazione in 3 diversi insiemi: � le forme improprie di valutazione (formalità necessaria e ricerca di immagine) � le forme parziali di valutazione (controllo interno, delle risorse umane, descrittiva) � le forme effettive di valutazione (consulenza, certificazione, promozione, 360°) Di queste ultime, la valutazione a 360° può sicuramente considerarsi la forma più completa ed incisiva: innanzitutto perché consente il bilanciamento fra finalità valutative e modi d’uso improntati alla conoscenza senza operare tra essi una netta divisione, poi perché – attraverso l’affinamento delle pratiche di valutazione e la creazione di una cultura organizzativa più matura e consapevole – contribuisce realmente alla valorizzazione della “risorsa uomo”. Quanto alla valutazione della formazione in senso stretto, la teoria “ sposata”- per l’intero Modello di Valutazione in generale e per l’inserimento in esso del 360° in particolare – è quella dei 4 livelli di valutazione di Donald Kirkpatrick. In pratica, questo autore identifica 4 diversi ambiti all’interno dei quali è possibile inserire strumenti/azioni che consentono di assicurare risultati attendibili circa i ritorni delle attività di training. Precisamente: 1. REACTION : ai partecipanti è piaciuta l’attività formativa? Coglie la parte di reazione immediata all’attività e, quindi, è indicativa del clima d’aula, dell’appeal del docente e degli argomenti trattati, della logistica, eccetera. 2. LEARNING: quanto hanno appreso i partecipanti? Coglie l’aspetto cognitivo nel senso che valuta se i partecipanti hanno o meno avuto difficoltà a livello di apprendimento e quale grado di apprendimento medio è stato raggiunto. 3. BEHAVIOR: sono cambiati i comportamenti dei partecipanti? Coglie l’aspetto comportamentale nel senso di verificare se le abilità apprese sono state acquisite così da determinare un cambiamento e/o un miglioramento nei comportamenti agiti e, quindi, nella performance lavorativa del singolo e dell’Organizzazione. 4. RESULTS: che risultati abbiamo ottenuto? Coglie l’aspetto legato ai risultati tangibili che possono considerarsi derivanti direttamente da quanto appreso grazie al programma formativo. In generale, le Organizzazioni – quando cercano di valutare la formazione – si avvalgono dei 4 livelli nelle seguenti percentuali: Livello 1 78% Livello 2 32% Livello 3 9% Livello 4 7% Nel caso di specie, invece, trattandosi di dover valutare l’impatto organizzativo della formazione, ci si è concentrati sul livello 3, quello dei comportamenti, e sul livello 4, quello dei risultati. PARAGRAFO 3 Lo strumento Come accennato nel paragrafo precedente, essendo l’obiettivo della valutazione i comportamenti, per riuscire a misurarli con un buon grado di oggettività, ci si è basati sulla teoria dei Modelli di Competenze. Si è quindi accettata la definizione data di COMPETENZE come set di dimensioni comportamentali che sono determinanti per la prestazione lavorativa di successo in undato ruolo ed in un determinato contesto lavorativo e si è costruito un questionario che – somministrato in auto ed in eterovalutazione – permetta di ottenere un profilo incrociato fra come il soggetto si autoanalizza e su come gli altri lo vedono rispetto ai comportamenti/competenze. Somministrandolo prima dell’intervento formativo e dopo qualche mese dal suo termine, permette di avere una “fotografia comportamentale” dei partecipanti al corso nei due momenti il cui confronto evidenzia le differenze derivanti dal corso e, perciò, il suo impatto sulla performance organizzativa. Come è stato progettato il questionario? Quali criteri sono stati utilizzati per creare il suo impianto di base? Si è partiti dai possibili errori. Meglio, conoscendo le più comuni “trappole” da evitare quando (e se) si vuole creare un sistema di valutazione 360° che sia effettivo ed efficace, abbiamo lavorato su di esse per trovare fin dalla fase ideativa dello strumento le “vie di fuga organizzative” più concrete e fattibili. TRAPPOLA 1- non avere un obiettivo chiaro: mettere in campo un sistema a 360° senza un chiaro e specifico obiettivo è come prescrivere un antibiotico generico in presenza di diversi virus; le cause nascoste – spesso le uniche responsabili dei problemi – non vengono affrontate e, quindi, possono continuare a generare i loro effetti indesiderati. Ecco, perciò, che lo strumento utilizzato per la Valutazione dell’Impatto Organizzativo della Formazione non solo è stato ideato ed implementato per avere una focalizzazione precisa (verificare se e come un intervento formativo ha avuto effetti sui comportamenti delle persone coinvolte), ma addirittura si è cercato – soprattutto a livello di strutturazione degli item – di eliminare ogni possibile “tentazione” di uso diverso da quello ipotizzato. TRAPPOLA 2 – non fare un test pilota: è uno dei pericoli più gravi e più subdoli essere troppo ambiziosi e/o troppo rapidi quando si introduce un nuovo strumento nell’Organizzazione. Per questo, i suggerimenti – forse banali, ma sicuramente di grande efficacia – che abbiamo seguito per il Modello e lo strumento sono stati: da un lato di introdurre processo e strumento con un sistema pilota la cui analisi ha potuto consentire di determinare la sua efficacia ed i suoi impatti oltreché di evidenziare le criticità in corso d’opera, dall’altro di coinvolgere il maggior numero di persone degli Enti coinvolti nella pianificazione, implementazione e modifica del programma pilota. TRAPPOLA 3 – non coinvolgere le “persone chiave”: mentre il loro apporto può facilitare l’introduzione e l’uso dello strumento ed anche la sua messa in opera reale. Per questo, già in fase d’ideazione del 360° si è cercato di far partecipare i responsabili della formazione delle Organizzazione coinvolte nella determinazione delle competenze considerate strategiche (e, quindi, valutate), nella scelta del metodo per raccogliere ed accorpare le valutazioni, nelle filosofie che devono stare alla base dell’analisi dei dati. TRAPPOLA 4 – comunicare in maniera insufficiente: mentre una comunicazione trasparente e completa è particolarmente importante per la positiva riuscita di un Modello come quello creato. Quindi, è stato ritenuto essenziale comunicare e comunicare chiaramente su ogni strumento che lo compone e, soprattutto, sul 360° che può creare i fraintendimenti o le sensazioni di “tradimento” che, potenzialmente, accompagnano tutti i processi che coinvolgono anche argomenti confidenziali. La comunicazione è stata pensata e “costruita” da tutte le persone coinvolte nella progettazione e start up del test pilota e si è concretizzata in lettere di presentazione del progetto (tarate sullo specifico di ogni Organizzazione) ed in riunioni esplicative del Modello in generale e dei singoli strumenti mano a mano che dovevano essere utilizzati. TRAPPOLA 5: compromettere (non tenere conto) dell’aspetto confidenziale: una valutazione 360°, anche se usata in un Modello di valutazione della formazione, si basa sull’idea che le persone si sentano tranquille anche sapendo di poter esprimere le proprie valutazioni mantenendo l’anonimato e, perciò, molta della sua attendibilità può venire meno se confidenzialità ed anonimato siano o vengano percepite come compromesse. Come fare, allora, in un Modello dove il confronto tra un “prima” ed un “dopo” non è solo auspicabile, ma necessario? Ancora una volta ha premiato la trasparenza: sapere quali informazioni verranno rese note ed a chi e, al limite, permettere l’uso di pseudonimi ha aiutato molto a tranquillizzare le persone coinvolte ed a farle esprimere apertamente. TRAPPOLA 6: avere un sistema di somministrazione e correzione dei questionari 360° difficile e farraginoso, mentre all’opposto proprio la facilità d’uso di esso è una delle variabili che maggiormente pesano sul successo dello strumento. Perciò, abbiamo resistito alla tentazione di includere ogni possibile domanda che potesse valutare ogni competenza ipotizzabile, per non perdere il vantaggio della semplicità. Per questo abbiamo “limato” struttura e linguaggio (per altro assolutamente allineato con le realtà nelle quali doveva essere applicato) del questionario, dedicata particolare attenzione alla formalizzazione ed alla comunicazione delle istruzioni per i compilatori, creata una formazione ad hoc (teorica, ma anche pratica) per i somministratori ed un sistema di correzione semplice e fruibile da tutti. PARAGRAFO 4 Analisi dello strumento1 Viene proposta di seguito una prima, sintetica, analisi dei risultati emersi dalla somministrazione del questionario Q.C.P. (Questionario sulle Capacità Professionali) focalizzando l’attenzione sullo “strumento” senza entrare nel merito delle indicazioni che scaturiscono dalle risposte che le persone che hanno compilato il questionario ci hanno fornito rispetto all’argomento in esame. La domanda da cui si è partiti è: “Il questionario Q.C.P. è adatto a rilevare le informazioni che ci servono?” – In parole povere ha” funzionato”, considerando l’impianto generale della ricerca in cui è inserito e la popolazione di riferimento? DESCRIZIONE DEL QUESTIONARIO Il Q.C.P. è composto da un totale di 130 items, formulati sotto forma affermazioni o frasi, che descrivono caratteristiche o comportamenti da riferire alla persona valutata. Si chiede di valutare quanto quella caratteristica o azione appartiene al repertorio comportamentale della persona che attraverso le risposte al questionario si vuole descrivere, in termini di frequenza “quasi mai/quasi sempre” in una gamma composta da 5 range (quasi mai raramente – qualche volta – spesso – quasi sempre). Prende in esame 13 dimensioni (scale) relative a comportamenti/capacità/competenze rilevanti nel contesto lavorativo della persona (non finalizzate a valutare la persona stessa nella sua interezza o essenza!!). Le scale sono raggruppate in 4 macroaree: relazioni, comunicazione, approccio al compito, energia. Una peculiarità di questo tipo di questionario, o meglio dell’utilizzazione del questionario, è che consente di valutare se stessi (autovalutazione) ed essere valutati (eterovalutazione) secondo parametri il più possibile “oggettivi” e confrontabili. La coerenza ovvero la discrepanza tra l’auto e l’eterovalutazione (e tra le diverse eterovalutazioni) fornisce indicazioni utili per descrivere il comportamento organizzativo di un individuo così come è percepito da diversi punti di vista e gli dà informazioni che possono essere utilizzate per conoscersi meglio ed eventualmente cambiare/migliorare le proprie capacità ed il modo di relazionarsi agli altri. SOMMINISTRAZIONE DEL QUESTIONARIO Il Q.C.P. nella prima fase della sperimentazione – quella della quale sono stati già elaborati ed analizzati i dati - è stato compilato da 148 persone che lavorano presso gli Enti coinvolti nella ricerca. Il campione esaminato è composto da 32 persone che si sono autovalutate ed hanno distribuito a loro capi, colleghi, collaboratori (mediamente a 3 o 4 in totale) il questionario per farsi valutare. Una prima considerazione da fare è relativa all’”impatto” che il questionario ha avuto. Sembra emergere che le persone abbiano risposto generalmente in modo positivo mostrandosi disponibili alla richiesta di compilare il questionario (nonostante i 130 items!), le indicazioni contenute nelle istruzioni sono parse sufficientemente chiare da permettere l’auto-somministrazione, gli items proposti sono risultati comprensibili ed anche la compilazione del foglio di risposta non sembra aver creato particolari problemi, sebbene sia stata rilevata qualche imprecisione. In particolare nella parte dove viene richiesto di specificare il tipo di relazione che lega la persona da valutare e colui che valuta (capo, collega, collaboratore) sono state fornite in molti casi specificazioni non richieste (perché difficilmente classificabili in categorie univoche e rigide) che sono risultate superflue e inutili ed in altri (12) casi non è stata fornita alcuna indicazione. Il questionario risulta in sè fruibile da parte della popolazione oggetto della ricerca e da questo punto di vista adatto, per rispondere alla domanda iniziale, a rilevare le informazioni che ci servono, ma si è evidenziata anche sperimentalmente la necessità di monitorarne la somministrazione e fornire informazioni molto dettagliate alle persone che a loro volta dovranno dare il questionario da compilare ai loro conoscenti. Questo è indispensabile al fine di ottenere dati rilevanti e decodificabili (correttezza nella compilazione del foglio di risposta). RISULTATI Considerando la distribuzione dei punteggi, si è potuto osservare che sono concentrati in maggioranza (oltre il 67%) nella parte centrale della scala, questo significa che da un punto di vista statistico, esaminando i dati globalmente, lo strumento sembrerebbe discriminare poco. E’ necessario tuttavia fare alcune precisazioni. Il questionario Q.C.P. è tarato per focalizzare l’attenzione sull’individuo, ed è a questo livello che va spostata l’analisi, inoltre è più adatto a fornire indicazioni di tipo qualitativo che quantitativo, o meglio risultano significativi scostamenti “quantitativamente” piccoli che appaiono poco rilevanti da un punto di vista statistico. Questo dipende in larga misura dall’oggetto di indagine, il comportamento umano, valutato da parte di un osservatore (umano) che di norma non fa il “valutatore” di professione, per di più che si conosce (collega, amico) e con il quale, in ambito organizzativo, esiste una relazione in molti casi di tipo gerarchico (capo, collaboratore). Su un foglio di risposta abbiamo trovato, accanto alle risposte richieste, la seguente domanda: “si può parlare male di un collega?” Questo interrogativo riassume un po’ la delicatezza del compito e se da un lato sembra avallare quanto suggerito nel paragrafo precedente circa la necessità di usare cautela nell’uso di questo tipo di strumento, dall’altro non ne inficia tuttavia la validità. E’ necessario pertanto esaminare i dati con attenzione, contestualizzandoli senza trascurare scostamenti non eclatanti ma che a questo livello ci forniscono informazioni rilevanti ed ipotesi feconde. Inoltre la somministrazione di uno strumento per raccogliere informazioni ci permette di standardizzare lo “stimolo” cioè le domande che poniamo e di delimitare con più precisione il campo di indagine. Venendo all’analisi delle medie accorpate in base alla relazione tra il valutato e il valutatore e la media generale dei punteggi ottenuti, abbiamo osservato che la media dell’autovalutazione è, in tutte le scale, più bassa di quella generale, a riprova del fatto che nel valutare sé stessi si è tendenzialmente più critici; inoltre nella maggior parte dei casi la valutazione del capo si avvicina di più all’autovalutazione ed è quindi più bassa della edia generale. Questo probabilmente perché un capo è più abituato ad esprimere una valutazione su un dipendente, sia perché è “istituzionalmente” deputato a farlo, esprimendosi non necessariamente in termini lusinghieri. Per ulteriori informazioni: EBC Consulting Srl http://www.ebcconsulting.com/ Ulteriori informazioni circa questo argomento: http://www.ebcconsulting.com/valutazioneefficacia-della-formazione-del-personale.html EBC Consulting