metodi bayesiani per il controllo statistico di qualita
by user
Comments
Transcript
metodi bayesiani per il controllo statistico di qualita
Politecnico di Milano Università degli Studi di Brescia Università degli Studi di Pavia Università degli Studi di Lecce Dottorato di Ricerca in TECNOLOGIE E SISTEMI DI LAVORAZIONE XII° CICLO METODI BAYESIANI PER IL CONTROLLO STATISTICO DI QUALITA’ RELATORE: Prof. Quirico SEMERARO COORDINATORE: Prof. Roberto PACAGNELLA CANDIDATO: Ing. Bianca Maria COLOSIMO Un sincero ringraziamento va in primo luogo al prof. Consonni, docente di statistica dell’università di Pavia. Devo principalmente alla sua chiarezza espositiva il fatto di essere riuscita a seguire, senza troppe difficoltà, il corso di statistica bayesiana insieme ai dottorandi di statistica metodologica. Ed è questo passo che, in un’ottica bayesiana, ha rappresentato la mia “prior”. Un sentito ringraziamento va poi al Prof. Tullio Tolio, che in questi anni non mi ha mai fatto mancare il suo valido consiglio, il suo sicuro apporto, ed uno stimolante scambio di opinioni. Un irrinunciabile grazie va al Prof. Semeraro. In primo luogo per la sua lucida capacità nell’indicarmi sempre il giusto equilibrio tra ricerca metodologica ed applicazione ingegneristica. Più in generale per la sua abilità nel bilanciare il rigore di una guida e la disponibilità all’autonomia del contributo personale. Desidero infine ringraziare tutti gli amici della sezione per la pazienza con cui hanno sopportato la mia naturale tendenza a condividere profonde e talvolte “eccessive” passioni intellettuali. INDICE CAPITOLO 1: Introduzione 1.1. L’approccio bayesiano come alternativa di modellizzazione 4 CAPITOLO 2: Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.1. Introduzione 7 2.2. Modelli economici bayesiani per la scelta dei piani di campionamento per attributi 11 2.2.1. I piani per il campionamento monoattributo 11 2.2.1.1. Campionamento singolo 11 2.2.1.2. Campionamento doppio e multiplo 12 2.2.2. I piani per il campionamento multiattributo 13 2.3. Notazione 15 2.4. Il piano di minimo costo atteso: il modello di Case, Schmidt e Bennet [Cas75]. 16 2.4.1. Ipotesi del modello 16 2.4.2. Funzione obiettivo 17 2.5. Un nuovo modello economico per la progettazione di piani bayesiani multiattributo 23 2.5.1. La modifica della funzione obiettivo 24 2.5.1.1. Introduzione di una scelta riguardo alla politica di scarto o ripristino del lotto 24 2.5.1.2. Una più approfondita analisi della funzione obiettivo: la suddivisione dei costi tra fornitore e cliente 26 2.5.2. La carta p per il controllo della distribuzione a priori 28 2.5.3. Un algoritmo di ricerca della soluzione ottima: il pattern search casualizzato. 30 2.5.3.1. La validazione dell’algoritmo di ottimizzazione 31 2.6. Il caso reale: determinazione del piano di minimo costo atteso per il collaudo del corpo valvola grezzo 34 2.6.1. Il corpo valvola grezzo 34 2.6.2. Analisi dei dati storici: stima delle distribuzioni a priori 35 2.6.3. Stima dei parametri di costo 38 2.6.3.1. Costo di collaudo: Cc 39 2.6.3.2. Costo di rifiuto: Cr 39 2.6.3.3. Costo di accettazione 40 2.7. Il piano di minimo costo atteso per il corpo valvola 41 2.7.1. Analisi di sensitività della soluzione adottata 41 2.8. Conclusioni e possibili sviluppi 46 CAPITOLO 3:Le carte di controllo adattative bayesiane 3.1. Introduzione 48 3.2. La progettazione economica delle carte di controllo in letteratura 53 3.2.1. Il modello di Duncan 53 3.2.1.1. Le ipotesi 53 3.2.1.2. La notazione 55 3.2.1.3. I ricavi ed i costi 55 3.2.1.4. Il modello 56 3.2.2. La progettazione economica delle carte di controllo: la ricerca dopo Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione del modello 64 3.2.2.3. Progettazione statistico-economica 64 3.2.2.4. Produzioni di durata limitata 65 3.2.2.5. Carte di Controllo a Statistiche Dipendenti 65 3.2.2.6. La progettazione integrata del controllo di qualità 65 3.2.2.6.1. Modelli basati sulle rilavorazioni e sulla dimensione del lotto 66 3.2.2.6.2. Modelli basati sulla dimensione del lotto di produzione e di ispezione 66 3.2.2.6.3. Modelli basati sulle politiche di controllo del processo e di gestione della produzione 67 3.2.2.6.4. Modelli per il progetto congiunto delle carte 68 3.3. Le carte di controllo a parametri variabili 69 3.3.1. Modelli per carte a parametri variabili 71 3.3.2. Carte di controllo dinamiche non bayesiane 72 3.3.3. Carte di controllo dinamiche bayesiane 75 3.4. Progettazione economica di una carte di controllo adattativa bayesiana per il controllo delle non conformità 80 3.4.1. Notazione 80 3.4.2. Il modello 81 3.4.2.1. Ipotesi 81 3.4.2.2. Lo schema di controllo adattativo 82 3.4.3. La determinazione dei parametri di controllo 84 3.4.3.1. La funzione obiettivo 85 3.5. Valutazione numerica delle performance delle carte di controllo. 92 3.5.1. Analisi di sensitività della soluzione 95 3.6. Conclusioni e futuri sviluppi 98 CAPITOLO 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 4.1. Introduzione 100 4.2. Il servizio e il prodotto 103 4.3. La Qualità del servizio in letteratura 105 4.4. Le dimensioni della qualità del servizio 109 4.4.1. Indicatori “tangibili” del Servizio 110 4.4.1.1. Indicatori di qualità interna 110 4.4.1.1.1. Dimensione tecnica 110 4.4.1.1.2. Dimensione economica 111 4.4.1.1.3. Dimensione organizzativa 112 4.4.1.1.4. Dimensione ambientale 113 4.4.1.2. Indicatori di qualità esterna 115 4.4.1.3. Controllo periodico degli indicatori 118 4.4.2. Indicatori “intangibili” del Servizio: analisi di Customer Satisfaction 118 4.4.2.1. Score Cards 119 4.4.2.2. Reply Card 120 4.4.2.3. Gestione reclami 120 4.4.2.4. Transaction monitoring 121 4.5. Metodi per la valutazione della qualità del servizio in letteratura 122 4.5.1. Il Servqual 122 4.5.1.1. La struttura 123 4.5.1.2. Applicazioni del SERVQUAL 124 4.5.1.3. Il dibattito sul SERVQUAL 125 4.5.2. Il Qualitometro 125 4.5.2.1. Il modello concettuale 125 4.5.2.2. La struttura 126 4.5.2.3. Confronto tra SERVQUAL e QUALITOMETRO 127 4.5.3. IL SERVPERF 127 4.5.3.1. Il modello concettuale 127 4.5.3.2. La struttura 128 4.5.4. Normed Quality 128 4.5.4.1. Il modello concettuale 128 4.5.4.2. La struttura 129 4.5.5. TWO-WAY Model 129 4.6. Proposta di una nuova metodologia di analisi dei dati di Customer Satisfaction basata sulle reti di dipendenza bayesiane 132 4.7. Le reti di dipendenza bayesiane 133 4.8. Analisi di Customer Satisfaction: il caso “ Call Center ASSITALIA” 136 4.8.1.1. Scelta della strategia di ricerca per il Questionario Assitalia 139 4.8.2. Analisi dei dati e rappresentazione dei risultati 140 4.8.2.1. I legami tra le domande del questionario 4.8.2.2. Determinazione dei pesi di importanza 4.8.3. Conclusioni 141 147 150 CAPITOLO 5 Conclusioni 152 Bibliografia 154 Appendice A Elementi di statistica bayesiana 166 Appendice B Le riproducibilità distribuzioni beta e polya e la proprietà di 168 Appendice C Risultati numerici della progettazione di una carta di controllo c adattativa bayesiana 172 Appendice D Bayesian Belief Network: il metodo e il software Bayesian Knowledge Discovery 188 INDICE DELLE FIGURE Figura 2.1: Il corpo valvola grezzo ...................................................35 Figura 3.1: Parametri di progettazione di una carta di controllo.........52 Figura 3.2: Differenti stati del sistema nel modello di Duncan ...........57 Figura 3.3: Calcolo del sottointervallo di tempo τ nell’approccio di Duncan. ..............................................................................................59 Figura 3.4: Classificazione delle carte di controllo a parametri variabili.70 Figura 3.5: Lo schema di controllo..................................................84 Figura 3.6: Calcolo di τi nell’approccio proposto................................86 Figura 3.7: Calcolo di f i T (0,0 ) ........................................................87 Figura 3.8: Calcolo di f i T (1,0 ) ........................................................88 Figura 3.9: Calcolo di f i T (0,1) .........................................................88 Figura 3.10 Calcolo di f i T (1,1) ........................................................89 Figura 3.11: Andamento dei parametri al variare della probabilità di fuori controllo .................................................................................91 Figura 3.12 Normal plot dei risultati ottenuti con progettazione statica94 Figura 3.13 Normal plot dei risultati ottenuti con progettazione dinamica ..............................................................................................94 Figura 3.14 L’effetto dei diversi parametri nell’analisi di sensitività ....97 Figura 4.1: La qualità del servizio in Gronroos [Gro82]....................107 Figura 4.2: La qualitá del servizio in Parasuraman, Zeithaml e Berry.109 Figura 4.3: Un semplice Direct Acyclic Graph (DAG) che rappresenta una rete di dipendenza bayesiana ..................................................134 Figura 4.4 Rete Bayesiana ottenuta dall’analisi dei dati (strategia di ricerca Arc Inversion) ........................................................................141 Figura 4.5 Legame Tempo-Sodddurata-Durott-Raccoltadati ............143 Figura 4.6 Legame Capacita’-Telefonate ........................................146 Figura 4.7 Legame Orario-Risposta ...............................................147 INDICE DELLE TABELLE Tabella 2.1: Principali simboli utilizzati nel capitolo 2 ....................…16 Tabella 2.2: Parametri statistici adottati nella validazione dell’algoritmo di ricerca [Cas75] ........................................................................32 Tabella 2.3 Parametri economici adottati nella validazione dell’algoritmo di ricerca [Cas75] ........................................................................32 Tabella 2.4: Risultati della fase di validazione dell’algoritmo di ricerca della soluzione ottima. .....................................................................33 Tabella 2.5: Gli attributi per il collaudo del corpo valvola grezzo.........36 Tabella 2.6: Test χ 2 per verificare la distribuzione a priori adottata ...37 Tabella 2.7: Stima dei parametri della distribuzione a priori ..............38 Tabella 2.8: Costi per non conformi in lotti accettati .........................40 Tabella 2.9: Piano di minimo costo per il corpo valvola grezzo ............41 Tabella 2.10: Piano attualmente adottato in azienda .........................41 Tabella 2.11: Analisi di sensitività: effetto del costo di accettazione ....42 Tabella 2.12 Analisi di sensitività: effetto del costo variabile di collaudo43 Tabella 2.13 Analisi di sensitività: effetto della dimensione del lotto ...44 Tabella 2.14 Analisi di sensitività: effetto della media della distribuzione a priori ......................................................................................44 Tabella 2.15 Analisi di sensitività: effetto della deviazione standard della distribuzione a priori................................................................45 Tabella 2.16 Analisi di sensitività: effetto dei parametri di costo indipendenti dagli attributi ..........................................................................45 Tabella 3.1: Alcune delle caratteristiche distintive dei modelli esaminati per la progettazione economica di carte statiche time varying..................72 Tabella 3.2: Modelli proposti per la progettazione economica di carte dinamiche non bayesiane .........................................................75 Tabella 3.3: Modelli proposti in letteratura per la progettazione economica di una carte adattativa bayesiana .................................................79 Tabella 4 Principali simboli nell’approccio proposto ..........................81 Tabella 3.5: Parametri adottati nella valutazione numerica................92 Tabella 3.6: Casi simulati nell’analisi di sensitività. ..........................96 Tabella 3.8 Risultati dell’analisi di sensitività...................................97 Tabella 4.1 Indicatori ed obiettivi delle dimensioni tangibili del servizio [Neg92] .................................................................................115 Tabella 4.2: Categorie di attributi della qualità del Two-way model ( insoddisfazione, + soddisfazione, 0 neutrale) ............................130 Tabella 4.3:Confronto di alcuni strumenti utilizzati per la valutazione della qualitá del servizio [Cal97]......................................................131 Tabella 4.4 Domande e stati delle variabili per l’analisi delle dipendenze138 Tabella 4.5 Tabella riassuntiva dei dati raccolti ..............................139 Tabella 4.6 Valori di Verosimiglianza dei legami considerati.............144 Tabella 4.7 Valori di probabilità condizionata. ................................145 Tabella 4.8 Analisi del legame SODDISFAZIONE - CC/TRAD...........148 Tabella 4.9 Verosimiglianza delle componenti della Soddisfazione ....149 Capitolo 1 Introduzione 1 CAPITOLO 1 INTRODUZIONE "La Qualità… Sappiamo cos'è, eppure non lo sappiamo. Questo è contraddittorio. Alcune cose sono meglio di altre, cioè hanno più Qualità. Ma quando provi a dire in che cosa consiste la Qualità, astraendo dagli oggetti che la possiedono, paff, le parole ti sfuggono. Ma se nessuno sa cos'è, ai fini pratici non esiste per niente. Invece esiste, eccome… Perché mai la gente pagherebbe una fortuna per certe cose e ne getterebbe altre nella spazzatura? Ovviamente alcune sono meglio di altre… Ma in cosa consiste il meglio?" Robert Pirsig Zen and the Art of Motorcycle Maintenance: An Inquiry into Values (1974, traduzione italiana, Adelphi 1981). Il brano di Pirsig introduce e rappresenta in modo molto efficace la confusione e l’incertezza che hanno accompagnato la definizione di qualità nel corso degli anni. C’è oramai convergenza tra mondo accademico e aziendale sulla definizione di qualità come: “insieme delle caratteristiche di un’entità che ne determinano la capacità di soddisfare esigenze espresse ed implicite.” (UNI EN ISO 8402). Da questa definizione appare chiaro che il problema di controllare la qualità può essere suddiviso in due sottoproblemi. Il primo consiste nel determinare in primo luogo quali sono le caratteristiche dell’entità che sono in grado di determinare soddisfazione in chi usufruisce del bene. Capitolo 1 Introduzione 2 In secondo luogo occorre individuare un legame quantitativo tra caratteristiche e soddisfazione del cliente: decidere cioè i valori o gli intervalli di valori che ogni caratteristica può assumere per soddisfare le esigenze espresse ed implicite. Noto il legame tra caratteristiche del bene e soddisfazione, occorre definire una modalità di controllo nel tempo di queste caratteristiche. La necessità di un controllo ha ovviamente origine nella presenza di una certa imprevedibile variabilità di queste caratteristiche nel tempo. Il primo sottoproblema, ossia il legame tra soddisfazione e caratteristiche dell’entità è spesso risolto nel caso in cui il cliente sia “evoluto”. Spesso infatti, per prodotti non di largo consumo, si pensi ad esempio ai beni strumentali, le caratteristiche che individuano la soddisfazione sono modellate attraverso il concetto di specifica. In un componente meccanico ad esempio, le tolleranze dimensionali e geometriche rappresentano l’insieme di vincoli che alcune caratteristiche del prodotto devono soddisfare affinché il prodotto sia da ritenersi soddisfacente. La soddisfazione in questo caso può quindi coincidere con il concetto di conformità, anche se non è trascurabile la presenza di fattori tradizionalmente ritenuti secondari (es. estetica) che rimangono legati ad una percezione soggettiva del prodotto. Il problema di definizione del legame tra caratteristiche e soddisfazione è invece molto meno chiaro per prodotti di largo consumo ed è emerso ancor più prepotentemente alla ribalta negli ultimi anni con la crescente attenzione alla qualità dei servizi. In quest’ultimo caso le problematiche relative all’identificazione ed alla misura della soddisfazione del cliente sono ancora questioni aperte e irrisolte, dato che non si è ancora assestata in letteratura una metodologia quantitativa su cui esiste una certa convergenza. Risolto il problema di definizione del legame tra caratteristiche dell’entità e soddisfazione del cliente attraverso la definizione delle specifiche, il concetto di qualità può allora riprendere il tradizionale significato di conformità alle specifiche. Controllare la qualità nel tempo significa quindi verificare che l’entità continui a rispettare i vincoli imposti dalle specifiche, realizzando quindi un bene che soddisfa le esigenze per cui è stato progettato. Come accennato in precedenza il concetto di controllo della qualità in questo caso è strettamente legato al concetto di variabilità intrinseca a qualunque processo reale di trasformazione. In questo caso con variabilità si intende variazione imprevista rispetto ad un comportamento tollerato o accettato. Se ad esempio è noto l’effetto dell’usura utensile sul diametro di un albero tornito, e si è già previsto attraverso una compensazione adattativa della profondità di passata o più semplicemente attraverso una sostituzione dell’utensile a intervalli opportuni, è ovvio che in questo caso si è comunque in presenza di variabilità prevista, o che può ritenersi accettata. Questa variabilità ritenuta naturale non è oggetto Capitolo 1 Introduzione 3 del controllo statistico di qualità ed è spesso modellata attraverso un modello statistico della variabile in uscita (distribuzione, parametri, struttura di autocorrelazione temporale). Le tecniche di controllo della qualità sono orientate invece a segnalare tempestivamente la presenza di anomalie e imprevisti che determinano una extra-variabilità, o meglio una variabilità che non è ritenuta accettabile o naturale. Tra le metodologie orientate ad effettuare un controllo statistico della qualità, i piani di campionamento e le carte di controllo sono sicuramente gli strumenti più diffusi. La differenza tra questi due approcci ha origine nella diversa natura e nei diversi obiettivi che le due metodologie si propongono. Un piano di accettazione nasce dall'esigenza di esercitare un controllo sui prodotti in ingresso ad un qualsiasi stadio produttivo: l'attenzione è essenzialmente orientata al prodotto e solo indirettamente al processo di cui il prodotto risulta un risultato. L'adozione di piani di accettazione è infatti il più delle volte orientata a valutare le prestazioni di un fornitore, sia esso esterno o interno al sistema (ad esempio un altro stadio produttivo) sul cui processo non si è in grado di esercitare un effettivo controllo. In questo caso l'obiettivo è inoltre quello di definire la procedura più corretta per individuare la presenza di parti difettose nel flusso, continuo o discreto, di parti in ingresso. Informazione chiave è quindi quella relativa ai limiti di specifica delle variabili di qualità di interesse, per giudicare se un pezzo risulta conforme o meno alle specifiche di progetto. L'adozione di carte di controllo all'interno di un sistema produttivo è invece essenzialmente orientata a porre l'attenzione sul processo: vengono misurate una o più caratteristiche di qualità allo scopo di inferire sullo stato del processo che le ha generate. In questo caso infatti non si tengono in considerazione, salvo in casi particolari (ad es. limiti di controllo modificati), le specifiche della variabili di interesse: l'obiettivo è testare l'ipotesi di processo in controllo, dove con controllo si intende la situazione di funzionamento ''stabile'', ''a regime'' della macchina o stadio produttivo in esame. L'attenzione è quindi dedicata alla parte prodotta, intesa come risultato di uno stato di funzionamento del processo che l'ha generata. Questa attenzione al processo più che al prodotto determina inoltre una maggiore capacità di influenzare le prestazioni della macchina o fase controllata. Qualora si evidenzi una situazione di fuori controllo, si prevede infatti una precisa procedura di ricerca della causa assegnabile e, eventualmente, un intervento sul processo al fine di ripristinare la situazione di funzionamento ''stabile''. Tale procedura di ricerca ha luogo presumibilmente a processo non funzionante, con evidente influenza sulla cadenza produttiva risultante. Il lavoro si occuperà di fornire una proposta di soluzione relativamente a tutti i problemi evidenziati, seguendo il flusso produttivo del materiale in azienda. Capitolo 1 Introduzione 4 Si inizierà infatti dall’analisi del processo di accettazione del materiale in ingresso. Nel secondo capitolo si introdurrà un approccio per la progettazione economica di piani di accettazione nel caso in cui più caratteristiche di qualità siano da controllare (piani multiattributo). Una volta che il materiale in ingresso è stato accettato, a valle delle varie fasi produttive è possibile adottare delle carte di controllo. Il terzo capitolo proporrà un approccio per la progettazione economica di carte di controllo per la misura delle non conformità. Infine il bene prodotto è consegnato al cliente, sia esso un’altra azienda o un utente finale. In quest’ambito occorre individuare quali sono gli aspetti che più pesantemente condizionano la soddisfazione del cliente riguardo ai servizi di erogazione del bene (servizio logistico) e assistenza post-vendita. Il quarto capitolo si occupa quindi del problema di definire un approccio per l’analisi e la misura della qualità del servizio attraverso la misura della soddisfazione del cliente (customer satisfaction). Comune a tutti gli approcci proposti è l’adozione di strumenti di statistica bayesiana. Le ragioni per cui una tale scelta si giustifica nei diversi ambiti, verranno di volta chiarite in ogni capitolo e riassunte nelle conclusioni. In questo capitolo si intende tuttavia fornire qualche cenno riguardo ai presupposti dell’inferenza bayesiana. 1.1. L’approccio bayesiano come alternativa di modellizzazione Un felice esempio che inquadra bene la differenza tra approccio bayesiano e approccio frequentista si deve a L.J. Savage (’61) [Ber85]. L’autore ipotizza tre situazioni in cui si ritiene utile procedere ad un esperimento caratterizzato da prove bernoulliane (n prove indipendenti il cui possibile esito è successo/insuccesso e la cui probabilità di successo θ è costante nel tempo). Le tre situazioni sono molto differenti: nella prima si intende valutare se un musicologo è in grado di indovinare se l’autore di uno spartito è Haydn o Mozart. A tal fine viene progettato un esperimento che consiste in 10 prove, ognuna delle quali consiste in una estrazione casuale di uno spartito sottoposto al musicologo che deve decidere riguardo l’autore. L’esperimento viene condotto e dà luogo a 10 successi su 10. Il secondo esperimento riguarda una signora inglese la quale sostiene di riuscire a valutare, osservando una tazza di the con del latte, se è stato versato prima il the o il latte. L’esperimento condotto per valutare l’abilita dell’anziana signora consiste in 10 prove che danno luogo a 10 successi su 10. Capitolo 1 Introduzione 5 Nell’ultimo esperimento un ubriaco sostiene di riuscire a prevedere se nel lancio di una moneta non truccata l’esito sarà testa o croce. Anche in questo caso viene condotto un esperimento in cui su 10 tentativi, l’ubriaco indovina 10 volte. L’impostazione frequentista determina per tutti e tre gli esperimenti la stessa stima puntuale della probabilità di successo. Infatti i 3 esperimenti sono formalmente identici: in ogni prova l’esito è rappresentabile attraverso una variabile booleana (1= successo; 0=insuccesso); si è in presenza di 10 osservazioni xi i=1,..,10 dove iid x i ∼ bernoulli(θ ) , cioè ogni xi segue una distribuzione bernoulliana di parametro θ dove θ rappresenta la probabilità di successo. Con un’impostazione frequentista si procede alla stima di massima verosimiglianza per θ che, in ognuno dei tre esperimenti risulta uguale e pari a: n.ro successi 10 θˆ = = =1 n.ro prove 10 Ma la domanda che ci si pone è: avere nei tre casi la stessa stima per la probabilità di successo è un risultato ‘intuitivamente’ accettabile? Rifacendosi ad un semplice buon senso è possibile ritenere che l’esito complessivo delle 10 prove sia da imputare passando dal primo al terzo esempio sempre più al caso e sempre meno all’abilità. In definitiva si ha un informazione a priori sulla differenza tra le tre situazioni che potrebbe essere opportunamente modellata ma che nell’impostazione frequentista non trova spazio. L’approccio bayesiano si basa sul presupposto che sia possibile considerare il parametro della distribuzione, in questo caso θ, non semplicemente come un valore definito seppur incognito, da stimare. In un approccio bayesiano si ritiene che anche il parametro possa essere caratterizzato da una distribuzione di probabilità che, in un’impostazione bayesiana, rappresenta un’informazione a priori, soggettiva, π (θ ) che si ha sul parametro. Nota questa distribuzione a priori del parametro e la distribuzione delle osservazioni dato il parametro f ( x θ ) , il teorema di Bayes generalizzato consente di ottenere la distribuzione a posteriori: π (θ | x~) = f ( x |θ )π (θ ) ∫Θ f ( x |θ )π (θ )d θ = f ( x |θ )π (θ ) m(x ) dove: - x vettore delle osservazioni; - θ parametro; Capitolo 1 Introduzione 6 - {f (x θ ),θ ∈ Θ} densità di probabilità; - π (θ ) densità, distribuzione iniziale di θ (prior); - m (x ) = ∫ f ( x θ )π (θ )dθ densità marginale di x . Θ In definitiva l’approccio bayesiano consente di ottenere informazioni sul parametro attraverso la distribuzione a priori e i dati osservati (per maggiori dettagli sul meccanismo di inferenza bayesiano, si veda l’Appendice A). Non disconoscendo la possibilità di ipotizzare una fondata distribuzione a priori soggettiva, occorre sottolineare che in questo lavoro non si ricorrerà mai all’introduzione di un’informazione soggettiva. La distribuzione a priori sarà di conseguenza sempre introdotta a partire dalla “storia” del processo. Di conseguenza verrà semplicemente sfruttata la maggiore flessibilità modellistica dell’approccio bayesiano confrontato con quello frequentista. Capitolo 2 7 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo CAPITOLO 2 PROGETTAZIONE ECONOMICA DI UN PIANO DI CAMPIONAMENTO BAYESIANO SINGOLO MULTIATTRIBUTO 2.1. Introduzione Il campionamento di accettazione è uno degli strumenti di controllo statistico della qualità più adottati nella normale pratica manifatturiera e consiste nel decidere riguardo ad un lotto di materie prime, semilavorati o prodotti finiti in ingresso. La decisione viene presa verificando il rispetto degli standard qualitativi di un sottoinsieme di parti nel lotto (campione di dimensione n). In funzione di quanto osservato ispezionando le parti nel campione, viene presa una decisione (accettazione o rifiuto) che riguarda l’intero lotto. In generale la verifica degli standard qualitativi è eseguita per attributi. Ciò significa che viene verificato che il pezzo in ingresso sia da ritenersi conforme rispetto a tutte le caratteristiche di qualità su cui sono imposte delle specifiche (attributi). La progettazione del piano consiste appunto nel definire, riferendosi al caso più semplice di piano di campionamento semplice monoattributo, la dimensione del campione n ed il numero di accettazione Ac, ossia il numero di non conformi superato il quale il lotto è rifiutato. In realtà la scelta diventa più complessa se si passa a campionamenti composti da più fasi decisionali o relativi a più attributi. Infatti, in letteratura esistono ormai più tipologie di piani di accettazione tra cui è possibile scegliere. Una classificazione degli approcci più diffusi riguarda: Gla tipologia di piano: la scelta è tra piani per attributi e per variabili. Diversamente a quanto accade nel caso di carte di controllo, la tipologia più diffusa di piano è quella per attributi. Capitolo 2 8 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo E’ in relazione a questa tipologia di piano che son stati proposti il maggior numero di approcci che nel seguito andremo ad elencare. GIl numero di attributi considerati: in questo caso si parla di piani mono o multiattributo. Per la seconda tipologia di piano, di cui si occuperà in dettaglio questo capitolo, gli approcci proposti in letteratura sono tutt’altro che numerosi. E’ possibile comunque ovviare a questa mancanza utilizzando un approccio approssimato che consiste nel ridurre un piano multiattributo, in cui i singoli attributi sono stocasticamente indipendenti, in più piani singoli, avendo cura di scegliere opportunamente i valori di rischio per cliente e fornitore [Dun86]. Gil numero di stadi decisionali: si distinguono in questo caso i piani singoli, doppi o multipli. Esiste infatti la possibilità di progettare un campionamento in accettazione il cui esito (accettazione o rifiuto del lotto) può avvenire a seguito di un cero numero di test sequenziali. Ad ogni stadio decisionale, ad esclusione dell’ultimo, si può accettare il lotto, rifiutarlo o procedere con un ulteriore campionamento e quindi con un ulteriore stadio decisionale. Gpiani meno frequentemente utilizzati: • sequenziali: in questo caso si collauda una parte alla volta (dimensione del campione n=1) finché il numero cumulato di pezzi non conformi determina l’accettazione o il rifiuto del lotto. • piani a campionamento a catena: nel caso di collaudo distruttivo o di test molto costosi, la dimensione del campione è spesso molto piccola. In questi casi si può adottare un piano con campionamento a catena che riduce il rischio del fornitore per percentuale di difettosi molto basse. • piani a campionamento continuo: nel caso in cui le parti che arrivano dal fornitore non sono naturalmente raggruppate in lotti, si può adottare un piano che consente di giudicare le singole parti alternando collaudi al 100% a collaudi di una frazione limitata f di parti, per ridurre i costi di campionamento. • piani Skip Lot: sono una naturale estensione dei piani a campionamento continuo nel caso in cui però il fornitore provveda a fornire le parti in lotti. Anche in questo caso, se la percentuale di difettosi riscontrata è particolarmente bassa, si provvede a ridurre lo sforzo di campionamento controllando solo una frazione dei lotti in ingresso. Nella progettazione di un piano di campionamento per attributi si possono adottare due scelte: la prima riguarda l’adozione di un Capitolo 2 9 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo approccio statistico o economico mentre la seconda riguarda l’adozione di un’ottica bayesiana o frequentista. Al contrario di quanto accade nella progettazione delle carte di controllo, che verrà trattata diffusamente nel terzo capitolo, le due possibili scelte non sono tra di loro indipendenti. Nel tradizionale approccio alla progettazione di piani di campionamento, si usa adottare un’ottica statistica, in cui si considera il concetto di rischio ma senza procedere ad una sua valorizzazione economica. In quest’ambito infatti i parametri del piano sono scelti in base alla curva caratteristica operativa che si intende adottare o, più precisamente, definendo due punti della curva rappresentativi del rischio del consumatore e del rischio del produttore. L’approccio economico si contrappone a quello statistico poiché la scelta del piano da adottare è ottenuta attraverso l’ottimizzazione di una funzione economica in cui si considerano i costi di ispezione, i costi di accettazione di prodotti difettosi e i costi di rifiuto di prodotti conformi. Quasi tutti gli approcci economici proposti in letteratura si rifanno ad un impostazione bayesiana e questa evidenza è da attribuirsi ad un importante risultato che va sotto il nome di teorema di Mood [Moo43]. Prima di introdurre la principale conclusione del teorema occorre fare qualche premessa sull’approccio bayesiano in quest’ambito. Si supponga che un prodotto è fornito in una serie di lotti da un fornitore. A causa di una naturale variabilità, questi lotti sono caratterizzati da una qualità che varia nel tempo. Questa variabilità può essere distinta in variabilità interna al lotto (campionamento) e variabilità tra lotti (campionamento più variabilità di processo). Se queste due fonti di variabilità sono uguali, significa che il processo è stabile nel tempo e che ogni lotto può essere considerato come un campione casuale estratto da un processo in cui la probabilità di generare non conformi è costante. Questa situazione è sottintesa in tutti i piani di campionamento tradizionali o non-bayesiani. Spesso però il processo che genera i lotti non è stabile nel tempo, per cui le ipotesi sulle quali si basa l’approccio tradizionale al controllo in accettazione non sono più verificate ed è naturale applicare un approccio bayesiano. Infatti in un approccio non bayesiano il parametro che regola la generazione di difettosi nel lotto, p, è ritenuto costante anche se incognito. In un approccio bayesiano invece sul parametro p si prevede una distribuzione f(p), prior, che modellizza la variabilità di questo parametro nel tempo. Il principale risultato del teorema di Mood è che se f(p)=1 se p=p0 e f(p)=0 quando p ≠ p0, allora non c’è bisogno di campionare [Mon96]. Di conseguenza la convenienza economica al campionamento si ha solo in presenza di una variabilità naturale nella frazione di difettosi con cui i lotti sono generati. Vista la naturale relazione tra progettazione economica ed approccio bayesiano, quasi tutti i modelli bayesiani proposti in letteratura sono Capitolo 2 10 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo rivolti a progettare economicamente il collaudo in accettazione. Tra questi, molti si occupano, più in dettaglio, della progettazione economica di piani monoattributo. In realtà nei casi reali, i lotti in ingresso sono caratterizzati da più caratteristiche di qualità che devono essere congiuntamente controllate. In questo capitolo si affronterà quindi il problema della progettazione economica di piani di accettazione bayesiani multiattributo. Partendo da un’analisi dello stato dell’arte si procederà a valutare criticamente gli approcci proposti su questo argomento, proponendo un metodo che non assume a priori una politica nel caso di rifiuto del lotto. In letteratura infatti, la progettazione economica di piani multiattributo è condotta assumendo che tutti gli attributi siano “scrappable” o “screenable”. Per attributo scrappable si intende una caratteristica che, qualora provochi il rifiuto del lotto, porta allo scarto del lotto. In questo caso si sta implicitamente ipotizzando che il collaudo al 100% sia o impossibile (per es. nel caso di controllo distruttivo) oppure antieconomico. Se invece il rifiuto del lotto provocato da un attributo comporta il collaudo al 100% e l’eventuale ripristino dei pezzi non conformi, l’attributo è detto screenable. L’unica ragione per assumere a priori che tutti gli attributi appartengano ad una o all’altra classe è una maggiore semplicità gestionale della procedura di accettazione. Nell’approccio proposto, che trae origine da [Des97], l’appartenenza di un attributo all’una o all’altra classe (e quindi la politica da seguire sul lotto a valle di un rifiuto rispetto a quell’attributo: collaudo al 100% o scarto del lotto) sarà ritenuta un’ulteriore variabile decisionale del modello, scelta sulla base dei costi che occorre sostenere nei diversi casi. In secondo luogo verrà esaminata con maggiore attenzione l’adozione di una data distribuzione a priori per gli attributi di interesse, punto critico in genere dell’impostazione bayesiana. Verrà quindi proposta una stima della distribuzione a priori sulla base dei dati storici e una procedura per valutare se, nel tempo, l’adozione di una determinata distribuzione a priori non sia più da ritenersi valida. L’adozione dell’approccio proposto verrà infine presentato in relazione ad un caso reale, evidenziando i vantaggi economici rispetto alle procedure adottate in azienda allo stato attuale. Capitolo 2 11 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.2. Modelli economici bayesiani per la scelta dei piani di campionamento per attributi A parte l’approccio proposto dall’American Society for Quality Control in [Cal90] relativo alla progettazione di un piano bayesiano con approccio statistico, tutti gli approcci bayesiani sui piani di accettazione propongono una progettazione economica del piano, come già anticipato nel precedente paragrafo. Analogamente a quel che accade nella progettazione statistica, la maggior parte degli approcci proposti trattano di piani monoattributo, mentre solo due approcci, che verranno discussi in maggior dettaglio, riguardano la progettazione economica nel caso in cui il campionamento sia da effettuare in relazione a più attributi. Quest’ultima situazione rappresenta il caso in cui un pezzo può risultare non conforme, e quindi non superare il test di accettazione, a causa di m diversi tipi di non conformità, tra loro indipendenti. 2.2.1. I piani per il campionamento monoattributo 2.2.1.1. Campionamento singolo La maggior parte dei modelli proposti in letteratura per la progettazione economica di piani di accettazione con approccio bayesiano, si occupano del caso più semplice: il piano singolo monoattributo. Il primo modello in quest’ambito si deve a Guthrie e Johns nel ‘59 [Gut59]. In questo primo lavoro sull’ottimizzazione economica dei piani di accettazione, vengono evidenziati i principali costi coinvolti dalla progettazione del piano, principalmente: - costo di accettazione di pezzi non conformi nella parte di lotto non collaudata; - costo di riparazione dei pezzi non conformi rilevati; - costo di collaudo dei pezzi del campione; - costo di rifiuto di pezzi conformi nella parte di lotto non collaudata. Il modello determina, nel caso di dimensione N del lotto sufficientemente grande, delle relazioni asintotiche che permettono di calcolare il numero di accettazione. Riprendendo il modello di Guthrie e Johns, Hald nel ’60 [Hal60] semplifica l’approccio introducendo una funzione di costo lineare e utilizzando il concetto di break-even quality Capitolo 2 12 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo pr: la frazione di difettosi che determina un punto di pareggio tra accettare o rifiutare il lotto. Nonostante la semplificazione introdotta e i successivi sviluppi proposti da Hald fino all’ultimo lavoro presentato nel ’68 [Hal68], in cui gli autori propongono delle tabelle per facilitare l’applicazione dell’approccio proposto, la progettazione economica bayesiana risulta ancora distante da una semplice applicazione, per il numero elevato di informazioni che l’uso delle tabelle richiede. Tuttavia i principali spunti introdotti da Hald (l’uso di una forma tabellare e il rilassamento del vincolo di interezza sul numero di accettazione e sulla dimensione del campione) sono condivisi dall'unica norma attualmente in vigore sui piani di campionamento bayesiani [JIS63]. In questa norma si fornisce una soluzione al problema della progettazione del piano di accettazione bayesiano in tabelle, funzione di tre parametri ottenuti considerando il rapporto tra varianza all’interno dei lotti e varianza tra i lotti, la dimensione dei lotti, i costi di collaudo, il punto di break-even e la frazione media di non conformi. Differente dagli approcci precedenti, l’approccio proposto in [Erc74] propone due piani di campionamento singolo a inizio e fine del processo produttivo. Sicuro apporto dell’approccio è l’individuazione della relazione esistente tra la qualità in uscita al processo produttivo e il piano di accettazione sulle materie prime in ingresso. Risulta con quest’approccio chiaro che la qualità in uscita è frutto di due forme di nonconformità, la prima proveniente dai materiali in ingresso, la seconda causata dal vero e proprio processo produttivo. L’ipotesi di funzione di costo lineare, comune a tutti gli approcci finora elencati, viene infine modificata nel modello presentato in [Mos84b], in cui si introduce il concetto di avversione o propensione al rischio del decisore. Al costo atteso si sostituisce quindi l’utilità attesa che, sebbene risulti un interessante miglioramento del modello di ottimizzazione economica, presenta i consueti problemi di stima della funzione utilità. Occorre infine citare, per dovere di completezza, un ultimo insieme di approcci, che però modificano la struttura classica del processo decisionale di un piano di campionamento e che sono denominati PASS (Price-Adjusted Single Sampling). La progettazione economica di questo tipo di piani singoli si basa sull’idea di accettare comunque il lotto a seguito del collaudo, modificando il prezzo pagato dal cliente in funzione del livello di non conformità riscontrato nel lotto [Fos72], [Fos77], [Cha83], [Ehr88]. 2.2.1.2. Campionamento doppio e multiplo In letteratura è stato presentato un unico modello di piano di campionamento doppio. In [Ste78] è infatti proposto un approccio per Capitolo 2 13 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo campionamento a due stadi per tutti i tipi di collaudo: distruttivo (in questo caso è di conseguenza impossibile procedere ad un collaudo al 100% nel caso di rifiuto del lotto), non distruttivo e collaudo interrotto (curtailed inspection). Anche relativamente ai piani multipli, un solo approccio è stato finora proposto in letteratura [Mor79]. In ipotesi di distribuzione a priori nota, il modello è strutturato come problema decisionale markoviano in cui il processo è l’attività di campionamento e la posizione del processo è definita da due valori: lo stadio e lo stato. Ogni stadio è definito dal numero di pezzi collaudati fino a quel momento e lo stato è definito dal numero di pezzi non conformi riscontrati allo stesso istante. La probabilità di transizione da uno stato all’altro è la probabilità di trovare un certo numero di pezzi difettosi. Valorizzando economicamente tutte le possibili scelte, il modello propone un set di equazioni ricorsive che porta a definire il piano multiplo ottimo economicamente. 2.2.2. I piani multiattributo per il campionamento Tutti i modelli di campionamento multiattributo, condividono la stessa impostazione: la definizione di una funzione obiettivo e l’applicazione di un metodo di ottimizzazione. Il problema è un problema a variabili intere poiché occorre definire la coppia di valori Aci (numero di accettazione) e ni (dimensione del campione), entrambe quantità intere, per ognuno degli m attributi, supposti indipendenti. Tutti i modelli adottano come algoritmo di ottimizzazione il pattern search, un algoritmo di ricerca diretta della soluzione che risulta, però, fortemente dipendente dall’ipotesi di funzione obiettivo unimodale e che verrà approfondito nel paragrafo 2.5.3. iI modelli per la progettazione di piani multiattributo si possono essenzialmente suddividere in due categorie, in funzione dell’approccio utilizzato nella funzione obiettivo. Il primo tipo di piano, cui appartengono gli approcci proposti in [Sch72], [Cas75], [Ail75] e [Mos86], mira alla minimizzazione del costo totale atteso; il secondo, proposto in [Mos84a], considera invece come funzione obiettivo l’utilità del decisore. Nel primo insieme di lavori, la prima differenza riguarda le ipotesi assunte. In particolare [Sch72] usa una distribuzione poissoniana per il numero di non conformi nel campione e una distribuzione a priori esponenziale mista. In [Cas75] invece, la distribuzione a priori utilizzata è una polya e, sfruttando la proprietà di riproducibilità (descritta in Appendice B) si deriva un modello discreto anziché continuo. Capitolo 2 14 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo [Mos86] e [Ail75] condividono l’impostazione di [Cas75], che rappresenta, almeno teoricamente un superamento dell’approccio in [Sch72]. In dettaglio però [Mos86] si occupa di fissare K programmi di campionamento, uno al termine di ciascuno dei K stadi produttivi del processo, supposti in sequenza. Il metodo quindi propone soluzione ad un problema di suddivisione dello sforzo di ispezione interno al processo più che ad un problema di progettazione del collaudo in accettazione. [Ail75], invece, estende l’analisi di [Cas75] al caso di controllo contemporaneo per attributi e per variabili. Il secondo filone di ricerca è orientato a massimizzare l’utilità attesa ed è rappresentato dall’approccio proposto in [Mos84a]. In questo caso l’obiettivo è introdurre esplicitamente l’attitudine al rischio del decisore, e anche se teoricamente valido, presenta la consueta difficoltà di stimare la funzione obiettivo. Tra gli approcci proposti in letteratura, si prenderà come punto di partenza quello proposto in [Cas75] poiché si è interessati a sviluppare un piano per l’accettazione in ingresso nel caso di più attributi (e non di caratteristiche modellabili in parte come attributi e in parte come variabili) si farà riferimento all’approccio proposto in [Cas75], proponendone una modifica della funzione obiettivo e dell’algoritmo di ricerca della soluzione ottima. Per comprendere meglio le differenza proposte, si partirà introducendo l’approccio nel prossimo paragrafo. In seguito, nel paragrafo 2.5, si descriveranno in dettaglio le modifiche proposte. Capitolo 2 15 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.3. Notazione Simbolo m Numero di attributi i ∈ (1,..,m ) Indice per identificare l’attributo ni Dimensione del campione relativamente all’i-mo attributo Ac i Numero di accettazione relativamente all’i-mo attributo N Dimensione del lotto Xi Numero di nonconformi relativamente all’i-mo attributo presenti nel lotto xi Numero di nonconformi relativamente all’i-mo attributo presenti nel campione di dimensione ni fN(X) Distribuzione del numero di non conformi nel lotto gni(xi) Distribuzione del numero di non conformi rispetto all’i-mo attributo, nel campione di dimensione ni pi Frazione di parti non conformi nei lotti in accettazione s,t,s’,t’,w Parametri della distribuzione a priori della frazione di pezzi non conformi pi nel lotto Pai Cc Probabilità di accettazione relativamente all’i-mo attributo Cr Costo di rifiuto del lotto Ca Costo di accettazione del lotto CCi - costo di collaudo di un item rispetto all’i-mo attributo (i=1,..,m); Cscarto costo di scarto dell’intero lotto; CAi costo derivante dalla presenza di un pezzo difettoso non collaudato in un lotto accettato (i=1,..,m); Costo di collaudo del lotto Csost Costo di sostituzione di un pezzo danneggiato al collaudo: diverso da zero nel caso di collaudo distruttivo CC 100 % i costo per collaudare tutto il lotto rispetto all’i-mo attributo Crepl costo di sostituzione (o rimpiazzo) di un pezzo non conforme con uno conforme Capitolo 2 16 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Crit . costo-opportunità del ritardo con cui il cliente processa il nuovo lotto in ingresso qualora il lotto precedente sia stato rifiutato Tabella 2.1: Principali simboli utilizzati nel capitolo 2 2.4. Il piano di minimo costo atteso: il modello di Case, Schmidt e Bennet [Cas75]. 2.4.1. Ipotesi del modello 1. Ogni singolo lotto in ingresso ha dimensione N, costante. 2. Il collaudo di un pezzo è eseguito rispetto ad m attributi indipendenti. 3. Per ciascun attributo si intende determinare una coppia di numeri interi (ni, Aci), per i=1,..,m, che rappresentano rispettivamente l’ampiezza del campione da collaudare ed il numero di accettazione rispetto all’attributo i-esimo. Il numero totale di pezzi prelevati è quindi max{n i } . i 4. Il collaudo è supposto distruttivo. Qualora il lotto non superi il test, non si può procedere con un controllo al 100%. In questo caso infatti il lotto viene definitivamente scartato. Quando invece il lotto è accettato, i pezzi collaudati sono sostituiti con altrettanti pezzi addizionali. 5. Il collaudo è esente da errori (quest’ipotesi non è esplicitamente citata nell’articolo, ma sembra opportuno segnalarla). 6. Sono note le stime delle seguenti grandezze economiche: - CCi = costo di collaudo di un item rispetto all’i-mo attributo (i=1,..,m); - Cscarto= costo di scarto dell’intero lotto; - CAi= costo derivante dalla presenza di un pezzo difettoso non collaudato in un lotto accettato (i=1,..,m); - Csost= costo di sostituzione di un pezzo (danneggiato al collaudo). 7. Per ogni attributo, la distribuzione a priori della frazione di pezzi non conformi pi è una somma pesata di due beta di parametri s, t, s’, t’>0. Le m distribuzioni sono indipendenti. I loro parametri sono Capitolo 2 17 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo stimati con il metodo dei momenti, note le stime delle medie µi e delle varianze σ2 i, con le seguenti equazioni: si = ti = (1 − µi )µi 2 σ i2 − µi (2.1.) (1 − µ i )2 µ i − (1 − µi ) σ i2 (2.2.) Come dimostrato in Appendice B, nell’ipotesi che il lotto di dimensione N sia estratto mediante campionamento binomiale da un processo caratterizzato, relativamente all’attributo i-mo, dalla frazione di pezzi non conformi pi con distribuzione a priori indicata nell’ipotesi 7, la distribuzione del numero di pezzi non conformi relativamente allo stesso attributo è la somma pesata di due polya di parametri si, ti, s’i, t’ i: N Γ(si + X i ) Γ(ti + N − X i ) Γ(si + t i ) f N ( X i ) = wi + Γ(t i ) Γ(si + t i + N ) X i Γ(si ) N Γ(s'i + X i ) Γ(t 'i +N − X i ) Γ(s'i +t 'i ) + (1 − wi ) Γ(t 'i ) Γ(s' i +t 'i + N ) X i Γ(s'i ) (2.3.) per 0 ≤ wi ≤ 1, si , t i , si ', t 'i > 0 ed i = 1,..,m Le m distribuzioni sono indipendenti. Per il teorema di Hald (descritto in Appendice B), la densità gni(xi) del numero di pezzi non conformi nel campione si ottiene da fN(X i), sostituendo ni ad N ed xi ad X i.. 2.4.2. Funzione obiettivo La funzione obiettivo è il costo totale atteso, composto dalle seguenti categorie di costo: Û Costo di collaudo: Cc Û Costo di rifiuto: Cr Û Costo di accettazione: Ca Il costo di collaudo può essere calcolato come somma dei costi relativi al collaudo per ogni attributo. Il costo del collaudo relativamente all’i-mo attributo può, d’altra parte, essere calcolato come prodotto del costo Capitolo 2 18 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo unitario di collaudo relativamente all’i-mo attributo per il numero di pezzi collaudati relativamente allo stesso attributo: Cc = m ∑ CCi n i (2.4.) i =1 dove: CCi = costo di collaudo di un item rispetto all’i-mo attributo. Per il calcolo del costo di rifiuto, occorre moltiplicare il costo di scarto del lotto, Cscarto, supposto noto (ipotesi 6) per la probabilità che il lotto venga rifiutato. Quest’ultima probabilità è il complemento ad uno della probabilità di accettazione. D’altra parte un lotto verrà accettato se supererà il test relativamente a tutti gli attributi (intersezione di eventi). Per l’ipotesi di indipendenza tra gli attributi, la probabilità di accettazione è pari al prodotto delle probabilità di accettazione relativamente ai singoli attributi. Rimane quindi da calcolare la probabilità di accettazione relativamente all’i-mo attributo: il lotto supererà il test (verrà accettato) rispetto all’attributo i qualora il numero di non conformi xi riscontrato nel campione di dimensione ni non risulti superiore al numero di accettazione Aci. Sempre relativamente all’i-mo attributo, se ipotizziamo noto il numero di non conformi X i presenti nel lotto di dimensione N, il numero di non conformi xi nel campione ni segue una distribuzione ipergeometrica. Condizionatamente a X i, la probabilità di accettazione relativamente all’i-mo attributo risulta quindi: Pai | X i = Ac i ∑ ϕ n i ( xi | X i ) xi =0 (2.5.) dove ϕ ni indica una distribuzione ipergeometrica Indicata con fN(X i) la probabilità di trovare X i non conformi in un lotto di dimensione N, si ottiene: Pa i = Ac i ∑ ϕ (x | X )f ( X ) n i i N i i X i =0 xi =0 N ∑ (2.6.) Di conseguenza considerando l’insieme degli m attributi, il costo di rifiuto è dato da: Capitolo 2 19 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Cr = Cscarto (1 − m i =1 m N Ac i ∏ Pai ) = Cscarto 1 − ∏ ∑ ∑ ϕni ( x i | X i ) f N (X i ) i =1 X i = 0 x i = 0 (2.7.) D’altra parte la sommatoria: N ∑ ϕ n i (x i | X i ) f N ( X i ) = g n i (x i ) X i =0 rappresenta g n i ( x i ) , ossia la probabilità di riscontrare xi elementi difettosi rispetto all’attributo i-mo nel campione di dimensione ni.. Di conseguenza la (2.7) può essere riscritta come: m Ac i Cr = Cscarto 1 − ∏ ∑ g n i (x i ) i =1x = 0 i (2.8.) dove Cscarto= costo di scarto dell’intero lotto. L’ultimo elemento da considerare è il costo di accettazione di un lotto Ca. Si consideri in prima istanza noto il numero di numero di non conformi, relativamente ad ognuno degli m attributi, in un lotto di dimensione N: X 1, ..., Xm. La probabilità di accettazione in questo caso risulta: Pa( X 1 ,..,X m ) = m ∏ Pai ( X i ) = i =1 m Ac i ∏ ∑ ϕn i ( x i | X i ) (2.9.) i =1x i = 0 Per stimare Ca occorre poi considerare che qualora il lotto sia accettato, due fonti di costo devono essere considerate: la prima riguarda la sostituzione dei pezzi collaudati e la seconda l’accettazione di pezzi difettosi. Infatti, qualora il lotto risulti accettato, dal momento che il collaudo è supposto distruttivo, occorre sostituire i pezzi collaudati, sostenendo un costo Csost max{n i } , visto che il numero di pezzi da i collaudare è pari a max{n i } . i La seconda fonte di costo riguarda il numero di non conformi che, relativamente all’i-mo attributo, può essere presente sia nella frazione Capitolo 2 20 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo di lotto non ispezionata N- max{n i } , sia nel gruppo di parti che i sostituiscono i pezzi collaudati max{n i } . i Se si considera che il gruppo di pezzi che sostituiscono quelli collaudati sono generati sempre dallo stesso processo, complessivamente il numero di pezzi non conformi sarà sempre riferito ad un lotto di dimensione N e sarà quindi indicato con X i. In definitiva: m Ca( X 1 ,..,X m ) = ∑ CAi X i + Csost max{n i i i =1 m Aci } ∏ ∑ ϕn i ( x i | X i ) i =1 x i = 0 (2.10.) dove: CAi= costo derivante dalla presenza di un pezzo difettoso non collaudato in un lotto accettato; Csost= costo di sostituzione di un pezzo (danneggiato al collaudo). Rimuoviamo infine l’ipotesi che sia noto il numero di difettosi X i rispetto all’attributo i-mo presenti nel lotto. Considerando che la probabilità di avere X i elementi difettosi relativamente all’attributo i-mo nel lotto di dimensione N è fN(X i), si ottiene: Ca = N ∑ m m m Ac i CA X + Csost max { n } ϕ ( x | X ) ∑ ∑ i i i ∏ ∑ ni i i ∏ f N (X i ) i =1 i Xm = 0 i =1 x i = 0 i = 1 (2.11.) N ... X1 = 0 Una scrittura equivalente ma più compatta evidenzia la possibilità di applicare il teorema di Bayes: Ca = • m m N Ac i X i =0 xi = 0 ∑ CAi ∑ X i ∑ ϕn i ( x i | X i ) f N ( X i ) • i = 1 Ac k N ∏ ∑ ∑ ϕn k ( x k | X k ) f N (X k ) + k =1 X k = 0 x k = 0 k ≠i m + Csost max{ n i } ∏ i N Ac i ∑ ∑ ϕn i ( x i | X i ) f N ( X i ) i =1 X i = 0 x i = 0 (2.12.) Capitolo 2 21 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Per il teorema di Bayes la distribuzione a posteriori ψ N (X i | x i ) del numero di non conformi nel lotto rispetto all’i-mo attributo, dato che si è osservato un numero xi di non conformi relativamente allo stesso attributo nel campione, è data da: ψ N (X i | x i ) = ϕ ni ( x i | X i ) f N ( X i ) N = ϕ ni ( x i | X i ) f N ( X i ) ∑ ϕ ni ( x i | X i ) f N ( X i ) g ni (x i ) (2.13.) Xi =0 Per cui: ϕ n i (x i | X i ) f N (X i ) = ψ N ( X i | x i )g n i ( x i ) (2.14.) Di conseguenza: N Ac i X i =0 xi = 0 ∑ Xi = Ac i ∑ ϕ ni ( x i | X i ) f N ( X i ) = Ac i N (2.15.) ∑ ∑ X i ψ N ( X i | x i )g ni ( x i ) = ∑ E ( X i | x i )g n i ( x i ) xi =0 X i = 0 xi =0 Considerando inoltre che: N ∑ ϕ n i (x i | X i ) f N ( X i ) = g n i (x i ) (2.16.) X i =0 Sostituendo le espressioni (2.15) e (2.16) nell’equazione (2.12) si ottiene: Ca = m Ac i m Ac k xi = 0 k =1 x k =0 ∑ CAi ∑ E (X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) + i = 1 k≠i (2.17) m Ac i + Csost max{ n i } ∏ i ∑ g n i (x i ) i =1x i = 0 In definitiva, il costo totale atteso che si intende minimizzare può essere ricavato considerando le tre componenti di costo indicate (collaudo, rifiuto e accettazione): Capitolo 2 22 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo C TOT = Cc + Cr + Ca (2.18) E sostituendo le equazioni (2.4), (2.8) e (2.17) C TOT l’espressione: m Ac i + Cscarto 1 − ∏ ∑ g n i (x i ) + i =1x = 0 i =1 i Ac i m m Ac k + ∑ CAi ∑ E ( X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) + k =1 x = 0 i =1 xi =0 k CTOT = assume m ∑ CCi n i k≠i m Ac i + Csost max{ n i } ∏ i ∑ g ni (x i ) i =1 xi = 0 (2.19) Capitolo 2 23 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.5. Un nuovo modello economico per la progettazione di piani bayesiani multiattributo Le modifiche proposte rispetto all’approccio descritto nel precedente paragrafo riguardano essenzialmente la funzione obiettivo, la modalità di controllo della distribuzione a priori e l’algoritmo di ottimizzazione. Infatti l’approccio proposto in [Cas75] ipotizza che tutti gli attributi diano luogo ad un collaudo distruttivo, escludendo così la possibilità di effettuare, a valle del rifiuto del lotto, un collaudo al 100% con eventuale ripristino dei pezzi non conformi. In realtà , se non tutti gli attributi danno luogo ad un controllo distruttivo, la scelta della politica più opportuna a valle di un rifiuto del lotto è da individuarsi in funzione dei costi coinvolti. Inoltre, occorre considerare che nella realtà non tutti i costi sono da attribuire allo stesso soggetto (consumatore o fornitore del lotto). Spesso nella realtà produttiva si stipulano delle norme contrattuali che attribuiscono i costi da sostenere a seguito di un rifiuto del lotto al fornitore, per motivarlo a migliorare la qualità delle parti in ingresso. Questa possibilità verrà, di conseguenza opportunamente modellata nella funzione obiettivo, proponendo quindi un approccio che risulta più facilmente applicabile alla realtà produttiva. Il secondo problema affrontato riguarda il controllo nel tempo della validità della distribuzione a priori utilizzata, punto considerato tradizionalmente critico nell’impostazione bayesiana. Nel caso proposto occorre in primo luogo sottolineare che non si adotta un ottica puramente bayesiana, adottando un approccio tipo empirical bayes, visto che la distribuzione a priori è stimata, sia riguardo all’ipotesi distribuzionale sia riguardo ai parametri, dai dati storici disponibili. Secondariamente verrà proposta una carta di controllo da utilizzare per verificare che nel tempo, i parametri che caratterizzano la distribuzione non varino, rendendo poco realistica la prior utilizzata. Infine verrà proposto un algoritmo di ottimizzazione basato, come per gli altri approcci proposti in quest’ambito in letteratura, su un algoritmo di ricerca diretta opportunamente modificato per considerare il caso in cui la funzione obiettivo sia discreta e non necessariamente unimodale. Capitolo 2 24 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.5.1. La modifica della funzione obiettivo 2.5.1.1. Introduzione di una scelta riguardo alla politica di scarto o ripristino del lotto Nel caso di piani multiattributi, i modelli proposti in letteratura prevedono una netta distinzione tra attributi “scrappable” e attributi “screenable”. Per attributo scrappable si intende una caratteristica che, qualora provochi il rifiuto del lotto, porta allo scarto del lotto. In questo caso si sta implicitamente ipotizzando che il collaudo al 100% sia o impossibile (per es. nel caso di controllo distruttivo) oppure antieconomico. Se invece il rifiuto del lotto provocato da un attributo comporta il collaudo al 100% e l’eventuale ripristino dei pezzi non conformi, l’attributo è detto screenable. Ipotizzare una distinzione a priori tra attributi screenable e scrappable significa definire a priori l’azione che verrà eseguita su un lotto rifiutato. In realtà solo per attributi caratterizzati da collaudi distruttivi la scelta è obbligata: negli altri casi, può essere opportuno valutare economicamente le conseguenze di una o dell’altra azione. Se infatti alcuni attributi sono collaudabili senza danno, si potrebbe valutare economicamente se convenga effettuare un collaudo al 100% oppure scartare il lotto. La proposta di un nuovo modello economico si basa quindi sul fatto che possa essere opportuno inserire nella funzione obiettivo un’altra variabile decisionale che consente di definire la politica da eseguire a valle di un rifiuto del lotto. L’espressione del costo di rifiuto Cr deve essere quindi opportunamente modificata. Per decidere se collaudare al 100% o sostituire il lotto, occorre quindi confrontare le due grandezze seguenti: 1. Cr1: costo del collaudo al 100% con rimpiazzo dei pezzi non conformi per ciascuno degli attributi rispetto ai quali il lotto è stato rifiutato. 2. Cr2: costo di rifiuto dell’intero lotto. Ricaviamo in primo luogo l’espressione del costo atteso Cr1 nel primo caso. Si ipotizzi di collaudare il lotto al 100% solo rispetto agli attributi che hanno dato luogo al rifiuto. Per ogni attributo quindi la probabilità che si proceda con un collaudo al 100% e rimpiazzo dei non conformi è pari al complemento ad uno della probabilità di accettazione rispetto a quell’attributo, data da: Capitolo 2 25 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Pa i = Aci Aci ϕ ( x | X ) f ( X ) ∑ ∑ ni i i N i = ∑ g ni (x i ) Xi = 0 xi = 0 xi = 0 N (2.20.) Quindi la probabilità con cui ogni attributo dà luogo al collaudo e eventuale ripristino dei non conformi è 1 − Pai = 1 − Ac i ∑ gni ( xi ) . x i =0 Con questa probabilità quindi, relativamente all’i-mo attributo, si procede al collaudo al 100% e alla sostituzione dei non conformi. Il numero atteso di non conformi rispetto all’i-mo attributo nel lotto di dimensione N può essere calcolato come: ∑ [(E ( X i | x i ))g ni ( x i )] ni (2.21.) xi = 0 dove E ( X i | xi ) è il valore atteso del numero di difettosi rispetto all’attributo i, dato che si sono osservati xi non conformi nel campione; g ni (x i ) è la probabilità di osservare xi non conformi nel campione di dimensione ni. Il costo complessivo della prima politica risulta quindi: Cr1 = ni Ac i CC 100 % + Crepl ( E ( X | x ) ) g ( x ) 1 − g ( x ) ∑ ∑ ∑ ni i i i i ni i i =1 xi = 0 x i =0 m [ ] (2.22.) dove: CC 100 % i rappresenta il costo per collaudare tutto il lotto rispetto all’i-mo attributo; C repl rappresenta il costo di sostituzione (o rimpiazzo) di un pezzo non conforme con uno conforme. Si noti che l’espressione ricavata è un upper bound del costo reale di questa politica. Infatti si sta trascurando la possibilità che una parte risulti difettosa per più di un attributo tra quelli che hanno causato il rifiuto, ipotesi per altro ragionevole visto che si sta trascurando un effetto del secondo ordine. Il costo della seconda politica (politica 2) è invece già stato introdotto ed indicato con Cscarto. Capitolo 2 26 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Cr 2 = Cscarto (2.23.) Di conseguenza si introduce un’ulteriore variabile decisionale che verrà scelta dal modello in funzione dei costi in gioco. Questa variabile decisionale ξ è una variabile boolena che assumerà il valore 0 se la miglior politica è la politica 1 (collaudo 100% e sostituzione dei non conformi) e assumerà invece il valore 1 se risulta economicamente più conveniente rifiutare il lotto. Più formalmente: ξ = 0 ξ = 1 se Cr 2 > Cr1 (2.24.) altrimenti dove le espressioni di Cr1 e Cr2 sono date rispettivamente dalle equazioni (2.22) e(2.23). Di conseguenza il costo di rifiuto Cr da inserire nella funzione obiettivo sarà [ξCr 2 + (1 − ξ )Cr1] per la probabilità di rifiutare il lotto: m Ac i Cr = [ξ Cr 2 + (1 − ξ )Cr1]1 − ∏ ∑ g n i ( x i ) = i =1 x = 0 i ni m = ξCscarto + (1 − ξ ) ∑ CC100% i + Crepl ∑ (E ( X i | x i ))g n i ( x i ) • i =1 xi = 0 [ ] (2.25.) Ac i m Ac i • 1 − ∑ g n i ( x i ) 1 − ∏ ∑ g n i ( x i ) i =1 x = 0 xi = 0 i 2.5.1.2. Una più approfondita analisi della funzione obiettivo: la suddivisione dei costi tra fornitore e cliente Un’ipotesi alla base della formulazione della funzione obiettivo nei modelli adottati in letteratura è che tutti i costi siano da attribuire al medesimo soggetto. Questa ipotesi può risultare plausibile nel caso in cui il piano di accettazione sia posto tra due reparti di una stessa azienda, qualora inoltre non si intenda trattare i due reparti come centri di costo distinti. Quando il piano è eseguito su lotti in ingresso provenienti da un fornitore esterno all’azienda, l’attribuzione delle voci di costo dipende Capitolo 2 27 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo dalle specifiche contrattuali pattuite tra fornitore ed azienda. In particolare le specifiche contrattuali spesso riguardano la politica da adottarsi in caso di rifiuto del lotto. Spesso infatti, nel caso in cui il lotto non risulti accettabile in riferimento a qualche attributo, gli eventuali costi di rifiuto o di collaudo vengono attribuiti al fornitore, in modo da generare una maggiore attenzione agli standard qualitativi richiesti. Nel caso in cui questa situazione sia stipulata nel contratto, la funzione obiettivo risulta modificata relativamente al costo di rifiuto Cr. In riferimento al caso produttivo reale che verrà descritto in dettaglio nel paragrafo 2.6, si analizza di seguito la modifica da effettuare nel caso in cui, come spesso accade, le spese da sostenere a seguito del rifiuto del lotto siano a carico del fornitore. La scelta economicamente più conveniente tra scartare il lotto oppure passare ad un controllo al 100% con ripristino è una scelta che riguarda il fornitore. In ipotesi che questa scelta sia effettuata con ottica economica, analogamente a quanto descritto nel paragrafo precedente, si introduce la stessa variabile booleana ξ che è pari a 0 se conviene collaudare al 100% e riparare i non conformi, 1 altrimenti. Di conseguenza, coerentemente a quanto descritto: ξ = 0 ξ = 1 se Cr 2 > Cr1 altrimenti (2.26) dove le espressioni di Cr1 e Cr2 sono date rispettivamente dalle equazioni (2.22) e(2.23). Il cliente invece sosterrà solo i costi relativi all’eventuale ritardo in produzione. Infatti se il fornitore decide di collaudare al 100% con ripristino dei difettosi, il cliente vedrà arrivare i primi pezzi subito dopo i primi collaudi, non dovendo sostenere il costo dovuto al ritardo (perdita di opportunità) tempi improduttivi. Se invece il lotto viene scartato, il cliente dovrà aspettare la realizzazione di un altro lotto e quindi inizierà a processare le parti in ingresso con un certo ritardo. Il costo del ritardo è indicato con Crit. Dal momento che la funzione economica CTOT è stata stimata considerando il punto di vista del cliente, il costo di rifiuto deve essere opportunamente modificato. Il costo del rifiuto diventa in questo caso: m Ac i Cr = ξCrit (1 − Pa ) = ξCrit 1 − ∏ ∑ g ni ( x i ) i =1x =0 i dove: (2.27) Capitolo 2 28 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Crit è il costo-opportunità del ritardo con cui il cliente processa il nuovo lotto in ingresso qualora il lotto precedente sia stato rifiutato. Riassumendo, la funzione obiettivo che verrà considerata nel modello è: m Ac i CC n + ξ Crit 1 − g ni (x i ) + ∑ i i ∏ ∑ i =1 x = 0 i =1 i Ac i m m Ac k + ∑ CAi ∑ E ( X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) + k =1 x = 0 i =1 xi =0 k CTOT = m (2.28.) k≠i m Ac i + Csost max{ n i } ∏ i ∑ g ni (x i ) i =1 xi = 0 con ξ = 0 ξ = 1 se Cr 2 > Cr 1 (2.29.) altrimenti e Cr1 = m ∑ CC100 % i i =1 Cr 2 = Cscarto + Crepl ni Ac i xi = 0 xi =0 ∑ [(E ( X i | x i ))g n i ( x i )]1 − ∑ g ni ( x i ) (2.30.) (2.31.) 2.5.2. La carta p per il controllo della distribuzione a priori L’applicazione del modello di minimo costo atteso richiede la stima della distribuzione a priori della frazione pi di pezzi non conformi rispetto all’i-mo attributo. Nell’ipotesi di scegliere una forma funzionale sufficientemente flessibile come la beta, diventa invece necessario monitorare nel tempo la correttezza dei parametri che individuano la distribuzione. Nella bibliografia esaminata quest’aspetto è trascurato per cui si ritiene utile, per favorire un’applicazione dell’approccio, proporre una metodologia che consideri l’ipotesi di verifica nel tempo della distribuzione a priori. Capitolo 2 29 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Si assuma che la distribuzione a priori sia una beta di parametri s e t. Questo significa ipotizzare che il processo sia caratterizzato da una media: p prior = s s +t (2.32.) ed il livello di certezza con cui affermiamo quest’ipotesi è dato da: σ 2 prior = st (s + t )2 (s + t + 1) = p prior (1 − p prior ) (s + t + 1) (2.33.) Come dimostrato in Appendice B, la posterior sarà ancora una beta di parametri s+x e t+n+x. Ciò significa che una stima della difettosità del lotto da cui abbiamo estratto il campione di numerosità n contiene x pezzi non conformi è p post = E ( p |s,t ,n , x ) = s +x s +t +n (2.34.) In definitiva tale stima tiene conto dell’idea a priori e dell’informazione campionaria. Se l’idea a priori su p si avvicina alla realtà, il dato sperimentale confermerà l’ipotesi, dando luogo a p post ≅ p prior . In tal caso l’incertezza con cui è effettuata la nostra ipotesi viene anche ridotta dal dato sperimentale. Infatti la varianza della distribuzione a posteriori è data da: σ 2 post = (s + x )(t + n − x ) (s + t + n )2 (s + t + n + 1) = p post (1 − p post ) (s + t + n + 1) (2.35) Qualora risulti p post ≅ p prior , si ottiene σ 2 post < σ 2 prior . Di conseguenza si può concludere che, se la distribuzione a priori descrive adeguatamente l’andamento (in termini di frequenza) della difettosità del processo, la stima p post del valore di p ricade all’interno dei limiti di una carta di controllo progettata precisando un errore del primo tipo pari ad α. Ricordando che la distribuzione beta, può assumere due tipi di forma, in funzione dei parametri, è possibile progettare due tipi di carte di controllo: Capitolo 2 30 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Beta a forma di campana: UCL=k2 CL= p prior LCL= k1 Zona di allarme: p post > UCL e p posti < LCL i Con k1 e k2 tali che: k1 ∫ beta ( p |s, t )dp = 0 α 1 α e ∫ beta ( p |s,t )dp = 2 k2 2 Beta a forma di U: UCL=k2 CL= p prior LCL= k1 Zona di allarme: LCL < p post < UCL i Con k1 e k2 tali che: k2 ∫ beta ( p |s,t )dp = α k1 2.5.3. Un algoritmo di ricerca della soluzione ottima: il pattern search casualizzato. L’algoritmo utilizzato come base di partenza è il pattern search, un algoritmo di ricerca sequenziale diretta non vincolata per l’ottimizzazione di funzioni n-dimensionali proposto da Hooke e Jeeves (per una descrizione dell’algoritmo si veda [Bei79] e [Dix73]). Le ipotesi alla base dell’algoritmo sono la continuità e l’unimodalità della funzione da ottimizzare. Nella ricerca infatti ad ogni passo l’obiettivo è cercare una direzione promettente verso cui l’algoritmo “accelera” confidando di trovare in quella direzione l’ottimo cercato. L’algoritmo si interrompe quando non riesce più a trovare una direzione in cui la funzione obiettivo migliora, a partire dall’ultimo punto esplorato. Ovviamente se la funzione non è unimodale, non si ha nessuna garanzia che l’ottimo (massimo o minimo) trovato sia assoluto e non relativo. Per superare questi limiti, si propone una variante dell’algoritmo: il pattern search discreto casualizzato. Infatti nel problema della selezione del piano di campionamento di minimo costo atteso occorre modificare l’algoritmo considerando che: Capitolo 2 31 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo - l’ottimizzazione riguarda una funzione a variabili intere e non è necessariamente unimodale. Inoltre esistono un insieme di vincoli cui la funzione è soggetta (vincoli di consistenza: Aci<ni, ni≤N; e vincoli di interezza e non negatività); - l’algoritmo di ottimizzazione deve avere tempi di elaborazione ragionevoli, decisi dall’utente. Per ovviare al problema della tipologia di funzione, visto che non si ha nessun elemento analitico per decidere che questa sia o meno unimodale, occorre utilizzare più punti di partenza dai quali partire alla ricerca della soluzione ottima. Questa scelta permette di ridurre la probabilità di confondere ottimi relativi con assoluti. La scelta dei punti di partenza è eseguita attraverso una routine di generazione di numeri casuali che determina soluzioni di partenza che rispettano i vincoli (interezza, non negatività, e vincoli di consistenza: numero di accettazione minore della dimensione del campione e dimensione del campione minore o uguale alla dimensione del lotto). Le verifiche dei vincoli di consistenza non si limitano solo alla selezione causale dei punti di partenza, ma sono ripetute anche nei passi successivi dell’algoritmo, durante l’esplorazione dell’intorno del punto corrente e dopo il salto nella direzione ritenuta “promettente”. Il vincolo di interezza viene invece rispettato considerando sempre la parte intera del valore di raggio utilizzato per esplorare l’intorno del punto. A seguito di un insieme di prove iniziali, si è inoltre notato che variazioni delle due variabili decisionali da decidere per ogni attributo (dimensione del campione e numero di accettazione) hanno effetti diversi sulla funzione obiettivo. Per far fronte a questa diversità, l’algoritmo adotta automaticamente raggi di esplorazione diversi (il raggio di esplorazione per Aci è pari alla parte intera di un decimo del raggio usato per ni). Ovviamente ad ogni step dell’algoritmo è registrata la miglior soluzione corrente: partendo da diversi starting point è necessario scegliere la migliore delle soluzioni ottenute a partire dai diversi punti. Per validare l’algoritmo di pattern search discreto casualizzato, è stata effettuato un confronto sulla base dei risultati riportati in [Cas75]. 2.5.3.1. La validazione dell’algoritmo di ottimizzazione Per verificare la validità dell’algoritmo proposto è stata eseguita la ricerca della soluzione di minimo costo atteso in riferimento ai dati riportati in [Cas75]. Il piano progettato in questo lavoro riguarda 3 attributi, i cui parametri statistici ed economici sono riportati rispettivamente in Tabella 2.2 e Tabella 2.3. Capitolo 2 32 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Parametri della prior Peso w s t s’ t’ Attributo 1 0,9 0,98 97,02 0,8 7,2 Attributo 2 0,95 0,998 997,002 0,996 497,004 Attributo 3 0,85 0,992 247,008 0,9 17,1 Tabella 2.2: Parametri statistici adottati nella validazione dell’algoritmo di ricerca [Cas75] Costi unitari [$] Sostituzione Rifiuto Collaudo Accettazione pezzo conforme Attr 1 Attr 2 Attr 3 0,001 11 0,002 3 0,001 8 0,20 0,41929 non Tabella 2.3 Parametri economici adottati nella validazione dell’algoritmo di ricerca [Cas75] Il piano ottimo è progettato in riferimento a diverse dimensioni del lotto: 20, 50, 200, 1000 e 14000. I risultati del confronto tra la soluzione riportata in [Cas75] e la soluzione determinata con l’algoritmo di ricerca proposto sono riportati in Tabella 2.4. N Soluzione [Cas75] (n1,n2,n3) (Ac1,Ac2,Ac 3) 20 50 200 1000 14000 (7,0,7) (0,0,0) (9,0,9) (0,0,0) (26,0,26) (1,0,1) (54,0,54) (2,0,2) (229,0,200) (9,0,7) di Costo totale atteso 4,7080 Soluzione con l’algoritmo porposto (n1,n2,n3) (Ac1,Ac2,Ac 3) (7,0,7) (0,0,0) 11,6557 (9,0,9) (0,0,0) 44,8049 (26,0,26) (1,0,1) 206,7574 (52,0,52) (2,0,2) 2706,635 (212,0,212) (9,0,7) ∆% Costo totale atteso 4,7080 0 11,6557 0 44,8049 0 206,7197 -0,02 2704,535 -0,08 Capitolo 2 33 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Tabella 2.4: Risultati della fase di validazione dell’algoritmo di ricerca della soluzione ottima. Come è possibile osservare, l’algoritmo proposto trova in tre casi su cinque la soluzione trovata dall’autore dell’articolo, mentre negli altri due casi rimanenti la soluzione proposta dall’algoritmo di pattern search discreto casualizzato è caratterizzata da un costo minore, anche se di entità trascurabile. Capitolo 2 34 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.6. Il caso reale: determinazione del piano di minimo costo atteso per il collaudo del corpo valvola grezzo 2.6.1. Il corpo valvola grezzo Il collaudo cui ci si riferisce nell’applicazione del modello proposto trae spunto dall’attività di Controllo Qualità di un azienda che effettua lavorazioni meccaniche conto terzi su macchine transfert e CNC. In particolare si studierà il piano di accettazione di minimo costo atteso relativo ad un corpo valvola di ottone. Infatti il corpo valvola arriva all’azienda sotto forma di grezzo. L’azienda esegue quindi tutte le lavorazioni meccaniche (per dettagli relativi al ciclo di lavorazione, si veda [Mar96]) e consegna il finito al cliente. Il pezzo sarà poi montato insieme ad altri otto componenti per andare a realizzare un’elettrovalvola ELT/D Serie 55 da utilizzare per svariate applicazioni (tra le altre: macchine per caffè, macchine saldatrici, sistemi antifurto, macchinari ad uso dentistico). Il pezzo grezzo è un corpo valvola in ottone OT58 UNI 5705 del peso di circa 55g, costituito da tre elementi [Figura 2.1): 1. Cannotto asse sede; 2. Cannotto porta gomma; 3. Cannotto ingresso fluido. Allo stato attuale la ditta esegue in accettazione un campionamento per attributi sui lotti di ingresso che dovrebbe, secondo gli accordi contrattuali, essere progettato con riferimento alla norma MIL-STD105D e con un valore di AQL=1%. In realtà la ditta non ha mai applicato a norma i piani di accettazione. Infatti per gli attributi la ditta applica un piano singolo con collaudo ridotto, senza considerare le regole di switching. Per le variabili convertite in attributi, la ditta applica un piano singolo con numeri di accettazione e rifiuto progettati secondo le MIL-STD ma con numerosità del campione pari ad una frazione fissa della numerosità del lotto. Visto che la dimensione dei lotti varia (da 5000 a 40000 pezzi) si dovrebbe in realtà progettare di volta in volta la numerosità del campione appropriata riferendosi alla norma. Capitolo 2 35 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Figura 2.1: Il corpo valvola grezzo 2.6.2. Analisi dei dati storici: stima delle distribuzioni a priori Per progettare il piano di minimo costo atteso, si è proceduto in primo luogo ad analizzare i dati relativi al numero di pezzi non conformi relativamente al set di attributi utilizzati nel piano di accettazione originario [Mar96]. I dati analizzati corrispondono ai moduli di registrazione relativi al periodo gennaio 90- novembre 91. Osservando i dati, si è proceduto alla definizione di un subset di attributi rilevanti. Sono stati infatti trascurati gli attributi per i quali non era mai stata riscontrata nessuna non conformità e quelli per i quali non si procedeva ad un vero e proprio campionamento ma ad una semplice verifica di Capitolo 2 36 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo conformità con quanto ordinato. In definitiva gli attributi oggetto dell’analisi sono riportati in Tabella 2.5. In particolare nella prima colonna è riportata l’etichetta dell’attributo che verrà utilizzata nel seguito della trattazione, nella seconda si riporta l’etichetta dell’attributo adottata in azienda, nella terza colonna è contenuta una descrizione del tipo di attributo. Attr Descrizione Codice attributo in azienda 1 3 Verifica della presenza di macchie e/o ammaccature che pregiudicano la funzionalità e/o l’estetica del pezzo 2 4 Controllo di completezza dello stampato 3 6 Verifica della presenza di bave e/o difetti di tranciatura 4 7 Verifica che il pezzo non sia storto o disassato in modo tale da impedirne il corretto posizionamento nelle morse di serraggio 5 104 Verifica del rispetto della tolleranza prescritta [mm]: + 0 .1 − 11 0 .3 Verifica del rispetto della tolleranza prescritta 6 +0 .2 106 [mm]: ∅10.5 − 0.3 Verifica del rispetto della tolleranza prescritta 7 +0 107 [mm]: 8 − 0.3 Verifica del rispetto della tolleranza prescritta 8 +0.2 201 [mm]: 5 − 0.2 Verifica del rispetto della tolleranza prescritta 9 204 + 0.2 [mm]: 13 .5 − 0 .2 Tabella 2.5: Gli attributi per il collaudo del corpo valvola grezzo Capitolo 2 37 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Detta pi la frazione di prodotti non conformi relativamente all’i-mo attributo, occorre stimare la distribuzione a priori f ( p1, p2 , p 3 , p 4 , p5 , p6 , p 7 , p 8 , p 9 ) . Da un’analisi dei coefficienti di correlazione tra dati relativi a diversi attributi, si può ritenere che non esista dipendenza, per cui si può procedere al calcolo della distribuzione a priori come prodotto delle singole distribuzioni: f ( p1, p2 , p 3 , p 4 , p5 , p 6 , p 7 , p8 , p9 ) = 9 ∏ f ( pi ) i =1 Per avere una prima indicazione sulla forma distribuzionale più opportuna si è proceduto utilizzando il metodo riportato in [Hah67] che, esaminando i coefficienti di asimmetria e curtosi, consente di dare un’indicazione sulla forma funzionale più opportuna per modellare un set di osservazioni. Per tutte le caratteristiche, la forma più opportuna è risultata essere una beta a forma di U. Per confermare l’ipotesi, si è proceduto effettuando il test χ 2 . Impostando un α del 5% si sono ottenuti i risultati in Tabella 2.6 (il valore di χ 2 va confrontato con il valore di χ α2 (22)=33,92): 0 ATTR χ 2 1 2 3 4 5 6 7 8 9 0,46 17,84 33,05 30,62 17,18 26,06 24,46 22,27 17,33 0 p-value 1,00 0,72 0,06 0,10 0,75 0,25 0,32 0,44 0,75 Tabella 2.6: Test χ 2 per verificare la distribuzione a priori adottata Per tutti gli attributi non è stato quindi possibile rifiutare l’ipotesi di distribuzione beta. Di conseguenza dai dati storici si è proceduto a stimare media e varianza campionarie per ogni set di dati (relativi ad ognuno dei 9 attributi). Note media e varianza campionarie è possibile quindi ricavare i parametri si e ti delle distribuzioni a priori per ognuno degli attributi considerati (Tabella 2.7). Capitolo 2 38 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo ATTRIBUTI 1 2 3 4 5 6 7 8 9 µ̂i 0,0024 0,1988 0,2533 0,1036 0,2260 0,3255 0,1818 0,0675 0,1995 σˆ i 0,0060 0,3452 0,4140 0,2746 0,3944 0,4639 0,3519 0,2247 0,3813 si ti 0,1603 66,2150 0,0670 0,2699 0,0262 0,0771 0,0240 0,2076 0,0282 0,0966 0,0066 0,0136 0,0365 0,1643 0,0166 0,2296 0,0196 0,0786 Tabella 2.7: Stima dei parametri della distribuzione a priori 2.6.3. Stima dei parametri di costo Richiamando la funzione obiettivo: m Ac i + ξCrit1 − ∏ ∑ g n i ( x i ) + i =1 x = 0 i =1 i Ac i m m Ac k + ∑ CAi ∑ E ( X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) + k =1 x = 0 i =1 xi =0 k CTOT = m ∑ CCi n i (2.36.) k≠i m Ac i + Csost max{ n i } ∏ i ∑ g ni (x i ) i =1 xi = 0 con ξ = 0 ξ = 1 se Cr 2 > Cr1 (2.37.) altrimenti e ni Ac i CC 100 % + Crepl ( E ( X | x ) ) g ( x ) 1 − g ( x ) ∑ ∑ ∑ ni i i i i ni i i =1 xi = 0 x i =0 Cr 2 = Cscarto Cr1 = m [ ] (2.38.) (2.39.) I parametri di costo richiesti per l’applicazione del modello di minimo costo atteso sono: Capitolo 2 39 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo - Costo di collaudo (Cc): •CCi = costo di collaudo di un item rispetto all’i-mo attributo. - Costo di rifiuto del lotto (Cr): •Cscarto= costo di scarto dell’intero lotto; •CC100% i= costo del collaudo al 100% rispetto all’i-mo attributo; •Crepl= costo di rimpiazzo di un pezzo non conforme; •Crit = costo per un eventuale ritardo in produzione causato dal rifiuto del lotto in accettazione. - Costo di accettazione del lotto (Ca): •CAi = costo derivante dalla presenza di un pezzo difettoso non collaudato in un lotto accettato; •Csost= costo di sostituzione di un pezzo (danneggiato al collaudo). 2.6.3.1. Costo di collaudo: Cc Per calcolare il costo di collaudo del lotto è necessario conoscere il valore del costo di collaudo di un pezzo relativamente ad ogni attributo (CCi). CCi è stato stimato come composto da una componente fissa ed una variabile. La prima componente si stima considerando le attività di raccolta campione, messa a punto dei moduli di registrazione e misura di consistenza del campione raccolto con il valore nominale della dimensione del campione previsto nel piano. Il costo fisso di collaudo è pari a £13550 per ogni lotto collaudato mentre il costo variabile cambia a seconda che l’operazione di collaudo preveda un controllo visivo o la misura di una quota. Nel primo caso (attributi 1,2,3,4) il costo per attributo misurato è di £50/pezzo; nel secondo caso corrisponde a 75£/pezzo. 2.6.3.2. Costo di rifiuto: Cr Come descritto nel paragrafo 2.5.1.2, per calcolare il costo di rifiuto occorre valutare le posizioni contrattuali di fornitore e cliente a seguito del rifiuto del lotto. In questo caso specifico, è il fornitore ad assumersi la responsabilità economica del rifiuto, ma gli viene comunque lasciata la scelta di scartare il lotto oppure procedere ad un collaudo al 100% con ripristino. Si è già discussa questa posizione del fornitore nel paragrafo 2.5.1.2, e la si è modellata attraverso una variabile booleana ξ. Il valore di ξ è fornito dal confronto tra Cr1 e Cr2 che dipendono da: •Cscarto= costo di scarto dell’intero lotto; •CC100% i= costo del collaudo al 100% rispetto all’i-mo attributo; •Crepl= costo di rimpiazzo di un pezzo non conforme; Capitolo 2 40 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Per stimare CC100%i, visto che si tratta di un collaudo al 100%, occorre considerare i costi di collaudo descritti in precedenza e considerare un lotto di dimensione pari a 20000 pezzi. Crepl è invece dato dal costo pieno industriale del grezzo (350 £/pezzo) meno il ricavato della rottamazione dei pezzi sostituiti (2,5 £/g *55 g/pezzo = 137,5 g/pezzo). Rimane infine da stimare Cscarto. Se il lotto viene completamente rottamato, si sostiene una perdita pari al costo pieno industriale per il numero di parti nel lotto (350 £/pezzo *20000 pezzi) cui occorre sottrarre il ricavato della vendita del rottame di ottone (20000pezzi* 55g/pezzo* 2,5£/g). Per il cliente l’unico possibile costo, che sosterrà qualora il fornitore consegni il lotto in ritardo, è il costo del ritardo Crit= 70£/pezzo*20000pezzi (stimato considerando il valore aggiunto che si sarebbe generato durante il tempo di ritardo). 2.6.3.3. Costo di accettazione Il costo CAi derivante dall’accettazione di un pezzo difettoso rispetto all’attributo i-mo è stato stimato considerando le conseguenze che la non rilevazione della difettosità di tipo i, determina nella lavorazione alle macchine utensili o nel collaudo finale. Si è quindi arrivati alla stima riportata in Tabella 2.8 Attributo 1 2 3 4 5 6 7 8 Identificativo 3 4 6 7 104 106 107 201 dell’attributo nella notazione originale CAi [£/pezzo] 360 334 428 428 300 300 300 3600 9 204 3600 Tabella 2.8: Costi per non conformi in lotti accettati In particolare l’elevato costo CAi per un pezzo accettato ma non conforme rispetto agli attributi 8 e 9 si deve al fatto che in questi casi il difetto determina un assemblato da scartare ed è quindi pari al costo pieno industriale del finito. Poiché nessuno degli attributi prevede un controllo distruttivo, il costo di sostituzione Csost è nullo. Capitolo 2 41 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.7. Il piano di minimo costo atteso per il corpo valvola In funzione dei dati di costo stimati, si è proceduto alla progettazione del piano di minimo costo atteso, le cui caratteristiche sono riportate in Tabella 2.9. Attributo Aci ni 1 0 4 2 3 3 26 2 23 4 1 13 5 1 9 6 7 0 4 2 13 8 0 31 9 0 33 Tabella 2.9: Piano di minimo costo per il corpo valvola grezzo Come si può osservare il piano individuato è caratterizzato da campioni di dimensione ridotta. Il costo complessivo del piano è di 60000£. Se si osserva la curva OC derivante dall’adozione di questo piano essa risulta avere pendenza elevata per bassi valori di p. Come era prevedibile quest’andamento della curva OC significa un rischio elevato per il fornitore, la cui funzione di costo non è stata infatti tenuta in considerazione nell’approccio. Confrontando la soluzione ottenuta con la soluzione attualmente adottata in azienda (riportata in Tabella 2.10) si può osservare una notevole riduzione dei costi. Infatti la soluzione attualmente adottata in azienda prevede un costo di 165000£. Attributo Aci ni 1 5 125 2 5 125 3 5 125 4 5 125 5 5 20 6 5 20 7 5 20 8 5 20 9 5 20 Tabella 2.10: Piano attualmente adottato in azienda 2.7.1. Analisi di sensitività della soluzione adottata Le difficoltà che spesso si incontrano nella stima dei costi e dei parametri statistici che intervengono nella funzione obiettivo, rende opportuno procedere con un’analisi di sensitività. In questo modo è possibile valutare la variazione che si ha nella funzione obiettivo qualora si commetta un errore nella stima dei parametri di ingresso al modello. A rigore si dovrebbe procedere analizzando tutte le possibili combinazioni di errori di stima dei parametri (che sono in totale 40), Capitolo 2 42 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo tuttavia una prima analisi prevede la deviazione di un solo parametro alla volta. Per progettare l’analisi di sensitività occorre valutare l’entità delle variazioni che si intendono considerare. In questo caso si è scelto di imporre variazioni significative per considerare il comportamento del piano in condizioni critiche. Inoltre risulta utile precisare che i parametri statistici si e ti, caratterizzanti la distribuzione a priori, sono stati fatti variare con qualche accorgimento. Dal momento che i parametri si e ti della distribuzione a priori relativamente all‘i-mo attributo, sono stimati con il metodo dei momenti a partire dai valori di media e varianza, è sembrato più opportuno introdurre una variazione in questi ultimi parametri, piuttosto che intervenire direttamente su si e ti . Di conseguenza si sono ottenuti differenti valori per le modifiche dei parametri statistici per ogni attributo. Costo di accettazione ATTR valore originale valore modificato costo totale atteso [migliaia di £] 1 0,36 3,6 75,611 2 0,334 3,34 126 3 0,428 4,28 88,807 4 0,428 4,28 90,664 5 0,3 3 97,479 6 0,3 3 69,097 7 0,3 3 110,68 8 3,6 36 97,186 9 3,6 36 101,45 Tabella 2.11: Analisi di sensitività: effetto del costo di accettazione Osservando i risultati in Tabella 2.11 si può concludere che la soluzione ottima è abbastanza robusta a variazioni del costo di accettazione di un pezzo non conforme. Infatti a fronte di un aumento di un fattore 10 di questi parametri di costo si ottiene un costo totale atteso mediamente amplificato di un fattore 1,5 (e mai superiore a 2). Questo risultato risulta interessante soprattutto considerando le approssimazioni che a volte è necessario adottare nella stima di questo parametro. Analogamente, come si osserva in Tabella 2.13, anche errori di stima o una naturale variabilità nella dimensione del lotto, influenzano in misura limitata il risultato in termini di costo totale atteso. Capitolo 2 43 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Al contrario la soluzione risulta particolarmente sensibile ad errori grossolani di stima dei costi variabili di collaudo Tabella 2.12. Questo risultato è in primo luogo da imputare alla situazione modellata. Infatti la presenza della variabile booleana ξ, determina un salto nella funzione doi costo. In particolare ξ passa dal valore 0 al valore 1 quando i costi di collaudo al 100% a seguito di un rifiuto diventano troppo grandi: in questo caso il fornitore ha convenienza a scartare il lotto, facendo sostenere al cliente i costi relativi al ritardo con cui un nuovo lotto arriva. Analogamente un forte aumento della media della frazione di pezzi non conformi causa un notevole incremento del costo atteso. Ciò è dovuto in primo luogo allo stesso effetto osservato per il costo di collaudo: la variabile boolena ξ passa dal valore 0 al valore 1. In secondo luogo l’aumento della media causa un aumento del costo atteso di accettazione del lotto, aumentando il numero medio di non conformi nella parte del lotto non ispezionata che si traducono in un costo nel caso in cui il lotto passi il controllo di accettazione. Infine, occorre osservare che anche la stima della deviazione standard risulta critica. La principale motivazione per questo comportamento deriva ancora una volta dal salto a gradino compiuto dalla funzione obiettivo quando il valore della variabile booleana ξ cambia. Costo variabile di collaudo ATTR valore originale valore modificato costo totale atteso [migliaia di £] 1 0,05 0,5 1307,5 2 0,05 0,5 1317,4 3 0,05 0,5 1316,1 4 0,05 0,5 1311,6 5 0,075 0,75 1311,8 6 0,075 0,75 1308,4 7 0,075 0,75 1314,5 8 0,075 0,75 1326,6 9 0,075 0,75 1328 Tabella 2.12 Analisi di sensitività: effetto del costo variabile di collaudo Capitolo 2 44 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Dimensione del lotto N costo totale atteso [migliaia di £] 40000 95,241 30000 77,325 10000 41,494 5000 32,536 2000 27,162 Tabella 2.13 Analisi di sensitività: effetto della dimensione del lotto Media ATTR valore originale valore modificato costo totale atteso [migliaia di £] 1 0,0024 0,0242 1331,4 2 0,1988 0,7953 1407,1 3 0,2533 0,7598 1388,4 4 0,1036 0,829 1421,2 5 0,226 0,678 1398,1 6 0,3255 0,651 1368,1 7 0,1818 0,727 1409,4 8 0,0675 0,675 1424,1 9 0,1995 0,7981 1403,9 Tabella 2.14 Analisi di sensitività: effetto della media della distribuzione a priori Capitolo 2 45 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Deviazione standard ATTR valore originale valore modificato costo totale atteso [migliaia di £] 1 0,006 0,0478 62,839 2 0,3452 0,0345 1426,1 3 0,414 0,0414 1431,2 4 0,2746 0,0275 1402,8 5 0,3944 0,0394 1433,3 6 0,4639 0,0464 1451,5 7 0,3519 0,0352 1417 8 0,2247 0,0225 1473,7 9 0,3813 0,0381 1426,2 Tabella 2.15 Analisi di sensitività: effetto della deviazione standard della distribuzione a priori valore valore costo totale originale modificato atteso [migliaia di £] costo di rifiuto del lotto 1400 14000 59,41 costo fisso di collaudo 13,55 135,5 181,36 costo unitario di rimpiazzo di un 0,212 2,12 59,41 pezzo non conforme Tabella 2.16 Analisi di sensitività: effetto dei parametri di costo indipendenti dagli attributi Infine osservando la Tabella 2.16, si osserva che i parametri di costo non dipendenti dagli attributi risultano rilevanti in situazioni in cui coinvolgono variazioni della variabile ξ. In particolare, aumenti del costo di rifiuto del lotto e del costo unitario di rimpiazzo di un pezzo non conforme non introducono significative variazioni del costo totale atteso, mentre il costo fisso di collaudo introduce una variazione del costo totale atteso di una magnitudo circa pari alla variazione del parametro (fattore 10). In realtà osservando meglio la soluzione trovata, si può osservare che qualunque errore di stima del suddetto parametro risulta ininfluente sulla scelta del piano, modificando solo il valore del costo totale atteso ma non i parametri di progetto del piano. Capitolo 2 46 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo 2.8. Conclusioni e possibili sviluppi In questo capitolo è stato proposto un approccio per la progettazione di un piano di campionamento multiattributo. Grande attenzione è stata principalmente dedicata alla definizione di un approccio applicabile, per superare il tradizionale ambito puramente accademico in cui la progettazione economica dei piani di accettazione è da anni relegata. Avendo sempre come riferimento un caso produttivo reale si è proposto un approccio in grado di considerare: - la caratteristica di multidimensionalità degli attributi su cui si esegue un collaudo in accettazione; - la possibilità di selezionare economicamente la migliore politica a valle del rifiuto del lotto (politica che è spesso definita a priori); - la presenza di due soggetti economici distinti (fornitore e cliente) tra cui i costi di un eventuale rifiuto si suddividono, spesso per contratto. E’ sempre con l’idea di proporre approcci applicabili che si possono evidenziare diverse direzioni di futura indagine. In primo luogo si ritiene opportuno, migliorare l’analisi numerica di sensitività valutando l’effetto di variazioni dei parametri anche meno critiche. E’ possibile secondariamente provare a rilassare l’ipotesi di lavoro basata su famiglie coniugate e indagare altri tipi di distribuzioni, adottando nella soluzione approcci tipo Markov Chain MonteCarlo [Gil96]. Si potrebbe inoltre estendere la portata del modello rilassando qualche ipotesi che potrebbe risultare poco realistica in alcuni contesti produttivi. In primo luogo si potrebbe introdurre la possibilità di avere lotti di dimensione variabile e non necessariamente fissa. In secondo luogo potrebbe essere opportuno includere eventuali errori di ispezione nella fase di collaudo, soprattutto nei casi in cui l’ispezione abbia una forte componente umana. Capitolo 2 47 Progettazione economica di un piano di campionamento bayesiano singolo multiattributo Capitolo 3 Le carte di controllo adattative bayesiane 48 CAPITOLO 3 LE CARTE DI CONTROLLO ADATTATIVE BAYESIANE 3.1. Introduzione I processi produttivi sono sempre soggetti ad un certo grado di variabilità ritenuta “naturale”. Quando il processo opera in condizioni di variabilità naturale, si ritiene che esso sia in controllo. Occasionalmente a questa variabilità propria del processo, si aggiunge un’extra-variabilità dovuta a cause occasionali quali, ad esempio, settaggi impropri delle variabili di controllo, errori degli operatori, materiali in ingresso non conformi con le specifiche [Mon96]. In queste condizioni si ritiene utile agire tempestivamente rimuovendo la causa assegnabile, in modo da ricondurre il processo ad uno stato di funzionamento ritenuto “regolare”. Il beneficio di questo intervento sul processo si traduce in un miglioramento delle performance. Infatti l’extra-variabilità dovuta ad una causa occasionale si traduce spesso in un aumento della difettosità in uscita dal processo. Obiettivo degli strumenti di controllo statistico di processo (Statistical Process Control, SPC) è proprio quello di fornire delle tecniche qualitative e quantitative che supportino il decisore ad individuare tempestivamente cause di variabilità che non sono ritenute accettabili. Tra le principali tecniche proposte in letteratura, si possono elencare: Istogrammi: sono utilizzati per ottenere la distribuzione empirica delle frequenze delle realizzazioni di certi eventi rilevanti per il processo; Check sheet: permettono di classificare i vari tipi di difetti riscontrati riportando nel tempo la frequenza di accadimento.; Carte di Pareto: sono diagrammi a barre che rappresentano la frequenza di accadimento o il costo di un certo numero di categorie di cause, ordinate in modo decrescente rispetto alla grandezza misurata; Capitolo 3 Le carte di controllo adattative bayesiane 49 facilitano l'individuazione dell'insieme di cause più rilevanti per un dato criterio di priorità. Diagramma di causa-effetto: si tratta di una tecnica di rappresentazione delle cause potenziali che determinano un dato effetto che è l'oggetto dello studio. L'utilizzo di questo diagramma è molto spesso iterativo in quanto ogni causa può essere l'effetto di altre cause; Defect Concentration Diagram: sono rappresentazioni di un prodotto in cui sono riportate le posizioni dei difetti riscontrate durante l’ispezione. E’ quindi possibile ottenere un’indicazione della localizzazione più frequente per ogni tipo di difetto, facilitando quindi l’individuazione della causa. Scatter plots: sono diagrammi bidimensionali che su ciascun asse riportano il valore di due distinte caratteristiche di interesse. Diagrammi di questo tipo aiutano ad evidenziare la presenza di correlazione fra i dati in esame; Carte di controllo: utilizzando una rappresentazione grafica, si riporta l'andamento nel tempo di una statistica (media campionaria, deviazione standard campionaria, range) legata alla caratteristica di qualità di interesse (ad esempio frazione di difettosi nel campione, misura di una quota, ecc.). Ogni punto rappresentato sulla carta è confrontato con i limiti di controllo che definiscono la regione di rifiuto di un test d’ipotesi che mira a scoprire se il processo è cambiato oppure no. Se il punto fuoriesce da questa banda, ossia cade nella regione di rifiuto, significa che c’è evidenza statistica per ritenere che il processo sia fuori controllo. A seguito di questo segnale si procede alla ricerca di una causa assegnabile che può aver determinato questo fuori controllo. Se la causa assegnabile è individuata, si procede a rimuoverla, ossia a ripristinare una condizione naturale di funzionamento del processo. Se invece la causa assegnabile non è individuata, si ritiene che il fuori controllo sia dovuto ad un falso allarme, quindi si continua a operare Tra le varie tecniche di SPC introdotte, le carte di controllo hanno avuto sicuramente maggior successo e diffusione. A partire dal primo modello ideato da Shewart negli anni ’20, la ricerca ha continuato e continua tuttora a proporre nuove metodologie di controllo di processo che traggono spunto dalla tradizionale carta di Shewart ma sono adatte alle più svariate applicazioni. Una breve classificazione degli approcci proposti riguarda essenzialmente: Capitolo 3 Le carte di controllo adattative bayesiane 50 ⇒il numero di caratteristiche di qualità da monitorare congiuntamente. Questa caratteristica distingue due tipologie di approcci: õcarte di controllo per singola caratteristica di qualità; õcarte di controllo multivariabili, in cui è nota, o stimata dalle osservazioni, la struttura di correlazione (matrice di varianza covarianza) tra le differenti caratteristiche di qualità del prodotto. ⇒il tipo di caratteristica da monitorare. In primo luogo è necessario distinguere tra caratteristiche misurate attraverso variabili, o attraverso attributi: õcarte di controllo per variabili: in questo caso si misura, a valle del processo una caratteristica che può assumere valori in un continuo. In particolare, molto diffuse sono le carte adottate per controllare media e dispersione della grandezza di interesse: åcarte X -R: se la dispersione è stimata e controllata usando il metodo dell’escursione (range); åcarte X -S: se la dispersione è stimata e controllata attraverso la deviazione standard campionaria. õcarte di controllo per attributi: si misura una caratteristica che è rappresentabile attraverso una variabile booleana. In particolare due tipologie di carte vengono in quest’ambito utilizzate: åcarte p (np): in cui la statistica di interesse è la frazione (il numero) di non conformi riscontrati in un campione di dimensione n; åcarte c (u): in cui la statistica di interesse è il numero di non conformità in un campione di n (o nella singola) unità di ispezione. ⇒la struttura di autocorrelazione temporale tra i dati: in quest’ambito si può ipotizzare indipendenza o autocorrelazione con passo dato. In quest’ultimo caso si può procedere, in ipotesi di variazione lenta della media, con un approccio EWMA, altrimenti, se la struttura di autocorrelazione è più complessa occorre utilizzare modelli si analisi delle serie storiche (ad esempio ARIMA). ⇒l’entità della variazione che si desidera sia segnalata. In questo caso, la scelta tra approcci è spesso legata al concetto di capacità di processo. Con riferimento alla media di una caratteristica di qualità, se il PCR (ossia il rapporto tra intervallo di specifica e tolleranza naturale del processo) è elevato, si può pensare che spostamenti anche rilevanti della media non diano luogo a significative variazioni della difettosità in uscita dal Capitolo 3 Le carte di controllo adattative bayesiane 51 processo. L’approccio tradizionale allora dà luogo ad un numero eccessivo di allarmi per fuori controllo. In questo caso si procede quindi all’adozione di una carta a limiti modificati. Al contrario, se il PCR è piccolo si intende adottare una carta molto sensibile anche a piccoli spostamenti, per evitare eccessivi aumenti della difettosità in uscita (carte CUSUM, EWMA, Moving Average). Scelta, in funzione delle caratteristiche del processo e del sistema di misura, la tipologia più opportuna di carta, occorre procedere alla fase di progettazione. La progettazione di una carta di controllo consiste sostanzialmente nella definizione di tre parametri: la dimensione del campione n che andrà ispezionato, la frequenza di campionamento h e il coefficiente dei limiti di controllo k (cioè la distanza dei limiti di controllo dalla linea centrale espressa in unità di deviazione standard campionaria). Per decidere il valore di questi tre parametri di progetto, sinteticamente rappresentati in Figura 3.1, la letteratura propone principalmente due approcci: l’approccio statistico e l’approccio economico 1. La progettazione statistica di una carta di controllo si basa sull’analogia tra carta di controllo e test d’ipotesi: come già anticipato una carta di controllo può di fatto essere considerata un test di ipotesi eseguito ad intervalli regolari di tempo. Come in ogni test di ipotesi è necessario quindi procedere alla scelta degli errori di primo e secondo tipo che si intende accettare. Nell’approccio economico la scelta delle variabili di controllo è invece eseguita ottimizzando una funzione obiettivo economica. In questo caso gli errori di primo e secondo tipo non sono fissati a priori, ma sono selezionati considerando il modo in cui la loro scelta condiziona le prestazioni economiche della politica di controllo. Qualunque sia l’approccio adottato, in letteratura tradizionalmente i parametri di controllo sono selezionati in fase di progetto e utilizzati poi durante l’esercizio della carta di controllo senza modifiche. Questa ipotesi consente di semplificare la complessità matematica della trattazione e di ottenere una più semplice gestione della procedura di controllo durante l’esercizio. Tuttavia, i recenti sviluppi nell’ispezione e nella misura automatica e nella elaborazione on-line di una grande quantità di dati, hanno notevolmente ridotto la necessità di adottare semplici modelli statistici di analisi dei dati. In questo scenario, l’adozione di procedure di controllo statistico dinamiche è quindi diventata una valida alternativa al tradizionale approccio. 1 In realtà esiste un terzo approccio “ibrido” definito statistico-economico che verrà però approfondito nel secondo paragrafo come variante dell’approccio economico. Capitolo 3 Le carte di controllo adattative bayesiane 52 Una carte di controllo è considerata dinamica o adattativa se almeno uno dei parametri di controllo può variare in real time sulla base delle informazioni relative allo stato corrente del processo, rappresentato dal valore della statistica campionaria di interesse. Di conseguenza, una carte di controllo adattativa prevede un continuo aggiornamento dei parametri decisionali che individuano la procedura di controllo, utilizzando tutte le informazioni disponibili fino a quell’istante. L’aumento di flessibilità di uno schema di controllo adattativo sembra determinare un più efficace monitoraggio del processo, in riferimento a criteri statistici o economici. UCL= µ w+ k σ w CL=µ w LCL= µ w - k σ w Campi one (n par ti) h t Figura 3.1: Parametri di progettazione di una carta di controllo In questo capitolo si intende proporre una metodologia di progettazione economica di una carta di controllo adattativa, utilizzando lo schema di inferenza bayesiano. Prima di procedere con i dettagli sul modello proposto, si procederà ad una descrizione dello stato dell’arte relativo alla progettazione economica di carte di controllo. Successivamente si descriverà lo stato della ricerca relativa alle carte adattative, prestando particolare attenzione ai modelli di progettazione economica. Sarà poi descritto il modello proposto e la fase di sperimentazione numerica in cui le prestazioni dell’approccio sono state messe a confronto con quelle di un tradizionale approccio statico. Capitolo 3 Le carte di controllo adattative bayesiane 53 3.2. La progettazione economica delle carte di controllo in letteratura Il primo utilizzo della progettazione economica per la determinazione delle procedure di controllo è proposto da Girshick e Rubin nel ’52 [Gir92]. Successivamente, Duncan propone nel ‘56 un modello per la progettazione economica di una carta per la media [Dun56], comunemente considerato il punto di partenza della ricerca in questo campo. Dal primo ‘pioneristico’ modello di Duncan molti autori hanno successivamente contribuito alla ricerca in diverse direzioni. Per comprendere le differenti direzioni di ricerca si ritiene utile partire descrivendo in dettaglio questo modello che rappresenta lo starting point in quest’ambito. I vari filoni di ricerca verranno quindi descritti individuando le variazioni rispetto a questo modello di riferimento. 3.2.1. Il modello di Duncan In questo paragrafo dettaglieremo e discuteremo criticamente il modello di Duncan [Dun56]. Basandosi sul precedente lavoro di Girshick e Rubin [Gir92], Duncan propone nel 1956 un criterio di progetto il cui obiettivo è la massimizzazione del profitto per unità di tempo. Si assume che la media della caratteristica oggetto del monitoraggio abbia livello in controllo pari a µ 0 e che il manifestarsi aleatorio della causa assegnabile produca uno spostamento (shift) della media di processo dal valore µ 0 a µ 0 + δσ oppure a µ 0 − δσ . Il processo è monitorato utilizzando una carta per la media X la cui linea mediana è pari a µ 0 ed i limiti di controllo superiore ed inferiore σ σ sono rispettivamente µ 0 + k e µ0 − k . I campioni di produzione n n sono estratti ogni h unità di tempo. Per ciascuna delle unità campionate si misura la caratteristica di qualità oggetto del controllo, si calcola la media dei valori misurati e la si traccia sulla carta. Se il valore ottenuto per un campione eccede il limite di controllo superiore oppure quello inferiore, si produce un ''allarme'' che porta alla ricerca della causa dell'anomalia e, se essa esiste, al ripristino del processo. 3.2.1.1. Le ipotesi L'autore ipotizza che: 1. il processo di guasto sia istantaneo; 2. la causa di guasto sia singola; Capitolo 3 Le carte di controllo adattative bayesiane 54 3. il modello di guasto sia poissoniano; 4. in seguito ad allarmi prodotti dal sistema di controllo non si proceda all'arresto della macchina, nè per ricercare la causa assegnabile nè per ripristinare il processo; 5. la frequenza di campionamento determinata in sede di progetto sia poi tenuta fissa durante il funzionamento del sistema; 6. il processo non si autocorregga. Per processo di guasto all'ipotesi 1 si intende il meccanismo di transizione verso lo stato di produzione di fuori controllo. Si assume quindi che, alla manifestazione della causa assegnabile, il livello della media di processo passi istantaneamente dal livello desiderato µ 0 a µ 0 + δσ o µ 0 − δσ . Il termine ''guasto'' è quindi qui utilizzato impropriamente: non si tratta infatti di un vero guasto del processo, ma di uno stato di produzione che potremmo dire degradato. Quest'assunto rende il modello inadatto a descrivere spostamenti graduali della media come per esempio nel caso dell'usura di un utensile 2. L'ipotesi 2 asserisce che per il sistema studiato esiste una sola causa responsabile dello spostamento della media e di effetto noto. Nella realtà essa è raramente soddisfatta e questo ha motivato un'estesa ricerca in quest'area. Il lettore interessato veda [Dun71], [Kna69]. In 3 si assume che il numero di cause assegnabili che hanno luogo in un certo intervallo di tempo è descritto da un processo stocastico di Poisson omogeneo, la cui intensità è λ manifestazioni per unità di tempo. Quest'ipotesi classica, comune a molti altri modelli di progettazione, è utile perchè determina una considerevole semplificazione formale. Diversi autori si sono interessati allo sviluppo di modelli che considerino distribuzioni diverse da quella esponenziale: uno studio interessante in quest'area è quello di Baker [Bak71]. In 4 si suppone che il processo non sia arrestato nè durante il periodo preposto alla ricerca della causa assegnabile nè durante quello associato alla sua rimozione: queste azioni avvengono dunque durante il processamento delle parti. Questo restringe grandemente, a nostro avviso, l'ambito di utilizzo del modello. Riformulazioni successive del problema da parte di altri autori hanno provveduto a rimuovere questo assunto. L'ipotesi 5 impone che il tempo che intercorre fra l’estrazione di due campioni successivi è tenuto costante dopo la progettazione delle carte. Alcuni autori hanno osservato che una tale politica non si rivela ottimale per un ampio range di casi applicativi e ciò ha motivato un ampio filone della ricerca nel campo delle carte di controllo adattative. Con 6 invece si considera che, una volta manifestatasi la causa assegnabile, il processo, se non subisce alcun intervento da parte del 2 Lavori proposti in questa area sono [Dre89], [Gib67], [Que88], [Sch90]. Capitolo 3 Le carte di controllo adattative bayesiane 55 personale preposto al suo controllo, rimane nello stato di fuori controllo raggiunto. 3.2.1.2. La notazione L'autore indica con: λ il parametro della distribuzione esponenziale che regola il meccanismo di manifestazione della causa assegnabile; δ lo shift della media che si intende rilevare espresso in unità di deviazione standard σ ; σ la deviazione standard della caratteristica controllata; h l'intervallo di tempo fra due campioni successivi; k il parametro che definisce i limiti di controllo rispetto alla media; n la numerosità del campione prelevato ogni h unità di tempo; V0 il ricavo per unità di tempo di produzione con processo in controllo; V1 il ricavo per unità di tempo di produzione con processo fuori controllo; a1 il costo di campionamento fisso sostenuto per ogni campione estratto; a2 il costo variabile di campionamento per unità campionata; a3 il costo sostenuto per la ricerca della causa assegnabile e per la sua rimozione nel caso di un allarme fondato; a’3 il costo sostenuto per la ricerca della causa assegnabile nel caso di un falso allarme; g il tempo necessario per l'estrazione un esemplare dalla produzione; D il tempo necessario per la rimozione della causa assegnabile. 3.2.1.3. I ricavi ed i costi Duncan considera tre categorie di ricavi e di costi: ricavi da produzione, costi da estrazione di campioni e costi associati all'investigazione ed eventualmente al ripristino del processo. Ricavi da produzione Si adottano due distinti coefficienti di ricavo per unità di tempo per caratterizzare la produzione del sistema: il primo, V 0, rappresenta il ricavo per unità di tempo che deriva dalla produzione in stato di processo in controllo; il secondo, V1, caratterizza invece la produzione realizzata in stato di fuori controllo. Costi di estrazione dei campioni Capitolo 3 Le carte di controllo adattative bayesiane 56 Per essi si considera una componente fissa a1 ed una variabile a2. La prima insorge ogni volta che si estrae un campione, mentre il costo variabile insorge per ogni unità campionata. Il costo totale che si associa all'estrazione di un campione è quindi pari a a 1+a2n. Costi di ripristino e di investigazione Sono definiti da due distinti coefficienti: a3 e a 3’. L'utilizzo di due distinti coefficienti di costo si giustifica con il fatto che le azioni di investigazione e di rispristino, cioè di investigazione e di rimozione della causa assegnabile, differiscono sostanzialmente tra di loro sia per il tempo necessario alla loro esecuzione sia per i costi che esse comportano. L'autore ritiene quindi necessario penalizzarle in modo diverso. 3.2.1.4. Il modello Duncan definisce quattro stati di sistema: v stato 1, o stato di produzione in controllo; v stato 2, o stato di produzione fuori controllo non segnalato; v stato 3, o stato di produzione fuori controllo dopo il primo allarme per raccolta dati necessari all'indagine; v stato 4, o stato di produzione fuori controllo per ripristino del processo L'evolvere del sistema nel tempo è descritto da un processo stocastico renewal reward. Il soggiorno del processo fra i suoi stati di sistema può infatti essere visto come una serie di cicli indipendenti che si ripetono nel tempo, ciascuno dei quali inizia e termina con la fine di una fase di ripristino. Gli istanti che segnano il termine della fase di ripristino sono detti rinnovamenti per il fatto che il processo, dopo questi istanti, evolve come se quello che è avvenuto precedentemente non avesse mai avuto luogo. Ad ogni ciclo è associata una ricompensa (o reward), che nel nostro caso è costituita dal ricavo netto che il sistema realizza fra due rinnovamenti successivi. La Figura 3.2 rappresenta i legami fra le transizioni di stato del sistema. Capitolo 3 Le carte di controllo adattative bayesiane τ 57 2’ 1 2 3 1 Causa assegnabile h t Campione (n par ti) Fuori contr ollo k Ricerca ed elim inazione della c ausa ass egnabile Figura 3.2: Differenti stati del sistema nel modello di Duncan Ogni ciclo inizia con un periodo di produzione in stato 1. Dopo un certo tempo, si manifesta la causa assegnabile, evento che segna il passaggio del processo nello stato di produzione fuori controllo. Il processo vi soggiorna fino a che la procedura di controllo, dopo l'estrazione di un campione, produce un allarme. Ciò segna il passaggio in stato 3 e dà inizio alla fase di investigazione per la ricerca della causa dell'allarme. Una volta individuata, si accede allo stato 4 nel quale avviene l'effettivo ripristino del processo. Al suo termine il ciclo si conclude e comincia il successivo con una nuova transizione nello stato 1. L'evolvere del processo nel tempo fra questi stati è rappresentato in Figura 3.2. Indicando il valore aggiunto associato ad un ciclo con R e con T la sua durata, l'obiettivo del modello è la massimizzazione del valore aggiunto medio per ciclo in funzione dei parametri di progetto delle carte n,h e k, ossia la massimizzazione di E(R/T). Il calcolo di questo valore atteso risulta semplificato in virtù di un importante teorema [Ros83]: In un processo stocastico renewal reward, siano Xn l'intervallo di tempo tra due rinnovamenti successivi, Rn la ricompensa che si riceve all'inizio dell'n-esimo rinnovamento e R(t) la ricompensa totale ricevuta al tempo t. Siano altresì le coppie (X n,R n) fra di loro indipendenti ed identicamente distribuite. Capitolo 3 Le carte di controllo adattative bayesiane Si ha con probabilità uguale a uno: R (t ) E (R ) lim E = t →∞ t E (T ) 58 (3.1.) Il valore atteso del rapporto E (R /T ) si riduce quindi al rapporto dei valori attesi E (R ) /E (T ) . Duncan procede quindi separatamente al calcolo di E [R ] e di E [T ]. Indicando con Ti, i=1,2,3,4 il tempo che il processo trascorre nello stato i, il calcolo di E [T ] utilizza una nota proprietà dei valori attesi: E (T ) = E (T1 ) + E (T2 ) + E (T3 ) + E (T 4 ) (3.2.) Il primo valore atteso è il tempo medio che il processo trascorre in controllo all'interno di un ciclo. In virtù dell'ipotesi di modello poissoniano di guasto, esso è: E (T1 ) = 1 λ (3.3.) Per il periodo T2 l'autore osserva che la probabilità che all'estrazione di un campione ci si accorga dello stato effettivo del processo, dato che si è manifestata una causa assegnabile, è una prova di Bernoulli con probabilità di successo 1-β. β rappresenta l'errore di secondo tipo commesso dalla carta che, nel caso in cui la caratteristica controllata abbia distribuzione normale, è calcolato come: −k−δ n ∞ β = 1 − ∫−∞ φ (z )dz + ∫k − δ n φ (z )dz (3.4.) dove φ (z ) rappresenta la funzione densità di probabilità della normale standard. Pertanto, il numero medio di campioni da estrarre prima di accorgersi dell'avvenuta manifestazione della causa assegnabile è pari a 1/(1-β ). Considerando che l'intervallo tra due campioni successivi è costante e pari ad h, si deduce che l'intervallo di tempo fra l'ultimo campione prelevato in controllo prima della manifestazione della causa assegnabile e la segnalazione dell'allarme è h\(1- β ). Come si può evincere dalla Figura 3.2, questo calcolo comprende l'intervallo di tempo τ in cui il processo è in controllo fra i due campioni in cui si Capitolo 3 Le carte di controllo adattative bayesiane 59 manifesta la causa assegnabile che abbiamo già considerato nel calcolo di E(T1). Occorre quindi sottrarre questa quantità da h\(1- β). λ e-λt dt t jh -λt f(t)= λe (j+1)h t dt Figura 3.3: Calcolo del sottointervallo di tempo τ nell’approccio di Duncan. Osservando la Figura 3.3, si può dedurre che: ( j +1)h τ = ∫jh (t − jh )λe −λt dt ( j +1)h −λt ∫jh λe dt = 1 − (1 + λh )e − λh λ (1 − e − λh ) (3.5.) Si può concludere quindi che il tempo medio all'interno di un ciclo che il processo trascorre fra la manifestazione della causa assegnabile e l'allarme prodotto dalla procedura di controllo è: E (T2 ) = h −τ 1− β (3.6.) Durante il periodo di produzione in stato 3, si indaga sulle cause dell'allarme appena manifestatosi. L'autore assume che il tempo medio per eseguire il campionamento necessario per individuare la causa responsabile dell'allarme sia una funzione lineare della dimensione del campione prelevato, ossia: E (T 3 ) = gn (3.7.) Una possibile obiezione che si può muovere a quest'ipotesi è che non è vero in generale che la dimensione del campione da estrarre per individuare le cause dell'allarme debba essere necessariamente pari a n. Potrebbe infatti accadere che la causa assegnabile sia Capitolo 3 Le carte di controllo adattative bayesiane 60 particolarmente ostica da ricercare e che un campione di dimensione n non sia sufficiente. L'ultimo periodo che compone il ciclo è quello in cui si procede effettivamente alla rimozione della causa assegnabile. L'autore suppone che il tempo necessario alla rimozione della causa sia noto, costante e pari a D, quindi: E (T 4 ) = D (3.8.) Il valore atteso della durata di un ciclo completo, in virtù dell’equazione (3.2) risulta quindi: E (T ) = 1 h + − τ + gn + D λ 1− β (3.9.) Per il calcolo del valore aggiunto medio realizzato in un ciclo, l’autore considera i ricavi e costi discussi al paragrafo 3.2.1.3. Scomponiamo il ricavo netto R nelle sue componenti, ossia ricavi derivanti dalla produzione R P, costi di campionamento CC, costi da falsi allarmi CFA e costi di ripristino CR: R = R P − C C − C FA − C R (3.10.) Anche in questo caso è possibile semplificare il calcolo come: E (R ) = E (R P ) − E (C C ) − E (C FA ) − E (C R ) (3.11.) Ricavi attesi. I ricavi attesi di ciclo sono calcolati in funzione dello stato del sistema. Il ricavo per unità di tempo V0 è attribuito a quella parte di ciclo T nella quale il processo produce in controllo il cui valore atteso è E (T1). Alla restante parte di ciclo, la cui durata attesa è E (T)-E (T1) è associato il ricavo derivante dalla produzione fuori controllo V1. E (R P ) = V 0 1 + V1 (E (T ) − E (T1 )) λ (3.12.) Si fa notare che Duncan assume che sia possibile procedere al ripristino o all'ispezione del processo mentre esso continua ad operare. Al di là del fatto che questo sia effettivamente possibile nei diversi casi reali, osserviamo che così si assume implicitamente che sia conveniente non arrestare il processo durante il ripristino. Capitolo 3 Le carte di controllo adattative bayesiane 61 Costi di campionamento. Per ottenere il costo medio derivante dall'estrazione di campioni di produzione durante un ciclo, il costo di estrazione di un campione per il numero atteso di campioni estratti durante un ciclo di durata E(T ). Il costo che si sostiene per estrarre un campione è costituito dalla somma di un contributo fisso che insorge ogni volta che il campione è estratto e da un termine proporzionale al numero di unità prelevate: a1+a2n. Essendo i campioni estratti con una frequenza di h unità di tempo, il numero atteso di campioni estratti in un ciclo è E (T ) /h . Il costo atteso di campionamento per ciclo è dunque fornito da: E (CC ) = a1 + a 2 n E (T ) h (3.13.) Questo calcolo merita qualche osservazione. Duncan così suppone implicitamente di estrarre campioni di produzione anche durante il ripristino della macchina. Questo è un controsenso in virtù del fatto che è inutile prelevare un campione di produzione per inferire sullo stato del processo quando è ben noto che esso si trova in stato di fuori controllo. Costi dovuti a falsi allarmi. Essi sono calcolati moltiplicando il numero medio di allarmi rivelatisi falsi per il costo associato alla loro investigazione a’3. Se si considera che i falsi allarmi possono aver luogo solo quando il processo è in controllo e che la probabilità che si verifichi uno shift in h unità di tempo è fornita da 1 − e −λh , il numero atteso di campioni estratti prima che abbia luogo uno shift è distribuito come un geometrica il cui valor e −λh . Se si indica con α l'errore di primo tipo della carta, 1 − e −λh ossia la probabilità che la carta produca un allarme dato che il processo è in controllo, il numero medio di campioni prelevati dal processo quando esso è in controllo e che danno luogo a falsi allarmi è e −λh α . 1 − e − λh medio è Nel caso in cui la caratteristica controllata abbia distribuzione normale, l'errore di primo tipo α è: ∞ k α = 2∫ φ(z )dz (3.14.) dove φ (z ) è la funzione densità di probabilità della normale standard. Capitolo 3 Le carte di controllo adattative bayesiane 62 I costi associati a questi allarmi sono quindi: E (C FA ) = a 3 ' e −λh 1 − e − λh α (3.15.) Costi da ripristino del processo. In virtù del fatto che un ciclo è definito come l'intervallo di tempo che trascorre tra due ripristini successivi, segue che durante un ciclo può aver luogo solo un ripristino. Per questo motivo il costo medio da ripristino del processo per ciclo è pari al costo di un singolo ripristino, ossia: E (C R ) = a 3 (3.16.) In virtù dell’equazione (3.11), si può concludere che: E (R ) = V 0 1 E (T ) e −λh + V1 (E (T ) − E (T1)) − (a1 + a 2n ) − a3 − a3 ' α λ h 1 − e − λh (3.17.) Infine, la funzione obiettivo oggetto di massimizzazione è: E (R ) = E (T ) V0 1 E (T ) e −λh + V1 (E (T ) − E (T1)) − (a1 + a 2n ) −a3 −a3' α λ h 1 − e − λh 1 h + − τ + gn + D λ 1− β (3.18.) L'autore termina l'articolo con un'analisi di sensitività. Basandosi su un caso reale, viene quindi studiata l'influenza dei diversi parametri caratteristici di sistema sui valori ottimi delle variabili di progetto delle carte. Le conclusioni dell'analisi sono che: G la dimensione ottima del campione n è determinata principalmente dal valore δ dell'ampiezza dello shift che si intende rilevare. In generale per shift ampi, ossia δ ≥2, sono sufficienti campioni di ampiezza compresa fra 2 e 10. Shift di minor dimensione, ossia 1≤ δ ≤2, producono campioni nel range fra 10 e 20, mentre shift molto piccoli, cioè δ ≤1.5, possono richiedere campioni di dimensione superiore a 40 unità. G la differenza V0- V1 influisce principalmente sull'intervallo di campionamento h. Differenze consistenti portano a valori di h più ridotti. Capitolo 3 Le carte di controllo adattative bayesiane 63 G i costi associati alla ricerca della causa assegnabile a’3 e al ripristino a3 hanno impatto principalmente sull'ampiezza dei limiti di controllo, nel senso che loro grandi valori portano a limiti di controllo più ampi. G variazioni dei costi d'estrazione dei campioni influiscono sui tre parametri di progetto: ad un aumento del costo di campionamento fisso a1 corrisponde un aumento dell'intervallo di tempo h fra due campioni successivi e del numero di unità prelevate n; maggiori valori di a2 portano a campioni di dimensione minore presi meno frequentemente e a più stretti limiti di controllo. G tassi di transizione minori conducono ad una minore frequenza di campionamento h. G l'ottimo di progetto è relavamente poco sensibile ad errori di stima dei coefficienti di costo, ossia la superficie di costo è relativamente piatta nell'intorno dell'ottimo. L'ottimo economico è invece molto sensibile ad errori di stima dei parametri δ, µ0 e σ. 3.2.2. La progettazione economica delle carte di controllo: la ricerca dopo Duncan 3.2.2.1. Generalizzazione del modello I contributi più importanti in quest'area sono stati quelli di Lorenzen e Vance [Lor86] e di Von Collani [Col88].I primi propongono un modello di progetto più generale di quello di Duncan che possa essere utilizzato per tutti i tipi di carte e per i più diversi sistemi produttivi, indipendentemente dalla statistica utilizzata. Il loro lavoro discute anche le ipotesi di assenza di memoria per la distribuzione esponenziale del tempo in controllo e di causa assegnabile singola di shift di grandezza data. Basandosi su un esempio di progetto e sulla relativa analisi di sensitività, gli autori concludono che l'ampiezza dello shift δ che ci si propone di rilevare influenza la perdita minima oraria di progetto ma non i parametri di progetto della carta. Von Collani propone una diversa formulazione del problema e ripone maggior enfasi sulla semplicità del modello non rinunciando allo stesso tempo alla sua generalità. Il modello permette di incorporare diverse politiche d'azione come il controllo, l'ispezione, e la sostituzione delle parti. Pregi di questo lavoro sono l'unificazione delle diverse teorie sinora utilizzate, la riduzione del numero delle variabili in gioco e Capitolo 3 Le carte di controllo adattative bayesiane 64 funzioni obiettivo più semplici che rendono più agevole l'utilizzo di algoritmi d'approssimazione. 3.2.2.2. Semplificazione del modello Questo filone della ricerca è motivato che dal fatto che generalmente le tecniche di progetto economico delle carte portano a considerare parametri di costo difficili da stimare nei diversi contesti produttivi ed a modelli molto complessi da risolvere. Sebbene siano stati proposti diversi algoritmi per risolvere gli specifici problemi, essi molto spesso richiedono hardware e software specifici che non sono in generale disponibili in ogni azienda. Inoltre molti autori hanno messo in rilievo come la complessità inerente di questi modelli si sia rivelata essere uno dei principali deterrenti per l'implementazione di queste tecniche. Dei molti lavori che hanno contributo in quest'area, quelli che hanno indicato la strada da percorrere sono stati quelli proposti da von Collani [Col86] [Col88] [Col89]. Egli propone un modello che può essere risolto senza l'ausilio di un computer e che prevede la stima di soli tre parametri di costo. Il valore dei lavori che propone risiede nella riduzione dello sforzo sia computazionale per la risoluzione del modello che di stima dei parametri necessari per il progetto. 3.2.2.3. Progettazione statistico-economica Quest'area della ricerca è stata motivata dalle critiche di Woodall nei confronti della progettazione economica delle carte di controllo che possono essere così riassunte (si veda a questo proposito [Woo86]): ⇒progetti economicamente ottimali tendono a produrre carte di controllo che hanno un numero eccessivo di falsi allarmi; ⇒carte di controllo progettate secondo criteri economici hanno in generale scarse prestazioni dal punto di vista statistico; ⇒i modelli proposti considerano generalmente un solo shift nella caratteristica di qualità di grandezza fissata. Se invece fosse possibile rilevare shift di grandezza anche minore rapidamente, si eviterebbero ulteriori perdite di ricavi; ⇒i modelli economici sono in contraddizione con la filosofia di Deming, secondo la quale è necessario avere uno stretto controllo del processo e la produzione di esemplari non conformi non deve essere permessa. Saniga [San89], a questo proposito, propone un modello che permette la progettazione economica congiunta delle carte X e R imponendo vincoli sugli errori di primo e secondo tipo delle carte. Un modello simile per le carte EWMA è successivamente proposto da Montgomery, Torng, Capitolo 3 Le carte di controllo adattative bayesiane 65 Cochran e Lawrence [Mon95]. Altri lavori in quest'area sono quelli proposti da McWilliams [McW94] e da Saniga, Davis e McWilliams [San95]. 3.2.2.4. Produzioni di durata limitata Tutti i modelli di progettazione economica che hanno seguito il lavoro di Duncan assumono una descrizione del sistema basata sui processi stocastici renewal reward Questi processi stocastici considerano una successione infinita di cicli di rinnovamento ed i modelli di progetto economico che su essi si basano fanno riferimento all'evolvere stazionario del processo produttivo. Qualora invece la produzione abbia luogo su intervalli di tempo limitati, il comportamento del sistema produttivo dipende fondamentalmente dalle condizioni iniziali e quindi i modelli basati su questi processi stocastici risultano non applicabili. I lavori di maggior interesse in quest'area sono quelli di Weigand [Wei92], [Wei93], e di del Castillo e Montgomery [Del93] [Del96a] 3.2.2.5. Carte di Controllo a Statistiche Dipendenti Un'altra area di recente interesse è quella della progettazione di carte a statistiche dipendenti, per le quali i punti riportati sulle carte sono fra loro dipendenti. Questo è il caso delle carte EWMA cui si sono interessati Montgomery, Torng, Cochran e Lawrence [Mon95] e CUSUM per le quali si può vedere [Kea94]. A questo filone di ricerca appartengono anche gli studi sulle carte per la media a varianza incognita, per le quali uno studio interessante è quello di del Castillo [Del96b], perchè il fatto che la varianza non sia nota rende i punti riportati sulle carte dipendenti. 3.2.2.6. La progettazione integrata del controllo di qualità Il campo della progettazione integrata delle carte di controllo ha sinora produtto un numero di lavori modesto rispetto a quelli relativi al semplice progetto economico. L'attenzione è qui rivolta all'integrazione delle politiche di controllo della qualità con quelle di gestione della produzione. Raggrupperemo i lavori presenti in letteratura in quattro gruppi. Capitolo 3 Le carte di controllo adattative bayesiane 66 3.2.2.6.1. Modelli basati sulle rilavorazioni e sulla dimensione del lotto Tradizionalmente i modelli di gestione della produzione assumevano che il controllo del processo fosse perfetto e che non avessero mai luogo rilavorazioni di pezzi non confromi. In realtà ciò è ben lontano dall'essere vero nella maggior parte dei casi, e il problema che ci si propone di risolvere è di determinare la dimensione del lotto per la rilavorazione se si considerano i costi di set-up e di mantenimento a scorta. Questo problema è di grande interesse perché esso ha nella realtà un'influenza non trascurabile sul sequenziamento delle parti. Lavori in quest'area sono quelli di Gupta e Chakraborty [Gup84] e di Tayi e Ballou [Tay88]. Gupta e Chakraborty hanno proposto un modello per determinare la dimensione ottimale del lotto di produzione e di quello di rilavorazione applicabile nel caso dell'industria alimentare e del vetro dove la rilavorazione avviene solo dall'inizio alla fine del processo produttivo. Nel caso più generale, la rilavorazione può aver luogo in una qualsiasi fase del sistema produttivo e questo influenza fortemente il sequenziamento dei prodotti sulla singola macchina, aspetto che gli autori non considerano. Tayi e Ballou estendono il modello di Gupta e Chakraborty modellando anche il fatto che ci possa essere controllo della qualità degli esemplari realizzati ad ogni stadio della processo produttivo. Entrambi questi modelli suppongono che le procedure di controllo siano perfette e che tutte le unità scartate dal sistema di controllo, a qualsiasi stadio esse lo siano, siano riprocessate a partire dal primo stadio del processo produttivo. Quest'ipotesi è stata oggetto di diverse critiche da parte di più autori. 3.2.2.6.2. Modelli basati sulla dimensione del lotto di produzione e di ispezione In questo ambito due sono i problemi connessi al progetto del sistema di ispezione del processo. Il primo è relativo al determinare dove porre le stazioni di ispezione in un processo produttivo multistadio, mentre il secondo fa riferimento all'attribuzione degli operatori alle stazioni d'ispezione. Il primo dei due problemi presenta il trade-off fra due tipologie di costi: aumentando le stazioni preposte all'ispezione aumentano i costi di ispezione e quelli legati alla gestione delle parti riconosciute come difettose (i.e. scartarle, ripararle, rilavorarle), mentre sono meno rilevanti i costi associati alla lavorazione di parti difettose che sono state individuate e le penalità relative al consegnare parti non conformi al cliente. Un risultato fondamentale per il problema della location è stato fornito da Lindsay e Bishop [Lin64] che hanno stabilito che per sistemi in cui Capitolo 3 Le carte di controllo adattative bayesiane 67 l'ispezione è perfetta e la struttura dei costi lineare, la politica ottimale d'ispezione è non ispezionare oppure ispezionare tutto il lotto. Questo risultato ha portato allo sviluppo di diversi modelli di localizzazione delle stazioni d'ispezione basati sulla programmazione dinamica Trippi [Tri66] ha invece fornito una soluzione al problema dell'allocazione degli operatori alle stazioni d'ispezione in un sistema produttivo seriale multi stadio. Il suo modello tuttavia suppone che la generazione dei difetti sia regolata da una distribuzione stazionaria di Bernoulli e che gli ispettori non commettano errori, il che limita l'ambito d'applicazione del modello. Il problema dell'imperfetta ispezione è stato affrontato per la prima volta da Eppen e Hurst [Epp74] che hanno considerato l'errato rifiuto di unità effettivamente conformi e l'errata accettazione di unità non conformi. Il modello, basato sulla programmazione dinamica, considera però che l'individuare un pezzo difettoso sia indipendente dal tipo di difetto in questione e dallo stadio nel quale esso deve essere rilevato. Questa formulazione è stata poi estesa da Yum e McDowell [Yum87] i quali hanno considerato diverse politiche di gestione per le unità che sono state scoperte essere difettose: riparazione, rilavorazione e scarto. Raz e Bricker [Raz87] hanno presentato un modello basato sulle ispezioni ripetute. L'idea che propongono è di eseguire l'ispezione delle parti più volte in modo da ridurre l'impatto degli errori d'ispezione. Un lavoro completo è quello di Barad [Bar90]. Applicando il concetto di punto di pareggio all'ispezione dei lotti, il lavoro dimostra che, dati una struttura di costo, gli errori d'ispezione e la percentuale di difettosi in un dato lotto, la politica ottimale è non ispezionare il lotto se la percentuale di difettosi è inferiore ad un certo valore critico oppure ispezionare tutto il lotto se questo valore è superato. 3.2.2.6.3. Modelli basati sulle politiche di controllo del processo e di gestione della produzione A quest'area di ricerca non è stata dedicata l'attenzione che merita. Il primo lavoro che ha messo in rilievo la grande importanza del legame fra politiche di controllo del processo e quelle di dimensionamento del lotto è stato quello di Porteus [Por86], il quale ha mostrato analiticamente come costi di set-up più bassi possono giovare al sistema produttivo determinando migliori performance in termini di conformità. Nonostante alcune ipotesi stringenti, il modello di Porteus ha permesso di dare una giustificazione analitica ai nuovi concetti di matrice giapponese quali quello di qualità alla sorgente e di necessità di riduzione dei tempi di set-up. Altri lavori hanno concentrato l'attenzione sui legami fra controllo di processo e politiche di manutenzione. In particolare Posner e Tapiero Capitolo 3 Le carte di controllo adattative bayesiane 68 [Pos87] hanno affrontato in maniera congiunta i problemi relativi ai programmi di manutenzione, di controllo di qualità e di produttività, sviluppando un modello che esprime la distribuzione di probabilità del livello di qualità in funzione della politica di manutenzione scelta. Altri lavori in quest'area sono quelli proposti da Hsu e Tapiero [Hsu88], [Hsu89], [Hsu90], [Hsu92]. Rosenblat e Lee [Ros86] si soffermano invece sulle relazioni che intercorrono fra dimensione del lotto, costi della qualità, costi e tempi di set-up, costi di mantenimento a scorta e aspetti legati al deterioramento dei processo produttivo. Il modello proposto consente di determinare la dimensione del lotto ottimale considerando il fatto che il processo produce parti sia conformi che non conformi. Il lavoro però ha il neo di considerare queste relazioni a livello di singola macchina e non a livello di sistema. In questa stessa area si colloca anche il lavoro di del Castillo [Del95] che però si focalizza su una carta di controllo per la media ed un processo di produzione monostadio e monoprodotto in cui la domanda è descritta da un processo stocastico stazionario. Il modello, nel suo ambito di utilizzo, permette di progettare il sistema di controllo per raggiungere un certo livello di servizio oppure di trovare la politica di produzione migliore che permetta di massimizzare il livello di servizio dati certi parametri di controllo della carta. Uno dei lavori più recenti in quest'area è quello di Rahim e Ben-Daya [Rah98]. Il modello proposto permette la determinazione simultanea del lotto di produzione, del piano d'ispezione e del progetto della carta di controllo per un processo di produzione continuo. L'ottimizzazione economica che è alla base del calcolo di questi parametri di funzionamento del sistema, considera tre fondamentali voci di costo: costi di set-up, costi di mantenimento a scorta; costi del controllo della qualità attraverso una carta X . 3.2.2.6.4. Modelli per il progetto congiunto delle carte Quest'area di ricerca è forse la più povera di lavori fra tutte quelle sinora discusse, ma non per questo meno interessante. Gli unici lavori in quest'ambito sono quelli di Peters e Williams [Pet87], [Pet89] e di Colosimo e al. [Col00]. I primi lavori di Peters e Williams considerano congiuntamente il problema del progetto delle carte e del loro posizionamento, tuttavia la formulazione proposta tende a valutare il progetto solo in termini di costo ed a non riporre la necessaria attenzione sugli aspetti legati all'effettiva produttività di parti conformi del sistema. Nell’approccio di Colosimo e al. invece si considera la possibilità che la correlazione tra caratteristiche di qualità influenzi complessivamente le prestazioni del sistema, modificando la produttività complessiva dello stesso. L’approccio è tuttavia ancora limitato a due fasi in sequenza e ulteriori estensioni sono, allo stato attuale, in fase di studio. Capitolo 3 Le carte di controllo adattative bayesiane 69 3.3. Le carte di controllo a parametri variabili L’opportunità di aumentare l’efficacia della politica di controllo rilassando il vincolo di parametri di controllo costanti, è stata esplorata per la prima volta negli anni ’60. Nel primo modello di Bather [Bat63] la poltica di controllo ottima per un processo è infatti risolta adottando valori fissi per n (dimensione del campione) e h (frequenza di campionamento), ma consentendo al parametro k (ampiezza dei limiti di controllo) di variare nel tempo. Nel modello di Carter [Car72] solo il parametro h è invece assunto costante, mentre i parametri n e k sono determinati consentendo loro di variare nel tempo. Tuttavia la diffusione di questi primi approcci è risultata molto limitata essenzialmente per la complessità della trattazione matematica che determina la politica di controllo ottima. Infatti da questi primi modelli occorre aspettarre circa 20 anni per ritrovare in letteratura un rinnovato e diffuso interesse per le carte di controllo dinamiche o a parametri variabili. I modelli proposti in letteratura nell’ultimo decennio sono, al contrario dei primi, caratterizzati da una grande attenzione alla semplicità della trattazione e ad un continuo confronto con approcci equivalenti ma statici, per dimostrare i vantaggi derivanti dall’adozione di politiche di controllo a parametri variabili. Tra gli approcci proposti in quest’ambito, occorre distinguere tra carte di controllo a parametri variabili e carte di controllo adattative o dinamiche. Nel primo caso la metodologia di controllo proposto prevede che i parametri varino nel tempo, ma con una dinamica di variazione già nota a priori. Ciò significa che in fase di progettazione, prima di utilizzare la carta di controllo, vengono determinati tutti i valori che i tre parametri di progetto andranno ad assumere nell’orizzonte temporale di riferimento. Una volta fissati questi valori di hi, ni, ki, per i=1,2,…, essi non sono più aggiornati, durante il monitoraggio del processo. In definitiva lo schema di controllo è a parametri variabili ma statico. Il secondo tipo di approccio, che dà luogo a carte di controllo adattative o dinamiche, prevede che uno, due o tutti e tre i parametri della carta possano variare nel tempo in real time, in funzione dell’informazione fornita dall’ultimo (o dagli ultimi) campioni misurati. All’interno di questa tipologia di approccio, se nella scelta dei parametri il meccanismo di aggiornamento della conoscenza si basa sulla statistica bayesiana, la carta di controllo è detta adattativa bayesiana. Capitolo 3 Le carte di controllo adattative bayesiane CARTE DI CONTROLLO A PARAMETRI VARIABILI CARTE DI CONTROLLO ADATTATIVE (O DINAMICHE) CARTE DI CONTROLLO ADATTATIVE BAYESIANE 70 h, n, k variano nel tempo h, n, k variano nel tempo in funzione dell’informazione proveniente dal sistema in real time h, n, k variano nel tempo in funzione dell’informazione proveniente dal sistema in real time secondo un meccanismo di aggiornamento della conoscenza bayesiano Figura 3.4: Classificazione delle carte di controllo a parametri variabili. La principale differenza tra approccio adattativo e adattativobayesiano consiste nel fatto che nel primo la decisione riguardo ai parametri di controllo da adottare nel futuro, è eseguita considerando solo il valore dell’ultima statistica collezionata dal processo. Nell’approccio bayesiano invece, il meccanismo di aggiornamento della conoscenza prevede che la decisione riguardo ai parametri di controllo da adottare nel futuro sia presa considerando, in modo opportuno, tutti i valori della statistica campionaria collezionati a partire dall’ultimo ripristino (azione correttiva) sul processo. Per comprendere meglio quest’affermazione, si ipotizzi di essere all’inizio del periodo di produzione. All’istante 0 la probabilità che il processo sia fuori controllo è nota e pari a 0 (in ipotesi di assenza di errori nel ripristino). Con questa sicurezza si scelgono i parametri relativi al prossimo campionamento. Secondo questo schema, dopo un certo intervallo temporale, verrà misurato un campione di parti e la statistica di riferimento verrà memorizzata. Considerando questa statistica, la probabilità che il processo sia fuori controllo verrà aggiornata come media pesata dell’informazione a priori (probabilità che il processo sia fuori controllo, prima dell’ultima osservazione) e del valore della statistica osservato. Se questa probabilità a posteriori di essere fuori controllo non è troppo “elevata”3, la carta non segnala un fuori controllo e, sono scelti conseguentemente i parametri di controllo per il futuro. Se si reitera il ragionamento, è chiaro che dopo il secondo campionamento la probabilità a posteriori sarà composta da una media pesata dell’informazione collezionata sul processo dall’inizio dell’orizzonte temporale e dell’informazione disponibile prima che la 3 Ulteriori dettagli su quest’affermazione saranno definiti quando si entrerà nel merito della progettazione economica di una carta di controllo adattativa bayesiana Capitolo 3 Le carte di controllo adattative bayesiane 71 produzione iniziasse. In definitiva, finchè la storia del processo non è “cancellata” da un intervento di ripristino, la carta adattativa bayesiana continua a collezionare in modo opportuno tutta l’informazione proveniente dai campionamenti e sceglie di conseguenza i parametri di controllo da adottare. 3.3.1. Modelli per carte a parametri variabili Lo studio di carte a parametri variabili è stato essenzialmente motivato dalla necesità di trattare meccanismi di failure diversi da quello poissoniano. Infatti, sebbene la distribuzione esponenziale del tempo di interarrivo tra guasti 4 sia realistica in molti casi di componenti caratterizzati da tasso di failure costante (TFC), come ad esempio i componenti elettronici o i sistemi composti da un gran numero di componenti; in molti processi è plausibile ipotizzare un meccanismo di invecchiamento, per la presenza di fenomeni come la fatica e l'usura, che determina un tasso di guasto crescente (TGC), spesso modellato attraverso la densità di Weibull. Per questi processi, la probabilità di uno shift è crescente con il tempo di produzione. E' perciò ragionevole aspettarsi che un campionamento progressivamente più frequente, o limiti di controllo più severi, per esempio, possano condurre ad uno schema di controllo di processo più economico. Modelli per la progettazione economica di carte con limiti di controllo time varying sono stati proposti da Banerjee e Rahim [Ban88], Parkhideh e Case [Par89], Rahim e Banerjee [Rah93] e Rahim [Rah94]. Tutti riguardano la progettazione di carte. I modelli di Banerjee e Rahim trattano come parametro time varying unicamente l'intervallo di campionamento, assumendo che durante il processo la dimensione n dei campioni e il limite di controllo individuato da k, restino costanti. Invece Parkhideh e Case consentono a tutti e 3 i parametri di assumere valori indipendenti dagli esiti campionari, ma variabili nel tempo. Tutti modelli citati prendono in esame almeno cause che si presentano in accordo con la funzione di densità di Weibull. Rahim in [Rah94] integra il modello di controllo statistico di processo con quello per la determinazione del lotto di produzione economicamente ottimo (EPQ, economic production quantity), considerando i costi di setup e di mantenimento a scorta, in aggiunta a quelli più tipici del controllo di processo. L'ottimizzazione dei rispettivi modelli, limitatamente ad un modello probabilistico di guasto Weibull, si traduce in politiche sostanzialmente 4 Con guasti si intende qualunque modifica nel modo di variare “naturale” del processo. Capitolo 3 Le carte di controllo adattative bayesiane 72 differenti. In [Ban88] [Rah93] e [Rah94], se da un lato n e k sono costanti, dall'altro gli intervalli di campionamento decrescono rapidamente. In [Par89] invece h, k, n decrescono tutti ma lentamente. Nonostante questa differenza entrambi le impostazioni consentono di realizzare vantaggi di costo, nei casi numerici presentati, dell'ordine del 5% - 10%, arrivando fino al 16%, rispetto ad una carta altrettanto statica, ma con parametri costanti. Banerjee e Rahim [Ban88] Tipo di carta Tempo di guasto Numero di cause assegnabili Intervallo produttivo Parametri variabili Parametri fissi Determinazione del lotto produttivo Riduzione dei costi X Parrkhideh e Case [Par89] X Weibull Weibull 1 Rahim e Banerjee [Rah93] X Rahim [Rah94] X 1 IFR, generica 1 IFR, generica 1 Infinito h n, k no Infinito h, n, k --no finito h n, k Sì finito h n, k sì 5%-17% 1%-15% 1,5%-7,5% 3%-6% Tabella 3.1: Alcune delle caratteristiche distintive dei modelli esaminati per la progettazione economica di carte statiche time varying 3.3.2. Carte di controllo dinamiche non bayesiane A giudicare dalla produzione di articoli nella letteratura scientifica, l'interesse manifestato in quest'ambito appare essere tutt'altro che trascurabile [Tag94]. Si osservi però che per la maggior parte delle carte di controllo dinamiche non bayesiane presentate in letteratura, non vengono formulati modelli per una progettazione economica, ma statistica, contrariamente a quanto accade per quelle bayesiane. Le loro prestazioni non sono valutate in relazione ai costi coinvolti, bensì sulla base di parametri statistici appositamente introdotti. Infatti l'efficienza statistica di uno schema di controllo è determinato dalla "rapidità" con cui esso evidenzia l'occorrenza di cause assegnabili e dalla frequenza dei falsi allarmi. Capitolo 3 Le carte di controllo adattative bayesiane 73 l'ARL (average run length) 5, parametro di prestazione statistica più diffusamente utilizzato, è una misura valida per confrontare l'efficienza di diversi schemi di controllo, solo se l'intervallo di campionamento h è costante e uguale per i due schemi che si stanno confrontando. Nelle carte VSI (variable sampling interval), che sono le più diffuse fra quelle adattative, questa condizione non sussiste. Perciò si introducono, fra gli altri: ATS (average time to signal) = valore atteso del tempo dall'inizio del processo fino all'istante in cui un allarme viene generato. ATTS (adjusted average time to signal)= valore atteso dell'intervallo di tempo dall'occorrenza della causa assegnabile all'istante in cui la carta genera un allarme. La scelta dei valori per le variabili di progetto avviene ottimizzando parametri di prestazione statistica come quelli indicati e confrontando rispetto a questi parametri di prestazione gli approcci statici con quelli dinamici. Occorre comunque precisare che l’assenza di una valorizzazione economica della prestazione degli schemi di controllo, può condurre a situazioni in cui vantaggi statistici dell’approccio dinamico, come la rapidità attesa nell'evidenziare l'accadimento di una causa assegnabile e la ridotta frequenza di falsi allarmi, ottenibili da uno schema di controllo dinamico rispetto ad uno statico, possono essere accompagnati da una accresciuta frequenza di campionamento o da un incremento della dimensione del campione. Una progettazione economica garantisce invece di non incorrere in simili situazioni. Tuttavia molto meno numerosi sono i modelli proposti per la progettazione economica di carte dinamiche non bayesiane. Come riportato in [AlS97] gli approcci in quest’area sono proposti da Park e Reynolds [Par94], Prabhu,Montgomery e Runger [Pra97], Das e Jain [Das97a], Das, Jain e Gosavi [Das97b]. Park e Reynolds in [Par94], propongono un modello per una carta X con dimensione del campione adattativa (VSS, variable sample size), in cui n può assumere due soli valori, piccolo, ns, e grande, nl, costituenti la dimensione del prossimo campione da prelevare a seconda che il valore attuale di X rispettivamente superi o no in valore assoluto, un valore soglia di attenzione w , inferiore al limite di controllo k . L'intervallo di campionamento h è costante, al pari di k. Il processo, evolve indefinitamente ed è soggetto a molteplici cause assegnabili che si manifestano indipendentemente e con tempi di interarrivo esponenziale: ciascuna causa origina shft di diversa entità. I parametri di progetto h, w, k, ns ,nl vengono determinati minimizzando una funzione di costo atteso per unità di tempo. Dai casi numerici 5 L'ARL è definito come una funzione del reale stato del processo e fornisce il numero medio di campioni da prelevare prima che la carta generi un allarme, falso o giustificato, appunto a seconda della condizione del processo. Capitolo 3 Le carte di controllo adattative bayesiane 74 proposti essi evincono che il loro modello consente risparmi fino al 25% rispetto ad una carta statica (con n costante), anch'essa progettata minimizzando la setssa funzione obiettivo. Inoltre l’approccio consente di ottenere migliori prestazioni statistiche rispetto alla stessa carta FSS, poiché sia AATS sia la frequenza dei falsi allarmi sono inferiori . Prabhu,Montgomery e Runger in [Pra97] presentano un modello per la carta X con 2 variabili di progetto adattative: n, dimensione del campione che può assumere 2 soli valori ns (short) e nl (long), ed h, intervallo di campionamento, anch'esso a 2 soli valori hs (short) e hl (long): la carta viene perciò spesso definita VSS ed anche VSI, variable sampling interval. Una sola causa assegnabile esponenzialmente distribuita può occorrere nel processo che evolve all'infinito; essa determina uno spostamento della media a µ 1= µ0±d·s. In funzione delle variabili di progetto della carta, con i simboli già introdotti per [Par94], hs , hl , ns , nl , w, k, viene determinata una funzione obiettivo costo atteso per unità di tempo. Gli autori anziché determinare le variabili di progetto ottimizzando la funzione obiettivo, focalizzano l'attenzione su una minimizzazione vincolata al soddisfacimento di prefissati vincoli di prestazione statistica, ATS(µ0)> soglia 1 e ATS(µ 1)< soglia 2. Dall'analisi di 16 casi numerici si evince che la carta dinamica consente valori attesi del costo per unità di tempo minori rispetto alla corrispondente carta statica; ha inoltre ATS(µ 0) migliori, cioè più lunghi, ma anche ATS(µ 1) più lunghi. Das e Jain in [Das97a] presentano un modello per carta X con VSI e VSS come Prabhu,Montgomery e Runger in [Pra97]. Da questi ultimi si differenziano però perché: 1. considerano hi ed ni variabili aleatorie, a causa della aleatorietà del processo; 2. utilizzano regole empiriche o "run rules" 6 per la selezione del prossimo intervallo di campionamento. Gli autori esaminano una carta con due differenti modelli probabilistici per descrivere la v.a. hi : i parametri delle funzioni di densità utilizzate devono essere noti o stimati dal progettista della carta: sono parametri in input al modello; a ciascun modello è poi associato un intervallo di possibili dimensioni dei campioni. La funzione obiettivo è ancora il costo atteso per unità di tempo, e gli autori riportano i risultati ottenuti in riferimento ad un esempio numerico. La procedura di ottimizzazione si dimostra condurre solo in un minimo locale. Das, Jain e Gosavi in [Das97b], viene proposto un modello per una carta X VSI, con h che assume solo i valori hs (breve) e hl (lungo). 6 Regole empiriche che consistono nell’osservare l’andamento di un certo numero di realizzazioni passate della statistica. Capitolo 3 Le carte di controllo adattative bayesiane 75 L'unica causa assegnabile considerata, che si presenta con tempi di interarrivo esponenzialmente distribuiti, determina uno shift della media da µ 0 a µ 1= µ 0 + d·s , con d>0 . Gli autori derivano l'espressione per il valore atteso del costo per unità di tempo che viene minimizzato rispetto alle variabili di progetto hs, hl, n, w e k . Il confronto della carta proposta con una statica di riferimento, nei casi numerici indagati, evidenzia vantaggi di costo per la carta dinamica dell'ordine del 5%, quando lo shift è contenuto, cioè per un parametro d in input al modello inferiore a 1,5; invece per valori di d superiori, il vantaggio rapidamente diminuisce fino a scomparire per d =2,5 , dove w = k e le due carte divengono identiche. Park e Reynolds [Par94] Tipo di carta Tempo di guasto Numero di cause assegnabili Intervallo produttivo Parametri adattativi Parametri fissi Funzione obiettivo Prabhu, Montgomery e Runger [Pra97] Das e Jain Das, Jain e Gosavi [Das97a] [Da97b] X X X X Esponenzial esponenziale esponenzi Esponenzial e ale e m>1 1 1 1 Infinito Infinito Infinito finito n h, n h, n h h, k Valore atteso del costo per unità di tempo k k Valore atteso Valore del costo per atteso del unità di costo per tempo unità di tempo n, k Valore atteso del costo per unità di tempo Tabella 3.2: Modelli proposti per la progettazione economica di carte dinamiche non bayesiane 3.3.3. Carte di controllo dinamiche bayesiane Tra i modelli proposti sulle carte di controlo adattative bayesiane occorre distinguere un primo set di lavori in cui l’attenzione è Capitolo 3 Le carte di controllo adattative bayesiane 76 principalmente rivolta agli aspetti teorici dell’approccio, più che a quelli applicativi. A questo insieme di lavori appartengono quelli proposti da Bather [Bat63], Taylor [Tay65] [Tay67], Carter [Car72] e Crowder in [Cro92]. Come è possibile osservare tutti gli approcci sono stati proposti negli anni ‘60-’70, ad esclusione di [Cro92] che, a partire da [Bat63], enfatizza l'interesse verso i piccoli lotti di produzione. Questi primi lavori sono ad ampio spettro e non si rivolgono direttamente alla progettazione di carte di controllo. Tuttavia, i modelli in [Bat63], [Tay65] , [Tay67] e [Cro92], possono essere messi in corrispondenza con carte di controllo ad intervallo di campionamento h e dimensione del campione n costanti, ma limite di controllo k adattativo . Invece il modello in [Car72] presenta sia n che k adattativi, ma h costante. Un risultato teorico molto importante di questi primi modelli è che esiste una politica controllo ottimale se si utilizza un’impostazione bayesiana in cui tutta l’informazione disponibile sullo stato del processo, è racchiusa nella probabilità che il processo sia fuori controllo, probabilità che è continuamente aggiornata attraverso teorema di Bayes generalizzato. Tuttavia le implicazioni operative di questi primi modelli sono state limitate dalla complessità delle regole di controllo da essi generate. I modelli più recenti per la progettazione di carte di controllo dinamiche bayesiane sono esclusivamente presentati a tale scopo, perciò viene posta particolare attenzione alle loro implicazioni operative, cercando, di contenerne la complessità. L'unico modello per una progettazione statistica di una carta bayesiana è quello proposto da Vaughan in [Vau93]; i pochi altri invece riguardano la progettazione economica. Vaughan in [Vau93] propone una carta per attributi, di tipo n·p (numero di difettosi), con intervallo di campionamento h adattativo, n costante e coefficiente k individuante la posizione del limite di controllo, pure costante, ma trasformato in un intero, detto numero di accettazione c = 0 . Sia di il numero di pezzi non conformi nel campione i. L'insorgenza della causa assegnabile determina uno shift della difettosità da p0 a p1 con p1 > p0 . Dopo ogni prelievo campionario con il teorema di Bayes, viene aggiornata la probabilità π che il processo sia fuori controllo, a partire da quella nota prima del prelievo. La lunghezza dell'intervallo di campionamento hi è determinata dal fatto che ciascun campione è prelevato quando π raggiunge un prespecificato valore π s . In funzione del numero di accettazione c , funzione di n e di π s , si determina il seguente schema di controllo: ⇒se di > c , viene generato un allarme e, dopo la ricerca della causa assegnabile e l'eventuale ripristino, lo schema di controllo riprende con un assegnato h1; Capitolo 3 Le carte di controllo adattative bayesiane 77 ⇒se di = c , non c'è alcun allarme, e il processo continua con hi+1 , che dipende dal numero di di non conformi presenti nel campione. Questa carta è stata confrontata da Vaughan con la corrispondente carta np FSI, fixed sampling interval. Dal confronto emerge che la carta bayesiana presenta un valore atteso della frequenza di falsi allarmi più basso e una velocità attesa di cogliere shift del processo a p1 più elevata. Se il reale stato di fuori controllo p differisce da quello per cui la carte è stata progettata (p1) la prestazione statistica della carta bayesiana è ancora preferibile rispetto alla statica se p< p1 o di poco >, mentre per p >> p1 non lo è più. Modelli per la progettazione economica di carte di controllo dinamiche bayesiane sono stati proposti da vari autori: Tagaras [Tag94] [Tag96], Calabrese [Cal95], e Porteus e Angelus [Por97].; Il modello presentato in [Tag94] propone una carte di controllo per la media X , adattativa h e k (n=1 costante). La causa assegnabile, che si manifesta con tempo di interarrivo esponenziale, determina uno shift a µ 1 = µ0+ d·s . Quando la carta genera un allarme il processo viene interrotto e si inizia la ricerca della causa assegnabile. Il problema di ottimizzazione viene descritto con una formulazione di programmazione dinamica in cui si definisce il minimo valore atteso del costo in un orizzonte temporale finito di durata H. Vengono inoltre presentati 24 casi numerici in cui si dimostra che il vantagio di un approccio bayesiano, rispetto ad un analogo approccio statico, varia da 2,9% a 25,8% ed in media risulta pari a 14,5%. Tagaras in [Tag96], estende il modello del ‘94 [Tag94] per la carta X rendendolo adattativo non solo in h e k , ma anche in n . Egli presenta 28 casi numerici che documentano come la carta bayesiana, rispetto a quella statica di riferimento, consente riduzioni del costo atteso in media del 8,95% , e, in alcuni casi, prossimi al 15% . Il modello proposto da Calabrese [Cal95], presenta una carta adattativa bayesiana per il controllo statistico della difettosità di processo, p. L'intervallo di campionamento h e la dimensione n dei campioni sono costanti, mentre il coefficiente per il limite di controllo, k, è adattativo. Si assume che due soli valori sono possibili per la difettosità: quello nominale p0 quando il processo è in controllo e p1 > p0 quando il processo è fuori controllo. L'occorrenza della causa assegnabile (che induce lo shift p0 a p1) avviene con tempi di interarrivo esponenzialmente distribuiti. Si ipotizza inoltre che, durante la ricerca della causa assegnabile il processo venga interrotto. Ancora una volta il controllo statistico del processo si attua monitorando la probabilità π che il processo sia fuori controllo, probabilità che è aggiornata, a valle di ogni campionamento, attraverso il teorema di Bayes generalizzato. L’autore prova che la politica di controllo ottimale si realizza quando la carta genera un allarme se π supera un certo valore critico. Sebbene in Capitolo 3 Le carte di controllo adattative bayesiane 78 questo schema di controllo i limiti di una carta p tradizionale non sono considerati esplicitamente, è possibile stabilire una equivalenza tra il valore critico di π e il limite di controllo di una carta p all’i-mo campione (ki , in breve). In questo senso il meccanismo di controllo statistico bayesiano, può essere visto come adattativo in k. L'orizzonte temporale in cui in processo evolve è finito e costituito da N intervalli di campionamento di ampiezza h . Anche in questo caso la funzione obiettivo è data dal valore atteso dei costi legati alla politica di controllo. Calabrese fornisce i risultati in una serie di casi numerici che documentano una riduzione dei costi attesi che va dal 10% al 15%, rispetto ad una carta p statica progettata con approccio simile a quello tradizionale di Duncan. L’ultimo approccio analizzato è proposto nel ’97 da Porteus e Angelus [Por97], i quali sviluppano un modello per controllare la difettosità di un processo. Le ipotesi sono comuni ai modelli descritti: l'occorrenza di una singola causa assegnabile determina un accrescimento della frazione di non conformi rispetto a quella del processo in controllo, la causa assegnabile si manifesta con un tasso di guasto costante. Unica differenza significativa è che in questo approccio la lunghezza del periodo di produzione dipende dalla dimensione del lotto di produzione, che é una variabile di decisione del modello. In definitiva l’approccio propone una selezione congiunta della politica di controllo e della dimensione del lotto ottimale. Analogamente a quanto avviene negli altri approcci bayesiani adattativi, l’informazione disponibile sullo stato del processo è rappresentata dalla probabilità π che il processo sia fuori controllo, aggiornata usando il teorema di Bayes generalizzato. La carta proposta è adattativa in h e k, mentre il parametro n risulta fissato e pari a 1. In aggiunta ai consueti costi associati al controllo di processo, gli autori considerano i costi di setup e di mantenimento a scorta. Essi utilizzano il valore atteso del costo sostenuto per valutare schemi di controllo alternativi e decidere contestualmente la dimensione del lotto. Sebbene alcuni esempi numerici sono presentati e discussi, Porteus ed Angelus non fanno un confronto diretto dei costi con una politica di controllo statica. Invece esprimono i loro risultati in forma di "opportunità per un miglioramento nel controllo statistico di processo": un insieme di osservazioni sulla validità di un approccio bayesiano adattativo. Alcune di queste sono peculiari del contesto produttivo esaminato, ma la maggior parte sono applicabili in generale e riferite alla scelta degli intervalli di campionamento. Capitolo 3 Le carte di controllo adattative bayesiane Tagaras [Tag94] Calabrese [Cal95] 79 Tagaras [Tag96] Porteus e Angelus [Por97] p esponenz. 1 Tipo di carta p X X Tempo di guasto esponenz. esponenz. esponenz. Numero di cause 1 1 1e2 assegnabili Orizzonte temporale Finito Finito Finito Finito Parametri dinamici h, k k h, k, n h,k Parametri fissi n=1 h, n --n=1 Determinazione del no no no Si lotto produttivo Funzione obiettivo Valore Valore Valore Valore atteso dei atteso dei atteso dei atteso dei costi costi costi costi Riduzioni di costo 2,9%10%-15% 1%-15% Non fornito 25,8% Tabella 3.3: Modelli proposti in letteratura per la progettazione economica di una carte adattativa bayesiana Capitolo 3 Le carte di controllo adattative bayesiane 80 3.4. Progettazione economica di una carte di controllo adattativa bayesiana per il controllo delle non conformità Tra gli approcci proposti per la progettazione economica di una carta adattativa bayesiana (Tabella 3.3), nessun modello si è occupato della progettazione di carte per il controllo del numero di nonconformità. Secondariamente tutti gli approcci proposti in letteratura si rivolgono ad una situazione produttiva in cui l’orizzonte temporale di riferimento è fissato a priori. Quest’ipotesi sottintende una situazione in cui, a causa di un ripristino per manutenzione programmata o per set-up, ogni H unità di tempo, si può ipotizzare che il processo sia riportato ad uno stato di funzionamento nominale o in controllo. Seppur plausibile in numerosi contesti produttivi, quest’ipotesi è necessaria nei modelli per ottenere un modello analiticamente trattabile. L’approccio proposto in questo capitolo rilassa l’ipotesi di orizzonte temporale finito, introducendo però un’approssimazione nella ricerca della soluzione ottima. I risultati della sperimentazione numerica confermano comunque che i vantaggi della soluzione proposta rispetto all’equivalente soluzione ottenuta con approccio statico sono paragonabili a quelli che si ottengono con i metodi adattativi bayesiani “esatti” proposti in letteratura (Paragrafo 3.3.3). 3.4.1. Notazione t Indice temporale i Periodo di produzione tra l’ i-1mo e l’imo campione hi Intervallo di tempo tra due campionamenti. X i ∈ {0,1} Stato del sistema alla fine dell’imo periodo produzione (0: in-controllo; 1: fuori- controllo) Yi Numero di nonconformità nell’imo campione yi Numero di nonconformità osservate nell’imo campione λ 0 , λ1 Numero medio di nonconformità quando il processo è, rispettivamente, nello stato 0, 1. 1/ν Tempo medio per avere un cambiamento di stato a i ∈ {0,1} Decisione all’inizio dell’ imo periodo di produzione (0: di Capitolo 3 Le carte di controllo adattative bayesiane { 81 continua a produrre; 1: ferma produzione) P (ai ) = plj (ai ) Matrice delle probabilità di transizione dallo stato X i-1=l π i , π 'i allo stato X i=j dopo aver preso l’azione ai Probabilità che X i =1, rispettivamente, prima e dopo l’ispezione dell’ imo campione f i ( X i − 1 ,a i ) Profitto atteso nell’ imo periodo, dati X i-1 e ai mo f i T ( X i −1 ,a i Profitto atteso nell’unità di tempo nell’i periodo, dati X i-1 e ai Fi (a i ) Profitto atteso nell’unità di tempo nell’ imo periodo, dato ai V 0 , V1 Ricavi netti nell’unità di tempo quando X i=0 e X i=1, rispettivamente A Costo di ricerca di una causa assegnabile (costi di falso allarme) R Costo di riparazione del sistema I Costi di ispezione tFA Tempo di ricerca di una causa assegnabile tR Tempo di riparazione del sistema Tabella 4 Principali simboli nell’approccio proposto 3.4.2. Il modello 3.4.2.1. Ipotesi Il processo si assume sia caratterizzato da due stati: lo stato di funzionamento in controllo (stato 0) e lo stato di funzionamento fuori controllo (stato 1). La transizione dallo stato di funzionamento nominale allo stato di funzionamento fuori controllo è da imputare all’occorrenza di una causa assegnabile, evento caratterizzato da un tempo di interarrivo che è esponenzialmente distribuito con media 1/ν . Si assume che il processo produca unità di ispezione caratterizzate da un numero di non conformità distribuito secondo una distribuzione poissoniana con media λ0 qualora il processo sia caratterizzato dallo stato 0 e media λ1 qualora il processo si trovi in stato 1 ( λ1 > λ0 ) Capitolo 3 Le carte di controllo adattative bayesiane 82 Quando la carta segnala un fuori controllo, cioè il numero di nonconformità rilevate eccede il limite di controllo, il processo è momentaneamente fermato per procedere alla ricerca di una causa assegnabile. Si assume che questo processo di ricerca non sia caratterizzato da errori. Se la causa assegnabile non viene rilevata, il segnale di fuori controllo è da imputare ad un falso allarme e di conseguenza si riprende a produrre. Qualora invece la causa assegnabile è identificata, il processo rimane in stato di inattività per consentire l’azione di ripristino che viene condotta sulla macchina per rimuovere la causa assegnabile. Anche questa azione di ripristino si ipotizza sia caratterizzata da assenza di errori. Senza perdita di generalità, si assume inoltre che l’unità di tempo sia uguale al tempo per processare un’unità di ispezione. 3.4.2.2. Lo schema di controllo adattativo Per controllare il processo produttivo si intende progettare una carta di controllo c adattativa. Anche se la dimensione del campione è assunta costante, la carte progettata è adattativa dato che l’intervallo tra due campionamenti e il limite di controllo (numero di nonconformità che provoca un segnale di fuori controllo) possono variare nel tempo. Infatti, riferendosi al generico periodo imo, dopo che hi unità sono state prodotte, l’unità di ispezione è controllata e il numero di nonconformità yi è osservato. In funzione di yi la carta segnala eventualmente un fuori controllo attraverso la variabile decisionale ai+1 : se ai+1 =0 il processo appare in controllo e quindi di procede con il processamento delle parti; se invece ai+1 =1 il processo risulta fuori controllo per cui la produzione viene arrestata e si procede con la ricerca di una causa assegnabile. Si osservi quindi che in questo approccio la variabile decisionale ai+1 sostituisce la variabile k adottata nei tradizionali approcci statici. Infatti nel tradizionale approccio statico, la regola di segnalazione del fuori controllo è definita come violazione di un limite di controllo, determinato attraverso k (quando cioè il numero di non conformità osservate supera il limite di controllo). In questo approccio invece, la violazione del limite di controllo è sintetizzata nella variabile ai+1 =1. Insieme alla selezione del valore di ai+1 , la procedura di controllo identifica la lunghezza dell’intervallo di produzione prima del prossimo campionamento: hi+1 . Le due variabili decisionali che determinano lo schema di controllo sono individuate massimizzando il profitto orario relativo al prossimo intervallo di produzione. Capitolo 3 Le carte di controllo adattative bayesiane 83 Il valore di questa funzione obiettivo è influenzato dallo stato attuale del sistema, l’approccio bayesiano è adottato per aggiornare l’informazione relativa allo stato del processo. Considerando l’ipotesi di occorrenza poissoniana dello shift, se il processo è in controllo all’inizio dell’ imo periodo, la probabilità che uno shift occorra durante il prossimo intervallo di produzione è data da: γ i = 1 − e −νh i (3.19.) Indicando con X i lo stato del sistema alla fine dell’ imo periodo e con plj (a i ) la probabilità che il processo passi dallo stato X i-1=l allo stato X i=j dato che l’azione ai è stata presa, la matrice delle probabilità di transizione P (ai ) = plj (ai ) può essere ricavata come segue: { 1 − γ i P (a i = 0 ) = 0 } γi and P (a i = 1) = 1 1 − γ i 1 − γ i γi γ i (3.20.) Si indichi con π 'i −1 la probabilità che il processo sia fuori controllo dopo l’i-1mo campionamento, la probabilità che il processo sia nello stesso stato prima di inziare l’ ispezione dell’ imo campione risulta: π i = π 'i −1 p11 (a i ) + (1 − π 'i −1 ) p01 (a i ) (3.21.) Visto che l’espressione di π i è basata sull’informazione disponibile prima di controllare l’i mo campione, in ottica bayesiana, π i rappresenta la probabilità a priori (prior). Indicata con Yi la variabile casuale che rappresenta il numero di nonconformità nell’unità di ispezione, e con yi il valore di questa variabile osservato nell’ imo campione, l’ipotesi di distribuzione poissoniana può essere formalizzata come segue: Yi|λ∼Poisson(λ) Pr(yi|λ ) = e −λλy i yi ! (3.22.) Dopo che l’ ima unità di ispezione è stata controllata, la probabilità che il processo sia fuori controllo può essere aggiornata applicando il teorema di Bayes. Di conseguenza per la probabilità a posteriori (posterior) si ottiene la seguente espressione: Capitolo 3 Le carte di controllo adattative bayesiane Pr(y i |λ1 ) Pr(λ1 ) = Pr(yi ) Pr(y i |λ1 )π i = = Pr(y i |λ1 )π i + Pr(yi | λ0 )(1 − π i ) 84 π 'i = Pr(λ1 |yi ) = 1 λ 1 + e λ1 − λ0 0 λ1 (3.23.) yi 1−πi ( ) πi Una volta nota la posterior, tutte le decisioni per il prossimo periodo (ai+1 , hi+1 ) possono essere prese massimizzando il valore atteso del profitto per unità di tempo come descritto nel prossimo paragrafo. Lo schema finale della procedura di controllo è riportato in Figura 3.5. 1 i hi h1 π’i-1 Probabilità che il processo è fuori controllo dopo mo l’i-1 campione t πi Probabilità che il processo è fuori controllo prima mo dell’i campione hi i mo π’i Probabilità che il processo è fuori controllo dopo mo l’i campione campione: yi Variabili decisionali: § ai+1 § hi+1 Figura 3.5: Lo schema di controllo 3.4.3. La determinazione dei parametri di controllo La determinazione dei parametri di progetto per il prossimo periodo è eseguita massimizzando la funzione obiettivo valore atteso del profitto per unità di tempo. Ad ogni istante vengono infatti selezionati i parametri di controllo valutando il valore atteso del profitto unitario ottenibile nel prossimo periodo al variare della politica di controllo adottata. Siccome l’ottimizzazione è eseguita con un approccio look- Capitolo 3 Le carte di controllo adattative bayesiane 85 forward ad un solo periodo, la soluzione ottenuta non sarà l’ottimo. Infatti per ottenere l’ottimo occorrerebbe proiettare fino alla fine dell’orizzonte temporale di riferimento, l’effetto delle proprie scelte in termini economici. Da questa necessità, nasce l’esigenza, comune a tutti gli approcci proposti, di individuare un orizzonte temporale di scelta finito, ipotizzando l’esistenza di una politica di manutenzione o set-up che riporta il sistema allo stato iniziale di funzionamento ad intervalli prefissati. Qualora questa non risulti un’ipotesi plausibile, occorrerebbe di conseguenza proiettare all’infinito l’effetto economico delle proprie scelte riguardo alla politica di controllo da adottare. Comunque sia, la ricerca dell’ottimo determina un consistente incremento della complessità computazionale e del tempo di calcolo. E’ infatti necessario utilizzare algoritmi di programmazione dinamica che comportano necessariamente una discretizzazione delle variabili di interesse. Un ulteriore studio si rende quindi necessario nel definire il valore corretto di questi parametri di discretizzazione. L’approccio alternativo proposto in questo paragrafo invece nasce dalla constatazione che, in ipotesi di processo non caratterizzato da usura (come nel caso di ipotesi di guasto poissoniano) l’effetto di una politica di controllo sui periodi successivi è comunque limitato. Per cui in questo paragrafo è proposto un approccio di ottimizzazione che determinerà una soluzione sub-ottima, ma con complessità computazionale praticamente trascurabile e che consente di rilassare l’ipotesi di orizzonte temporale di riferimento finito. Al fine di valutare i vantaggi della soluzione proposta, verrà in seguito proposto un confronto tra approccio statico ed approccio bayesiano approssimato proposto. La tesi è infatti che, qualora anche in presenza di una soluzione sub-ottima (ricavata con il metodo descritto) l’approccio bayesiano determini profitti mediamente superiori a quelli ottenibili con l’equivalente approccio statico, questo sarà ancor più vero se nella ricerca dell’ottimo si adotterà un metodo esatto. 3.4.3.1. La funzione obiettivo Iniziamo con l’indicare con f i ( X i −1, a i ) il profitto atteso nell’i-mo periodo di produzione, dato che il processo inizia il periodo in stato Xi-1 e l’ultima azione presa all’inizio dell’intervallo temporale è stata ai. Il profitto atteso per unità di tempo nelle stesse condizioni è indicato con f i T ( X i −1 ,a i ) e può essere ricavato come rapporto tra f i ( Xi −1, ai ) e la lunghezza dell’i-mo periodo. Per determinare il valore di f i T ( X i −1 ,a i ) al variare delle politiche di controllo è necessario introdurre delle grandezze economiche. Il ricavo netto per unità di tempo è V 0 qualora il processo sia in controllo, e V 1 se Capitolo 3 Le carte di controllo adattative bayesiane 86 il processo è fuori controllo (V0>V1). Ogni volta che il processo viene fermato a seguito di un segnale di fuori controllo che però risulta infondato, si incorre in un costo di falso allarme A (costo per ricercare la causa assegnabile). Se invece l’allarme è giustificato, il costo da sostenere risulta pari a A+R (dove R rappresenta il costo addizionale di ripristino del processo, cioè di rimozione della causa assegnabile). I costi di ispezione per unità di prodotto sono indicati con I. Il tempo richiesto per la ricerca della causa assegnabile a seguito di un segnale di fuori controllo è indicato con tFA, mentre tR indica il tempo richiesto per ripristinare il processo una volta che la causa assegnabile è stata evidenziata. Per ogni combinazione di X i −1 e a i occorre valutare il valore del profitto per unità di tempo. Le quattro possibili espressioni di f i T ( X i −1, ai ) possono essere ricavate come segue. Si indichi con τ i il valore atteso del tempo prima dell’occorrenza di una causa assegnabile, dato che questa occorre nell’i-mo periodo: τi = 1 − e −νh i (νhi + 1) (3.24.) ν (1 − e −νh i ) ν e-νt dt a νt f(t)= ν e- a+hi t dt Figura 3.6: Calcolo di τi nell’approccio proposto Se l’azione presa all’inizio del periodo i-mo è continuare a processare le parti e il processo è in controllo, il valore atteso del profitto nel prossimo periodo è pari a Figura 3.7: Capitolo 3 Le carte di controllo adattative bayesiane 87 hi Shift con prob γi hi a i=0: CONTINUO Figura 3.7: Calcolo di f i T (0,0 ) V 0h i − I se nessuno shift occorre nel prossimo periodo, cioè con probabilità (1 − γ i ) ; V 0τ i + V1 (h i − τ i ) − I se uno shift occorre nel prossimo periodo, cioè con probabilità γ i . Quindi l’espressione di f i T (0,0 ) può essere calcolata come: f ( 0,0 ) (1 − γ i )V 0h i + γ i V1 (h i − τ i ) + γ i V 0τ i − I f i T ( 0,0 ) = i = = hi hi γ V 0 h i − (V 0 − V1 )(h i − i ) − I ν = hi (3.25.) Se l’azione presa è continuare a processare quando il processo è fuori controllo (Figura 3.8), il valore atteso del profitto nel prossimo periodo sarà V 1hi-I, dal momento che durante tutto il prossimo periodo il processo continuerà a produrre nello stato di fuori controllo. Capitolo 3 Le carte di controllo adattative bayesiane 88 hi hi a i=0: CONTINUO Figura 3.8: Calcolo di f i T (1,0 ) Quindi f i T (1,0 ) può essere calolato come segue: f (1,0) V1hi − I I f i T (1,0 ) = i = = V1 − hi hi hi (3.26.) Se l’azione presa è fermare il processo mentre il processo è in controllo (falso allarme), il profitto atteso per il prossimo periodo è identico a f i (0,0) , eccetto per un costo addizionale dovuto al falso allarme (A) (Figura 3.9). tFA hi Shift con prob γi tempo ricerca causa (falso allarme) a i=1: FERMO Figura 3.9: Calcolo di f i T (0,1) Di conseguenza si ricava: Capitolo 3 Le carte di controllo adattative bayesiane 89 γ V0hi − (V 0 − V1 )hi − i − I − A f (0,1) ν f i T (0,1) = i = hi + tFA hi + tFA (3.27.) Con simili osservazioni, il valore atteso del profitto per unità di tempo qualora l’azione presa è fermare il processo quando il processo è fuori controllo, risulta (Figura 3.10): tFA tR hi Guasto Con prob γ tempo ripristino tempo ricerca causa a i =1: FERMO Figura 3.10 Calcolo di f i T (1,1) γ V0h i − (V 0 − V1)h i − i − I − A − R f i (1,1) ν f i T (1,1) = = h i + tR + t FA h i + tR + tFA (3.28.) Le espressioni di f i T ( X i −1, ai ) calcolate permettono di determinare il valore atteso del profitto per unità di tempo come funzione dell’azione a i che deve essere presa a inizio periodo Fi (ai). Dal momento che l’azione deve essere selezionata quando l’i-1mo periodo è appena finito e il numero di non conformità nell’i-1 ma unità di ispezione è noto, tutta l’informazione disponibile sullo stato del processo è rappresentata da π 'i −1 , ossia dalla probabilità che il processo sia fuori controllo dopo l’i-1 mo campione. Se l’azione presa è continuare a produrre, il valore atteso del profitto per unità di tempo per il prossimo periodo è F i(0): Capitolo 3 Le carte di controllo adattative bayesiane Fi (a i ) = Fi (0) = (1 − π 'i −1 ) f T i (0,0 ) + π 'i −1 f T i (1,0) = γ (V 0 − V1 ) i I ν (1 − π ' = V1 + i −1 ) − hi hi 90 (3.29.) Se l’azione presa è fermare la produzione, il valore atteso del profitto per unità di tempo per il prossimo periodo, F i(1), è: Fi (a i ) = Fi (1) = (1 − π 'i −1 ) f T i (0,1) + π 'i −1 f T i (1,1) = γ V 0 h i − (V0 − V1 )h i − i − I − A ν = (1 − π 'i − 1 ) + h i + t FA (3.30.) γ V 0h i − (V 0 − V1 )h i − i − I − A − R ν + π 'i −1 h i + t R + t FA In entrambe le espressioni (3.29) e (3.30), π 'i −1 e π i −1 possono essere rispettivamente ricavate dalle equazioni (3.21) e (3.23) aggiornando opportunamente l’indice temporale. Dal momento che le espressioni (3.29) e (3.30) sono funzioni della lunghezza del prossimo intervallo di tempo hi, la procedura di ottimizzazione può essere eseguita in due passi. Durante la prima fase, il massimo profitto per unità di tempo è individuato, dato che l’azione da prendere a i è supposta nota. Di conseguenza due valori di hi che massimizzano le espressioni (3.29) e (3.30) sono calcolati. Attraverso il confronto numerico dei due valori del massimo profitto per unità di tempo ottenuti per a i =0 e a i =1, il massimo globale è determinato. Una volta individuato il massimo complessivo, è di conseguenza definita la coppia di parametri di controllo (a i , h i ) che andrebbero adottati per il prossimo periodo. Capitolo 3 Le carte di controllo adattative bayesiane 91 30 25 20 hi_min 15 ai 10 5 π 0, 4 0,3 6 0,3 2 0,2 8 0,2 4 0, 2 0,1 6 0,1 2 0,0 8 0,0 4 0 0 Figura 3.11: Andamento dei parametri al variare della probabilità di fuori controllo In Figura 3.11 è riportato, a titolo d’esempio, l’andamento dei due parametri hi e ai al variare della probabilità di fuori controllo π. Come è possibile osservare, il parametro hi varia essenzialmente tra due valori: il primo adottato quando ai =0 e il secondo adottato se ai =1. La scelta di ai=1 equivale ad avere, all’inizio del periodo i-mo, un segnale di fuori controllo. Visto che un segnale di fuori controllo dà luogo ad una ricerca causa e ad un eventuale ripristino, se ai =1 si è certi che il processo inizia a produrre nell’i-mo periodo in controllo (avendo ipotizzato assenza di errori nella ricerca causa e ripristino). In questo caso la carta adattativa consente che il prossimo campione sia ispezionato dopo un periodo di tempo adeguatamente lungo hi alto. Se invece a inizio periodo ai =0, la carta non ha evidenza per dire che il processo è fuori controllo (infatti questo accade per valori della probabilità di essere fuori controllo π bassi). Di conseguenza, visto che il processo non parte con un ripristino, il prossimo campione sarà ispezionato dopo un hi non troppo elevato. Capitolo 3 Le carte di controllo adattative bayesiane 92 3.5. Valutazione numerica delle performance delle carte di controllo. Per valutare se l’approccio proposto può indurre un miglioramento delle performance, è stato progettato ed eseguito un confronto numerico tra le prestazioni ottenute con l’approccio bayesiano adattativo proposto e con un approccio statico. Dal momento che la variabile di prestazione considerata è il profitto orario, la progettazione economica della carta di controllo statica è stata definita riferendosi a questa funzione obiettivo. Il confronto numerico è stato eseguito, procedendo ad una progettazione economica dei due tipi di carta e valutando il valore atteso delle performance (profitto medio orario) sulla base dei parametri di ingresso riportati in Tabella 3.5. Parametri Numero medio di non conformità prodotti in stato 0 λ0 Numero medio di non conformità prodotti in stato 1 λ1 Tempo medio per avere uno shift 1/ν Tempo a seguito di un falso allarme tFA tR Tempo di riparazione Profitto orario in stato 0 V0 V1 Profitto orario in stato 1 Costi a seguito di un falso allarme A R Costi di ripristino Costi di ispezione I Caso1 20 25 50 1 1 450 250 25 25 10 Tabella 3.5: Parametri adottati nella valutazione numerica Visto che la progettazione della carta economica bayesiana è effettuata utilizzando i dati provenienti dal processo, è stato necessario procedere ad un set di simulazioni. Sono stati quindi simulate 250 unità di tempo di produzione di una fase controllata con approccio statico e con approccio bayesiano. Ogni run di simulazione (250 unità di tempo) è stato ripetuto 100 volte, sia per l’approccio statico che per quello bayesiano. Per ogni run di simulazione è stato memorizzato il profitto orario registrato. Di conseguenza una popolazione di 100 profitti orari è stata ricavata sia per la fase controllata con approccio statico, sia per quella controllata con approccio dinamico. Su queste due popolazioni è stata verificata l’ipotesi di normalità con un test di Anderson-Darling. Impostando un errore del primo tipo del 5%, non è stato possibile rifiutare l’ipotesi di normalità dei dati, come si può dedurre dai normal plot e dai p-value riportati in Figura 3.12 e in Capitolo 3 Le carte di controllo adattative bayesiane 93 Figura 3.13 per la popolazione di profitti orari ottenuti rispettivamente con l’approccio statico e dinamico. Avendo verificato la normalità dei dati si è proceduto ad un test t per il confronto tra medie: H0 : µs = µa H1 : µ s ≠ µa dove µ s rappresenta il profitto orario medio ottenuto con approccio statico e µ a il profitto medio ottenuto con l’approccio adattativo. Il risultato permette di concludere che c’è evidenza statistica per rifiutare l’ipotesi di uguaglianza fra le medie del profitto orario ottenuto con approccio statico e dinamico. In particolare si osserva che l’approccio bayesiano permette di ottenere un vantaggio del profitto µˆ − µˆ s medio orario ∆ % = a 100 pari a 7,5%. µˆ s Two-Sample T-Test and CI: bayes1; stat1 Two-sample T for bayes1 vs stat1 bayes1 stat1 N 100 100 Mean 382,2 355,5 StDev 18,9 28,9 SE Mean 1,9 2,9 Difference = mu bayes1 - mu stat1 Estimate for difference: 26,74 95% CI for difference: (19,92; 33,55) T-Test of difference = 0 (vs not =): T-Value = 7,75 Value = 0,000 DF = 170 P- Capitolo 3 Le carte di controllo adattative bayesiane 94 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 stat1 Average: 355,475 StDev: 28,9026 N: 100 Anderson-Darling Normality Test A-Squared: 0,323 P-Value: 0,523 Figura 3.12 Normal plot dei risultati ottenuti con progettazione statica Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 340 390 440 bayes1 Average: 382,212 StDev: 18,8780 N: 100 Anderson-Darling Normality Test A-Squared: 0,413 P-Value: 0,332 Figura 3.13 Normal plot dei risultati ottenuti con progettazione dinamica Capitolo 3 Le carte di controllo adattative bayesiane 3.5.1. 95 Analisi di sensitività della soluzione Per valutare se il vantaggio registrato con l’approccio bayesiano si mantiene anche al variare dei parametri di ingresso della carta, si è proceduto ad effettuare un analisi di sensitività (i cui dettagli sono riportati in Appendice C). Su tutti i parametri di ingresso sono state introdotte delle variazioni del 100%: ogni parametro rilevante è stato quindi raddoppiato. Un’attenzione particolare è stata tuttavia dedicata a due coppie di parametri che è sembrato opportuno considerare congiuntamente. La prima coppia si riferisce al numero medio di non conformità generate dal processo in stato 0 ed 1 (λ0 e λ1), e la seconda coppia al profitto orario ottenuto dal processo nei due stati (V0 e V1). Se si raddoppia il valore del parametro λ0 si riproduce una situazione irrealistica in cui il numero medio di nonconformità prodotte nello stato 0 (in controllo) è superiore allo stesso parametro nel caso di processo fuori controllo. Analogamente per il profitto orario nel caso di fiuori controllo: V1: raddoppiando questo parametro si simulerebbe una situazione in cui il profitto orario quando il processo è fuori controllo è maggiore rispetto al caso di processo in controllo. Queste situazioni irrealistiche non sono di conseguenza state simulate. Considerando che il numero totale di parametri è pari a 10 e dua di questi parametri (λ0 e V1) non vengono modificati, 8 nuovi casi sono stati simulati. In Tabella 3.6 sono riportati l’insieme dei casi simulati, indicando nella prima colonna (caso 1) i parametri nel caso base. Anche in questo caso sono state simulate 250 unità di tempo di produzione di un processo monitorato con i due approcci. Per ognuno degli 8 casi sono state poi eseguite 100 repliche per l’approccio bayesiano e altre 100 per l’approccio statico. Per le due popolazioni di valori del profitto orario ottenute è stato eseguito un test di Anderson-Darling per verificare la normalità dei dati. Quando è stato necessario rifiutare l’ipotesi di normalità per la popolazione di osservazioni, il test t-Student per il confronto di medie è stato sostituito con il test non parametrico di Mann-Whitney. In tutti i casi esaminati è stato possibile concludere che c’è evidenza statistica per affermare che il profitto orario ottenuto adottando un approccio statico dello schema di controllo è diverso da quello ottenuto con un approccio dinamico. I risultati in termini di aumento medio percentuale di profitto orario ottenibile passando da un approccio statico ad uno dinamico sono riportati in Capitolo 3 Le carte di controllo adattative bayesiane 96 Tabella 3.7. Come è possibile osservare lo schema di controllo adattativo determina un incremento nel profitto orario che varia, nei casi esaminati, dal 7,5% al 13,4%. Inoltre Parametri Numero medio di non conformità λ0 prodotti in stato 0 Numero medio di non conformità λ1 prodotti in stato 1 Tempo medio per avere uno 1/ν shift Tempo a seguito di un tFA falso allarme Tempo di tR riparazione Profitto orario in V0 stato 0 Profitto orario in V1 stato 1 Costi a seguito di un A falso allarme Costi di R ripristino Costi di I ispezione Caso Caso Caso Caso Caso Caso Caso Caso Caso 1 2 3 4 5 6 7 8 9 20 20 20 20 20 20 20 20 20 25 30 25 25 25 25 25 25 25 50 50 100 50 50 50 50 50 50 1 1 1 2 1 1 1 1 1 1 1 1 1 2 1 1 1 1 450 450 450 450 450 650 450 450 450 250 250 250 250 250 250 250 250 250 25 25 25 25 25 25 50 25 25 25 25 25 25 25 25 25 50 25 10 10 10 10 10 10 10 10 20 Tabella 3.6: Casi simulati nell’analisi di sensitività. Capitolo 3 Le carte di controllo adattative bayesiane OUTPUT caso1 DATA 382,2 carta adattativa bayesiana carta statica 355,5 7,5% Guadagno medio percentuale 97 caso2 caso3 caso4 caso5 caso6 Caso7 caso8 caso9 360,6 381,8 381,1 381,4 381,2 382,4 380,5 380,6 318,1 346,7 353,6 352,4 350,6 352,9 347,0 350,7 13,4% 10,1% 7,8% 8,2% 8,7% 8,4% 9,7% 8,5% Tabella 3.7 Risultati dell’analisi di sensitività Come indicato in Tabella 3.7, il raddoppio di ogni parametro di ingresso dà luogo ad un maggior incremento del profitto orario passando ad un approccio adattativo. In particolare, in Figura 3.14 è riportata la differenza tra il ∆ % ottenuto a seguito del raddoppio del parametro riportato in ascissa e il ∆ % ottenuto nel caso base. Come è possibile osservare, i parametri che maggiormente influenzano il miglioramento con approccio adattativo sono il numero medio di non conformità generato nel caso di fuori controllo λ1 e il tempo medio tra due shift 1/ν. 7,0% 6,0% 5,0% 4,0% 3,0% 2,0% 1,0% 0,0% tFA tR A I V0 R 1/n l1 Figura 3.14 L’effetto dei diversi parametri nell’analisi di sensitività Capitolo 3 Le carte di controllo adattative bayesiane 98 3.6. Conclusioni e futuri sviluppi In questo capitolo è stato presentato un nuovo approccio per la progettazione economica di carte di controllo per il controllo delle non conformità generate da un processo. Il principale vantaggio dell’approccio proposto è la semplicità dell’algoritmo di ottimizzazione che, inoltre, non necessita dell’ipotesi di orizzonti temporali di riferimento finiti. La sperimentazione numerica ha anche permesso di dimostrare che l’approccio risulta promettente in confronto alla tradizionale progettazione statica, determinando dei vantaggi nel profitto orario significativi. Dal momento che le ricerca in quest’ambito ha avuto un nuovo impulso solo recentemente, una serie di possibili sviluppi futuri possono essere considerati. In primo luogo, visto che l’approccio si basa su una probabilità di riferimento (la probabilità a posteriori) ottenuta collezionando informazioni sul processo sarebbe opportuno estendere il confronto numerico ai tradizionali approcci che operano non solo sull’ultima statistica di riferimento, come CUSUM ed EWMA. A differenza del tradizionale approccio statico, l’approccio adattativo può inoltre risultare particolarmente vantaggioso in situazioni in cui l’occorrenza dello shift non è caratterizzata dalla proprietà di assenza di memoria (come nel caso di shift poissoniani). Di conseguenza l’applicazione di carte adattative per processi caratterizzati da diversi meccanismi di guasto (per modellare processi di invecchiamento e usura) può risultare particolarmente interessante. Capitolo 3 Le carte di controllo adattative bayesiane 99 Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 100 CAPITOLO 4 MISURARE E MONITORARE LA QUALITÀ DEL SERVIZIO: UN APPROCCIO BAYESIANO 4.1. Introduzione La grande attenzione dedicata negli ultimi anni alla qualità del servizio è da ritenersi solo il prodromo di un capitolo ancora da scrivere, su cui è plausibile convoglieranno grandi energie in ambito accademico e industriale. Tra le ragioni che hanno portato a spostare l’attenzione dal prodotto al servizio sicuramente vi è l’ambito sempre più globale della competizione per le aziende che forniscono prodotti. In questi settori è ormai sempre più necessario competere con fattori tradizionalmente ritenuti secondari come il servizio offerto all’atto dell’erogazione del bene prodotto e l’assistenza post vendita. Se si considera inoltre la crescente attenzione verso la dismissione e il riciclaggio, l’attenzione al servizio prestato da un azienda andrà sempre più oltre la vita utile del bene prodotto. A questi fattori, già evidenziati da chi enfatizza negli ultimi anni la necessità di controllare la qualità del servizio, vanno aggiunti altri segnali che ancor di più sottolineano la grande attualità del tema. L’avvento del commercio elettronico, innanzitutto. Questa nuova forma di vendita renderà infatti ancor più difficile il contatto con il cliente e ancor più necessaria l’esigenza di un feedback sulla soddisfazione di quest’ultimo rispetto al prodotto e al servizio erogato. Inoltre, l’importanza di monitorare la qualità dei risultati sta prendendo sempre più piede in ambiti molto distanti da quelli tradizionali. L’attenzione a questo tema è ormai evidenziata in tutte le aziende di servizi, pubbliche e private: dall’università ai trasporti ferroviari, dalle poste alle aziende di fornitura di energia e gas. La grande sfida in quest’ambito è nella definizione di standard qualitativi che possano essere ritenuti sufficientemente generali e nella Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 101 definizione di metodi per misurare e controllare nel tempo la soddisfazione del cliente rispetto alla qualità del servizio offerto. Due principali aspetti rendono problematica la definizione di metodologie in quest’ambito: il servizio è caratterizzato da una spiccata multidimensionalità e le varie dimensioni che vanno a influenzare la soddisfazione del cliente rispetto al servizio percepito sono talvolta non oggettivamente misurabili. Accanto ad indicatori misurabili, come ad esempio il numero di reclami, la soddisfazione dipende infatti da aspetti intangibili, come la disponibilità dell’interlocutore e la rapidità di risposta, che necessitano di un giudizio fortemente soggettivo da parte del cliente. E’ ormai pratica consolidata quella di sottoporre al cliente dei questionari progettati per interrogare direttamente la popolazione di clienti riguardo al loro grado di soddisfazione La definizione dei principali aspetti (o indicatori) su cui si intende ottenere informazioni, è spesso compito di un team che coinvolge diverse funzioni aziendali e che dipende esplicitamente dal contesto in cui l’azienda opera. La traduzione di questi indicatori in un insieme di domande può poi essere fatta utilizzando i metodi proposti in letteratura, di cui si fornisce una descrizione in seguito. Questi metodi forniscono delle indicazioni su come sottoporre le domande ai clienti: il numero di possibili risposte tra cui il cliente può scegliere e la modalità con cui quest’ultimo deve esporre il proprio giudizio (ad esempio giudizio verbale come ottimo– sufficiente–insoddisfacente, o scala numerica). Dal momento che ognuno degli indicatori rispetto ai quali si interroga il cliente, può poi influenzare con diverso peso la qualità percepita, i metodi proposti richiedono spesso al cliente stesso di indicare, nello specifico, un peso d’importanza di ogni indicatore. Il lavoro proposto in questo capitolo, il quale prende spunto da [Boi99], intende approfondire due aspetti legati all’analisi di questionari atti a monitorare la soddisfazione del cliente relativamente al servizio percepito. L’approccio è orientato a definire una rete di dipendenza tra le domande sottoposte alla popolazione dei clienti, a partire dai dati ottenuti. Questa rete di dipendenza indica il legame di condizionamento che esiste tra gli esiti delle varie domande. In pratica viene costruito un grafo probabilistico in cui un arco orientato indica che l’esito ottenuto relativamente ad una domanda condiziona probabilisticamente l’esito ottenuto su altre domande. Questa rete ottenuta a valle dell’analisi dei dati può essere utilizzata in diversi modi. In primo luogo può servire a definire cluster di domande tra cui esiste un forte legame di dipendenza. La definizione di questi cluster facilita l’individuazione di macroindicatori da monitorare nel tempo. All’interno di ciascun cluster si può poi procedere alla riduzione del numero di domande. Questa fase, di taratura del questionario, è indispensabile per aumentare l’efficacia dell’indagine. Infatti è noto che l’attenzione e la disponibilità che un intervistato dedica alle risposte si Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 102 riduce notevolmente al crescere del numero di domande. La rete di dipendenza facilita infatti nell’individuazione delle domande “superflue”. Se infatti, dall’analisi dei dati si individuano delle domande (condizionate) per le quali la risposta fornita dagli intervistati è fortemente dipendente dalla risposta fornita su qualche altra domanda (ritenuta condizionante), è possibile procedere all’eliminazione di queste domande che non forniscono informazioni aggiuntive. Ultimo ma non per importanza, l’aspetto relativo ai pesi. In quasi tutti i questionari è infatti contemplata una domanda che richiede l’espressione di un giudizio relativamente alla soddisfazione complessivamente percepita. Dall’analisi delle domande che più fortemente condizionano l’esito di questa risposta generale, si può dedurre quali sono gli indicatori che più pesantemente influenzano la soddisfazione globale. Risulta così inutile chiedere espressamente alla popolazione di clienti di indicare il peso di importanza relativamente ad ogni aspetto dell’indagine. La flessibilità dell’approccio bayesiano ben si adatta inoltre ad iterare nel tempo quest’analisi dei dati. Infatti è possibile per le reti di dipendenza bayesiane evidenziare una distribuzione a priori di un modello di dipendenza dei dati. Se questa distribuzione a priori è in realtà stata ottenuta dall’ultima analisi dei dati eseguita, è possibile ottenere una distribuzione a posteriori che è frutto sia delle osservazioni ottenute con la nuova interrogazione sia delle analisi passate, rappresentate attraverso la prior. Il capitolo è organizzato come segue. Dapprima verrà ulteriormente dettagliata la differenza tra prodotto e servizio, entrando nei dettagli delle caratteristiche tangibili e intangibili che vanno a influenzare la soddisfazione del cliente riguardo al servizio di cui usufruisce. Secondariamente saranno brevemente descritte le caratteristiche dei metodi proposti in letteratura per l’analisi della qualità del servizio. Infine si descriverà l’approccio proposto applicandolo ad un caso reale il call center di una società di assicurazioni (Assitalia). Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 103 4.2. Il servizio e il prodotto Il servizio non è altro che il “prodotto” di un processo ripetitivo le cui caratteristiche sono determinabili dal produttore generalmente a base umana, mentre il prodotto manufatto è il risultato di un processo ripetitivo a base di macchina. Il servizio ha, come il prodotto, delle caratteristiche qualitative reali (quelle rilevanti per l’utilizzatore che sono le basi per la determinazione della qualità del servizio secondo questi). E’ un evento di fruizione per il cliente, di erogazione per il fornitore, al cui risultato concorrono diverse variabili. Per capire quali effettivamente esse siano è necessario fare la distinzione tra processo del servire (i cui standard sono determinati dal produttore) e servizio, inteso come output (i cui standard sono determinati dal cliente). La natura del servizio lo rende diverso dal prodotto in base alle seguenti differenze: § Caratteristica del processo produttivo: Il servizio non è altro che il “prodotto” di un processo prevalentemente “a base umana”, mentre il prodotto manufatto è, spesso, il risultato di un processo ripetitivo “a base di macchina”. § Intangibilità: I beni possono essere descritti come oggetti fisici. Al contrario il servizio è un’azione, una prestazione. Commercializzare una prestazione è molto differente da commercializzare un oggetto fisico. Le caratteristiche di un oggetto possono, per esempio, essere apprezzate guardandolo, mentre non è la stessa cosa per il servizio che è in sostanza un “prodotto intangibile che mira a migliorare lo stato del cliente così come egli richiede” (UNI-ISO 8402). La valutazione dell’esito del servizio presenta, quindi, una forte componente di “intangibilità” perché entrano in gioco oltre alle componenti oggettive che soddisfano i bisogni materiali del cliente, anche quelle soggettive dovute al modo in cui il servizio giunge al compimento (personale e non tangibile). § Partecipazione attiva del cliente al processo di produzione del servizio: A differenza del prodotto facilmente standardizzabile, il servizio si realizza nel momento in cui si concretizza il rapporto cliente-fornitore. Spesso il servizio fornito tende ad essere personalizzato in funzione delle esigenze espresse dal cliente. L’assemblaggio finale può aver luogo in tempo reale ed il suo utilizzo si ha durante la sua realizzazione. Questo implica che la qualità associata all’esperienza del servizio è in parte funzione del processo di erogazione, ma soprattutto legata all’interazione del cliente con le funzioni che lo erogano. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 104 § Eterogeneità: E’ difficile riprodurlo consistentemente ed esattamente e non c’è possibilità di revisione prima che venga consegnato al cliente ( non si può recuperare un cattivo servizio) proprio perché produzione e consumo sono spesso contestuali [Leo93]. L’erogazione del servizio tenderà in qualche modo a differire nel corso del tempo o al variare dei clienti. Conseguentemente nell’ambito delle diverse transazioni è lecito aspettarsi un certo grado di variabilità. § Deperibilità: Poiché il servizio è una prestazione, non può essere immagazzinato. La sua deperibilità crea problemi di capacità per l’organizzazione di questo. Inoltre le capacità di servizio disponibili ma inutilizzate, durante un determinato periodo di tempo risultano effettivamente dissipate e sprecate. In conclusione occorre considerare la stretta correlazione tra fornitore e cliente che nel servizio si realizza: per meglio comprendere la qualità di quest’ultimo occorrerà analizzare il processo del servire , caratterizzato da standard qualitativi spesso definiti dal produttore, ed il suo output, il servizio, le cui specifiche sono, invece, determinate dal cliente. La norma ISO 8402 (Qualità – Termini e definizioni) definisce il Servizio come: “Risultato di attività svolte, sia all’interfaccia tra fornitore e cliente che all’interno dell’organizzazione del fornitore, per soddisfare le esigenze del cliente.” Queste caratteristiche peculiari del prodotto “servizio” rendono particolarmente critica la misurazione delle performance del fornitore, infatti tutti gli indici tradizionali di rendimento, non conformità, produttività sono fortemente legati al beneficio che il cliente ne trae, al valore aggiunto che viene trasferito alla sua attività, in sostanza, dipendono direttamente dalla Customer Satisfaction. Un servizio erogato in maniera particolarmente Efficiente, cioè con l’utilizzo ottimale delle risorse dell’azienda, se non è Efficace, cioè non soddisfa i bisogni del cliente, non ha valore e rischia di portare a gravi perdite di immagine per l’azienda. La definizione delle necessità e delle aspettative è una fase fondamentale del processo di progettazione del servizio, in quanto il fornitore deve cercare di far esplicitare al cliente anche i bisogni impliciti e non chiaramente definiti, così da non far insorgere insoddisfazione già dalla fase contrattuale. A supporto di quanto detto si possono citare i dati di alcune ricerche della “American Management Association” sugli acquisti, dalle quali risulta che circa il 65% del volume di affari nelle imprese sono acquisti ripetuti, quindi riferiti a clienti soddisfatti e fidelizzati, e che il costo di acquisizione di nuova clientela è 5 volte superiore a quello relativo al mantenimento di quella già esistente. Quindi conviene soddisfare i clienti a fondo e cercare di renderli “fedeli” alla propria azienda, e per Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 105 fare ciò è indispensabile instaurare uno stretto rapporto con il cliente, venendo a conoscenza dei desideri ed impegnandosi a trovare il modo di esaudirli. 4.3. La Qualità del servizio in letteratura “La qualità del servizio é un concetto misurabile per analizzare la soddisfazione dei propri clienti. Il buon governo dell’azienda richiede il consapevole supporto della misurazione, intesa come processo di conoscenza. La valutazione di una qualità del servizio non può prescindere da una misurazione del livello di soddisfazione della clientela (fenomeni di mercato) e dell’efficienza dei processi aziendali (fenomeni d’azienda) che concorrono a determinare tale livello” [Col87]. Pertanto la qualità del servizio può essere sinteticamente definita come: Q S= Q Qualitá attesa = A Qualitá realizzata Q R Quando si parla di efficienza dei processi aziendali si fa riferimento alla qualità offerta, quando, invece, si vuole monitorare l’impatto sul cliente ed il suo livello di soddisfazione, allora é più opportuno andare a valutare la qualità percepita del servizio. “La qualità percepita é la misura con cui un prodotto/servizio assolve le funzioni attese dall’utente” [Col97]. In letteratura la qualità del servizio é stata definita come il risultato del confronto tra quello che i clienti ritengono che il fornitore debba loro offrire e le prestazioni che il fornitore é in grado di erogare effettivamente [Gho94], e quindi sempre come rapporto tra una realizzazione ed un’attesa. Spesso si verifica una differenza tra il servizio che l’acquirente si aspetta (servizio atteso) e la percezione che lo stesso riceve in relazione al servizio effettivamente ottenuto (servizio percepito). Se questa differenza é importante perché in sede di contrattazione non si sono definiti i dettagli del servizio, l’immagine del fornitore finirà per uscirne fortemente danneggiata. Per esempio, un cliente può essere portato a ricordare sempre, a proposito di un fornitore, quell’unico caso in cui le cose sono andate male e non cercare invece di ridimensionare l’importanza di questo caso mettendolo in relazione ai tanti altri in cui le forniture si sono svolte regolarmente. Il cliente confronta continuamente il SERVIZIO PERCEPITO ed il SERVIZIO ATTESO; il risultato di questo processo sarà la QUALITA’ PERCEPITA DEL SERVIZIO [Gro82]. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 106 La qualità del servizio dipende, quindi, da queste due variabili [Col87] e [Gal91], é quindi necessario conoscere quali siano le risorse e le attività che, all’interno dell’azienda, hanno incidenza su di esse. Alla luce dei benefici ricercati e delle conoscenze, convinzioni ed esperienze maturate, il consumatore qualifica le proprie attese con riferimento ad un insieme di attributi rilevanti dell’offerta, specificandone la gerarchia e l’intensità ritenute ottimali. In tal modo definisce la composizione del servizio per lui ideale e su questa base, attraverso la comparazione degli elementi differenziali percepiti, analizza le alternative esistenti sul mercato apprezzando la qualità offerta e sceglie. Dopo la fruizione del servizio, valuta la qualità del servizio considerando il paragone tra le sue attese e le sue percezioni. Gronroos [Gro82] afferma che per controllare la qualità del servizio bisogna: - definire come la qualità del servizio é percepita dal consumatore - definire quali sono le risorse e le attività che la influenzano e quindi come l’azienda può incidere sulla qualità del servizio. La qualità del servizio dipende dal fatto che il cliente é influenzato da COME egli riceve il servizio (qualità funzionale), oltre che da COSA riceve (risultato del servizio ossia qualità tecnica). La qualità tecnica é riferita al risultato del servizio; per esempio, nel caso di un’officina per la riparazione di autovetture, é la disponibilità della macchina al momento concordato, la sua pulizia e le sue condizioni meccaniche. La qualità funzionale é relativa all’interazione tra chi eroga e chi riceve il servizio ed alla percezione che il cliente ha di questo. Ancora nel caso dell’officina, essa é relativa alla quantità di spiegazioni che il meccanico fornisce al cliente, alla comunicazione direttamente al cliente nel caso ci sia un ritardo o un ulteriore lavoro da fare. Entrambe queste grandezze vanno ad incidere sulla qualità percepita dal cliente. Ovviamente le dimensioni della qualità funzionale non possono essere determinate oggettivamente e quantitativamente come le dimensioni tecniche. Quindi, i contatti con il cliente, l’apparenza, il comportamento, l’accessibilità sono elementi che agiscono direttamente sulla qualità funzionale. Mentre il Know-how dell’azienda, i macchinari, i sistemi informativi e le soluzioni tecniche agiscono sulla qualità tecnica. In accordo con Swan e Comb [Swa76] che parlano di prestazione tecnica e prestazione funzionale, anche Gronroos afferma che la qualità tecnica é una condizione necessaria ma non sufficiente per garantire la soddisfazione del cliente. Una qualità tecnica accettabile é il prerequisito per una qualità funzionale di successo, ma i problemi temporanei di qualità tecnica Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 107 possono essere scusati dai consumatori se la qualità funzionale é sufficientemente buona. Sasser, Olsen e Wyckoff [Sas78] hanno anch’essi proposto tre dimensioni relative al processo di erogazione del servizio: i materiali, le attrezzature ed il personale . Attivitá di marketing, esperienze passate SERVIZIO ATTESO Qualità percepita del servizio SERVIZIO PERCEPITO Immagine Contatti con il cliente Soluzioni tecniche Know how QUALITA’ TECNICA macchine Sistemi computerizzati Atteggiamenti QUALITA’ Relazioni FUNZIONALE interne Chiarezza Accessibilitá Apparenza Figura 4.1: La qualità del servizio in Gronroos [Gro82]. Lehtinen e Lehtinen [Leh82] individuano tre aspetti della qualità: la qualità fisica (riguardante aspetti fisici del servizio), la qualità aziendale (riguardante il profilo dell’azienda), la qualità interattiva che deriva dall’interazione tra il personale di contatto ed il cliente. Essi affermano, inoltre, che é necessario distinguere tra la qualità associata al processo di erogazione e quella associata al risultato del servizio. S. Boomsma [Boo91] definisce la qualità del servizio come la risultante delle impressioni e dei giudizi che il cliente ricava da ogni particolare Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 108 osservabile prima, durante e dopo la fornitura del servizio; dette impressioni possono essere classificate in tre categorie: - qualità tecnica (COSA): qualità che si può paragonare alla qualità del prodotto (la differenza é che la prima si può descrivere con le specifiche tecniche). - qualità funzionale (COME): riguarda il modo in cui l’azienda struttura le sue consegne. - qualità di relazione(CHI): dipende dalle relazioni che gli addetti hanno con i clienti (valida in particolare per un’azienda di servizi). Una versione modificata dell’analisi degli aspetti salienti della qualità del servizio é quella presentata da Parasuraman [Par85] dove vengono individuati come aspetti salienti della qualità percepita del servizio la affidabilità, la credibilità, la competenza, l’accessibilità al servizio, la cortesia, ecc. Parasuraman, Zeithaml, Berry hanno definito la qualità percepita del servizio come l’intensità e la direzione della discrepanza tra le percezioni e le aspettative che i clienti hanno del servizio; questa percezione é collocabile su una scala che va dalla qualità ideale a quella inaccettabile in funzione della distanza tra servizio atteso e servizio percepito. Il modello concettuale da essi elaborato è presentato nella Figura 4.2. Questo modello mostra le attività salienti di un’organizzazione di servizi che influenzano la percezione della qualità. Mostra, inoltre, le interazioni tra queste attività ed identifica i legami tra le attività chiave relative all’erogazione di un livello della qualità del servizio soddisfacente. Secondo Parasuraman, Zeithaml e Berry, la discrepanza tra le percezioni e le attese del consumatore (Gap5) è funzione di altri quattro differenziali esposti nel seguito brevemente: - differenziale tra le attese del consumatore e le percezioni del management di queste (Gap1): il management può non avere una giusta percezione di ciò che il consumatore si aspetta; - differenziale sulle specifiche della qualità del servizio (Gap2): ci può essere incapacità da parte del management di trasporre le attese del cliente in specifiche della qualità del servizio. Questo differenziale si può avere in fase di progettazione del servizio; - differenziale di erogazione del servizio (Gap3): le linee guida per l’erogazione del servizio non garantiscono un servizio di alta qualità. Ci possono essere molte ragioni per questo gap come la carenza di un supporto sufficiente dello staff di front-line, i problemi di processo; - differenziale di comunicazione esterna (Gap4). le attese del cliente sono formate dalle comunicazioni esterne di un’organizzazione. Per ridurre questo gap un’organizzazione deve spiegare accuratamente il servizio offerto ed il modo in cui questo è erogato. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano Passa -parola Bisogni personali 109 Esperienze passate SERVIZIO ATTESO Gap5 SERVIZIO PERCEPITO Consumatore Fornitori Erogazione del servizio Gap3 Gap1 Gap4 Comunicazioni esterne al consumatore Trasformazioni delle percezioni in specifiche di servizio Gap2 Percezioni del management delle attese del consumatore Figura 4.2: La qualitá del servizio in Parasuraman, Zeithaml e Berry. Dalle definizioni riportate in letteratura è evidente che il problema di misurare e controllare la qualità del servizio nasce da una implicita difficoltà nel tradurre e comprendere le esigenze e i bisogni del cliente. Occorre di conseguenza definire opportunamente la modalità di raccolta e analisi dei dati, a valle della quale apportare le opportune modifiche al sistema di erogazione del servizio in un ottica di miglioramento continuo. 4.4. Le dimensioni della qualità del servizio Si considerino le sei dimensioni della qualità individuate in [Neg92]: § Tecnica § Economica § Organizzativa § Relazionale § Immagine § Ambientale Per ognuna di queste è necessario definire i fattori di interesse da tenere sotto controllo, cercando di scegliere elementi realmente indicativi dell’evoluzione qualitativa del processo di erogazione del Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 110 servizio. Delle sei dimensioni considerate non tutte possono essere misurate con indicatori ricavabili direttamente dai dati aziendali, in quanto alcune necessitano di apposite indagini di percezione di questi aspetti da parte del cliente attraverso adeguati studi di Customer Satisfaction, i quali verranno trattati nei prossimi paragrafi. Rientrano in questa categoria la dimensione relazionale, quindi ciò che riguarda i comportamenti e gli atteggiamenti, le attitudini e la competenza specifica degli operatori, e la dimensione di immagine, considerando proprio gli effetti psicologici e di atteggiamento dei clienti rispetto all’azienda erogante il servizio. Si tratteranno in primo luogo gli aspetti direttamente valutabili dagli indicatori “fisici”, cioè ricavabili in modo più o meno diretto dai dati a disposizione dell’azienda o attraverso apposite misurazioni. 4.4.1. Indicatori “tangibili” del Servizio Esistono un set di fattori che possono essere valutati semplicemente osservando il processo di erogazione del servizio. Il monitoraggio e il confronto con gli standard stabiliti porta ad avere una visione più precisa del servizio offerto e delle performance da un punto di vista interno all’organizzazione, quindi della qualità interna. Questa prospettiva mette in evidenza gli sforzi fatti dall’azienda, in termini di risorse mobilitate e di coinvolgimento del personale, per lo sviluppo e il mantenimento di un sistema qualità efficiente ed efficace. Di seguito verranno trattati invece quegli indicatori, ricavabili dalle indagini di mercato e dai dati a disposizione dell’azienda, che, attraverso la valutazione della durata del rapporto di fornitura o dell’ampliamento della clientela, danno una stima della qualità del servizio offerto (qualità esterna). 4.4.1.1. Indicatori di qualità interna L’implementazione di un sistema di indicatori per il controllo delle attività di un’azienda ha bisogno in primo luogo di una chiara e precisa definizione degli obiettivi del controllo stesso, nel senso di stabilire preventivamente gli elementi più importanti da esaminare e in modo da focalizzare l’attenzione su un ristretto numero di dati, più facili da gestire e da interpretare. 4.4.1.1.1. Dimensione tecnica La dimensione tecnica rappresenta le caratteristiche fisiche, visibili, del processo di erogazione del servizio e quindi più facilmente misurabili. Gli indicatori da utilizzare vengono scelti sulla base di Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 111 considerazioni strategiche e di politica aziendale, cioè si devono valutare, caso per caso, le necessità specifiche dell’organizzazione di controllare gli andamenti di alcune prestazioni tecniche rispetto ad altre. Come in ogni altra attività aziendale vanno considerate anche opportune analisi economiche e di convenienza per quanto riguarda il numero e la precisione delle indagini e degli indicatori da utilizzare, in quanto, pur essendo le dimensioni tecniche relativamente le più facili da misurare, la loro rilevazione rappresenta sempre un notevole impegno di tempo e di risorse. Tra i fattori più frequentemente utilizzati nella valutazione delle prestazioni “tecniche” durante il processo di erogazione del servizio, possiamo citare: ♦ i tempi: di consegna, di erogazione vera e propria, di risposta al cliente, di attesa per il servizio, di gestione del disservizio; ♦ le prestazioni specifiche del servizio: precisione, affidabilità, formazione necessaria per gli utenti, qualità e quantità dei servizi “secondari” (di supporto) erogati; ♦ le condizioni contrattuali: vincoli, prezzi, condizioni di pagamento. Il sistema informativo per accedere a questi dati deve solamente riferirsi, ad esempio, al controllo dei tabulati di consegna delle merci, oppure dal confronto tra la data di richiesta da parte del cliente di un certo servizio e la data di erogazione dello stesso. .Come è stato prima ricordato la scelta degli indicatori dipende dalle condizioni aziendali, dal tipo di servizio erogato, dagli obiettivi dell’alta direzione e soprattutto dalle indicazioni ricavate da eventuali lamentele dei clienti su particolari aspetti dell’organizzazione e dell’attività svolta, in quanto non bisogna dimenticare che l’obiettivo fondamentale per il raggiungimento della qualità nei servizi è la soddisfazione delle necessità e dei bisogni degli utenti. 4.4.1.1.2. Dimensione economica Le riflessioni economiche sull’erogazione del servizio prendono in considerazione i costi sostenuti per realizzare una fornitura gradita al cliente, che soddisfi i suoi bisogni espliciti, impliciti e latenti e che, inoltre, utilizzi in modo efficiente le risorse interne dell’azienda, evitando sprechi e costi inutili. Necessitano delle misurazioni sui costi della qualità, intese come delle valutazioni dell’entità di risorse messe in campo per la prevenzione di eventuali disservizi, per la formazione, quindi, del personale sia di front-line che di back-office, per l’impiego dei mezzi e supporti adatti alla corretta erogazione del servizio e per il controllo e l’analisi delle Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 112 prestazioni aziendali, con i conseguenti sforzi di miglioramento e correzione di eventuali fattori non adeguati. Bisogna valutare, in questo contesto, anche l’impegno dedicato dall’alta direzione per dare ai dipendenti chiare ed adeguate linee guida, di lavoro e di comportamento, per la realizzazione e la corretta interpretazione della politica aziendale, fattore questo misurabile quantitativamente con la frequenza delle riunioni aziendali e con la valutazione dei mezzi di comunicazione utilizzati. A queste considerazioni ne vanno aggiunte altre sui costi della nonqualità, intesi come quelle spese sostenute dall’azienda per risarcire i clienti insoddisfatti del trattamento ricevuto, per effettuare il ritiro e la sostituzione di eventuale merce inesatta rispetto all’ordine oppure consegnata in condizioni non accettabili, insomma per motivi imputabili ad un’erogazione non conforme del servizio. Si possono considerare in questa classe tutti quei costi sostenuti dall’azienda per la realizzazione di determinati obiettivi, ma terminati in insuccessi, sia di organizzazione interna che verso i clienti esterni, portando una perdita economica e di immagine per l’azienda. Proprio le considerazioni sull’immagine e sulla reputazione dell’organizzazione fanno assumere a quest’ultima tipologia di costi notevole importanza nell’ambito delle strategie aziendali, rendendo necessaria un’adeguata misurazione dei dati a disposizione ed una corretta analisi ed interpretazione dei segnali di allarme per eventuali inefficienze. In aggiunta alle misurazioni degli indici assoluti di impegno di risorse per la qualità si possono utilizzare degli indici relativi che mettono in rapporto i costi sostenuti, rappresentati dagli indici trattati prima, con il livello di attività dell’azienda, ovvero con il fatturato, o il valore aggiunto. In questo modo si riesce a valutare l’impegno effettivo della direzione nell’ambito della qualità, sottolineando la necessità di controllare l’impiego di risorse nel mantenimento, e nel miglioramento, delle prestazioni “qualitative” aziendali in relazione all’effettivo volume di attività. Questi indici, sia quelli assoluti che relativi danno utili indicazioni circa la politica per la qualità seguita dall’alta direzione, evidenziando particolari sforzi sostenuti in alcuni periodi e portando i responsabili a valutare poi l’efficacia dell’impegno assunto attraverso il confronto con i risultati effettivamente ottenuti. 4.4.1.1.3. Dimensione organizzativa Per quanto riguarda la misurazione delle prestazioni dal punto di vista organizzativo si possono utilizzare degli indici di Funzionalità ed Efficienza delle attività di coordinamento ed organizzazione. La Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 113 valutazione di questi aspetti può essere realizzata attraverso indicatori del tipo: Funzionalità: Flessibilità _ organizzat iva = # Serv personaizz ati (T ) # ServTot (T ) Efficienza: [ # Innovazioni introdotte in T ] [ Tempo medio di introduzione di una variazione di un servizio] Possono essere considerati indicatori dell’Efficienza dell’organizzazione anche: [ Incremento degli utenti nel tempo] (tra esercizi consecutivi) [ Aumento del margine operativo ] in quanto evidenziano una preferenza degli utenti per il modo di gestire i servizi dell’azienda e la capacità di quest’ultima di aumentare il fatturato gestendo al meglio i centri di costo, quindi sono segni tangibili dell’abilità di gestione dell’alta direzione. 4.4.1.1.4. Dimensione ambientale Questa dimensione riguarda la facilità con cui il cliente può accedere al servizio, le condizioni in cui si trova durante la fruizione dello stesso e la funzionalità delle attrezzature e dei mezzi messi a sua disposizione. Gli indicatori che possono essere utilizzati in questo ambito sono, ad esempio: Tempo di Accesso rispetto alla concorrenza = Tm * ( Acc ) Tmconc ( Acc ) dove: Tm*(Acc): tempo medio di accesso al servizio erogato dall’azienda Tmconc(Acc): tempo medio di accesso ad un servizio analogo offerto dal concorrente migliore Accessibilità Nuovo Servizio= # Tel (serv *) # Tel (serv Trad ) Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 114 #Tel(serv*): Numero medio di telefonate (o contatti) necessarie con il nuovo servizio offerto #Tel(servTrad): Numero medio di telefonate necessarie con il servizio tradizionale [# Guasti alle attrezzature a disposizione] [Tempi di attesa al centralino automatico] [ Numero linee telefoniche a disposizione per informazioni] Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano Dimensione TECNICA Obiettivi del controllo Tempi Prestazioni Condizioni contrattuali ECONOMICA Costi della Qualità Costi della Non Qualità ORGANIZZATIV Funzionalità A Efficienza AMBIENTALE Condizioni Funzionalità Accessibilità 115 Indicatori • • • • • • • • • Consegna Erogazione Risposta attesa per il servizio gestione disservizio Precisione Affidabilità Giorni di dilazione pagamenti Livello prezzi rispetto concorrenza • % Fatturato per: - prevenzione - formazione - controllo - innovazione - qualità • % Fatturato per: - risarcimenti sostituzioni • Flessibilità organizzativa • Numero innovazioni introdotte • Tempo di introduzione di una variazione • Aumento numero utenti • Aumento margine operativo • Numero linee telefoniche • Numero guasti attrezzature • Tempo di accesso rispetto alla concorrenza • Accessibilità nuovo servizio • Tempi di attesa al centralino Tabella 4.1 Indicatori ed obiettivi delle dimensioni tangibili del servizio [Neg92] 4.4.1.2. Indicatori di qualità esterna Sicuramente uno dei fattori che più dimostrano la bontà di un servizio o di un prodotto è la fedeltà (“loyalty”) della clientela sia al prodotto/servizio in questione, sia all’azienda o al marchio. Ricordando Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 116 che per acquisire un nuovo cliente si spende circa cinque volte in più, in promozioni, sconti, campagne pubblicitarie, rispetto a quanto costa mantenerne uno già acquirente, o utente per quanto riguarda i servizi, abituale. I seguenti sono solo indicatori parziali della Customer Satisfaction, in quanto non analizzano le motivazioni del perché un cliente si rivolga o meno all’azienda per l’erogazione del servizio, ma possono essere utilizzati come campanelli d’allarme nel caso di una brusca caduta degli indici o di trend decrescenti, sintomo di problemi e di carenze nel processo di realizzazione del servizio. Il Customer Retention Rate (CRR) è un indice della fedeltà degli utenti ai servizi erogati dall’azienda ed esamina il rapporto tra il numero di clienti che hanno continuato ad usufruire del servizio durante l’intervallo di tempo considerato (nT) e il numero di clienti all’inizio del periodo stesso (T0): CRR nT = RECUS(T0 + nT) ⋅100 NCUS(T0 ) CRR: Customer Retention Rate nel periodo considerato (nT) RECUS: Customer Retention, numero di clienti rimasti fedeli all’azienda al tempo T0+nT NCUS: Number of Customers, numero totale di clienti presenti al periodo iniziale Naturalmente, non tutti i clienti hanno lo stesso peso, in termini economici e di considerazione, per l’azienda, quindi con il Customer Lifetime Value (CLV) si cerca attribuire al cliente un valore monetario in base alla media del valore dei servizi resi, alla frequenza delle forniture ed alla stima della durata del rapporto commerciale: CLV = ATV ⋅ YFP ⋅ CLE CLV: Customer Lifetime Value ATV: Average Transaction Value ( $ ) YFP: Yearly Frequency of Purchase (1/tempo), frequenza degli acquisti (o fruizione del servizio) CLE: Customer Life Expectancy (tempo), aspettativa sulla durata del rapporto di clientela Un altro indicatore di Loyalty della clientela è l’Average Customer Seniority (ACS), che valuta l’anzianità media dei clienti, ossia la durata media dei rapporti di fornitura: Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano N ACS ( T0 + nT ) = ∑ NCUS i =1 i 117 ⋅i NCUS ( T0 + nT ) ACS : Average Customer Seniority calcolata al tempo T0+nT i : Periodo considerato (da 1 a N) NCUSi : Numero clienti nel periodo i NCUS(T0+ nT) : Numero totale di clienti al tempo T0+ nT Per avere un’indicazione di massima sull’aumento o la diminuzione del numero di clienti dell’azienda in un certo periodo si può utilizzare il Customer Development Rate (CDR), CDR (T0 + nT ) = NCUS (T0 + nT ) − NCUS (T0 ) ⋅100 NCUS ( T0 ) CDR : Customer Development Rate calcolato al tempo T0+nT tenendo ben presente che questo non tiene conto se i clienti sono nuovi o fidelizzati, quindi un valore positivo potrebbe derivare da una campagna pubblicitaria o da una promozione particolarmente riuscita invece che dalle prestazioni qualitative dell’organizzazione. Gli indici presentati in questo paragrafo, data la loro semplicità, vengono utilizzati soprattutto a titolo descrittivo, per evidenziare particolari trend di crescita e di sviluppo dell’attività aziendale, per presentare delle analisi sulla clientela e sulle abitudini degli utenti, per avere promuovere particolari servizi o per gratificare i clienti più assidui. La cosa da tenere sempre presente è che questi indici non considerano i motivi per cui i clienti usufruiscono dei servizi dell’azienda, i quali possono anche essere la mancanza di servizi sostitutivi o la comodità logistica, implicazioni personali, presenza di servizi complementari, quindi è molto importante che tutte le valutazioni basate su di essi siano sempre seguite da premesse sulle ipotesi che ne stanno alla base, da esposizioni approfondite della loro struttura e degli obiettivi delle indagini svolte, in modo che i risultati possono essere interpretati correttamente, senza il pericolo di attribuire significati errati agli andamenti evidenziati. Per gli stessi motivi sopra descritti, viene sconsigliato il loro utilizzo per fini decisionali o di pianificazione, per i quali vengono utilizzati indicatori più affidabili, precisi ed approfonditi. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 118 4.4.1.3. Controllo periodico degli indicatori Dall’esigenza della precisione degli indicatori nasce la necessità di effettuare, e quindi di pianificare preventivamente, un controllo periodico sulla effettiva rispondenza dei dati elaborati con l’andamento delle caratteristiche del servizio esaminate. Infatti, nel transitorio iniziale dell’implementazione di un sistema di rilevazione ad indici, ne vengono adottati un numero maggiore del necessario cercando di capire: quali sono più sensibili alle variazioni dei fattori di interesse, attraverso l’analisi di sensitività, quali danno indicazioni corrette sull’andamento reale dell’erogazione del servizio e quali portano a valutazioni distorte, quali infine sono tra loro correlati, cioè i valori degli indici sono legati alle stesse caratteristiche del servizio. Gli indici utilizzati devono essere periodicamente controllati in quanto, oltre a possibili errori di sviluppo concettuale degli indicatori, per cui non si hanno le informazioni ricercate, di solito si evidenziano dei trend di miglioramento delle prestazioni nell’ambito dei fattori misurati e tenuti sotto osservazione, mentre caratteristiche del servizio che prima non erano considerate critiche, pur essendo comunque importanti, presentano dei peggioramenti dovuti al fatto che i dipendenti prestano maggiore attenzione agli aspetti che sanno essere misurati dalla direzione, tralasciando quelli non considerati. Per questo motivo di solito, ad intervalli stabiliti, vengono svolte delle misurazioni a carattere globale del processo di erogazione del servizio, paragonando i risultati dei diversi indici, valutando la coerenza delle informazioni ricavate e confrontando le percezioni dei clienti con i valori stabiliti internamente all’azienda. 4.4.2. Indicatori “intangibili” del Servizio: analisi di Customer Satisfaction La identificazione del Servizio Atteso da parte del cliente nasce da un processo che comprende le sue esigenze personali, le esperienze passate, sia sullo specifico argomento, sia in generale, e le comunicazioni informali recepite dal mercato. Sono importantissime a questo livello le indagini presso la clientela per capire le loro reali necessità e quindi permettere ai dirigenti di realizzare una corretta percezione delle aspettative degli utenti, in modo da non creare delle discordanze tra il servizio erogato e quello atteso. Obiettivo delle analisi di Customer Satisfaction è di rilevare un quadro preciso delle aspettative del cliente, quindi i dati ricavati devono essere elaborati ed analizzati evidenziando i punti critici che necessitano di maggiore controllo e di adeguati miglioramenti. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 119 Il programma di monitoraggio degli aspetti intangibili del servizio e quindi della soddisfazione del cliente comprende, oltre che la rilevazione vera e propria attraverso i sondaggi telefonici o la compilazione di questionari, anche l’implementazione di sistemi di controllo su particolari aspetti concordati con i clienti, le indagini fra i dipendenti per sondare le condizioni di lavoro, le visite presso i clienti, se l’attività svolta lo consente, la gestione reclami. Tutte queste attività consentono di portare continui progressi all’organizzazione e di migliorare la posizione dell’azienda sul mercato. Il questionario di Customer Satisfaction è considerato il migliore indicatore dell’andamento dei processi di erogazione del servizio ed inoltre gli altri strumenti presentati sono riferiti più alle tecniche di gestione ed organizzazione che alla misurazione delle prestazioni realizzate dall’azienda. Viene comunque esposta una breve descrizione delle tecniche citate, le quali, se implementate in modo corretto, portano a notevoli vantaggi per l’organizzazione e per le funzioni decisionali. 4.4.2.1. Score Cards Le Score Cards (carte a punti), vengono utilizzate per tenere sotto controllo degli aspetti del servizio erogato ad alcuni clienti, di solito i più importanti per l’azienda a livello di volume di affari o dal punto di vista strategico, attraverso l’osservazione di indicatori scelti in accordo con i clienti stessi. L’implementazione di questo strumento coinvolge direttamente l’utente ed è proprio quest’ultimo che deve definire, con l’aiuto del responsabile del servizio, i fattori più importanti da monitorare. Vengono definiti in questo modo degli indicatori specifici i quali vengono valutati sia dal cliente che dall’azienda stessa, evidenziando così il Gap esistente della percezione tra chi riceve e chi realizza il servizio. Spesso questa differenza causa insoddisfazione nel cliente e, nello stesso tempo, demotivazione nell’organizzazione, la quale valutando in modo positivo l’erogazione del servizio, non riesce a comprendere le lamentele raccolte. Una volta stabiliti i punti di disaccordo tra le diverse valutazioni, l’azienda deve implementare le adeguate azioni correttive di miglioramento, andando incontro alle esigenze ed alle indicazioni date dall’utente interpellato. La stretta interazione tra cliente ed azienda che si crea utilizzando le Score Cards, come abbiamo detto, richiede un impegno non sottovalutabile da parte del fruitore del servizio, ma sicuramente questo viene ripagato dalla maggiore attenzione nei suoi confronti e dalla realizzazione di un servizio molto vicino alle sue esigenze reali. Questo strumento dà risultati sempre migliori con il prolungarsi del periodo di collaborazione azienda – cliente, naturalmente se quest’ultimo è rappresentativo di Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 120 una buona parte della clientela e se gli indicatori vengono scelti in maniera accurata. 4.4.2.2. Reply Card Uno strumento particolare nella rilevazione della qualità è la Reply Card, in quanto valuta la realizzazione del servizio nel momento stesso della sua fruizione da parte del cliente. Ad esempio nel servizio di assistenza tecnica, l’incaricato consegna una Reply Card prestampata all’utilizzatore finale e chiede di compilarla e riconsegnarla direttamente a lui, oppure rinviarla all’azienda. Questa Card contiene alcune domande sulla realizzazione del servizio, sulla competenza del tecnico e sulla soddisfazione globale del cliente. L’indagine è molto semplice ma richiede una corretta valutazione dei risultati da parte dell’azienda. I punteggi negativi richiedono un nuovo contatto con il cliente per approfondire i motivi dell’insoddisfazione e quindi, dopo aver evidenziato le cause, viene dato il via alle opportune azioni correttive. Anche i punteggi particolarmente positivi devono essere analizzati per poter ottenere in futuro gli stessi risultati con tutti gli altri clienti. L’utilizzo delle Reply Cards completano le altre indagini svolte e quindi vanno debitamente incentivate presso i clienti, sottolineando lo sforzo compiuto dall’azienda per soddisfare i loro bisogni. I risultati di queste analisi vanno registrati e conservati in opportuni database, dai quali poi si possono ricavare varie rappresentazioni, stratificate per servizio, per cluster di clienti o per personale coinvolto nella realizzazione, dando indicazioni alla direzione di insufficienze nella definizione del servizio, nella percezione delle necessità di alcuni clienti o di particolari mancanze nella formazione dei dipendenti. 4.4.2.3. Gestione reclami Anche la gestione reclami può essere affiancata agli altri strumenti, tenendo però conto del basso tasso di utilizzo di questo servizio offerto dalle aziende. Infatti, da studi svolti dalla “American Management Association”, solo il 4% circa dei clienti insoddisfatti si lamenta con l’azienda, soprattutto se le procedure di reclamo sono particolarmente complicate o percepite come inutili. Comunque, l’implementazione di un’efficiente servizio reclami può portare a nuove informazioni e, in molti casi, porta al mantenimento del cliente (customer retention), che, sebbene insoddisfatto, trova nell’attenzione dell’organizzazione un motivo per sceglierla nuovamente. L’analisi dei reclami deve essere eseguita in modo sistemico, cioè attraverso uno studio del diagramma causa-effetto (diagramma di Ishikawa) devono essere evidenziati i fattori più frequenti di reclamo e ad ognuno di questi deve essere associato un livello di gravità. Al verificarsi di un reclamo, oltre alla classificazione ed Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 121 archiviazione di tutti i dati che lo riguardano, devono essere allertati immediatamente i responsabili del reparto o del livello dove si è verificata la non conformità e devono essere avviate le necessarie azioni correttive. In seguito deve essere verificata e misurata l’efficacia delle azioni intraprese ed inoltre devono seguire opportune misure preventive che evitino il ripetersi del reclamo. Per ogni reclamo ricevuto, una corretta gestione dello stesso prevede la registrazione dei tempi di risoluzione e di intervento ed il confronto con i dati già a disposizione sui casi analoghi. Ricordando il principio di miglioramento continuo da applicare al sistema qualità aziendale, le prestazioni nella risoluzione dei reclami dovrebbero essere in costante aumento, quindi è importante produrre ad intervalli regolari, ad esempio mensilmente, dei reports sull’attività di gestione dei reclami, evidenziando i reparti o le funzioni migliori o peggiori, motivando così il personale a considerare maggiormente le lamentele dei clienti. 4.4.2.4. Transaction monitoring Per quanto riguarda il miglioramento dei processi interni e delle condizioni di lavoro, esiste uno strumento molto efficace, se investito della debita importanza dalla direzione. Questo strumento è denominato Transaction monitoring e consiste in periodiche indagini interne, svolte solitamente attraverso brevi questionari, rivolte ai dipendenti, sulle condizioni di lavoro, sulle prestazioni richieste dai responsabili e i risultati ottenuti in realtà, sulla motivazione espressa nel lavoro e sul livello di formazione e di preparazione desiderato e acquisito. Nel questionario vengono proposte delle domande aperte per sondare l’opinione dei lavoratori ed eventualmente, raccogliere spunti di miglioramento e di sviluppo. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 122 4.5. Metodi per la valutazione della qualità del servizio in letteratura A valle delle considerazioni sulla complessità di misura e controllo della qualità del servizio, in questo paragrafo si intende mettere in luce lo stato dell’arte riguardo agli strumenti proposti per la misura della qualità del servizio. Nel valutare la qualità del servizio occorre distinguere tra due principali categorie di indicatori che contestualmente vanno a definire le caratteristiche del servizio erogato e la sua capacità di soddisfare le esigenze del cliente. In primo luogo esistono una serie di indicatori misurabili o quantificabili che possono essere distinti in indicatori di qualità interna e indicatori di qualità esterna. I primi sono essenzialmente ricavati esaminando il processo di erogazione del servizio internamente all’azienda, i secondi riguardano l’effetto che la qualità percepita ha sul cliente. a qualità percepita derivano da 4.5.1. Il Servqual Il modello concettuale impostato e progressivamente perfezionato da Parasuraman, Zeithaml e Berry [Par85], [Par88] e [Par91] è quello di valutare il divario tra le aspettative del cliente e la percezione che questi ha della prestazione ricevuta (rispetto alla specifica azienda di cui si intende valutare la qualità del servizio). La qualità del servizio può essere pertanto misurata nel modo seguente: QS = 5 ∑ wi QSi i =1 dove: QS i = punteggio SERVQUAL per la dimensione i-esima n i = numero di attributi per la dimensione i-esima w i = peso associato a ciascuna dimensione Il punteggio per ogni dimensione si può ricavare come: QS i = ni ∑ (P j j =1 −Ej) dove: P j = percezione della prestazione riferita all’attributo j E j = attese sulla qualità del servizio per l’attributo j Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 123 Questo modello non è un modello previsivo ma semplicemente una misura specifica in cui la qualità è misurata come percezioni meno attese (P-E), sebbene gli autori, successivamente contrastati da Teas [Tea93] abbiano affermato che si hanno progressivamente livelli crescenti di qualità se il punteggio SERVQUAL aumenta costantemente da -6 a +6. ( Le scale utilizzate per la misura di P-E prevedono che il punteggio più alto per un attributo si abbia quando il punteggio delle attese è +1 e quello delle percezioni è +7, pertanto il punteggio SERVQUAL per quell’attributo è +6. Viceversa il punteggio più basso è 6). 4.5.1.1. La struttura Dal punto di vista operativo il sistema SERVQUAL consiste in un sistema di questionari strutturati in modo tale da rilevare da una parte le percezioni e le aspettative degli utenti, dall’altra il livello di importanza che ogni utente attribuisce a ciascun parametro del servizio (quest’ultimo aspetto viene valutato chiedendo direttamente al cliente di ripartire tra le varie dimensioni un totale di 100 punti). I parametri del servizio sono fattori riassuntivi dei singoli indicatori. Il livello di importanza che ciascun utente attribuisce a ciascun parametro permette, in particolare, di confrontare i risultati ponderati da quelli non ponderati e quindi valutare se nei fattori ritenuti più importanti dagli utenti, il servizio erogato funziona più o meno efficacemente. Le scale di valutazione a 7 punti dedicate rispettivamente a misurare le aspettative del cliente e le loro percezioni, i cui estremi corrispondono al “Pieno accordo” ed al “Pieno disaccordo” misurano agli attributi del servizio di ciascuna azienda. Tutti questi attributi sono relativi a 5 dimensioni, espresse in 22 + 22 voci della qualità complessiva del servizio, che nelle imprese di servizi sono: Aspetti tangibili: aspetto delle strutture fisiche, dell’attrezzatura, del personale e dei mezzi di comunicazione; Affidabilità: capacità di prestare il servizio promesso in modo affidabile e preciso. Capacità di risposta: volontà di aiutare i clienti e fornire prontamente il servizio. Capacità di rassicurazione: grandezza che combina competenza, cortesia, credibilità e sicurezza. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano Empatia: grandezza che comprensione del cliente 1. combina accesso, comunicazione 124 e L’applicazione pratica del SERVQUAL si effettua [Par96a] [Par96b] rivedendo la sua forma standard e apportando gli aggiustamenti necessari per rilevare il giudizio del cliente, modificando adeguatamente gli attributi della sezione dedicata ad ogni dimensione, in relazione al contesto dell’azienda in cui si sta operando. 4.5.1.2. Applicazioni del SERVQUAL Le possibilità di utilizzo del SERVQUAL sono: - determinare, per ogni attributo del servizio, il valore dello scostamento medio tra percezioni ed aspettative dei clienti; - valutare la qualità del servizio erogata da un’impresa per ciascuna delle cinque dimensioni; - calcolare il punteggio globale ponderato SERVQUAL di un’impresa. Questo punteggio tiene conto non solo degli scostamenti della qualità del servizio riferiti alle singole dimensioni ma anche dell’importanza relativa di ognuna di queste (come indicato dal punteggio attribuito ad ogni dimensione); - seguire nel tempo l’evoluzione delle aspettative e delle percezioni dei clienti (rispetto ai vari attributi del servizio e/o alle dimensioni SERVQUAL); - confrontare i punteggi SERVQUAL di un’impresa con quelli dei concorrenti; - identificare ed esaminare i segmenti di clientela che valutano in maniera significativamente differente le performance di servizio dell’impresa; Il SERVQUAL risulta particolarmente valido quando viene impiegato, periodicamente, per eseguire a posteriori l’andamento della qualità del servizio e quando é utilizzato con altri indicatori. 1 Sebbene queste dimensioni rappresentano distintamente i diversi aspetti della qualità del servizio, esse sono correlate come risulta evidente dalle analisi degli stessi autori in cui essi effettuano la rotazione obliqua sulle soluzioni dei fattori. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 125 4.5.1.3. Il dibattito sul SERVQUAL Numerosi studi basati sull’uso del SERVQUAL hanno criticato questo strumento di indagine ponendo diversi interrogativi riguardanti soprattutto il numero di dimensioni ed il punteggio differenziale. - il numero di dimensioni Studi successivi non sono stati in grado di riprodurre la struttura a 5 dimensioni come quella presentata da Parasuraman, Zeithaml e Berry; per questi il numero di dimensioni varia da 2 a 8. Il motivo di questo può essere dovuto sia alle differenze sulla raccolta dei dati e nelle procedure di analisi sia al grado con cui le valutazioni dei clienti di una specifica azienda si mantengono più o meno simili attraverso le diverse dimensioni (e quindi queste possono aumentare o diminuire). - la necessità di misurare la qualità del servizio come differenza tra punteggi L’applicazione operativa di qualsiasi modello concettuale come differenza tra due altri modelli è stata messa in discussione per motivi psicometrici, specialmente nei casi in cui le differenze tra punteggi sono utilizzate per analisi multivariate. Coloro che criticano la validità delle differenze tra punteggi hanno suggerito che le misure dirette del gap tra aspettative-percezioni sono psicometricamente superiori. Ma le evidenze empiriche disponibili non hanno dimostrato la superiorità delle misure dirette. 4.5.2. Il Qualitometro 4.5.2.1. Il modello concettuale Il progetto QUALITOMETRO attualmente in sperimentazione presso la Biblioteca del Dipartimento di Sistemi di Produzione ed Economia dell’Azienda (DISPEA) del Politecnico di Torino [Fra97] é stato concepito cercando di effettuare valutazioni e controlli in linea della qualità di un servizio o meglio del differenziale tra qualità attesa e percepita, affrontando due tipi di problemi relativi agli altri strumenti di solito utilizzati: - La scalarizzazione delle informazioni : Negli altri strumenti durante codifica viene introdotta una metrica arbitraria che può portare ad un’errata interpretazione dei dati raccolti, quando, in fase di pre-elaborazione dei dati, le scale di valutazione a punti vengono trasformate in scale numeriche lineari ad intervallo che consentono di ordinare gli oggetti in modo tale che differenze tra valori Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 126 consecutivi della scala siano tra loro uguali2. Con queste scale, non essendo definita l’origine, si possono eseguire solo operazioni di uguaglianza, disuguaglianza, ordinamento e sottrazione. Negli stessi strumenti si assume, inoltre, che il modo di intendere la scala sia lo stesso per tutti i soggetti intervistati e non vari nel tempo anche per quelli che usufruiscono periodicamente del servizio, entrambe ipotesi fortemente critiche dal punto di vista dell’aggregabilità e l’interpretabilità dei dati. La scalarizzazione può causare, quindi un effetto di distorsione sulle informazioni raccolte minandone “arbitrariamente” la veridicità. Nel QUALITOMETRO, invece, per superare l’attività di codifica numerica delle scale di valutazione, si lavora sulle proprietà ordinali delle informazioni rilasciate dall’intervistato, ed inoltre si fa a meno dell’ipotesi di omogeneità dei sistemi di riferimento adottati dagli intervistati. -Valutazione contemporanea delle attese e delle percezioni Le stime di qualità attesa e di quella percepita vengono effettuate, differentemente dagli altri strumenti, separatamente con un questionario di 8+8 domande (8 per la valutazione delle attese e 8 per la valutazione delle percezioni), limitando al minimo i pericoli di inquinamento reciproci. La qualità attesa é rilevata mediante un questionario prima che l’utente usufruisca del servizio, mentre quella percepita sullo stesso dopo averlo ricevuto. 4.5.2.2. La struttura L’organizzazione dello strumento, con alcune varianti, é fondata sulle determinanti della qualitá di un servizio presentate nel modello di Parasuraman, Zeithaml e Berry. Il vantaggio del QUALITOMETRO, a differenza degli altri metodi, é quello di essere meno intrusivo nei confronti dell’utente. L’indagine viene effettuata con una scheda con scale di valutazione a 7 punti. I dati ottenuti possono essere trattati similmente agli altri questionari (cardinalizzazione), oppure si può lavorare sulle proprietà ordinali delle informazioni ottenute dall’intervista. 2 Per esempio, se si attribuiscono ai due estremi di una scala a sette punti le affermazioni “pieno accordo’’ e “pieno disaccordo” i simboli numerici 1 e 7, e a ciascuno dei punti intermedi un simbolo compreso tra 1 e 7 e si considera la distanza tra due qualunque punti successivi identica su tutta la scala, si é di fatto operato il passaggio da una scala ordinale ad una cardinale ad intervallo. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 127 Per ogni intervistato, mediante l’analisi multicriteri, viene analizzata la prevalenza della qualità attesa sulla qualità percepita (Q A > Q P ) o viceversa. Le tecniche di supporto alle decisioni dell’analisi a multicriteri (MCDA) consentono l’analisi e l’aggregazione delle preferenze espresse da un decisore in modo da consentire un confronto tra due alternative a ed b sulla base di vettori di valutazione g( a) e g( b). Quella utilizzata dal QUALITOMETRO é una relazione binaria detta di surclassamento (o prevalenza): a surclassa b -tenuto conto delle preferenze implicite ed esplicite del decisore- se dati i criteri di valutazione delle due alternative, si può ammettere l’ipotesi che a é preferita ad b, ma nessuna delle due alternative é dominante in senso stretto. Il confronto viene, quindi, effettuato senza assegnare un punteggio a ciascuna alternativa, ma individuando solo quella dominante. 4.5.2.3. Confronto tra SERVQUAL e QUALITOMETRO Il SERVQUAL ed il QUALITOMETRO sono stati confrontati [Cig97] attraverso una sperimentazione su 15 clienti di un’azienda che provvede all’assistenza tecnica di apparecchiature per le prove su materiali per simulazioni di laboratorio. I clienti che hanno utilizzato entrambi i questionari li hanno ritenuti entrambi validi, ma hanno fatto notare che il QUALITOMETRO è di facile utilizzo e più immediato, mentre il SERVQUAL risulta molto più lungo da compilare. Un pregio del SERVQUAL è quello di formulare le domande relative ai pesi di importanza delle dimensioni in modo più efficace rispetto al QUALITOMETRO. Questo aspetto è stato evidenziato dalla sperimentazione in cui si è rilevata una maggiore differenziazione nelle attribuzioni dei valori da parte dei clienti. 4.5.3. IL SERVPERF 4.5.3.1. Il modello concettuale Elaborato da Cronin, Taylor e Steven [Cro92b] e [Cro94] è uno strumento che valuta la qualità del servizio solo tramite le percezioni e senza i pesi di importanza. QS = 5 ∑ Pi i =1 Dove la percezione relativa alla dimensione i-esima si puó scrivere come: Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano Pi = 128 ni ∑ w j Pj j =1 dove: i = singola dimensione n i = n° di attributi per la dimensione i P j = performance relative all’attributo j-esimo w j = peso attribuito all’attributo j-esimo Le tesi di Cronin dimostrano che le percezioni misurate più sinteticamente dalla scala delle sole performance da sole sono sufficienti a misurare la soddisfazione degli interrogati. Il vantaggio è quello di ridurre sensibilmente le domande poste (circa il 50%) e come dimostrato da Cronin e Taylor [Cro92b], l’analisi del modello supporta la superiorità della scala SERVPERF rispetto al SERVQUAL. 4.5.3.2. La struttura La struttura del questionario è del tutto simile a quella del SERVQUAL relativa alle sole percezioni. Le scale di valutazione sono comparative a 7 punti. Mentre le dimensioni hanno la stessa importanza, la valutazione dell’importanza relativa di ogni singolo attributo è chiesta sempre al cliente, l’unica differenza è che non si chiede di allocare i 100 punti come nel SERVQUAL, ma di utilizzare ancora una scala simile a quella usata nelle altre sezioni del questionario. 4.5.4. Normed Quality 4.5.4.1. Il modello concettuale Teas [Tea93] e [Tea94], definisce un indice della qualità percepita calcolato come una differenza tra il livello massimo assoluto attribuito a ciascun attributo e l’ideale realizzabile considerato in relazione alla situazione in cui il servizio viene erogato. QS = NQ = 5 ∑ wi NQi i =1 Il punteggio NQ relativo alla dimensione i-esima si può esprimere con la seguente espressione, dove c’è una netta distinzione tra attesa reale e attesa realizzabile per ogni attributo del servizio. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano NQ i = ∑ w j [(P j ni i =1 ) ( − I j − A Ej −I j 129 )] P j = percezioni relative all’attributo j-esimo; AEj = attesa realizzabile per l’attributo j-esimo; I j = attesa ideale per l’attributo j-esimo; 4.5.4.2. La struttura La struttura del modello NQ è sempre quella di un questionario a più sezioni , il numero di dimensioni è sempre 5, cambia invece il numero di enunciati che sono 10+10+10+10+10. Le scale utilizzate sono sempre comparative a 7 punti. 4.5.5. TWO-WAY Model Tra gli altri strumenti proposti, nel TWO-WAY MODEL [Sch94] l’intervistato valuta numerose caratteristiche del servizio sotto due aspetti uno “oggettivo” (con riferimento alla presenza ed all’assenza di alcuni attributi della qualità) ed uno "soggettivo” (che implica l’insoddisfazione o la soddisfazione per il servizio ricevuto). Un questionario con coppie di domande relative ai due aspetti permette di classificare le risposte date ai clienti e valutare il servizio offerto. La valutazione TWO-WAY è semplicemente rivolta ad identificare, derivando le aspettative del cliente dalle risposte ai questionari, gli attributi che il servizio ha o dovrebbe avere e valutando in base a questi il servizio offerto. Gli attributi della qualità sono classificati, nelle seguenti categorie: Attributi attrattivi: sono attributi la cui presenza dà soddisfazione ma la cui assenza non causa insoddisfazione; Attributi one-dimensional: Attributi la cui presenza causa soddisfazione, ma la cui assenza genera insoddisfazione; Attributi “must-be”: Attributi la cui presenza è implicita ed è accettata senza creare soddisfazione, ma la cui assenza genera insoddisfazione; Attributi indifferenti: Attributi la cui esistenza è indifferente ai fini della qualità; Attributi inversi : Attributi la cui presenza genera insoddisfazione e la cui assenza genera soddisfazione. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 130 Valutazione del cliente* quando un attributo della qualità è Attrattivi Onedimensional “Must-be” Indifferenti Inversi Presente + + 0 0 - Assente 0 - - 0 + Tabella 4.2: Categorie di attributi della qualità del Two-way model ( insoddisfazione, + soddisfazione, 0 neutrale) Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano SERVQUAL QUALITOMETRO [Par85] [Fra97] [Par88] [Par91 [Par96] Fondamento teorico alla base del metodo Scala per risposte Importanza delle dimensioni Analisi dei dati Tipo di preelaborazione dei dati Dimensioni del campione Numero dimensioni Le determinanti della qualitá del servizio, cioé gap tra qualitá attesa e qualitá percepita, ognuna mediata con i pesi di importanza Semantica differenziale a 7 punti Valutazione dei pesi a somma costante NORMED QUALITY [Tea93] [Tea94] Sulla base Si distingue della teoria tra attese dei gap e ideali ed delle attese determinan realizzabili. ti della qualitá del servizio si misurano le attese e le percezioni in momenti separati. Comparativ Semantica a a 7 punti differenziale a 7 punti SERVPERF [Cro92b] [Cro94] 131 TWO-WAY [Sch94] La qualitá La qualitá del servizio del servizio é valutata é valutata tramite le su risposte sole a percezioni. questionari che valutano aspetti “oggettivi” ed aspetti “soggettivi”. Semantica differenzial e a 7 punti Comparativ Valutazione Valutazion a a 7 punti dei pesi a e dei pesi a somma somma costante costante Semantica a 5 punti. Non richiesto Analisi Metodi Analisi Analisi Analisi fattoriale MCDA fattoriale fattoriale fattoriale seguita da seguita da seguita da rotazione rotazione rotazione obliqua obliqua obliqua Scalarizzazio Scalarizzazi Scalarizzazi Scalarizzazi Scalarizzazi ne one one one one 290-487 80 120 660 330 Cinque Cinque Cinque Cinque Cinque Tabella 4.3:Confronto di alcuni strumenti utilizzati per la valutazione della qualitá del servizio [Cal97]. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 132 4.6. Proposta di una nuova metodologia di analisi dei dati di Customer Satisfaction basata sulle reti di dipendenza bayesiane L’analisi dei metodi proposti in letteratura fa emergere due principali aspetti che motivano la proposta del metodo proposto. Il primo riguarda l’ipotesi di indipendenza tra i giudizi emessi relativamente ad ogni domanda sottoposta all’intervistato. In realtà, visto che la modalità con cui lo stesso collega mentalmente i vari aspetti della qualità percepita è incognita, potrebbe esistere una correlazione tra i vari aspetti su cui l’utente è chiamato ad esprimersi. A valle di un analisi dei dati raccolti può quindi essere molto utile analizzare la struttura di questa correlazione per evidenziare in primo luogo dei cluster di domanda correlate. Questi cluster vanno a definire dei macroindicatori che è utile monitorare nel tempo. Inoltre, all’interno di ogni cluster, può essere opportuno evidenziare i legami di dipendenza condizionale tra i vari indicatori su cui il cliente esprime il proprio giudizio. Può infatti capitare che qualche domanda sia ridondante e possa, di conseguenza essere eliminata. Questa fase, detta di taratura, del questionario può notevolmente incrementare l’efficacia dell’intervista, visto che la concentrazione di chi risponde, e di conseguenza l’affidabilità delle risposte fornite, è fortemente dipendente dal numero di domande cui è sottoposto. Il secondo aspetto che ha motivato la ricerca di un approccio alternativo si riferisce alla intrinseca caratteristica di multidimensionalità del servizio. Per ovviare al problema di dover sintetizzare in un unico indicatore la qualità del servizio, tutti i metodi proposti in letteratura richiedono direttamente all’intervistato di esprimere un giudizio sul peso d’importanza delle varie dimensioni della qualità indagate tramite il questionario. Il problema di sintetizzare in un peso l’importanza relativa di aspetti caratterizzati da una forte disomogeneità, è però un problema tutt’altro che semplice, diffusamente trattato in letteratura nella teoria della decisione strutturata a molti criteri (MCDA: Multi Criteria Decision Analysis) o meglio quella parte di essa nota come MADM (Multi Attribute Decision Making). L’approccio più diffuso in quest’ambito l’Analytical Hierarchical Process [Saa96], sottolinea come per valutare il peso d’importanza di attributi molto disomogenei, risulta necessario sottoporre l’intervistato a confronti a coppie. L’approccio indagato in [Col98] e [Lau97] relativamente alla qualità del servizio logistico in BTicino, è stato tuttavia recepito male dagli intervistati, i quali hanno rimproverano al questionario AHP l’eccessiva lunghezza da dedicare nella compilazione. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 133 A valle di queste esperienze, l’approccio proposto in questo capitolo ribalta completamente l’ottica, sfruttando il fatto che è consuetudine includere nel questionario una domanda relativa alla soddisfazione complessiva del cliente relativamente al servizio percepito. Analizzando la correlazione esistente tra la risposta fornita a questa domanda e l’esito relativo alle altre, è possibile individuare automaticamente l’importanza relativa dei vari indicatori. Ad esempio se la soddisfazione generale è sempre molto ridotta quando, contestualmente, il cliente indica un basso grado di soddisfazione per il tempo di risposta dell’azienda, è possibile ritenere che quest’aspetto influenzi fortemente il grado di soddisfazione generale. In altre parole il grado di correlazione tra le variabili su cui il cliente è chiamato ad esprimersi può fornire importanti indicazioni su come queste si influenzino l’un l’altra e su come ognuna di queste influenzi il giudizio complessivo sulla qualità percepita. Con questo obiettivo, utilizzeremo le reti di dipendenza bayesiane al fine di individuare i legami statistici tra le variabili su cui il cliente è chiamato ad esprimere un giudizio. 4.7. Le reti di dipendenza bayesiane Formalmente una rete bayesiana (Bayesian Network BN) è definita da un insieme di variabili X=(X 1, X2, ..Xn) e da una rete M, un grafo aciclico diretto (Direct Acyclic Graph (DAG)), che definisce il modello di dipendenza condizionale tra gli elementi di X. Senza perdere di generalità si assume che la generica variabile Xi è discreta e può r assumere ri possibili valori x 1i ,..., xi i . Se la ima variabile ha una distribuzione che dipende solo dai valori assunti dall’insieme dei variabili Π i ⊂ X , questa variabile è detta child (figlio) delle variabili in ? i . Simmetricamente le variabili in ? i sono considerate parents (genitori) di Xi. Graficamente, ogni variabile in X è rappresentata da un nodo nel grafo M, mentre un legame di dipendenza condizionale è rappresentato nel grafo M mediante un arco orientato che parte da un parent in Π i , per arrivare alla variabile Xi child. La mancanza di archi in M rappresenta quindi l’ipotesi di indipendenza condizionale tra le variabili non connesse. Data la struttura del DAG M, la probabilità congiunta di X può quindi essere fattorizzata in: p(x k ) = n k ∏ p( x i i |p ij ) i =1 Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 134 dove p ij rappresenta la configurazione delle variabili incluse in Π i in x k . Di conseguenza il vantaggio computazionale della struttura rappresentata nella rete bayesiana è essenzialmente la fattorizzazione della distribuzione di probabilità congiunta. Come esempio di BN, si consideri il DAG rappresentato in Figura 4.3. Y1 Y2 Y3 Figura 4.3: Un semplice Direct Acyclic Graph (DAG) che rappresenta una rete di dipendenza bayesiana Si assume per semplicità che tutte e tre le variabili X i (i = 1,...,3) , possano assumere due valori: ri = 2 (i = 1,..., 3 ) . Come si può osservare dal DAG, Π 1 = Π 2 = φ and Π 3 = ( X 1 , X 2 ) . Visto che X1 and X 2 possono entrambi assumere due valori, Π 3 può assumere quattro valori π 3 j , corrispondenti a quattro possibili combinazioni delle occorrenze di X1 and X 2 : π 31 = ( x11 , x 21 ), π 32 = ( x11 , x 22 ), π 33 = ( x12 , x 21 ), π 34 = (x 12 , x 22 ) Quindi la probabilità congiunta di un occorrenza: y k = {y11 , y 21 , y 32 } può essere calcolata come: p(y k ) = p(y11 ) p(y 21 ) p(y 32 | π 31 ) = p(y11 ) p(y 21 ) p(y 32 |y11 , y 21 ) . Come risulta dall’esempio appena descritto, la conoscenza della struttura di dipendenza condizionale tra le diverse variabili, può semplificare la valutazione della funzione di probabilità congiunta. I primi utilizzi delle reti di dipendenza bayesiane prevedevano che gli esperti indicassero la struttura dei legami di dipendenza (DAG) permettendo una valutazione numerica delle probabilità condizionate a partire dai dati campionari. Questo modo di procedere è molto simile a quanto si esegue tradizionalmente con i sistemi esperti, in cui la struttura dei legami tra le variabili in oggetto è fornita dall’esperienza di coloro i quali progettano il sistema esperto. Il grande passo in avanti nell’applicazione delle reti di dipendenza bayesiane tuttavia è stato compiuto nel momento in cui sono stati individuati dei metodi per Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 135 dedurre la struttura del modello di BBN a partire dai soli dati campionari, senza la necessità di ricorrere alla conoscenza degli esperti. Grazie alla flessibilità dell’approccio bayesiano, è possibile inoltre utilizzare entrambe le fonti di informazione: la conoscenza degli esperti può infatti essere modellata attraverso una prior sulla struttura della BBN, la quale, insieme all’informazione proveniente dai dati è usata per stimare la posterior sulla struttura del modello. Come sempre, nel caso in cui non si disponga di un informazione iniziale, la prior può essere non informativa, lasciando solo all’informazione proveniente dai dati il ruolo di definire la struttura della BBN. In un ottica di continuo aggiornamento della conoscenza e di miglioramento continuo della qualità, la flessibilità dell’approccio bayesiano può anche essere utilizzata come aggiornamento della conoscenza acquisita fino a quel momento. Si supponga di aver eseguito un cero numero di campionamenti che hanno fornito un modello a posteriori della rete BN. In seguito ad un ulteriore campionamento, questo modello può essere considerato come prior da aggiornare con i dati provenienti dal campione. In quest’ottica non c’è indicazione soggettiva e il metodo di aggiornamento della conoscenza con meccanismo bayesiano continua a utilizzare i dati osservati nei campioni che via via vengono raccolti. Un punto critico nella scelta della metodologia per individuare la rete bayesiana dai dati collezionati in un database è la presenza di dati mancanti. Considerando l’applicazione per cui si intende utilizzare l’approccio, è possibile prevedere che alcuni quesiti dei questionari sottoposti ai clienti possano rimanere senza risposta. In questo caso risulta quindi necessario utilizzare un approccio in grado di mantenere validità nel caso di dati mancanti. A valle di quest’ultima specifica, si è scelto di utilizzare il software Bayesian Belief Network, sviluppato presso la Open University [http://kmi.open.ac.uk/projects/bkd/]. I dettagli degli algoritmi implementati e dell’interfaccia del software sono riportati in Appendice D. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 136 4.8. Analisi di Customer Satisfaction: il caso “ Call Center ASSITALIA” Il questionario oggetto di studio è stato utilizzato nella sezione Call Center dell’Assitalia per la rilevazione della Customer Satisfaction ed impiegato, per una prima analisi indicativa di taratura dello stesso, in un sondaggio che ha coinvolto un campione di 60 agenti esterni facenti capo alla stessa azienda. Le domande sottoposte agli intervistati sono riassunte in Tabella 4.4, dove, insieme alle domande, si riportano le possibili risposte. Coerentemente con quanto indicato per le reti di dipendenza bayesiane, le domande poste agli intervistati sono trattate come variabili e le possibili risposte sono considerate come “stati” delle “variabili”. In Tabella 4.5 è inoltre riportata, per ogni domanda del questionario, la frequenza di risposte ottenute sul campione intervistato. Prima di procedere con l’individuazione della rete di dipendenza bayesiana, occorre effettuare una prima analisi qualitativa dei dati. Quest’analisi permette di elaborare delle considerazioni su eventuali dati inutili o non adatti allo studio prefissato. In quest’ottica è stato confrontato il questionario utilizzato dall’Assitalia con i dati raccolti attraverso l’indagine e si è giunti a delle conclusioni sulle informazioni di cui avvalersi nella ricerca. La prima informazione raccolta circa la disponibilità dell’intervistato a rispondere alle domande del questionario è stata considerata non inerente all’analisi da noi svolta, quindi, pur inserendo i dati in un primo Database riassuntivo per eventuali valutazioni sulla percentuale di risposta ottenuta (Redemption), essa non viene contemplata nel seguito dell’indagine. Per quanto riguarda la quarta domanda circa gli orari di apertura del servizio Call Center preferiti dall’utente, la decisione di non comprendere i pochi dati raccolti nel Database definitivo è dipesa dall’esigua consistenza delle risposte ottenute, 15 su 60, ossia il 25%. Non si sono ritenute affidabili le stime effettuate dal software sul 75% di dati mancanti, essendo molto probabile la possibilità di giungere a conclusioni sbagliate e prendendo inoltre atto del fatto che la domanda così posta non ha suscitato l’interesse degli intervistati. Questa rinuncia a rispondere può essere interpretata come soddisfazione per gli orari attuali, per altro già richiesta nella domanda precedente, oppure come mancanza da parte della clientela di necessità precise sull’argomento. In ogni caso le risposte rilevate sono state registrate nel Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 137 primo Database, sempre a disposizione dei responsabili per successive valutazioni. Domanda 0 Disponibilità all'intervista Variabile DISPONIBILITÀ 1 Soddisfazione generale SODDISFAZION E 2 Servizio Call Center vs. tradizionale CC/TRAD Risposta Si No Nulla Stato 1 2 1 Abbastanza Molto Peggiore 2 3 1 2 3 1 2 3 1 2 5 Risposta operatore RISPOSTA 6 Soddisfazione per modalità di contatto CONTATTO Uguale Migliore Nulla Abbastanza Molto Sab 8/13 Sab-Dom 8/13 Tutti gg 8/22 24h/24 Subito Attesa Occupato Nulla CAPACITA’ Abbastanza Molto Nulla 2 3 1 Abbastanza Molto una oltre < 5min 5min - 10 min 10min - 15 min oltre Nulla 2 3 1 2 1 2 3 Orario Lun-Ven 8.30/18.30 4 Orario preferito 7 Soddisfazione per capacità operatore 8 Numero telefonate necessarie 9 Tempo al telefono per denuncia 10 Soddisfatto della durata ORARIO ORAPREF TELEFONATE TEMPO SODDDURATA 3 4 1 2 3 1 3 4 1 Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 12 Durata ottimale della comunicazione 13 Processo raccolta dati DUROTT RACCOLTADAT I 138 Abbastanza Molto < 5min 2 3 1 5min - 10 min 10min - 15 min Non importante Necessari 2 Già noti Chiesti più volte Ricavabili 2 3 3 4 1 4 Tabella 4.4 Domande e stati delle variabili per l’analisi delle dipendenze 0 Disponibilità all'intervista 1 Soddisfazione generale 2 Servizio Call Center vs. tradizionale 3 4 5 6 Si No Totale intervistati Nulla Abbastanza Molto Peggiore Uguale Migliore Orario Lun-Ven 8.30/18.30 Nulla Abbastanza Molto Orario preferito Sab 8/13 Sab-Dom 8/13 Tutti gg 8/22 24h/24 Risposta operatore Subito Attesa Occupato Soddisfazione per modalità di Nulla contatto 59 1 60 4 29 24 6 13 34 0 12 45 14 0 0 1 53 4 2 0 Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 7 Soddisfazione per capacità operatore 8 Numero telefonate necessarie 9 Tempo al telefono per denuncia 10 Soddisfatto della durata 12 Durata ottimale della comunicazione 13 Processo raccolta dati Abbastanza Molto Nulla 7 52 0 Abbastanza Molto una oltre < 5min 18 38 55 4 27 5min - 10 min 10min - 15 min oltre Nulla Abbastanza Molto < 5min 25 2 5min - 10 min 10min - 15 min Non importante Necessari Già noti Chiesti più volte Ricavabili 11 0 139 0 4 26 28 32 0 47 4 1 3 Tabella 4.5 Tabella riassuntiva dei dati raccolti 4.8.1.1. Scelta della strategia di ricerca per il Questionario Assitalia La scelta della strategia di ricerca dei legami di correlazione tra le domande del questionario di Customer Satisfaction considerato, implica delle attente valutazioni sia sulla sua struttura che sulle relazioni che potrebbero evidenziarsi dall’analisi. La strategia Exhaustive, proposta nelle preferenze del BKD, oltre che non essere disponibile nella recente versione del software, risulta di difficile implementazione e di elevato costo di elaborazione, quindi non viene presa in considerazione nell’analisi del nostro problema. Gli Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 140 obiettivi proposti possono essere raggiunti utilizzando i dati ricavati attraverso le strategie Greedy e Arc Inversion, le quali evidenziano comunque in modo esauriente le reti di correlazione tra le variabili, riducendo di molto il costo di elaborazione. Ricordiamo che la seconda è un’applicazione della prima metodologia, eliminando però parzialmente la dipendenza dei rapporti di correlazione dalla posizione delle variabili nel DB. La ricerca Greedy è la più semplice e veloce in quanto partendo dall’ultima variabile del DB analizza gli eventuali legami con i nodi che la precedono, tracciando gli archi che portano ad una configurazione di Massima Verosimiglianza. La forte dipendenza della rete dalle diverse successioni possibili delle variabili nel DB, pone dei problemi sulla validità dei legami ottenuti. Questa strategia di ricerca può essere considerata valida ipotizzando che, durante lo svolgersi dell’indagine telefonica, le domande precedenti possano influenzare in qualche modo le risposte successive dell’utente, in pratica, che i legami possano soltanto seguire l’ordine del questionario. Lo svantaggio principale di questa tecnica è il fatto di trascurare dei rapporti di correlazione tra le variabili, arrivando quindi ad alcune conclusioni sbagliate sui rapporti tra i nodi. La strategia Arc Inversion appare la più affidabile e corretta nella valutazione della rete bayesiana in quanto evita di assegnare troppa importanza all’ordine di formulazione delle domande nel questionario, garantendo una maggiore attendibilità sulla completezza nell’analisi dei legami e sulla effettiva consistenza dei rapporti di dipendenza ipotizzati. 4.8.2. Analisi dei dati e rappresentazione dei risultati La strategia di ricerca utilizzata è stata l’Arc Inversion che, come anticipato, determina un risultato dipendente dalla sequenza con cui sono considerate le variabili. Per avere una più chiara visione del funzionamento del software ed una più precisa individuazione delle correlazioni forti tra i nodi della rete, sono state utilizzate delle permutazioni del database originario, generate casualmente. Quindi sono state condotte le analisi di correlazione che hanno prodotto altrettante rappresentazioni reticolari dei legami tra le variabili; questo studio può essere considerato un’analisi di sensitività in quanto evidenzia le variazioni dell’output, cioè i legami tra i nodi, al variare dei dati in input, rappresentati dalla posizione delle colonne del Database. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 141 4.8.2.1. I legami tra le domande del questionario L’analisi di sensitività, costituita da una applicazione del programma BKD a diverse permutazioni delle colonne del Database, ha portato alla produzione di risultati interessanti. In primo luogo sono stati evidenziati i grossi limiti della strategia di ricerca Greedy, la quale è altamente sensibile alla disposizione delle variabili nel Database e quindi non è applicabile al nostro tipo di analisi, ritenendo poco probabile un influenza significativa della sequenza delle domande sull’opinione dei clienti circa il servizio ricevuto. La ricerca è stata focalizzata sulla strategia Arc Inversion, la quale, dopo aver considerato i possibili legami seguendo l’ordine delle variabili, valuta anche altre dipendenze al di fuori di questo ordine, sempre che non introducano dei cicli. L’applicazione ripetuta di questa analisi ai diversi Database ottenuti attraverso le permutazioni, ha supplito in qualche modo alla mancanza della strategia Exhaustive nel software BKD, portando all’identificazione di legami di dipendenza forti tra le variabili in questione. La struttura finale ottenuta dall’analisi è rappresentata in Figura 4.4: questo grafo orientato è il modello di dipendenza che, tra tutte le permutazioni considerate, ha dato luogo alla massima verosimiglianza (LogLikelihood=-324,39989) ed è quindi da assumersi come modello di riferimento. Dall’osservazione della figura si notano immediatamente i 3 gruppi di legami che saranno analizzati più approfonditamente nel prossimo paragrafo. Figura 4.4 Rete Bayesiana ottenuta dall’analisi dei dati (strategia di ricerca Arc Inversion) Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 142 Evidenziato il legame generale tra le variabili (Figura 4.4), vengono esaminati più attentamente i rapporti di dipendenza, sempre attraverso il metodo della massima verosimiglianza, cercando l’effettiva correlazione tra i nodi considerati. In Tabella 4.6 è riportata l’analisi dei legami tra le variabili con i relativi valori della Likelihood; i massimi tra questi sono stati evidenziati. I legami evidenziati dalla rete bayesiana delle dipendenze sono: 1) TEMPO-SODDDURATA-DUROTT-RACCOLTADATI 2) CAPACITA’-TELEFONATE 3) ORARIO-RISPOSTA Analizziano più in dettaglio i risultati ottenuti: 1) TEMPO-SODDDURATA-DUROTT-RACCOLTADATI Questo legame sottolinea la correlazione tra la soddisfazione del cliente per la durata della telefonata (domanda n°10 del questionario), la percezione del tempo passato al telefono (domanda n°9), l’indicazione, da parte del cliente stesso, di una ipotetica durata ottimale della conversazione (domanda n°12) ed il giudizio sul processo di raccolta dei dati. Il legame rappresentato può derivare dal fatto che la soddisfazione del cliente per la durata della telefonata di denuncia del sinistro influenza la sua percezione della durata effettiva trascorsa, quindi bisogna considerare anche i motivi psicologici che portano alla formazione del giudizio. Si comprende infatti quanto la soddisfazione per un fattore del servizio faccia cambiare la prospettiva di valutazione dell’utente: se il cliente è rimasto veramente soddisfatto della durata della telefonata è molto probabile che la sua indicazione del tempo passato al telefono tenda al minimo riportato nel questionario; se il livello di soddisfazione per l’aspetto temporale del servizio è molto basso, probabilmente l’indicazione dei minuti passati all’apparecchio per la denuncia tenderà ad aumentare e ad essere anche maggiore del periodo effettivamente impiegato. Dai dati in Appendice D si ricava che, se il cliente si ritiene “molto” soddisfatto del poco tempo necessario per la denuncia, è più probabile (probabilità condizionata = 0,702) che indichi una durata della telefonata minore di 5 minuti, mentre se egli si considera “abbastanza” soddisfatto, la percezione della durata aumenta ad un tempo compreso tra 5 e 10 minuti. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 143 Figura 4.5 Legame Tempo-Sodddurata-Durott-Raccoltadati E’ da notare che, in nessuno dei 60 questionari rilevati, sia presente una durata superiore ai 15 minuti ed una soddisfazione nulla, il che significa che la politica dell’azienda sulla minimizzazione dei tempi per la denuncia di un sinistro è stata recepita ed applicata facilmente dal personale di Front-Office. Dai dati di Verosimiglianza e di probabilità condizionata circa la Durata ottimale richiesta dai clienti, si deduce che, per tutti gli intervistati, la telefonata deve durare sicuramente meno di 10 minuti. Gli utenti che si sono dichiarati soddisfatti per una durata della telefonata di meno di 5 minuti, è molto probabile (p=0,991) che indichino una durata ottimale dello stesso ordine di grandezza; fra coloro che, invece, hanno riscontrato una durata maggiore (5–10 minuti), le risposte si dividono nell’indicazione di tempi di 5-10 minuti (p=0,497), per quelli che probabilmente erano rimasti soddisfatti della durata della comunicazione, e meno di 5 minuti (p=0,497), per i ‘non completamente soddisfatti’ o insoddisfatti. La percezione della correttezza del processo di raccolta dei dati risulta essere influenzata dalla valutazione, da parte degli utenti, del tempo realmente necessario alla raccolta dei dati per la denuncia di un sinistro. Dall’analisi dei risultati del BKD risulta che: chi ha indicato come durata ottimale il tempo effettivo impiegato per la denuncia è probabile che fosse soddisfatto della durata della telefonata, e quindi, probabilmente, avrà anche affermato che gli sono stati chiesti solo i dati necessari (si nota infatti una preponderanza della probabilità degli stati [1,1]=0,885 e [2,1]=0,916); la diminuzione della probabilità nel caso che fosse stata indicata la durata ottimale minima è imputabile al fatto che, come detto precedentemente, i clienti insoddisfatti indicano la durata di 5 minuti, ritenendo che il processo di raccolta dei dati non sia stato sufficientemente efficiente, avendo sprecato tempo in domande ridondanti ed inutili. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano Legame 1 Durott Sodddurat Tempo a Durott Tempo Sodddurat Tempo a Tempo Sodddurat a Tempo Sodddurat a Sodddurat a Durott Sodddurat a Tempo Sodddurat Durott a Tempo Durott Durott -49,065 -50,591 -54,950 -55,735 Tempo Durott Sodddurat Durott a Legame 2 Capacità 144 Legame 3 Durott Raccoltadat i 34,774 Raccoltadat i 37,257 Raccoltadat Durott i 45,099 Durott 40,874 -58,565 -58,279 -62,943 -35,096 -33,377 -40,874 -46,03 Telefonate -15,975 Legame 4 Orario Telefonate -17,178 Telefonate Capacità -43,423 Capacità -41,749 Risposta Risposta Risposta Orario Orario Tabella 4.6 Valori di Verosimiglianza dei legami considerati 23,832 27,846 37,697 35,176 Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano Legame 1 Tempo 1 2 3 Sodddurat a 3 2 2 145 Prob. Temp Sodddura Durot Prob. o ta t 0,652 1 1 1 0,500 0,539 1 2 1 0,993 0,894 1 3 1 0,996 2 1 1 0,982 2 2 1 0,538 2 3 2 0,986 3 1 1 0,500 3 2 1 0,500 3 3 1 0,500 Legame 2 Soddisfazi Telefonate Prob. one 1 1 0,970 2 1 0,865 3 1 0,994 Soddisfazi Contatto Prob. one 1 3 0,731 2 3 0,818 3 3 0,993 Legame 3 CC/Trad Soddisfazi Prob. one 1 1 0,464 2 2 0,913 3 3 0,618 Legame 4 Tempo Orario Prob. 1 3 0,891 2 3 0,741 3 2 0,911 Tabella 4.7 Valori di probabilità condizionata. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 146 2) CAPACITA’-TELEFONATE Analizzando i valori della Verosimiglianza per questo secondo gruppo di variabili Figura 4.6 , si nota che le misure maggiori si sono rilevate per il legame tra la percezione della capacità dell’operatore telefonico ed il numero di telefonate che sono state necessarie per la denuncia del sinistro. Figura 4.6 Legame Capacita’-Telefonate Dall’analisi dei valori di probabilità condizionata, riportati in Appendice D, si nota come una buona capacità dell’operatore nel contatto con il cliente influisce sul numero di telefonate necessarie alla chiusura della pratica; in effetti, nella grande maggioranza di casi in cui il personale di Front Office è stato giudicato molto preparato per le richieste proposte, è bastata una telefonata per portare a termine la denuncia. Si nota quindi che il legame più intuitivo a cui si può pensare per queste variabili, ossia che il numero di telefonate necessarie influisca direttamente sulla valutazione del cliente circa le capacità degli operatori, non ha il valore di verosimiglianza massimo, mentre si evidenzia il fatto che la preparazione e l’esperienza degli operatori può influire sull’erogazione del servizio, almeno per quanto riguarda la percezione della clientela. La domanda sul numero di telefonate è poi molto importante come indicatore di efficienza del servizio e del personale di Front-Office, quindi conviene sia sempre monitorata. 3) Legame ORARIO-RISPOSTA L’ultimo legame che risulta dall’analisi dei Database è quello che lega la soddisfazione per l’orario del servizio attualmente in vigore e l’immediatezza di risposta avuta al momento della chiamata (Figura 4.7). Questo gruppo di variabili si riferisce evidentemente alla capacità dimensionale del servizio Call Center in quanto, chi si è ritenuto molto o abbastanza soddisfatto degli orari di servizio, probabilmente ha ricevuto, al momento della chiamata, la risposta immediata dell’operatore (p=0,905 e p=0,981); ciò vuol dire che il personale a Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 147 disposizione dei clienti, nella fascia di orario utilizzata, è giudicato sufficiente. Coloro che, invece, hanno valutato gli orari non soddisfacenti, registrano una maggiore distribuzione di eventi attesa e linea occupata nella risposta numero 6. Figura 4.7 Legame Orario-Risposta Quindi, si riesce a comprendere come i livelli di soddisfazione per l’orario di apertura del Call Center implichino diverse situazioni al momento della chiamata. Alla luce dello studio realizzato, l’utilizzo del software BKD nell’analisi dei questionari di Customer Satisfaction risulta essere importante per focalizzare l’attenzione sui legami evidenziati, i quali, a loro volta, devono poi essere approfonditi attraverso le conoscenze a disposizione dell’organizzazione. Il metodo della massima verosimiglianza è particolarmente utile per rappresentare la struttura della rete Bayesiana delle dipendenze tra le variabili considerate, in modo da poter considerare nei successivi studi solo i legami indicati snellendo e semplificando così l’ulteriore approfondimento. L’esame dei sessanta questionari a disposizione ha portato alla formulazione di alcuni suggerimenti per i responsabili del monitoraggio della Customer Satisfaction di Assitalia, al fine di ottimizzare il questionario proposto e, quindi, facilitare la raccolta dei dati e la successiva analisi. Gli addetti al processo di progettazione del questionario, che, come ricordiamo, è in fase di taratura, devono prestare particolare attenzione ai 4 gruppi, o cluster, di variabili che riguardano l’aspetto temporale, l’accessibilità, le capacità degli operatori e le modalità di contatto nel servizio di Call Center. Gli aspetti del servizio considerato concorreranno poi, in misura diversa, alla percezione del livello di soddisfazione globale del cliente per il servizio fruito; i prossimi paragrafi si occuperanno più approfonditamente di questo argomento 4.8.2.2. Determinazione dei pesi di importanza La valutazione della soddisfazione globale per il servizio utilizzato è sicuramente un valore da tenere continuamente in osservazione nel Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 148 tempo, rappresentando in modo globale l’andamento del processo di erogazione del servizio da parte dell’azienda. Per comprendere quali sono i fattori che possono maggiormente influenzarla, si è proceduto alla stima delle dipendenze condizionali delle altre variabili su cui il cliente è chiamato ad esprimere un giudizio, con questa di riferimento. Da quest’analisi è venuto fuori un importante legame tra la variabile del questionario riguardante la soddisfazione generale per il servizio fruito ( domanda n°1) e quella che esprime il confronto tra il Call Center ed l’iter di liquidazione tradizionale (domanda n°2). Questo legame risulta abbastanza comprensibile, visto che la soddisfazione comprende sicuramente la percezione del miglioramento rispetto alle condizioni passate, quindi, chi si ritiene soddisfatto, molto probabilmente valuta il nuovo servizio migliore del precedente. Dal punto di vista probabilistico rileviamo questa dipendenza in quanto, analizzando i dati di Tabella 4.8, si osserva che: - se il servizio Call Center è giudicato peggiore del tradizionale, la soddisfazione generale per il nuovo servizio è più probabile che sia nulla - se il Call Center è giudicato uguale al servizio tradizionale, esso è valutato abbastanza soddisfacente - se, infine, il nuovo servizio è percepito come migliore, la sua valutazione generale tende ad essere molto soddisfacente Legame CC/Trad Soddisfazione Soddisfazione Soddisfazione CC/Trad CC/Trad CC/Trad 1 (peggiore) 2 (uguale) 3 (migliore) Verosimiglia nza -47,979 -58,217 -48,741 -56,542 Soddisfazione Probabilità 1 (nulla) 0,464 2 (abbastanza) 0,913 3 (molto) 0,618 Tabella 4.8 Analisi del legame SODDISFAZIONE - CC/TRAD Da questo risultato si può facilmente dedurre che il grado di soddisfazione generale per il nuovo servizio nasce dal confronto che il cliente opera, più o meno consciamente, con il tradizionale, quindi una delle due domande risulta essere ridondante. La decisione di eliminarne una deve essere motivata e discussa con la direzione, in quanto, per quanto riguarda gli argomenti di maggiore interesse per l’azienda, l’opinione dei clienti può essere richiesta più volte, sondando così in Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 149 maniera più precisa ed affidabile la loro percezione di questi aspetti. Se si ragionasse nell’ottica della minimizzazione del tempo dell’indagine, le domande n°1 e 2 (portando praticamente alle stesse conclusioni) andrebbero riformulate in un unico quesito, ma, valutando questi risultati ridondanti come un’indicazione maggiormente precisa e sicura della soddisfazione degli utenti, esse possono rimanere inalterate. Approfondendo l’analisi dei valori di verosimiglianza delle relazioni tra i fattori del servizio e la soddisfazione generale, si potrà evidenziare la consistenza dei legami e quindi derivarne una classificazione di importanza relativa nella realizzazione di un servizio di qualità. Questo darà la possibilità all’azienda, in caso di soddisfazione positiva, di evidenziare i punti di forza nei confronti della clientela e, in caso di insoddisfazione, di apportare i dovuti miglioramenti alle caratteristiche del servizio considerate più importanti dagli utenti. Questa metodologia di analisi può essere generalizzata in uno strumento di controllo nel tempo delle percezioni dei clienti circa il servizio erogato. La Soddisfazione è generata dall’insieme dei fattori considerati, i quali assumono diversa importanza in base al cambiamento delle necessità del cliente, delle capacità degli operatori, oppure della struttura stessa del servizio. Un monitoraggio, parallelo all’indagine di Customer Satisfaction, di queste particolari relazioni, porta ad una definizione automatica dei pesi di importanza dei fattori rispetto all’indicatore globale della Soddisfazione. Infatti la determinazione dell’importanza relativa può essere svolta attraverso l’analisi dei valori di verosimiglianza elaborati dal BKD (strategia di ricerca Greedy), considerando come nodo principale la SODDISFAZIONE e confrontando tra loro le misure elaborate dal software, come è rappresentato in Tabella 4.9 Legame DUROTT – SODDISFAZIONE TELEFONATE – SODDISFAZIONE CONTATTO - SODDISFAZIONE TEMPO – SODDISFAZIONE SODDDURATA - SODDISFAZIONE CAPACITA’ - SODDISFAZIONE ORARIO - SODDISFAZIONE RISPOSTA – SODDISFAZIONE RACCOLTADATI - SODDISFAZIONE Verosimiglianza -56,677 -57,830 -58,273 -59,791 -61,997 -63,835 -64,106 -64,395 -65,109 Posizione 1 2 3 4 5 6 7 8 9 Tabella 4.9 Verosimiglianza delle componenti della Soddisfazione Il controllo delle variazioni di queste posizioni attraverso dei semplici strumenti di rappresentazione grafica, come ad esempio un diagramma con in ascissa l’identificazione dell’indagine ed in ordinata i 5 gradi di importanza dei fattori, è un utile strumento per la gestione Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 150 del servizio, sia per la progettazione di miglioramenti interni, che per la stesura delle strategie future. Se necessario è possibile assegnare dei punteggi alle varie posizioni ricoperte dai fattori del servizio. 4.8.3. Conclusioni Lo studio effettuato sui sessanta questionari a disposizione ha portato alla formulazione di alcuni suggerimenti per i responsabili del monitoraggio della Customer Satisfaction, al fine di snellire il questionario proposto e quindi facilitare la raccolta dei dati e la loro analisi. I risultati raggiunti sono sintetizzabili nel modo seguente: Eliminazione della domanda n° 4 sugli orari di apertura preferiti dal cliente, in quanto, evidentemente, quest’ultimo preferisce esprimersi in termini di soddisfazione minore o maggiore, piuttosto che entrare nello specifico dell’organizzazione interna del servizio. Riformulazione o eliminazione della domanda n° 12 riguardo la durata ottimale della conversazione; la risposta più frequente è naturalmente la più banale: il minor tempo possibile. Il cliente non può essere a conoscenza dei passi necessari alla fornitura del servizio in esame e può essere anche messo in difficoltà nel valutarne la durata effettivamente occorrente. Le informazioni necessarie sull’aspetto temporale del servizio possono essere ricavate in modo soddisfacente dalle domande n°9 e 10. Le domande n°1 e 2 possono essere riformulate in un unico quesito in quanto portano praticamente alle stesse conclusioni. Nell’ottica della minimizzazione del tempo dell’indagine nei riguardi dei clienti questa operazione andrebbe sicuramente attuata, ma, valutando questi risultati ridondanti come indicazione maggiormente precisa e sicura sulla soddisfazione degli utenti, è possibile lasciare le domande inalterate. La scelta dipende dalle necessità e dagli obiettivi dell’azienda riguardo all’indagine. E’ stata evidenziata l’importanza della variabile tempo necessario per la denuncia sulla soddisfazione globale del cliente, cosicché è auspicabile un controllo frequente di questo aspetto attraverso gli strumenti più adatti ed alle tecniche descritte nel prossimo capitolo. Gli obiettivi prestabiliti dell’indagine sono stati raggiunti in modo soddisfacente, riducendo il questionario inizialmente proposto a sole 9 domande ed evidenziando i parametri critici del servizio offerto, ponendo le basi per una più efficace e veloce indagine sulla soddisfazione della clientela e per l’implementazione di ulteriori strumenti di monitoraggio ed interpretazione delle informazioni. Capitolo 4 Misurare e monitorare la qualità del servizio: un approccio bayesiano 151 Capitolo 5 Conclusioni 152 CAPITOLO 5 CONCLUSIONI “Le opinioni riguardo al valore del teorema di Bayes sono oscillate tra accettazione e rifiuto fin dalla data della sua pubblicazione nel 1763. … Il modo di ragionare bayesiano, definitivamente seppellito in molte occasioni, è recentemente risorto nuovamente con sorprendente rigore. La rinascita si deve principalmente a tre fattori. Primo, il lavoro di un certo numero di autori: Fisher, Jeffreys, Barnard, Ramsey, De Finetti. Savage, Lindley, Anscombe e Stein, sebbene non sempre diretto in questa direzione, ha consentito di chiarire e superare qualche difficoltà filosofica e pratica. Secondo, altre teorie inferenziali hanno individuato soluzioni semplici in casi in cui ipotesi molto restrittive vengono assunte (normalità e indipendenza degli errori), ma in casi differenti e, in particolare nei casi in cui non esistano statistiche sufficienti, le soluzioni sono spesso insoddisfacenti e poco pulite. Anche se spesso le ipotesi assunte ricoprono un certo numero di casi di interesse scientifico, sarebbe poco ragionevole pretendere che l’insieme di problemi statistici la cui soluzione è o sarà richiesta dalla ricerca scientifica, coincida con l’insieme di problemi che risulta facilmente trattabile. L’acquisizione di dati è spesso molto più onerosa confrontata con l’analisi degli stessi. E’ chiaro che l’insieme dei dati deve quindi essere analizzato da molti diversi punti di vista. Nella scelta di questi punti di vista, i metodi bayesiani permettono grande enfasi sull’interesse scientifico e minor enfasi sulla convenienza matematica. Terzo, le semplici soluzioni fornite nei casi in cui ipotesi molto restrittive vengano adottate hanno avuto grande popolarità per un’altra ragione: esse sono facili da calcolare. Questa considerazione ha molta meno forza adesso con la potenza di calcolo messa a disposizione allo stato attuale dagli elaboratori della nuova generazione. La ricerca scientifica utilizza i metodi statistici in un approccio iterativo in cui all’acquisizione di una serie di dati si alterna la fase in cui gli stessi vengono analizzati. La fase di analisi è anch’essa determinata attraverso un approccio iterativo in cui l’inferenza a partire Capitolo 5 Conclusioni 153 da un ipotesi di modello si alterna con la critica dello stesso modello ipotizzato, ad esempio attraverso l’analisi dei residui. L’inferenza è quindi solo una delle responsabilità di uno statistico. L’inferenza bayesiana sembra offrire sufficiente flessibilità per permettere di trattare la complessità scientifica senza avere impedimenti derivanti da limitazioni puramente tecniche.” G.P. Box e G.C. Tiao, Bayesian Inference in Statistical Analysis, John Wiley & Sons, 1992. Il punto di vista di Box e Tiao sull’adozione di un approccio inferenziale bayesiano, ben rappresenta le motivazioni che hanno spinto questo lavoro. L’obiettivo è stato principalmente quello di analizzare se e in quale misura l’adozione di altre tecniche di analisi statistica possono risultare di supporto nelle problematiche del controllo statistico di qualità. A valle del lavoro si può concludere che, per quanto osservato riguardo ai piani di accettazione nel secondo capitolo e riguardo alla qualità del servizio nel quarto, l’approccio bayesiano consente in alcuni casi di estendere il respiro della modellizzazione riuscendo a fornire risultati non ottenibili con altri approcci inferenziali. Per quanto riguarda invece l’applicazione dell’impostazione bayesiana alle carte di controllo, trattata nel terzo capitolo, in quel caso l’approccio bayesiano fornisce una naturale impalcatura per trattare l’aggiornamento della conoscenza richiesto da un ottica adattativa. Sicuramente quindi, a valle delle considerazioni svolte nei singoli capitoli, l’ulteriore indagine sull’applicazione di metodi bayesiani per il controllo statistico di qualità sembra una strada interessante da approfondire. Occorre in ultimo concludere con un’osservazione. La flessibilità offerta dalla distribuzione a priori deve naturalmente essere utilizzata con le dovute cautele. In questo caso non si intende in alcun modo entrare nelle motivazioni ideologiche che si oppongono all’impostazione bayesiana sostenendo che un metodo scientifico non debba contenere alcuna forma di indicazione soggettiva. Questo genere di affermazioni impedirebbe la formulazione di qualunque tentativo di modellazione e, portato all’estreme conseguenze, negherebbe la validità di approcci di IA come i sistemi esperti, in cui si rappresenta spesso una conoscenza soggettiva degli esperti. Nel caso in cui però quest’informazione a priori e soggettiva non sia così robusta e consolidata si possono sempre seguire diverse strade. In primo luogo utilizzare distribuzioni a prior non informative. In secondo luogo, anche utilizzando altre ipotesi di distribuzioni a priori sufficientemente “flessibili” e generali, verificare che il modello formulato riesca davvero a prevedere i dati futuri, assestandosi come modello in grado di rappresentare la realtà che si intende modellare. Capitolo 5 Conclusioni 154 154 BIBLIOGRAFIA [Ail75] R.H. Ailor, J.W. Schmidt e G.K. Bennet, 1975, The design of economic acceptance sampling plans for a mixture of variables and attributes, AIIE Transactions, 1975. [AlS97] Al-Sultan, K.S. and Rahim, M.A.; 1997, Optimization in quality control, Kluwer Academic Publishers. [Bak71] K. R. Baker, 1971, Two process models in the economic design of an X-chart, AIIE Transactions, 3, 4, 257-263. [Bar90] M. Barad, 1990, A break-even level approach to location of inspection stations in a multi-stage production process, International Journal of Production Research, 28, 29-45. [Ban88] P.K. Banjeree e M.A. Rahim, 1988, Economic Design of X control charts under Weibull Shock Models, Technometrics, 30, 407-414. [Bat63] J.A. Bather, 1963, Control Charts and Minimization of Costs, Journal of the Royal Statistical Society, Series B, 25, 49-80. [Bei79] C.S. Beightler, D.T. Phillips e D.J. Wilde, 1979, Foundations of Optimization, Prentice Hall International Series in Industrial and Systems Engineering [Ber85] J.O. Berger, 1985, Statistical Decision Theory and Bayesian Anlysis (Second edition), Springer [Boo91] S.Boomsma, 1991, Il dilemma tra le specifiche del servizio e la soddisfazione del cliente, Qualità , Dicembre 1993, [Memoria presentata al congresso di Praga (1991)]. [Boi99] A. Boin, 1999, Proposta di un metodo di taratura e di controllo dei risultati per un questionario di customer satisfaction: il caso call center Assitalia, Tesi di laurea in Ingegneria Gestionale, Politecnico di Milano, Dip. Meccanica. [Cal90] Thomas W. Calvin, 1990, How and when to perform bayesian acceptance sampling, The ASQC Basic Reference in Quality 155 Control: Statistical Techniques, American Society for Quality Control. [Cal95] J.M. Calabrese, 1995, Bayesian Process Control for Attributes, Management Science, 41, 4, 637-645. [Cal97] M.Caldara, M.Cignetti, F.Franceschini, “Strumenti a confronto per a valutazione della qualità nei servizi”(I parte), Qualità: rivista italiana dell’AICQ, n° 3, Maggio 1997. [Car72] P.L. Carter, 1972, A Bayesian Approach to Quality Control, Management Science, 18, 647-655. [Cas 75] K.E. Case, J.W. Schmidt and G.K. Bennet, 1975, A discrete multiattribute acceptance sampling AIIE Transactions. [Cha83] B. C. Chang, 1983, Price-adjusted attribute single sampling with polynomial indifference, IIE Transactions. [Cig97] M.Caldara, M.Cignetti, F.Franceschini, 1997, Strumenti a confronto per la valutazione della qualità nei servizi (II parte), Qualità: rivista italiana dell’AICQ, n° 4, Giugno 1997. [Col00] B.M. Colosimo, Q. Semeraro, and T. Tolio, 2000, Designing X control charts in a multistage serial manufacturing system, 33rd CIRP International Seminar on Manufacturing Systems, Stockholm, Sweden, June 5-7 2000 [Col86] E. von Collani, 1986, A simple procedure to determine the economic design of an X control chart, Journal of Quality Technology, 18, 145-151. [Col87] F. Colonna, 1987, Un po’ di chiarezza, Produrre, n°4 1987. [Col88] E. von Collani, 1988, A unified approach to Optimal process control, Metrika, 35, 145-159. [Col89] E. von Collani, 1989, The Economic Design of Control, Teubner, Stuttgart. B.G. [Col97] F. Colonna, 1997, Processo logistico, disponibilità e qualità del servizio, De Qualitate, Gennaio,1997. [Col98] B.M. Colosimo, A. Lauriola, and Q. Semeraro , 1998. Applicazione dell’analisi multicriterio per la valutazione della qualità del servizio. Rapporto interno depositato a termini di 156 legge, Dipartimento di Meccanica, Politecnico di Milano, n.0998. [Cro92] S.V. Crowder, 1992, AN SPC Model for Short Production Runs: Minimizing Expected Costs, Technometrics, 34, 64-73. [Cro92b] J.Cronin, Seven, A.Taylor,1992, Measuring Service Quality: A Reexamination and Extension, Journal of Marketing, 56, Luglio 1992, pp. 55-68. [Cro94] J.Cronin, Seven, A.Taylor, 1994, SERVPERF Versus SERVQUAL: Reconciling Performance -Based and Perceptions Minus Expectations Measurement of Service Quality, Journal of Marketing, 58,Gennaio 1994, 125-131. [Das97a] T.K. Das e V. Jain, 1997, An Economic Design Model for X charts with Random Sampling Policies, IIE Transactions, 29, 507-518. [Das97b] T.K. Das, V. Jain e A. Gosavi, 1997, Economic Design of DualSampling-Interval Policies for X Charts with and withouth Run Rules, IIE Transactions, 29, 497-506. [Del93] E. Del Castillo e D.C. Montgomery, 1993, Optimal design of control charts for monitoring short production runs, Economic Quality Control, 8, 225-240. [Del95] E. Del Castillo, 1995, Relations between X control chart design variables and production control, Internationa Journal of Production Research, 33, 2709-2721. [Del96a] E. Del Castillo e D.C. Montgomery, A general model for the optimal economic design of X-charts used to control short or long run processes, IIE Transactions, 28, 193-201. [Del96b] E. Del Castillo, 1996, Run lenght distributions and economic design of X-charts with unknown process variance, Metrika, 43, 189-201. [Des97] L. De Sario, 1997, Proposta di un modello economico per piani di campionamento singoli bayesiani multiattributo, Tesi di Laurea in Ingegneria Gestionale, Politecnico di Milano, Dip. Meccanica. 157 [Dre89] Z. Drezner e G. O. Wesolowsky, 1989, Optimal control of a linear trend process with quadratic loss, IIE Transactions, 21, 1, 66-72. [Dix73] L.C.W. Dixon, 1972, Nonlinear Optimisation, The English Universities Press Limited. [Dun56] A.J. Duncan, 1956, The economic design of X-charts used to maintain current control of a process, Journal of the American Statistical Association, 51, 274, pp. 228-242. [Dun71] A.J. Duncan, 1971, The economic design of X-charts when there is a multiplicity of assignable causes, Journal of the American Statistical Association, 66, 333, pp. 107-121 [Dun86] A.J. Duncan, 1986, Quality Contol and Industrial Engineering, 5th edition, R.D. Irwin, Homewood (IL). [Ehr88] R. Ehrhardt, 1988, Indifference functions for price-adjusted acceptance sampling, IIE Transactions. [Epp74] G.D. Eppen and E.G. Hurst, 1974, Optimal allocation of inspection stations in a multi-stage production process, Management Science, 10, 1194-1200. [Erc74] S. S. Ercan, M. Z. Hassan e A. Taulanda, 1974, Cost minimizing plans with AIQL and AOQL Constraints, Management Science. [Fra97] F.Franceschini, M.Terzago, 1997, Applicazione del QFD nei servizi di formazione aziendale, De qualitate, Maggio 1997. [Fos72] J.W. Foster, O.T. Perry, 1972, Price adjusted single sampling with linear indifference, Journal of Quality Technology. [Fos77] J.W. Foster, O.T. Perry, 1972, Price adjusted single sampling with quadratic indifference, AIIE Transactions. [Gal91] Galgano-Summit, 1991, La qualità del servizio: lo stato dell’arte in Italia, F.Angeli. [Gho94] A. Ghobadian, S. Speller e M. Jones, 1994, Service Quality: Concepts and Models, International Journal of Quality and Rielability Management, 11, 9, pp.43-66. [Gib67] I. N. Gibra, 1967, Optimal control of process subject to linear trends, The Journal of Industrial Engineering, 18, 1, 35-41. 158 [Gil96] W. R. Gilks, S. Richardson, D. J. Spiegelhalter, 1996, Markov Chain Monte Carlo in Practice, Chapman & Hall [Gir52] M. A. Girshick e H. Rubin 1952 A Bayes' approach to a quality control model, Annals of mathematical statistics, 23, pp.114125. [Gro82] C. Gronroos, 1982, Strategic management and marketing in the service sector, Swedish School of Economics and Business Administration, Helsingfors. [Gup84], T. Gupta e S. Chakraborty, 1984, Looping in a multi-stage production system, International Journal of Production Research, 10, 69-77. [Gut59] D. Guthrie Jr. e M.V. Johns, 1959, Bayes Acceptance Sampling procedures for large lots, Annals of Mathematical Statistics, 30. [Hah67] G.J. Hahn, S. S. Shapiro, 1967, Statistical Models in Engineering, John Wiley, New York. [Hal60] A. Hald, 1960, The compound hypergeometric distribution and a system of single sampling inspection plans based on prior distributions and costs, Technometrics. [Hal68] A. Hald, 1968, Bayesian single sampling attribute plans for continuous prior distributions, Technometrics. [Hsu88] L. F. Hsu e C. S. Tapiero, 1988, Quality control of an unreliable random FMS: with Bernoulli and CSP sampling, International Journal of Production Research, 6, 1125-1135. [Hsu89] L. F. Hsu e C. S. Tapiero, 1989, Quality control of an unreliable flexible manufacturing system: with scrapping and infinite buffer capacity, The International Journal of Flexible Manufacturing Systems, 1, 325-346. [Hsu90] L. F. Hsu and C. S. Tapiero, 1990, An economic model for determining the optimal quality and process control policy in a queue-like production system, International Journal of Production and Research, 28, 8, 1447-1457. [Hsu92] L. F. Hsu and C.S. Tapiero, 1992, Integration of process monitoring, quality control and maintenance in an M/G/1 queue-like production system, International Journal of Production and Research, 30, 10, 2363-2379. 159 [JIS63] Japanese Industrial Standardization Commitee, JIS Z 90111963, Single sampling inspection procedures and tables by attributes with severity adjustment (receiving inspection where a consumer can select suppliers). [Kea94] J.B. Keats and J.R. Simpson, 1994, Comparison of the X and CUSUM control chart in a economic model, Economic Quality Control, 9, 203-220. [Kea97] Keats, J.B., Del Castillo, E., von Collani, E. and Saniga, E.M.; 1997, Economic Modeling for Statistical Process Control, Journal of Quality Technology, 29, 2: 144-162. [Kna69] H.A. Knappenberger e A.H.E. Grandage, 1969, Minimum cost quality control tests, AIIE Transactions, 1, 1, 24-32. [Lau97] A. Lauriola. 1997, Un’applicazione dell’analisi multicriteri alla valutazione della qualità del servizio: il caso Bticino. Tesi di laurea Politecnico di Milano, Dip. Meccanica. A.A.96/97. [Leh82] U. Lehtinen, Jr. Lehtinen, 1982, Service Quality: A study of “Quality dimension, Working paper Service Management Institute, Helsinki. [Leo93] E. Leonardi, 1993, Il disservizio quale strumento di qualità, Qualità, Dicembre 1993. [Lin64] G. F. Lindsay e A. B. Bishop, 1964, Allocation of screening inspection effort: a dynamic programming approach, Management Science, 10, 343-352. [Lor86] T. J. Lorenzen e L. C. Vance, 1986, The economic design of control charts: a unified approach, Technometrics, 28, 3-10. [Mar96] A. Mariani e R. Mauri, 1996, Controllo della qualità di un processo produttivo presso un’azienda per lavorazioni conto terzi su macchine transfer, Tesi d laurea in Ingegneria Meccanica, Politecnico di Milano, Dip. Meccanica. [McW94] T. P. McWilliams, 1994, Economic, statistical and economicstatistical X-chart designs, Journal of Quality Technology, 26, 227-238. [Mon95] D.C. Montgomery e J.C.C. Torng, 1995, Statistically constrained economic design of the EWMA control chart, Journal of Quality Technology, 23, 179-204. 160 [Mon96] D.C. Montgomery, 1990, Introduction to Statistical Quality Control, John Wiley and Sons. [Moo43] A. Mood, 1943, On the dependence of sampling inspection plans upon population distributions, Annals of mathematical statistics. [Mor79] C.W Moreno, 1979, A performance approach to attribute sampling and multiple actions decisions, AIIE Transactions. [Mos84a] H. Moskowitz, R. Plante, K. Tang e A. Ravindran, 1984, Multiattribute acceptance sampling plans fore screening and scrapping rejected lots, IIE Transactions, 1984. [Mos84b] H. Moskowitz e R. Plante, 1984, Effects of risk avversion on single sample attribute inspection plans, Management Science. [Mos86] H. Moskowitz, R. Plante e K. Tang, 1986, Multistage multiattribute acceptance sampling in serial production systems, IIE Transactions. [Neg92] G. Negro, 1992, Organizzare la Qualità nei servizi. Ed. Il Sole 24ore Libri. [Oht97] Ohta, H. and Rahim, M.A.; 1997, A dynamic economic model for an x -control chart design, IIE Transactions, 29: 481-486. [Par85] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1985, A conceptual model of Service Quality and its implications for future research, Journal of Marketing, 49, 41-50. [Par88] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1988, SERVQUAL: a multiple-item Scale for measuring consumer perceptions of Service Quality, Journal of Retailing, 64, 1. [Par89] B. Parkhided e K.E. Case, 1989, The Economic Design of a Dynamic X-Control Chart, IIE Transactions, 21, 313-323. [Par91] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1991, Refinement and Reassessment of the SERVQUAL Scale, Journal of Retailing, 67, 420-450. [Par94] C. Park e M.R. Jr. Reynolds, 1994, Economic Design of a Variable Sample size X- Chart, Communications in Statistics – Simulation and Computation, 23, 467-483. 161 [Par96a] A. Parasuraman, 1996, La misura ed il controllo della qualità del servizio, De Qualitate, Maggio1996, pp.5-15.. [Par96b] A. Parasuraman, 1996, SERVQUAL: applicazioni, messa a punto sul campo e risultati, De Qualitate, Giugno1996, pp.515. [Pet87] M. H. Peters e W. W. Williams, 1987, Economic design of quality monitoring efforts for multi-stage production systems, IIE Transactions, 81-87 [Pet89] M. H. Peters e W. W. Williams, 1989, Economic design of an attribute control system for a multistage serial production process, International Journal of Production Research, 27, 1269-1286. [Por86] E. L. Porteus, 1986, Optimal lot-sizing, process quality improvement and set-up cost reduction, Operation Research 86, 137-144. [Por97] Porteus, E.L. and Angelus, 1997, Opportunities for Improved Statistical Process Control, Management Science, 43, 9, 12141228. [Pos87] M. J. M. Posner e C. S. Tapiero, 1987, Manufacturing quality density, control and maintenance, International Journal of Production Research, 25, 1511-1521. [Pra97] S.S. Prabhu, D.C. Montgomery, G.C. Runger, 1997, EconomicStatistical Design of an Adaptive X Chart, International Journal of Production Economics 49, 1-15. [Que88] C. P. Quesenberry, 1988, An SPC approach to compensating a tool-wear process, Journal of Quality Technology, 20, 4, 220229. [Rah93] M.A. Rahim e P.K. Banerjee, 1993, A Generalized Model for the Economic Design of X-Charts for Production Systems with Increasing Failure Rate and Early Replacement, Naval Research Logistics, 40, 787-809. [Rah94] M.A. Rahim, 1994, Joint Determination of Production Quantity, Inspection Schedule, and Control Chart Design, IIE Transactions, 26, 6, 2-11. 162 [Rah98] M. A. Rahim and M. Ben-Daya, 1998, A generalized economic model for joint determination of production run, inspection schedule and control chart design, International Journal of Production and Research, 36, 1, 277-289. [Ram96a] M.Ramoni, P.Sebastiani, 1996, Robust Learning with Missing Data, Technical Report, Knowldege Media Institute, Aug.1996. [Ram96b] M.Ramoni, P.Sebastiani, Robust Parameter Learning in Bayesian Networks with Missing Data, Technical Report, Knowldege Media Institute, Nov.1996. [Ram97a] M.Ramoni, P.Sebastiani, Efficient Parameter Learning in Bayesian Networks from incomplete Data, Technical Report, Knowldege Media Institute, Jan. 1997. [Ram97b] M.Ramoni, P.Sebastiani, Learning Bayesian Networks from incomplete Database, Technical Report, Knowldege Media Institute, Feb. 1997. [Ram97c] M.Ramoni, P.Sebastiani, The use of Exogenous Knowledge to Learn Bayesian Networks from Incomplete Databases, Technical Report, Knowldege Media Institute, Feb. 1997. [Ram97d] M.Ramoni, P.Sebastiani, Discovering Bayesian Networks in Incomplete Databases, Technical Report, Knowldege Media Institute, Mar. 1997. [Ram97e] M.Ramoni, P.Sebastiani, Parameter Estimation in Bayesian Networks from Incomplete Databases, Technical Report, Knowldege Media Institute, Nov. 1997. [Ram97f] M.Ramoni, P.Sebastiani, Bayesian Inference with Missing Data Using Bound & Collapse, Technical Report, Knowldege Media Institute, Dec. 1997. [Ram98] M.Ramoni, P.Sebastiani, Bayesian Methods for Intelligent Data Analysis, Technical Report, Knowldege Media Institute, Jul. 1998. [Raz87] T. Raz and D. Bricker, 1987, Sequencing of imperfect operations subject to constraints on the quality of accepted and rejected units, International Journal of Production Research, 25, 809-821. [Ros83] S. H. Ross, 1983, Stochastic Processes, John Wiley and Sons. 163 [Ros86], M. J. Rosenblatt e H. L. Lee, 1986, Economic production cycles with imperfect production process, IIE Transactions, 18, 4855. [Saa96] The Analytic Network Process : Decision Making With Dependence & Feedback by Thomas L. Saaty. [San89] E. M. Saniga, 1989, Economic statistical control chart with an application to X and R control charts, Technometrics, 31, 313320. [San95] E. M. Saniga, D. J. Davis e T. P. McWilliams, 1995, Economic, statistical and economic-statistical design of attribute charts, Journal of Quality Technology, 27, 56-73. [Sas78] W.E. Jr. Sasser, P. R. Olsen e D.D. Wyckoff, 1978, Management of Service Operations: Text and Cases, Boston, MA, Allyn and Bacon. [Sch72] J.W. Schmidt, G.K. Bennet, 1972, Economic multiattribute acceptance sampling, AIIE Transactions. [Sch90] H. Schneider, K. Tang e C. O'Cinneide, 1990, Optimal control of a production process subject to random deterioration, Operation Research, 38, 6, 1116-1122. [Sch94] P. B. Schary, 1994, The market place view of customer service, Handbook of Physical Distribution Management, John Gattorna, Gower, 1994. [Ste78] R.D. Stewart, D. C. Montgomery e R. G. Heikes, 1978, Choice of double sampling plans based on prior distributions and costs, AIIE Transactions. [Swa76] Swan, Comb, 1976, Product performance and Consumer Satisfaction: A New Concept, Journal of Marketing, April 1976. [Tag94] G. Tagaras, 1994, A Dynamic Programming Approach to the Economic design of X-Charts, IIE Transactions, 26, 3, 48-56. [Tag96] G. Tagaras, 1996, Dynamic Control Charts for Finite Production Runs, European Journal of Operational Research, 91, 38-55. [Tag98] G. Tagaras, 1998, A Survey of Recent Developments in the Design of Adaptive Control Charts, Journal of Quality 164 Technology, 30, 3: 212-231. [Tay65] H.M. Taylor, 1965, Markovian Sequential Replacement Process, Annals of Mathematical Statistics, 36, 1677-1694. [Tay67] H.M. Taylor, 1967, Statistical Control of a Gaussian Process, Technometrics, 9, 29-41. [Tay88] G. K. Tayi e D. P. Ballou, 1988, An integrated productioninventory model with reprocessing and inspection, International Journal of Production Research, 26, 1266-1315. [Tea93] R. Kenneth Teas, 1993, Expectations,Performance Evaluation, and Consumers’ Perceptions of Quality, Journal of Marketing, Ottobre 1993. [Tea94] R.Kenneth Teas, 1994, Expectations as a Comparison Standard in measuring service Quality: an Assessment of a Reassessment, Journal of Marketing, 58,Gennaio 1994, 125131. [Tri66] R. R. Trippi, 1966, An on-line computational model for inspection resource allocation, Journal of Quality Technology, 6, 167-174. [Yum87] B. J. Yum and E. D. McDowell, 1987, Optimal inspection policies in a serial production system including scrap rework and repair: a MILP approach, International Journal of Production Research, 25, 1451-1460. [Wei92] C. Weigand, 1992, A new approach for optimal control of a production process, Economic Quality Control, 7, 225-251. [Wei93] C. Weigand, 1993, On the effects of SPC on production time, Economic Quality Control, 8, 23-61. [Woo86] W. H. Woodall, 1986, Weaknesses of the economic design of control charts, Technometrics, 28, 408-409. [Vau93] T.S. Vaughan, 1993, Variable Sampling Interval np Process Control Charts, Communications in Statistics – Theory and Methods, 22, 147-167. 165 Appendice A 166 APPENDICE A ELEMENTI DI STATISTICA BAYESIANA A.1 Il teorema di Bayes e il teorema di Bayes generalizzato Il teorema di Bayes fornisce una formula di calcolo per la probabilità condizionata e può essere enunciato come segue: dati due eventi A e B, la probabilità che l’evento A si verifichi, condizionatamente al fatto che si è già verificato l’evento B è data da: P (A| B ) = P (A ∩ B ) P (B ) dove a numeratore si ha la probabilità dell’intersezione dei due eventi e a denominatore la probabilità dell’evento condizionante. Dal teorema di Bayes deriva il teorema delle probabilità totali in cui è possibile ricavare la probabilità di un evento come: P (B ) = P (B | A )P (A ) + P ( B | A )P ( A ) Partendo dal teorema di Bayes, il teorema di Bayes generalizzato può essere ricavato estendendo alle variabili aleatorie quanto espresso nel caso di eventi: date due variabili aleatorie x e y, con distribuzione condizionata f(x|y) e distribuzione marginale g(y), la distribuzione condizionata di y dato x è: P (B|A ) P(A) 6 474 8 } 6 474 8 f ( x |y ) g(y) g (y | x ) = ( x |y )g (y )dy ∫1f4 42443 P ( A|B ) (A.1) P (B ) Se si considera Il teorema di Bayes generalizzato, sostituendo ad x l’insieme di osservazioni in un campione di riferimento e ad y i parametri che caratterizzano le distribuzioni di queste osservazioni, si Appendice A 167 può ricavare lo schema di base dell’inferenza bayesiana. Si ipotizzi di avere un vettore di n osservazioni ~ x indipendenti e identicamente distribuite secondo una funzione densità di probabilità nota {f (x θ ),θ ∈ Θ} la quale è completamente definita dato un parametro θ (si ipotizzi per semplicità un unico parametro incognito, ad esempio la probabilità di successo per una distribuzione binomiale o la media per una normale in ipotesi di varianza nota). Si ipotizzi di conoscere anche la distribuzione a priori π (θ ) del parametro, distribuzione che rappresenta la conoscenza a priori senza cioè osservare i dati. A valle dell’osservazione delle n osservazioni ~ x , si può ricavare la distribuzione a posteriori del parametro (condizionatamente a dati osservati) π (θ | x~) , espressa da: π (θ | x~) = f ( x |θ )π (θ ) ∫Θ f ( x |θ )π (θ )d θ = f ( x |θ )π (θ ) m(x ) (A.2) dove: - x vettore aleatorio (es. oss.ni) - θ parametro - {f (x θ ),θ ∈ Θ} densità di probabilità - π (θ ) densità, distr. iniziale di θ (prior) - m (x ) = ∫ f ( x θ )π (θ )dθ densità marginale di x Θ Nel calcolo della distribuzione a posteriori, il problema computazionale è spesso rappresentato dall’integrale nel calcolo di m (x~) : m (x~) = ∫Θ f (~x θ )π (θ )dθ (A.3) Gran parte della ricerca si sta infatti sviluppando nella definzione di algoritmi numerici per il calcolo dell’integrale nell’equazione A.3 (ad esempio i metodi Markov Chain MonteCarlo [Gil96]. Dal momento che il denominatore dell’equazione A.2 non dipende dal valore del parametro θ , per riconoscere la forma distribuzionale della posterior è sufficiente operare trascurando questa costante moltiplicativa, analizzando solo il nucleo: π (θ x~) ∝ f (x~ θ )π (θ ) 14243 nucleo Appendice B APPENDICE B LE DISTRIBUZIONI 168 BETA E POLYA E LA PROPRIETÀ DI RIPRODUCIBILITÀ B.1 La proprietà di riproducibilità La proprietà di riproducibilità (o di invarianza rispetto al campionamento ipergeometrico) è una importante proprietà applicabile nel campionamento per attributi.. Siano: N ampiezza del lotto estratto da processo di difettosità p P la vriabile casuale che indica la frazione di pezzi non conformi generati dal processo; X il numero di pezzi non conformi presenti nel lotto di ampiezza N, con distribuzione fN(X); n la numerosità del campione estrsatto (senza reimmissione) dal lotto di ampiezza N; x il numero di pezzi non conformi nel campione di ampiezza n; y il numero di pezzi non conformi nella parte non collaudata del lotto, cioè X-x. Detta Prob(x,y) la probabilità congiunta di trovare x pezzi difettosi nel campione e y pezzi difettosi nella parte non collaudata del lotto, si avrà: X N − X n N − n x n − x x y Prob( x ,y ) = f N ( X ) = f N (x + y ) N N n x + y Quindi la distribuzione marginale di di x si otterrà sommando Prob(x,y) su tutti i possibili valori di y: N − n N − n y n g n ( x ) = ∑ f N ( x + y ) N x y =0 x + y Questa distribuzioned è la distribuzione ipergeometrica composta. Appendice B 169 In [Hal60] si dimostra un teorema che si può applicare al campionamento per attributi nella seguente formulazione: se la distribuzione f N (X ) è: • ipergeometrica • binomiale • rettangolare • polya (generalizzazione delle prime tre) • binomiale mista con pesi wi (corrispondente a situazioni in cui i lotti sono prodotti da più fornitori) • qualsiasi media pesata delle distribuzioni citate con pesi indipendenti da N e X e la successione delle funzioni f N (X ) , per N=1,2,…, ammette limite non degenere allora per ogni N, x esibisce la stessa distribuzione di X con n al posto di N. g n (x ) si ottiene quindi da f N (X ) sostituendo X con x ed N con n, e si dice che la distribuzione f N (X ) è riproducibile. Operativamente il teorema indica che si può trattare il campione di numerosità n, estratto da un lotto generato da un processo con distribuzione f N (X ) riproducibile, come generato da un processo che è identico a quello che ha generato il lotto, ma effettua una produzione limitata a n pezzi. Un altro importante risultato riportato in [Hal60] è l’espressione del valore atteso del numero di pezzi non conformi nel lotto di dimensione N, condizionato al fatto di aver riscontrato x difettosi nel campione di dimensione n: (N − n )(x + 1) g n +1( x + 1) E(X| x) = +x (n + 1) g n (x ) B.2 La distribuzioni beta come distribuzione a priori L’utilizzo della distribuzione beta per modellare la distribuzione a priori della frazione di pezzi non conformi comporta alcuni vantaggi. In primo luogo la distribuzione beta è estremamente flessibile: può assumere forme molto diverse e quindi rappresentare un vasto insieme di distribuzioni dei dati. Inoltre presenta il vantaggio di avere come distribuzione coniugata (posterior) ancora una beta, qualora la distribuzione a posteriori sia ricavata attraverso un campionameto binomiale. Appendice B 170 Ipotizziamo che la variabile casuale p, frazione di pezzi non conformi, sia distribuita secondo una beta di parametri s e t: (s + t − 1)! p s −1(1 − p )t −1 0 ≤ p ≤ 1 s, t > 0 (s − 1)!(t − 1)! p(1 − p ) s st con media p = e varianza σ 2p = = . 2 s +t (s + t ) (s + t + 1) (s + t + 1) Si può dimostrare che se si effettua un campionamento binomiale da un processo avente distribuzione a priori (in funzione di p) beta di parametri s e t, allora: La probabilità che in un lotto di N pezzi, X siano difettosi, indipendentemente dalla frazione di non conformi del processo, ha distribuzione polya; La distribuzione a posteriori ha densità beta di parametri s+x, t+n-x. Infatti si ha: f ( p | s, t ) = 1 f N ( X |N ,s, t ) = ∫ f ( X |N , p ) f ( p |s, t )dp = 0 = = 1 ∫ X ! (N − X )! p N! X (1 − p) N − X f ( p |s, t )dp = N! X (1 − p) N − X 0 1 ∫ X ! (N − X )! p 0 = (s + t − 1)! s −1 p (1 − p )t −1 dp = (s − 1)!(t − 1)! N! (s + t − 1)! 1 ( X + s )−1 (1 − p )(N − X + t )−1dp = ∫p X ! (N − X )! (s − 1)!(t − 1)! 0 N! (s + t − 1)! Γ( X + s )Γ(N − X + t ) = X ! (N − X )! (s − 1)!(t − 1)! Γ( X + s + N − X + t ) N! (s + t − 1)! ( X + s − 1)!(N − X + t − 1)! = X ! (N − X )! (s − 1)!(t − 1)! (s + N + t − 1)! = che è la distribuzione polya con con media X = σ2 X = Nst(s + t + N ) Ns = Np e varianza s+t . (s + t )2 (s + t + 1) Per ricavare il secondo risultato relativo alla distribuzione a posteriori, occorre utilizzare il teorema di Bayes. Si osservi innanzitutto che, poichè la distribuzione f N (X ) è una polya, la probabilità g n (x ) di osservare x difettosi nel campione di dimensione n è anch’essa una polya, per il teorema di riproducibilità enunciato nel paragrafo A.1. Appendice B 171 Per cui la distribuzione marginale che compare a denominatore nella formula della posterior (teorema di Bayes generalizzato) è proprio dato da g n (x ) . Di consegeuenza la distribuzione a posteriori si può ricavare come: n! (s + t − 1)! p x (1 − p)n − x p s −1 (1 − p )t −1 f ( x | p ) f ( p ) x! (n − x )! (s − 1)!(t − 1)! f (p | x ) = = = ( s + t − 1 )! (x + s − 1)!(n − x + t − 1)! n ! g n (x ) x !(n − x )! (s − 1)! (t − 1)! (s + n + t − 1)! = (s + n + t − 1)! p s + x −1 (1 − p )t +n − x −1 ( x + s − 1)!(n − x + t − 1)! che è una distribuzione beta di parametri s+x, t+n-x. Appendice C 172 APPENDICE C RISULTATI NUMERICI DELLA PROGETTAZIONE DI UNA CARTA DI CONTROLLO C ADATTATIVA BAYESIANA Parametri Numero medio di non conformità λ0 prodotti in stato 0 Numero medio di non conformità λ1 prodotti in stato 1 Tempo medio per avere uno 1/ν shift Tempo a seguito di un tFA falso allarme Tempo di tR riparazione Profitto orario in V0 stato 0 Profitto orario in V1 stato 1 Costi a A seguito di un Caso Caso Caso Caso Caso Caso Caso Caso Caso 1 2 3 4 5 6 7 8 9 base 20 20 20 20 20 20 20 20 20 25 30 25 25 25 25 25 25 25 50 50 100 50 50 50 50 50 50 1 1 1 2 1 1 1 1 1 1 1 1 1 2 1 1 1 1 450 450 450 450 450 650 450 450 450 250 250 250 250 250 250 250 250 250 25 25 25 25 25 25 50 25 25 Appendice C falso allarme Costi di R ripristino Costi di I ispezione 173 25 25 25 25 25 25 25 50 25 10 10 10 10 10 10 10 10 20 Appendice C 174 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 stat1 Average: 355,475 StDev: 28,9026 N: 100 Anderson-Darling Normality Test A-Squared: 0,323 P-Value: 0,523 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 340 390 440 bayes1 Average: 382,212 StDev: 18,8780 N: 100 Two-Sample T-Test and CI: bayes1; stat1 Anderson-Darling Normality T est A-Squared: 0,413 P-Value: 0,332 Appendice C 175 Two-sample T for bayes1 vs stat1 N 100 100 bayes1 stat1 Mean 382,2 355,5 StDev 18,9 28,9 SE Mean 1,9 2,9 Difference = mu bayes1 - mu stat1 Estimate for difference: 26,74 95% CI for difference: (19,92; 33,55) T-Test of difference = 0 (vs not =): T-Value = 7,75 DF = 170 P-Value = 0,000 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 260 310 360 410 stat2 Average: 318,154 StDev: 36,2253 N: 100 Anderson-Darling Normality Test A-Squared: 0,821 P-Value: 0,033 Appendice C 176 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 250 350 450 bayes2 Average: 360,655 StDev: 35,6276 N: 100 Anderson-Darling Normality Test A-Squared: 0,830 P-Value: 0,031 Mann-Whitney Test and CI: bayes2; stat2 bayes2 N = 100 Median = 359,22 stat2 N = 100 Median = 312,08 Point estimate for ETA1-ETA2 is 44,09 95,0 Percent CI for ETA1-ETA2 is (33,68;54,66) W = 13051,0 Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0000 Appendice C 177 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 stat3 Average: 346,675 StDev: 30,0759 N: 100 Anderson-Darling Normality Test A-Squared: 0,242 P-Value: 0,766 Normal Probability Plot ,999 Probability ,99 ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 bayes3 Average: 381,851 StDev: 16,4911 N: 100 Two-Sample T-Test and CI: bayes3; stat3 Two-sample T for bayes3 vs stat3 Anderson-Darling Normality Test A-Squared: 0,502 P-Value: 0,202 Appendice C bayes3 stat3 N 100 100 178 Mean 381,9 346,7 StDev 16,5 30,1 SE Mean 1,6 3,0 Difference = mu bayes3 - mu stat3 Estimate for difference: 35,18 95% CI for difference: (28,40; 41,95) T-Test of difference = 0 (vs not =): T-Value = 10,26 DF = 153 P-Value = 0,000 Appendice C 179 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 280 330 380 430 stat4 Average: 353,588 StDev: 30,2337 N: 100 Anderson-Darling Normality T est A-Squared: 0,294 P-Value: 0,595 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 340 360 380 400 420 bayes4 Average: 381,135 StDev: 17,4098 N: 100 Two-Sample T-Test and CI: bayes4; stat4 Anderson-Darling Normality Test A-Squared: 0,316 P-Value: 0,535 Appendice C 180 Two-sample T for bayes4 vs stat4 N 100 100 bayes4 stat4 Mean 381,1 353,6 StDev 17,4 30,2 SE Mean 1,7 3,0 Difference = mu bayes4 - mu stat4 Estimate for difference: 27,55 95% CI for difference: (20,66; 34,44) T-Test of difference = 0 (vs not =): T-Value = 7,90 DF = 158 P-Value = 0,000 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 stat5 Average: 352,382 StDev: 30,2699 N: 100 Anderson-Darling Normality Test A-Squared: 0,612 P-Value: 0,109 Appendice C 181 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 330 340 350 360 370 380 390 400 410 420 bayes5 Average: 381,371 StDev: 16,2967 N: 100 Anderson-Darling Normality T est A-Squared: 0,844 P-Value: 0,029 Mann-Whitney Test and CI: bayes5; stat5 bayes5 N = 100 Median = 383,82 stat5 N = 100 Median = 352,48 Point estimate for ETA1-ETA2 is 29,79 95,0 Percent CI for ETA1-ETA2 is (21,65;37,94) W = 12873,0 Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0000 Appendice C 182 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 stat6 Average: 350,594 StDev: 29,8327 N: 100 Anderson-Darling Normality Test A-Squared: 0,214 P-Value: 0,846 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 320 370 420 bayes6 Average: 381,159 StDev: 19,6460 N: 100 Two-Sample T-Test and CI: bayes6; stat6 Anderson-Darling Normality T est A-Squared: 0,511 P-Value: 0,192 Appendice C 183 Two-sample T for bayes6 vs stat6 N 100 100 bayes6 stat6 Mean 381,2 350,6 StDev 19,6 29,8 SE Mean 2,0 3,0 Difference = mu bayes6 - mu stat6 Estimate for difference: 30,57 95% CI for difference: (23,51; 37,62) T-Test of difference = 0 (vs not =): T-Value = 8,56 DF = 171 P-Value = 0,000 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 280 330 380 430 stat7 Average: 352,865 StDev: 32,6033 N: 100 Anderson-Darling Normality Test A-Squared: 0,148 P-Value: 0,964 Appendice C 184 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 320 330 340 350 360 370 380 390 400 410 bayes7 Average: 382,412 StDev: 17,1173 N: 100 Anderson-Darling Normality Test A-Squared: 0,608 P-Value: 0,111 Two-Sample T-Test and CI: bayes7; stat7 Two-sample T for bayes7 vs stat7 bayes7 stat7 N 100 100 Mean 382,4 352,9 StDev 17,1 32,6 SE Mean 1,7 3,3 Difference = mu bayes7 - mu stat7 Estimate for difference: 29,55 95% CI for difference: (22,27; 36,82) T-Test of difference = 0 (vs not =): T-Value = 8,02 DF = 149 P-Value = 0,000 Appendice C 185 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 280 330 380 430 stat8 Average: 347,018 StDev: 29,7948 N: 100 Anderson-Darling Normality T est A-Squared: 0,328 P-Value: 0,513 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 345 355 365 375 385 395 405 415 425 bayes8 Average: 380,537 StDev: 16,7312 N: 100 Two-Sample T-Test and CI: bayes8; stat8 Anderson-Darling Normality Test A-Squared: 0,482 P-Value: 0,226 Appendice C 186 Two-sample T for bayes8 vs stat8 N 100 100 bayes8 stat8 Mean 380,5 347,0 StDev 16,7 29,8 SE Mean 1,7 3,0 Difference = mu bayes8 - mu stat8 Estimate for difference: 33,52 95% CI for difference: (26,77; 40,27) T-Test of difference = 0 (vs not =): T-Value = 9,81 DF = 155 P-Value = 0,000 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 300 350 400 stat9 Average: 350,755 StDev: 30,5698 N: 100 Anderson-Darling Normality Test A-Squared: 0,305 P-Value: 0,561 Appendice C 187 Normal Probability Plot ,999 ,99 Probability ,95 ,80 ,50 ,20 ,05 ,01 ,001 340 350 360 370 380 390 400 410 bayes9 Average: 380,604 StDev: 15,5229 N: 100 Anderson-Darling Normality Test A-Squared: 0,529 P-Value: 0,172 Two-Sample T-Test and CI: bayes9; stat9 Two-sample T for bayes9 vs stat9 bayes9 stat9 N 100 100 Mean 380,6 350,8 StDev 15,5 30,6 SE Mean 1,6 3,1 Difference = mu bayes9 - mu stat9 Estimate for difference: 29,85 95% CI for difference: (23,07; 36,62) T-Test of difference = 0 (vs not =): T-Value = 8,71 DF = 146 P-Value = 0,000 Appendice D 188 APPENDICE D BAYESIAN BELIEF NETWORK: IL METODO E IL SOFTWARE BAYESIAN KNOWLEDGE DISCOVERY In questa appendice si intende descrivere brevemente la metodologia che è stata utilizzata nel capitolo 4 per definire le reti di dipendenza bayesiane a partire da database in presenza di dati mancanti. Per ulteriori approfondimenti, si veda [Ram96a ], [Ram96b], [Ram97a], [Ram97b], [Ram97c], [Ram97d], [Ram97e], [Ram97f] e [Ram98]. D1.1 Metodi bayesiani I metodi di previsione statistica tradizionale sono basati sulla determinazione della distribuzione condizionata p( y|θ) degli n dati osservati y = (y1,...,yn) dato il vettore θ, il quale descrive la struttura delle dipendenze tra le variabili considerate. Questi strumenti “classici” utilizzano le informazioni ricavate dai dati a disposizione in un Database per correggere il modello θ ipotizzato, attraverso l’applicazione dell’inferenza statistica. I metodi Bayesiani danno la possibilità di incorporare anche altre informazioni sull’argomento in esame, quali: le esperienze passate su temi simili o le particolari valutazioni degli esperti. Queste informazioni iniziali, sono rappresentati dal simbolo I0 e sono fondamentali nella definizione della probabilità a priori p(θ | I0), elaborata prima di aver considerato i dati del Database. Questa probabilità, formulata con i dati a disposizione, viene aggiornata con le nuove osservazioni; la revisione delle informazioni viene rappresentata attraverso il teorema di Bayes: p (θ y, I 0 ) = p ( y θ , I 0 ) p(θ I 0 ) p( y I 0 ) il quale modifica la probabilità iniziale P(θ |I0) nella probabilità a posteriori p(θ|y,I0) con l’aumentare delle informazioni. Questo processo si basa sulla rappresentazione delle informazioni totali (I1) come somma delle informazioni a priori (I0) e dei dati ricavati dal campione (y). Appendice D 189 La probabilità al denominatore della formula di Bayes, detta probabilità marginale dei dati, è ricavata dal teorema delle Probabilità Totali: p( y I 0 ) = ∫ p( yθ , I 0 ) p (θ I 0 ) dθ In alcuni casi le informazioni I non influiscono sul campione y , dato il vettore θ, cioè y e I sono condizionalmente indipendenti, quindi: p( y θ , I ) = p( y θ ) L’indipendenza condizionale delle due variabili viene indicata come i(I,y|θ) e si verifica quando θ specifica completamente lo stato delle informazioni, in modo che I non aggiunge nessuna nuova indicazione rilevante. Se gli n casi del campione y = (y1,...,yn) osservato sono indipendenti, la densità di probabilità congiunta del campione è data da: n p ( y θ ) = ∏ p ( yi θ ) i =1 Questa espressione rappresenta anche la funzione di Verosimiglianza, la quale è quindi fondamentale nel passaggio dalla densità a priori a quella a posteriori. D1.1.1 Direct Acyclic Graph (DAG) La dipendenza stocastica tra le variabili I, θ e y può essere rappresentata graficamente attraverso il Direct Acyclic Graph, il quale (aggiungendo l’ipotesi di indipendenza condizionale i(I,y|θ), tra I ed y dato θ) assume la seguente forma: θ • • I • y Le frecce da θ verso I e y rappresentano la dipendenza stocastica di I ed y da θ. Secondo la terminologia adottata nella statistica bayesiana, θ viene detto PARENT di I ed y, i quali sono entrambi CHILD di θ. La dipendenza stocastica di I e y da θ è quantificata dalle densità condizionali p(I|θ) e p(y|θ), le quali vengono utilizzate per correggere la distribuzione di θ. In primo luogo si determina la densità condizionale P(θ | I) dalle informazioni I a disposizione, attraverso il teorema di Bayes. Poi, con l’arrivo dei nuovi dati, la cui distribuzione è p( y|θ) e utilizzando ancora una volta il teorema di Bayes, si ricava la distribuzione di θ, p(θ | I,y). Appendice D 190 Il metodo Bayesiano sfrutta questa caratteristica incrementale del procedimento appena descritto, per arrivare alla definizione della probabilità a posteriori dei parametri incogniti. D1.1.2 Inferenza Bayesiana Un punto fondamentale del metodo Bayesiano è l’utilizzo delle informazioni a priori sulla distribuzione delle probabilità condizionali, parametrizzate dal vettore θ. La definizione di questo vettore può essere ricavata in due diversi modi: - dall’analisi di dati a disposizione, quindi derivandola semplicemente da un calcolo di probabilità su informazioni provenienti da studi simili già eseguiti in passato - da asserzioni soggettive elaborate da esperti, le quali devono essere tradotte in termini probabilistici, utilizzabili nell’inferenza Bayesiana. La validità e veridicità di tali asserzioni dovranno essere dimostrate dagli stessi esperti, che saranno tenuti a documentare i metodi e le ipotesi utilizzate. Esempio: un approccio comune seguito dagli esperti è la scelta di una funzione di densità a priori simile a quella della Verosimiglianza. Le due funzioni risultano essere Coniugate e la distribuzione a posteriori di θ sarà della stessa classe, ossia avrà la stessa forma, della funzione di densità a priori. Questo criterio dovrebbe restringere la scelta delle distribuzioni a priori ad una classe limitata di funzioni ed è veramente utile solo se questa classe non risulta essere troppo estesa. Nelle valutazioni effettuate dagli esperti è molto importante la scelta della Precisione, o Prior Precision, la quale è data in termini di grandezza del campione immaginario necessario alla definizione della probabilità a priori. Questa grandezza specifica la confidenza che gli esperti hanno nelle loro asserzioni circa le densità di probabilità definite inizialmente: infatti, più la prior precision è maggiore e vicina alla numerosità del campione analizzato, più la distribuzione di probabilità a posteriori sarà simile a quella stabilita a priori. Quindi, se le informazioni iniziali, su cui basare le decisioni circa la probabilità a priori, sono poco precise ed affidabili, è meglio che esse non influenzino troppo i risultati finali: quindi è necessario impostare un valore relativamente piccolo del parametro prior precision. In questo caso, i risultati saranno basati in misura maggiore sui dati a disposizione nel campione analizzato. La scelta della prior precision deve tenere in considerazione sia la bontà delle asserzioni degli esperti, sia la rappresentatività del campione analizzato e quindi la sua numerosità. Un problema aperto dei metodi Bayesiani è la scelta di una distribuzione a priori che rappresenti una ignoranza iniziale Appendice D 191 sull’argomento da parte degli esperti, cioè una funzione che sia noninformativa e non influisca quindi sulla determinazione delle distribuzioni a posteriori. Una soluzione a questo problema può essere l’assegnazione di una distribuzione a priori che sia il più possibile uniforme, pur rimanendo una distribuzione di probabilità. Ad esempio, nel caso di una distribuzione di probabilità Normale, una varianza molto elevata risulta essere molto efficace allo scopo e, siccome la Precisione e la varianza sono inversamente proporzionali, ciò si traduce in un valore della Prior Precision molto piccolo. Utilizzando la distribuzione di probabilità uniforme come funzione iniziale di rappresentazione dell’incertezza, si assume, in realtà, che quest’ultima sia adeguatamente rappresentata da valori equamente distribuiti di probabilità, quindi si attribuisce un’ipotesi forte alla distribuzione dei dati, la quale deve essere necessariamente dimostrata e verificata. D1.1.3 Reti Bayesiane Le reti Bayesiane, o Bayesian Belief Networks (BBN), sono dei modelli grafici che descrivono le dipendenze tra diversi set di variabili. Esse rappresentano un potente strumento di rappresentazione delle informazioni, basato sulla teoria probabilistica. Una rete Bayesiana è definita da: - un set di variabili Y = {Y1,...,YI}discrete (per facilitare l’analisi), dove ogni Y i è caratterizzata da ci stati, ognuno dei quali viene identificato da yik - un modello M delle dipendenze condizionali tra gli elementi di Y, definito da un Direct Acyclic Graph, dove i nodi rappresentano le variabili stocastiche e gli archi identificano le dipendenze tra di essi. Per la seguente trattazione si utilizza la terminologia tipica dei DAG, cioè si indicano le variabili Yi come CHILD delle variabili PARENT Π i, le quali sono costituite dai qi stati π ij. CHILD : Yi = {yi1,...,yik,...,yici} ossia Yi = {yik} con i=1,....,I e k=1,...,ci PARENT: Π i = {π i1,...,π ij,...,πiqi } ossia Π i = {π ij } con i= 1,....,I e j=1,...,qi Le Π i rappresentano i legami della variabile Yi con le altre variabili Yx con x≠i. Ad esempio: Π 3=(Y1,Y2) rappresenta il legame tra la variabile CHILD Y3 ed i suoi PARENT Y 1 e Y 2. Appendice D 192 Y1 • • Y2 • Y3 I legami tra le variabili CHILD e PARENT sono definiti dalle distribuzioni condizionali di Y i dato Π i. Le variabili Yi sono indipendenti, in base alle ipotesi della struttura DAG e quindi, la probabilità della combinazione degli stati delle I variabili yk={yik,...,yIk}, combinazione formata dalla selezione di un determinato stato k per ogni variabile Yi, è data da: I p ( y k ) = ∏ p ( y ik π ij ) i =1 La componente grafica delle BBNs costituisce un modo semplice di descrivere e comunicare le dipendenze stocastiche tra le variabili. D1.1.4 Ricavare una rete Bayesiana dai dati di un Database Inizialmente le BBNs erano strutturate sulla base delle conoscenze degli esperti, i quali davano una loro prima rappresentazione della rete delle dipendenze fra le variabili. Quest’ultima, associata con l’ipotesi base di indipendenza condizionale tra le variabili, dava una descrizione probabilistica delle ipotesi formulate dagli esperti. Per arrivare ad avere con le BBNs un valido strumento di analisi dei dati indipendentemente dall’intervento degli esperti, si sono dovuti sviluppare dei metodi atti a ricavare le reti Bayesiane direttamente dai Database. D1.1.4.1 Scelta del modello M Dati m modelli M={M0, M1, ...,Mm} delle dipendenze fra le variabili considerate, ad ognuno sono assegnati la probabilità a priori p( Mj | I0 ) ed i vettori delle probabilità condizionate associati, i quali vengono indicati con il simbolo θ(j) . Le informazioni raccolte dal campione vengono utilizzate per determinare la probabilità a posteriori per mezzo del teorema di Bayes: Appendice D p (M j | I1 ) = 193 p (M j | I 0 ) p ( y | M j ) m ∑ p (M i =1 i | I0 ) p ( y | M i ) dove p( y | Mj ) è la Verosimiglianza marginale, la quale, sotto le ipotesi di : - completezza del campione (non esistono dati incogniti); - casi indipendenti; - distribuzione a priori dei parametri coniugata al modello di campionamento: θ ij( j ) ≈ D(α ij1 ,...,α ijci ) ; può essere descritta dalla seguente equazione: p ( y | M j ) = ∏∏ I qi i =1 j =1 Γ(α ij ) ci ∏ Γ (α + n(π )) ij ij Γ(α ijk + n( y ik | π ij )) k =1 Γ(α ijk ) dove Γ( ⋅ ) è la funzione Gamma . 1 Se il Database è completo, gli iper-parametri α ijk+n(yik|π ij) e la precisione α ij+n(π ij) possono essere estratti dalle distribuzioni a posteriori delle probabilità condizionali θij, le quali sono ricavate seguendo il metodo descritto nel paragrafo “Stima dei parametri” (D1.1.4.2). La scelta tra due modelli M0 e M1 si basa sul valore del rapporto r= p( M 0 | I 0 ) p( y | M 0 ) p(M 1 | I 0 ) p( y | M 1 ) Se r < 1 sarà scelto il modello M1, mentre se r > 1 verrà preferito il modello M0. Se r=1 vuol dire che i due modelli sono equivalenti, quindi la scelta dipende solo dall’osservatore. Al crescere del numero di variabili, la valutazione di tutti i modelli possibili diventa impraticabile, quindi è necessario utilizzare un processo di limitazione della ricerca ad un subset di modelli. Il limite euristico di ricerca più comune, applicato alla misura delle dipendenze condizionali e proposto originariamente da Cooper e Herskovitz2, si 1 Γ(t ) = ∫ x t −1e − x dx che, integrando per parti, si riduce a: Γ(t + 1) = tΓ(t ) e, quindi, se t=n : Γ(n ) = (n − 1)! vedi inoltre: A.M. Mood, F.A. Graybill, D.C.Boes Introduzione alla statistica App. Pag. 253 McGraw-Hill Italia 1988 2 G.F. Cooper e E.Herskovitz. A bayesian method for induction of probabilistic networks from data. Machine Learning, 9:309-347, 1992 Appendice D 194 basa su un ordinamento parziale delle variabili, cosicchè se Yi non può essere PARENT di Yj, Yi viene posizionato prima di Yj ( YipYj ), ossia vengono date delle precedenze ai possibili legami, in modo da ridurne significativamente il numero. Prendendo in considerazione la formula della probabilità condizionale del campione estratto y (dato il modello Mj) p( y |Mj ), ed evidenziando il contributo locale apportato del nodo Yi e del suo PARENT Π i, si ottiene: qi g (Yi , Π i ) = ∏ j =1 Γ(α ij ) ci ∏ Γ(α ij + n (π ij )) k =1 Γ(α ijk + n( y ik | π ij )) Γ(α ijk ) Per ogni nodo Yi , l’algoritmo procede aggiungendo un PARENT (Π) alla volta e valutando g( Yi , Π i ). Il subset di variabili PARENT viene allargato, seguendo il limite di ricerca sopra descritto, per includere la combinazione PARENT che dia il contributo maggiore alla funzione g( Yi , Πi ). Da questo punto di vista si può considerare il criterio di scelta come una versione generalizzata del metodo della massima verosimiglianza. La ricerca si ferma quando si raggiunge il massimo della funzione e la configurazione PARENT Π i corrispondente viene scelta come ottimale. Per comodità nei calcoli, è conveniente valutare il logaritmo naturale della funzione g( Yi , Π i ), in quanto gli ordini di grandezza si riducono e le valutazioni sui risultati rimangono le medesime. Nel caso di distribuzione uniforme a priori dei parametri, cioè α ijk=1 per tutti gli i,j,k, la formula di g( Yi , Π i ) diventa: ci − 1)! ∏ ∏ n( y ik π ij )! j =1 (ci + n(π ij ) − 1)! k =1 qi (ci D1.1.4.2 Stima dei parametri Dato un campione di n casi y = {y1,...,yn}ed un modello M della struttura grafica della rete (DAG), le probabilità condizionate che definiscono la rete sono date dai parametri θ = ( θijk ), i quali devono essere stimati dal campione y. Si definiscono i seguenti parametri: - θ ijk = p ( y ik π ij ,θ ) : probabilità condizionale dello stato k di Yi, dato lo stato j di Π i e la struttura θdelle dipendenze; - θ ij = (θ ij1 ,..., θ ijci ) : vettore associato alla distribuzione condizionale di Yi|π ij ; deve essere ricavato dal campione y; - n( yik |π ij ): frequenza dello stato k di Yi dato lo stato j di Πi, ricavata dal campione y (indicata come il numero di volte che compare il caso ( yik , π ij ) nel database) Appendice D - n (π ij ) = 195 ∑ K n( y ik | π ij ) : frequenza dello stato j di Π i (sempre come numero di volte in cui viene rilevato). Il metodo Bayesiano per stimare θ si basa sull’analisi coniugata, la quale si sviluppa come segue. La probabilità coniugata del caso yk può essere espressa come funzione del parametro incognito θijk: I p ( y k θ ) = ∏θ ijk i =1 se i casi sono indipendenti, si definisce la funzione di Verosimiglianza: n I k =1 i =1 qi ci L(θ ) = ∏ p( y k | θ ) = ∏∏∏θ ijk n ( yik |π ij ) j =1 k =1 Naturalmente ciò può essere assunto nell’ipotesi di indipendenza globale e locale, per cui la probabilità condizionale è calcolata come prodotto delle probabilità dei singoli stati delle variabili considerate. Sotto queste ipotesi, la densità congiunta a priori del vettore delle probabilità condizionate θ date le informazioni a disposizione I0, può essere esplicitata come: p (θ | I 0 ) ∝ ∏ p(θ ij | I 0 ) ij che induce alla definizione della densità finale (a posteriori): ci n ( y |π ) p (θ | I 1 ) ∝ ∏ p (θ ij | I 0 ) ⋅ ∏ θ ijk ij ij ij k =1 che ci consente di aggiornare in modo indipendente le distribuzioni delle probabilità condizionali θij. Per semplificare la trattazione viene introdotta una particolare forma della distribuzione a priori delle probabilità condizionali θij , cioè la distribuzione coniugata di Dirichlet con gli iper-parametri {α ij1 ,..., α ijci } con α ijk>0. Quindi: θ ij | I 0 ≈ D (α ij1 ,..., α ijk ,...,α ijci ) e la densità a priori di θij è proporzionale a: p (θ ij | I 0 ) ∝ ∏θ ijkijk α k −1 Gli iper-parametri della funzione di Dirichlet α ijk rappresentano l’opinione a priori dell’osservatore sulle distribuzioni di probabilità iniziali dalle quali partire per svolgere l’analisi. Questi parametri possono essere definiti anche come “frequenza dei casi immaginari necessari per formulare la distribuzione a priori”. α ij è la precisione Appendice D 196 locale e ( α ij-ci ) rappresenta la frequenza dei casi immaginari osservati in π ij. ci α ij = ∑ α ijk k =1 α = ∑ α ij è la precisione globale di θ ij Le quantità α ijk vengono utilizzate per specificare: la probabilità marginale di ( yik | π ij ), la quale corrisponde al valore atteso a priori: E (θ ijk | I 0 ) = α ijk α ij e la varianza a priori: V (θ ijk | I 0 ) = [ ] E (θ ijk ) 1 − E(θ ijk ) α ij + 1 E’ interessante notare che, dato il valore atteso, la varianza è inversamente proporzionale al valore della precisione locale α ij, cosicchè un valore piccolo di questo parametro porta ad una grossa incertezza. Quindi, visto che la Prior Precision è data da α = ∑ α ij , anche essa, ij come già accennato in precedenza, è un indicatore della precisione delle assunzioni iniziali, cioè riflette l’ampiezza dello scostamento dei valori che si osserveranno rispetto ai dati ipotizzati. La situazione di ignoranza iniziale può essere rappresentata dal valore di α ijk = α/(ciqi) per tutti gli i, j e k, per cui la probabilità a priori di ( yik | π ij ) diventa semplicemente: 1/c i . Ignoranza iniziale : α α = ijk ci q i p ( y ik | π ij , I 0 ) = 1 ci La densità a posteriori di θ Lauritzen 3 , assume la forma: , come dimostrato da Spiegelhalter e θ ij | I 1 ≈ D (α ij1 + n( yi1 | π ij ),...,α ijci + n( y ici | π ij )) In questo modo gli iper-parametri della distribuzione di θij possono essere aggiornati attraverso le informazioni raccolte, sommando ai parametri iniziali la frequenza dei casi (yijk , π ij) osservati nel campione. La precisione locale α ij viene incrementata dalle nuove frequenze raccolte, diminuendo così anche l’incertezza iniziale. 3 D.J. Spiegelhalter e W.R. Lauritzen. “Sequential updating of conditional probabilities on direct graphical structures”. Networks, 20:157-224, 1990 Appendice D 197 Le funzioni del Valore atteso e della varianza a posteriori assumono la seguente forma: E (θ ijk | I 1 ) = V (θ ijk | I 1 ) = α ijk + n ( y ik | π ij ) α ij + n(π ij ) [ E (θ ijk | I 1 ) 1 − E(θ ijk | I 1 ) ] α ij + n(π ij ) + 1 D1.1.5 Database Incompleti (Metodologia Bound & Collapse) D1.1.5.1 Introduzione La procedura utilizzata per stimare le distribuzioni di probabilità condizionata da Database eventualmente incompleti si basa sul metodo Bound & Collapse (1997), sviluppato da M.Ramoni e P. Sebastiani4. Nella strutturazione delle reti di dipendenza bayesiane si assume solitamente che il Database analizzato sia completo, siccome la complessità della trattazione aumenta esponenzialmente in relazione al numero di dati mancanti5, diventando praticamente ingestibile. In realtà la presenza dei cosiddetti missing data, ossia dati non riportati, persi o illeggibili, è molto frequente. La presenza di campioni incompleti non è assolutamente ignorabile durante lo svolgersi di un’analisi statistica, in quanto i dati mancanti possono invalidare le ipotesi di casualità formulate. Il metodo Bound & Collapse, di seguito presentato, utilizza la classificazione dei dati mancanti [Ram97f] data da Rubin6 (1976) e sviluppata in seguito da Little e Rubin7 (1987) e da Gelman8 (1995). 4 M.Ramoni: Knowledge Media Institute (The Open University) P. Sebastiani Department of Actuarial Science and Statistics (City University) 5 G.F. Cooper & E.Herskovitz. A Bayesian method for induction of probabilistic networks from data. Machine Learning, 9:309-347, 1992. 6 D.B. Rubin (1976). Inference and missing data. Biometrika, 63,581-592. 7 R. Little & D. Rubin (1987). Statistical Analysis with Missing Data. Wiley, New York, NY. 8 A. Gelman, J.B. Carlin, H.S. Stern & D.B. Rubin (1995). Bayesian Data Analysis. Chapman and Hall, London. Appendice D 198 D1.1.5.2 Classificazione dei dati mancanti Si prendono in considerazione due categorie di variabili X e Y, dove X sono variabili indipendenti, complete e che possiamo considerare in input, mentre Y sono variabili in output, soggette alla non-risposta. Per comodità, la presenza di dati mancanti viene indicata con il simbolo ( ? ). I meccanismi di assenza dei dati vengono classificati in base alla probabilità che la mancanza di rilevazione dipenda dallo stato di Y o di X. Quindi, quando questa probabilità dipende dallo stato di X ma non da quello di Y, i dati vengono indicati come Missing At Random (MAR), mentre quando essa non dipende né da X né da Y allora vengono detti Missing Completely At Random (MCAR), come rappresentato in Tabella D1. Nel caso di dati MAR, i valori osservati di Y non sono in generale rappresentativi del campione completo, ma possono diventare significativi considerando separatamente le diverse categorie di X. Se i dati sono classificati come MCAR, i valori osservati di Y sono un subcampione rappresentativo del campione completo originale. Quindi, in questi due casi, il meccanismo di presenza dei dati mancanti può essere ignorato, nel senso che l’inferenza statistica non viene influenzata da esso. Se la probabilità di Y=? dipende sia da X che da Y, il meccanismo dei dati mancanti viene denominato Not Ignorable (NI) ed il campione incompleto risultante non è più rappresentativo. Probabilità Dipende da: MAR (Missing At Random) X MCAR (Missing Completely At / Random) NI (Not Ignorable) X,Y Tipologia di dati Tabella D1 di Y=? Appendice D 199 D1.1.5.3 Campioni incompleti: metodo Bound and Collapse Le soluzioni utilizzate in caso di campioni incompleti, basate sui metodi Markov Chain Monte Carlo (MCMC), tra i quali Gibbs Sampling9 (Geman and Geman, 1984), EM Algorithm10 e Sequential Updating11, seguendo il cosiddetto Missing Information Principle, cercano di completare il Database attraverso un’inferenza dei dati a disposizione, per poi continuare l’analisi considerando il Database come fosse completo. Questi metodi danno buoni risultati solamente nel caso di dati mancanti del tipo MAR, dove i dati a disposizione sono rappresentativi del campione completo. Le analisi svolte con questi metodi su database che presentavano meccanismi Not Ignorable nei missing data, hanno evidenziato errori e svantaggi: si ipotizza che le informazioni circa il meccanismo di perdita dei dati siano note, mentre ciò non è sempre vero vengono implementate misure di affidabilità che non tengono conto, in modo completo, dei dati mancanti il costo in termini di elaborazione risulta funzione del numero di dati mancanti, quindi il dispendio di risorse è notevole. Il metodo Bound and Collapse (BC) cerca di ovviare a questi problemi cercando di definire: - un metodo di stima da campioni incompleti coerente con il modello dei dati mancanti; - l’identificazione di misure di affidabilità che tengano conto della presenza dei missing data ; - lo sviluppo di un metodo efficiente per sviluppare questi calcoli. Questa metodologia si basa su un semplice concetto: quando non esistono informazioni circa il meccanismo dei dati mancanti, un campione incompleto è in grado di limitare il set di possibili stimatori, attraverso un intervallo dato dalle distribuzioni di probabilità estreme 9 S. Geman & D. Geman. Stocastic relaxation, Gibbs distibutions and the Bayesian restoration of images. IEEE Transaction on Pattern Analysis and Machine Intelligence, 6:721-741, 1984. 10 A. Dempster, D. Laird and D. Rubin. Maximum likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society, Series B, 39:1-38, 1977. 11 D.J. Spiegelhalter & S.L. Lauritzen. Sequential updating of conditional probabilities on directed graphical structures. Networks, 20:157-224, 1990. Appendice D 200 (Bound). Per ognuno di questi intervalli viene applicato un procedimento, per cui l’intervallo viene fatto collassare ad un singolo valore (Collapse) per mezzo di una combinazione convessa degli stimatori estremi, con i pesi dipendenti dal modello dei dati mancanti. I punti trovati vengono utilizzati per approssimare la distribuzione dei parametri di interesse. Analizziamo ora questa metodologia, cercando di evidenziare la struttura ed i punti principali su cui si fonda, provando a dare una visione globale della logica adottata nel software utilizzato. Bound Il primo passo del metodo BC consiste nel limitare il set di stimatori utili dei parametri incogniti, attraverso la determinazione dei limiti superiore (Upper Bound) ed inferiore (Lower Bound) in termini di probabilità finale stimata per ogni parametro. Si trovano dei limiti rappresentati dalle stime Bayesiane, ricavate attraverso inferenze sui possibili completamenti del Database, le quali stime dipendono direttamente dalle frequenze dei dati esaminati. In pratica, per ogni variabile che presenta osservazioni incomplete, vengono considerate tutte le possibilità di completamento, limitando i possibili stimatori ad un set ristretto ammesso dal Database analizzato. Si considerano le variabili casuali Xi le quali sono caratterizzate da M stati xim e le variabili Πi che rappresentano le configurazioni PARENT per le variabili CHILD X i. n(xim|π ij) è la frequenza di xim data la configurazione PARENT π ij, ricavata dai casi completi del DB, mentre n•(xim|πij) è la frequenza massima, detta anche frequenza “artificiale”, di xim ottenuta completando i casi incompleti: n • (x im π ij ) = n(? π ij ) + n(x im ? ) + n(? ?) n • (x im π ij ) = n(? π ij ) + ∑ n(x ? ) + n(? ?) M il l ≠ m =1 dove: - n( ?|π ij ) è la frequenza dei casi nei quali solo i dati della variabile CHILD sono mancanti; - n( xim|? ) rappresenta la frequenza dei casi con la configurazione PARENT incognita, la quale può essere completata come π ij; - n( ?|? ) è la frequenza dei casi in cui tutti i dati in ingresso sono mancanti, questi possono essere completati come ( xim|π ij ). Il massimo della stima di θijm ( =p(xim|π ij) ) viene conseguito quando tutti i casi (Xi=?, π ij), (Xi=?, Π i=?) e (Xi=xim , Π i=?) sono completati come Appendice D 201 (xim ,π ij) e i casi (Xi=xil , Π i=?) con l≠m, sono completati come (xil,π ij’ ) per qualche j’≠j. Il minimo della stessa stima si ha quando il meccanismo dei dati mancanti è tale che: tutti i casi (Xi=?, π ij), (Xi=?, Π i=?) e (Xi=xil , Π i=?) con l≠m, sono completati come (xil ,π ij) e tutti i casi (X i=xim , Π i=?) sono completati come (xim,π ij’ ) per qualche j’≠j. Si ricavano i limiti per la stima Bayesiana del valore atteso E(θim|D), per ogni stato m della variabile Xi. • p ( xim | π ij , Dinc ) = Limite superiore: α ijm + n( xim | π ij ) + n • ( x im | π ij ) α ij + ∑ n( xim | π ij ) + n • ( x im | π ij ) m ( ) α ijm + n ( x im | π ij ) Limite inferiore: p • xim π ij , Dinc = α ij + ∑ n ( x im | π ij ) + n• (x im π ij ) Il denominatore m secondo ∑ n(x im termine π ij ) = n(π ij ) al è equivalente a: m Completando virtualmente tutti i casi possibili come (xim , π ij), mentre le frequenze degli altri stati di Xi dato π ij non vengono aumentate, si può vedere la probabilità massima p•(xim|π ij , Dinc), come ottenuta da una distribuzione di Dirichlet: Dm α ij1 + n(x i1 π ij ),...,α ijm + n(xim π ij ) + n • ( xim π ij ),...,α ijM + n(x iM π ij ) ( ) dove si nota che aumenta solamente la frequenza del caso considerato xim, quindi gli altri stati della variabile Xi avranno una probabilità data da : pm•(xil|π ij , Dinc) con l≠m. Introducendo, nella ricerca della probabilità minima di θijm , una variazione alle ipotesi sul completamento virtuale dei dati mancanti, ossia ponendo che il caso (X i=xil , Πi=?) con l≠m non possa essere completato come (xil ,π ij) ma come (xil,π ij’ ) per j’≠ j, si possono ricavare dei nuovi limiti inferiori locali direttamente dalla probabilità massima. Infatti, considerando le probabilità degli altri stati l≠m della variabile X i , si trova, fra di esse, un minimo globale, dato da: [ ] p •loc (xik π ij , Dinc ) = min p l• ( xik π ij , Dinc ) l che può essere anche scritto: p •loc (xim π ij , Dinc ) = α ijm + n ( x im | π ij ) α ij + ∑ n( xim | π ij ) + max n • (xim π ij ) m l ≠m e può essere adottato come Limite inferiore di θijm . Appendice D 202 La differenza tra p•loc e p• dipende solamente dalla presenza di casi nei quali lo stato della variabile CHILD è noto mentre è incognita la configurazione PARENT. E’ importante notare che p•loc > p• , perciò l’intervallo tra i limiti maggiore e minore diminuisce. Questo metodo è implementato utilizzando un algoritmo basato sull’albero delle decisioni, ossia considera tutti i possibili rami di completamento del Database, per immagazzinare in modo efficiente le informazioni sui parametri. In pratica, i limiti di probabilità vengono calcolati per tutti gli stati di ogni variabile incompleta considerata. L’ampiezza dell’intervallo di probabilità così ricavato diminuisce all’aumentare delle informazioni a disposizione nel Database circa i parametri da stimare e, quindi, rappresenta una misura della qualità dell’informazione probabilistica ricavata, dando inoltre un’indicazione sul grado di affidabilità delle stime. Collapse A questo punto, avendo a disposizione i due limiti, superiore ed inferiore, per ogni parametro incompleto, si procede, attraverso una combinazione convessa, alla valutazione puntuale della probabilità condizionata di ogni xim dato lo stato π ij della configurazione PARENT Πi. Si possono seguire due strade per questa elaborazione: - Exogenous Knowledge: ossia, si utilizzano informazioni esterne, solitamente elaborazioni o studi particolari di esperti, circa il modello dei dati mancanti - Available Information: viene svolta una stima dinamica del modello dei dati mancanti, utilizzando le informazioni a disposizione nel Database. 1 Exogenous Knowledge Nel primo metodo si ipotizza di avere a priori delle informazioni sul modello dei missing data, ossia le distribuzioni specifiche osservate in altri casi o forzate dall’operatore per conseguire obiettivi particolari. Queste informazioni permettono, attraverso la loro codifica, di formulare le ipotesi sulla distribuzione che descrive la probabilità di completamento per ogni caso incompleto del Database: p (xim π ij , X i = ?,θ ) = φ ijm ossia, la probabilità che dato un caso incompleto, esso sia completato dalla combinazione CHILD-PARENT xim|π ij , Appendice D 203 M e quindi: ∑φ ijm =1 (M= numero degli stati di Xi ). m =1 Si ricava, in questo modo, un modello parametrico del meccanismo di generazione dei dati mancanti (φ ijm), il quale viene utilizzato come sistema di pesi nel calcolo della combinazione convessa. La stima puntuale ricavata da quest’ultima operazione rappresenta la stima attesa di Bayes ottenuta dal Database completo quando il meccanismo dei missing data è quello ipotizzato: pˆ (xim π ij , Dinc , φ ijm ) = φ ijm ⋅ p • (x im π ij , Dinc ) + ∑ φ ijl ⋅ p l• (xim π ij , Dinc ) l ≠m φijm assume dei valori limite a seconda che: - i dati vengano persi sistematicamente nel Database: φ ijm=1 - non esistano informazioni sul meccanismo di generazione dei missing data; in questo caso viene ipotizzata una probabilità uniforme, in quanto ogni modello è ugualmente probabile: φ ijm=1/M (M = n° di stati della variabile considerata) 2 Available Information Il secondo metodo utilizza le informazioni a disposizione nel Database, attraverso le quali si deve poter ipotizzare di essere in presenza di un meccanismo Missing At Random. Questa ipotesi è necessaria per poter affermare che Dobs, ossia quella parte del DB con immissioni complete, è un campione rappresentativo dell’intero DB ( D = Dobs + Dmis ). Si può così determinare la probabilità di completamento φˆijm attraverso i dati contenuti in Dobs ; questa probabilità viene a sua volta utilizzata per il calcolo della combinazione convessa. α + n(xim π ij ) φˆijm = p(x im π ij , Dobs ) = ijm α ij + ∑ n(x im π ij ) m dove α ijm è la frequenza dei casi immaginari per formulare la distribuzione a priori e α ij è la prior precision. E’ importante tenere ben presente che, per ricavare la stima puntuale della probabilità solamente con le informazioni a disposizione nel Database, bisogna ipotizzare la presenza di un meccanismo M.A.R. di generazione dei missing data, che deve essere utilizzato con le dovute premesse e precauzioni. I risultati ottenuti nella fase Collapse vengono utilizzati nella determinazione della funzione di verosimiglianza, necessaria per la definizione della rete Bayesiana delle dipendenze, attraverso la formula: Appendice D 204 qi gˆ ( X i , Π i ) = ∏ j =1 Γ(α ij ) ci Γ(αˆ ij ⋅ pˆ (x ik π ij , Dinc )) Γ(αˆ ij ) ∏ Γ(α ijk ) k =1 ( ) ( ) ∑ n(π ) dove: αˆ ij = α ij + n π ij + pˆ π ij Dinc ⋅ n − ij j Conclusioni La rappresentazione esplicita e separata delle informazioni e le assunzioni circa il modello dei missing-data fanno si che questo metodo di stima risulti essere indipendente da ogni particolare meccanismo di dati mancanti. I limiti estremi ricavati per i possibili stimatori rappresentano l’incertezza dovuta ai dati mancanti e l’ampiezza dell’intervallo trovato può essere vista come una misura della qualità e della completezza delle informazioni probabilistiche contenute nel Database, circa i parametri incogniti. Infatti, l’aumento dell’ampiezza dell’intervallo ricavato è da imputare alla crescita dell’incertezza dovuta all’incompletezza del Database analizzato, cioè, in altri termini, al crescere del numero dei dati mancanti diminuisce l’affidabilità delle stime dei parametri. Rispetto ai metodi che basano la loro analisi sulle ipotesi di meccanismi Missing At Random dei dati mancanti, per cui i dati a disposizione sono rappresentativi del campione completo, il metodo Bound & Collapse evita qualsiasi assunzione in merito, eludendo così i problemi che si presentano nel caso di sistemi Not Ignorable, nei quali esiste un preciso meccanismo di perdita dei dati e quindi le informazioni disponibili per l’analisi non sono più significative in relazione all’intero Database. Questi casi vengono di solito risolti dagli altri metodi o forzando l’ipotesi di una distribuzione MAR dei dati mancanti, dando luogo ad una approssimazione non trascurabile, oppure eliminando completamente i missing data, implementando quindi l’analisi su un Database ridotto ma completo, perdendo in questo modo parte delle informazioni e creando problemi di affidabilità dei risultati. Un ulteriore vantaggio è rappresentato dal fatto che la complessità di elaborazione è ridotta, per ogni stato della variabile in output, ad un’analisi dei dati nella fase di ricerca dei limiti (Bound) inferiori e superiori, e ad una loro combinazione convessa nella fase successiva (Collapse). Quindi il costo in termini di elaborazione risulta essere funzione solamente del numero di stati di Y ed è indipendente dal numero di dati mancanti, portando così a differenze molto significative nei tempi di elaborazione dei dati, da alcuni secondi nel caso del B&C ad alcuni minuti per il Gibbs Sampling. Appendice D D1.2 205 Il SW Bayesian Knowledge Discovery Il programma presenta, come interfaccia utente, 3 finestre (Figura D.1) , attraverso le quali si possono osservare i dati del database prescelto per l’analisi (Database), la rappresentazione della rete Bayesiana generata dall’elaborazione dei dati stessi (Network), oppure le linee di comando, i messaggi di errore, di elaborazione ed i risultati delle Query (Message). Il primo passo è selezionare il Database da studiare, il quale può essere costruito anche attraverso Microsoft Excel, avendo l’accortezza di salvarlo come database “Testo (delimitato da tabulazione)”, ossia come file “*.txt”. Utilizzando la finestra Database/Select si sceglie il DB su cui si vuole svolgere l’analisi di correlazione. Figura D.1: Il Software BKD D1.2.1 Impostazione dei parametri di elaborazione E’ fondamentale a questo punto impostare i parametri dell’elaborazione che si vuole eseguire attraverso la finestra: Edit/Preferences. L’indicazione della Prior precision si riferisce alla confidenza nelle stime della probabilità a priori, che può essere vista come il numero dei casi immaginari su cui si ipotizza sia elaborata la probabilità iniziale. Appendice D 206 L’attivazione dell’ipotesi di modello Missing At Random per i dati mancanti risulta essere fondamentale nella nostra analisi, in quanto lo studio si basa proprio sulla rappresentatività dei dati raccolti in relazione all’intero Database. Infatti, avendo scelto in maniera assolutamente casuale il campione di intervistati, si esclude la presenza di meccanismi di generazione dei dati mancanti del tipo Not Ignorable ed avendo i clienti usufruito dello stesso servizio in un arco di tempo abbastanza limitato (3 mesi), si assume che le risposte raccolte rispecchino una comune percezione del servizio offerto e che quindi possano essere considerate rappresentative dei dati mancanti. L’informazione del numero massimo di stati (Max State) per considerare una variabile discreta o continua a noi non interessa in quanto le variabili esaminate sono tutte discrete e non superano i 4 stati possibili. Missing Symbol richiede il simbolo utilizzato per indicare i dati mancanti nel Database, quindi è necessario sostituire la sigla NA, data di default, con il punto interrogativo ( ? ) da noi utilizzato nel DB. E’ molto importante indicare il segno giusto ad ogni elaborazione, in quanto, in caso contrario, il nostro simbolo viene interpretato come una variabile del DB e vengono calcolate le probabilità di accadimento anche dell’evento “punto interrogativo” falsando così i risultati dell’intera elaborazione. Max Parents e Display Precision indicano solamente il massimo numero di legami di correlazione per un nodo, in cui lasciamo “nessun limite” come già impostato di default, e il numero massimo di cifre decimali utilizzate nel calcolo delle probabilità (3 nel nostro caso). L’indicazione della strategia seguita nella ricerca (Search Strategy) dei possibili legami tra i nodi è un punto critico in quanto presuppone un’analisi strategica ed approfondita delle implicazioni che ogni scelta include: La ricerca di tipo Greedy comporta una dipendenza dei legami dalla posizione delle variabili nel Database. Infatti le variabili presenti nei primi posti del DB vengono considerate come nodi “genitori” rispetto alle variabili seguenti, quindi si ha una forte interferenza da parte della sequenza impostata nel DB, sui risultati ottenuti. L’arco tra due variabili viene tracciato se incrementa il logaritmo della Verosimiglianza, ossia, viene calcolato per ogni nodo il valore della verosimiglianza (Likelihood) considerando tutte le possibili configurazioni di correlazione con le sole variabili che lo precedono nel DB, e quindi si sceglie l’opzione di legame che presenta il valore maggiore della Verosimiglianza; se nessun arco porta a questo aumento, la ricerca viene interrotta. L’Arc Inversion elimina parzialmente, dalla ricerca di tipo Greedy, l’ipotesi di dipendenza dei legami di correlazione dalla sequenza di impostazione delle variabili nel database, eseguendo la ricerca non solo verso le variabili “genitori”, ma quando possibile, anche dagli altri nodi, purché non vengano introdotti dei cicli. Quindi l’ordine continua ad Appendice D 207 avere un ruolo importante, in quanto, avendo stabilito in primo luogo delle dipendenze attraverso la strategia Greedy, alcuni legami, che potrebbero generare dei cicli, non verranno neanche considerati. La strategia Exhaustive esplora tutte le possibili combinazioni dei nodi, selezionando i casi con il più alto valore del logaritmo della Verosimiglianza, purché non ci siano cicli nella rete. Naturalmente questo tipo di ricerca è il più dispendioso in termini di tempo e quindi raramente implementato. La versione del software attualmente a disposizione non prevede ancora questa opzione, ma verrà completata in breve tempo. E’ da sottolineare il fatto che, nel tipo di analisi da noi svolto, gli archi che indicano i rapporti di correlazione tra le variabili non determinano il tipo di legame effettivo che sussiste tra di esse: essi evidenziano l’esistenza di una correlazione ma non garantiscono la correttezza della dipendenza riportata dal grafico. Il reale rapporto di dipendenze tra i nodi deve essere valutato successivamente in base alle informazioni a disposizione e ad attente valutazioni sul caso preso in considerazione, prestando molta attenzione alla significatività dei risultati ottenuti. D1.2.2 Istruzioni principali per l’utilizzo del BKD L’elaborazione dei dati viene svolta attraverso i comandi: - Network / Define from data: vengono definiti i nodi della rete, considerando come variabile la prima riga di ogni colonna del DB, la quale deve essere impostata a questo scopo. Nella finestra Network apparirà la rappresentazione dei nodi, i quali possono essere spostati a piacere, cercando di dare una lettura più chiara possibile dei legami di correlazione che verranno elaborati. - Network / Quantify from data: il programma calcola i valori di probabilità dei vari stati delle variabili e la relativa varianza. Vengono ricercati anche i limiti superiori ed inferiori di probabilità per i dati mancanti (Bounds) e viene calcolato, attraverso il metodo Bound & Collapse presentato nel paragrafo 4.3, il valore di probabilità puntuale per ogni stato assunto dalle incognite. - Network / Generate a model: il programma calcola i valori di verosimiglianza dei vari nodi e traccia così i possibili legami tra le variabili, basandosi sul metodo della Massima Verosimiglianza. In Output viene fornita la struttura grafica della rete su cui è possibile formulare delle Query sullo stato delle variabili e sul loro comportamento. Il criterio di scelta della rete delle dipendenze utilizzato dal BKD è il metodo della massima Verosimiglianza (Likelihood). Questa funzione fornisce la “verosimiglianza” che le variabili casuali assumano un Appendice D 208 particolare valore, ossia, riferendosi al caso da noi analizzato, che la rete delle dipendenze assuma una particolare configurazione. Vengono ipotizzati quindi vari legami di dipendenza dei quali si calcola la verosimiglianza; i valori ricavati vengono confrontati e si sceglie il maggiore valore rilevato. Il valore massimo della funzione di Verosimiglianza indica quindi la struttura della rete che presenta la maggiore probabilità di realizzazione, ossia la configurazione più verosimile. Appendice D D1.3 209 Il questionario Call Center Assitalia Appendice D 210 1 0 Disponibilità all'intervista 1 Soddisfazione generale 2 Servizio Call Center vs. tradizionale 3 Orario Lun-Ven 8.30/18.30 4 Orario preferito 5 Risposta operatore 6 Soddisfazione per modalità di contatto 7 Soddisfazione per capacità operatore 8 Numero telefonate necessarie Si No Nulla Abbastanza Molto Peggiore Uguale Migliore Nulla Abbastanza Molto Sab 8/13 Sab-Dom 8/13 Tutti gg 8/22 24h/24 Subito Attesa Occupato Nulla Abbastanza Molto Nulla Abbastanza Molto una oltre 2 1 3 1 1 4 1 5 6 1 7 8 1 1 1 1 9 1 1 10 11 12 13 1 1 1 1 14 15 16 17 18 19 20 21 22 23 1 1 1 1 1 1 1 1 1 1 24 1 25 26 27 28 29 30 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Appendice D 9 Tempo al telefono per denuncia < 5min 5min - 10 min 10min - 15 min oltre 10 Soddisfatto della durata Nulla Abbastanza Molto 12 Durata ottimale della < 5min comunicazione 5min - 10 min 10min - 15 min Non importante 13 Processo raccolta dati Necessari Già noti Chiesti più volte Ricavabili 211 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Appendice D 0 Disponibilità all'intervista 1 Soddisfazione generale 2 Servizio Call Center vs. tradizionale 3 Orario Lun-Ven 8.30/18.30 4 Orario preferito 5 Risposta operatore 6 Soddisfazione per modalità di contatto 7 Soddisfazione per capacità operatore 8 Numero telefonate necessarie 212 Si No Nulla Abbastanza Molto Peggiore Uguale Migliore Nulla Abbastanza Molto Sab 8/13 Sab-Dom 8/13 Tutti gg 8/22 24h/24 Subito Attesa Occupato Nulla Abbastanza Molto Nulla Abbastanza Molto una oltre 31 32 33 1 1 1 34 35 36 37 38 39 40 41 42 43 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 54 55 56 57 58 59 60 1 1 1 1 1 1 1 1 1 1 1 45 46 47 48 49 50 51 52 53 1 1 1 1 1 1 1 1 1 1 1 1 44 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Appendice D 9 Tempo al telefono per denuncia < 5min 5min - 10 min 10min - 15 min oltre 10 Soddisfatto della durata Nulla Abbastanza Molto 12 Durata ottimale della < 5min comunicazione 5min - 10 min 10min - 15 min Non importante 13 Processo raccolta dati Necessari Già noti Chiesti più volte Ricavabili 213 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Appendice D 214 Disponibil Soddisfazi CC/Tr ità one ad 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 1 3 2 2 2 3 3 2 3 3 2 2 3 2 3 3 2 3 2 2 2 2 3 2 3 2 3 3 2 2 3 2 3 3 3 1 2 3 1 1 ? 2 3 3 2 2 ? 2 2 2 3 3 2 ? 2 1 3 2 2 3 2 3 ? 3 3 3 1 3 2 3 3 3 3 3 3 2 ? ? ? 3 2 3 3 3 2 3 2 3 3 3 1 1 1 1 ? 3 2 3 3 3 3 ? 2 3 2 3 3 3 ? 3 Orari OraPr o ef 3 3 3 3 3 2 2 3 3 3 3 2 3 3 3 2 3 3 3 3 3 2 3 3 3 3 3 2 3 3 3 2 3 3 ? 3 2 3 2 3 3 3 3 3 3 3 ? 3 3 3 3 3 3 2 3 ? 1 ? ? ? 4 1 ? ? ? ? ? 1 ? ? 1 ? 1 ? ? ? 1 ? ? ? ? ? 1 ? ? ? ? ? ? ? ? ? ? ? ? ? ? 1 ? 1 ? ? 1 ? 1 ? ? 1 ? ? Rispos Contat Capaci Telefon Temp Sodd DurOt Raccolta ta to tà ate o Durat t Dati a 1 2 3 1 2 1 ? 1 1 3 2 1 2 2 2 1 1 3 2 2 2 3 2 1 1 3 3 1 1 2 1 1 1 3 3 1 2 2 1 4 1 3 3 1 1 2 1 1 1 3 2 1 2 2 2 2 1 3 2 1 2 2 1 1 1 3 3 1 2 3 2 1 1 3 3 1 2 2 ? 1 1 3 ? 2 1 3 ? 1 1 2 2 1 3 2 2 1 1 3 2 1 2 2 2 1 1 3 3 1 2 3 ? 1 1 3 3 1 2 2 2 1 1 3 3 1 2 3 2 1 1 3 3 1 2 3 ? ? 1 3 3 1 1 2 1 4 3 3 3 1 1 2 ? 2 1 3 3 1 2 3 ? 1 1 3 3 1 1 3 1 1 1 3 3 1 3 2 1 1 1 3 3 1 1 3 1 1 1 2 3 2 2 1 1 1 1 3 2 1 1 2 1 1 1 3 2 1 ? 3 ? 1 1 3 3 1 1 3 1 1 1 3 3 1 1 3 1 1 2 3 3 1 1 2 1 1 1 3 2 1 2 1 1 4 1 3 3 1 1 3 ? ? 1 3 2 1 2 2 1 1 1 3 3 1 ? 3 ? 2 1 3 3 1 ? ? ? ? 3 3 2 1 1 2 1 ? 1 3 3 1 ? 3 ? 1 1 3 2 1 2 2 1 1 1 3 3 1 1 3 1 1 1 3 2 1 2 1 1 1 2 3 3 1 2 2 1 1 1 3 2 1 2 2 1 ? 1 3 3 1 1 2 1 1 1 3 3 1 2 2 2 1 1 3 3 1 1 3 ? 1 1 3 3 1 1 3 1 1 1 3 3 1 1 3 1 1 ? ? ? ? ? ? ? ? 2 3 3 1 2 3 2 1 1 3 3 1 1 3 1 1 1 3 2 1 1 3 1 3 1 3 2 1 1 3 1 1 1 3 3 1 1 2 ? 1 1 2 2 2 1 2 1 1 1 2 ? 1 2 2 2 1 1 2 2 1 1 3 1 1 Appendice D 1 1 1 1 1 2 2 2 3 3 215 ? 2 3 3 3 3 2 2 3 ? ? 1 1 ? ? 1 1 1 1 2 ? 2 3 3 3 3 3 3 3 3 1 1 1 1 1 1 2 1 1 ? 3 2 3 3 3 1 1 1 ? ? 1 1 1 1 1 D.2 Database utilizzato nel software BKD D1.4 (BKD) Risultati dell’analisi delle dipendenze D1.4.1 Legami di dipendenza tra le variabili: valori di Verosimiglianza e di probabilità condizionale dei legami BKD> LIKELIHOOD CAPACITÀ Likelihood of dependencies to CAPACITÀ: [CAPACITÀ | T] = -41.74856494743297 [CAPACITÀ | TELEFONATE] = -43.422869996300015 [CAPACITÀ | RISPOSTA] = -43.743475563354295 [CAPACITÀ | ORARIO] = -44.20416797011299 [CAPACITÀ | CONTATTO] = -44.574992048731644 [CAPACITÀ | SODDDURATA] = -45.23274594489171 [CAPACITÀ | RACCOLTADATI] = -45.82585656988689 [CAPACITÀ | TEMPO] = -46.34470059265041 [CAPACITÀ | DUROTT] = -47.82083563752034 BKD> LIKELIHOOD CONTATTO Likelihood of dependencies to CONTATTO: [CONTATTO | T] = -26.287656357630976 [CONTATTO | TELEFONATE] = -26.35836569399249 [CONTATTO | RACCOLTADATI] = -26.783404304308498 [CONTATTO | CAPACITÀ] = -27.0957875243082 [CONTATTO | ORARIO] = -27.92042762118909 [CONTATTO | SODDDURATA] = -28.086175471524083 [CONTATTO | RISPOSTA] = -28.13833477172486 [CONTATTO | DUROTT] = -28.24128168823164 [CONTATTO | TEMPO] = -29.781189087065968 BKD> LIKELIHOOD SODDDURATA Appendice D Likelihood of dependencies to SODDDURATA: [SODDDURATA | T] = -58.27942033515613 [SODDDURATA | TEMPO] = -58.56535317560897 [SODDDURATA | CONTATTO] = -60.61387030823445 [SODDDURATA | TELEFONATE] = -61.10592696193746 [SODDDURATA | RISPOSTA] = -61.73201783253338 [SODDDURATA | CAPACITÀ] = -61.90235146017911 [SODDDURATA | ORARIO] = -62.21639114278162 [SODDDURATA | DUROTT] = -62.943378424625706 [SODDDURATA | RACCOLTADATI] = -62.958557007874624 BKD> LIKELIHOOD DUROTT Likelihood of dependencies to DUROTT: [DUROTT | TEMPO] = -33.377351277704854 [DUROTT | TEMPO SODDDURATA] = -35.09636312014322 [DUROTT | TEMPO CONTATTO] = -38.683110724856405 [DUROTT | TEMPO CAPACITÀ] = -40.520492863748096 [DUROTT | T] = -40.87353885457061 [DUROTT | TEMPO TELEFONATE] = -41.16365983348687 [DUROTT | TEMPO ORARIO] = -42.244850471980634 [DUROTT | CAPACITÀ] = -43.04149019358385 [DUROTT | TELEFONATE] = -43.659348052039626 [DUROTT | ORARIO] = -43.806101289588966 [DUROTT | CONTATTO] = -44.01534944890061 [DUROTT | TEMPO RISPOSTA] = -44.36097568900578 [DUROTT | RACCOLTADATI] = -45.09905302310161 [DUROTT | SODDDURATA] = -46.029732523069086 [DUROTT | RISPOSTA] = -46.45818877970789 [DUROTT | TEMPO RACCOLTADATI] = -51.21199618862766 BKD> LIKELIHOOD RACCOLTADATI Likelihood of dependencies to RACCOLTADATI: [RACCOLTADATI | DUROTT] = -34.77413361426374 [RACCOLTADATI | T] = -37.257033538364354 [RACCOLTADATI | DUROTT TELEFONATE] = -39.5616584459457 [RACCOLTADATI | TELEFONATE] = -39.75871157737738 [RACCOLTADATI | RISPOSTA] = -39.88343941879367 [RACCOLTADATI | CONTATTO] = -40.10211874371562 [RACCOLTADATI | ORARIO] = -41.454876763808606 [RACCOLTADATI | SODDDURATA] = -41.789377144244376 [RACCOLTADATI | DUROTT ORARIO] = -42.040235247238066 [RACCOLTADATI | TEMPO] = -42.098966616888156 [RACCOLTADATI | DUROTT CONTATTO] = -42.365526105867936 [RACCOLTADATI | CAPACITÀ] = -42.50948403225206 [RACCOLTADATI | DUROTT CAPACITÀ] = -45.98858930435993 [RACCOLTADATI | DUROTT SODDDURATA] = -47.04358369636603 [RACCOLTADATI | DUROTT RISPOSTA] = -49.50525392331751 [RACCOLTADATI | DUROTT TEMPO] = -52.06615582375788 BKD> LIKELIHOOD RISPOSTA Likelihood of dependencies to RISPOSTA: 216 Appendice D [RISPOSTA | ORARIO] = -23.832037750172404 [RISPOSTA | RACCOLTADATI] = -24.408323332142317 [RISPOSTA | ORARIO TELEFONATE] = -25.561383255232023 [RISPOSTA | ORARIO RACCOLTADATI] = -25.759301859082413 [RISPOSTA | DUROTT] = -26.076530648308157 [RISPOSTA | ORARIO DUROTT] = -26.33594792307433 [RISPOSTA | ORARIO CAPACITÀ] = -26.789625592514714 [RISPOSTA | ORARIO CONTATTO] = -27.306308621344982 [RISPOSTA | T] = -27.84586302513162 [RISPOSTA | TEMPO] = -28.35341608482912 [RISPOSTA | CONTATTO] = -29.52770235872099 [RISPOSTA | CAPACITÀ] = -29.54288588929637 [RISPOSTA | TELEFONATE] = -29.54955014167537 [RISPOSTA | ORARIO SODDDURATA] = -30.339841770339344 [RISPOSTA | SODDDURATA] = -30.794059186881217 [RISPOSTA | ORARIO TEMPO] = -31.855746046506425 BKD> LIKELIHOOD TELEFONATE Likelihood of dependencies to TELEFONATE: [TELEFONATE | CAPACITÀ] = -15.974632285668518 [TELEFONATE | DUROTT] = -16.858928125246432 [TELEFONATE | CAPACITÀ CONTATTO] = -16.87879917791606 [TELEFONATE | T] = -17.178269117193707 [TELEFONATE | CONTATTO] = -17.214575560751587 [TELEFONATE | ORARIO] = -17.53257287775565 [TELEFONATE | CAPACITÀ SODDDURATA] = -18.09983670822053 [TELEFONATE | RACCOLTADATI] = -18.28873992173526 [TELEFONATE | CAPACITÀ ORARIO] = -18.304596150539954 [TELEFONATE | RISPOSTA] = -18.881956233737483 [TELEFONATE | TEMPO] = -19.431686702991033 [TELEFONATE | CAPACITÀ RISPOSTA] = -19.538531481374832 [TELEFONATE | SODDDURATA] = -19.761129145364343 [TELEFONATE | CAPACITÀ RACCOLTADATI] = -20.17427703997826 [TELEFONATE | CAPACITÀ TEMPO] = -21.17963414559863 [TELEFONATE | CAPACITÀ DUROTT] = -23.662928568248326 BKD> LIKELIHOOD TEMPO Likelihood of dependencies to TEMPO: [TEMPO | SODDDURATA] = -54.95047286304305 [TEMPO | T] = -55.73576432732957 [TEMPO | ORARIO] = -55.79274526197077 [TEMPO | TELEFONATE] = -59.06712961462365 [TEMPO | CONTATTO] = -59.9815398516221 [TEMPO | RISPOSTA] = -60.10318097925594 [TEMPO | CAPACITÀ] = -60.829600213007346 [TEMPO | SODDDURATA TELEFONATE] = -61.00812430395764 [TEMPO | SODDDURATA RISPOSTA] = -61.30677967634223 [TEMPO | SODDDURATA ORARIO] = -63.30308587275263 [TEMPO | SODDDURATA CONTATTO] = -65.01157146322032 [TEMPO | SODDDURATA CAPACITÀ] = -69.36473085964754 217 Appendice D 218 BKD> LIKELIHOOD ORARIO Likelihood of dependencies to ORARIO: [ORARIO | T] = -35.17562291146224 [ORARIO | TEMPO] = -35.4024929511572 [ORARIO | TELEFONATE] = -35.69264853143139 [ORARIO | CONTATTO] = -37.04042951234017 [ORARIO | CAPACITÀ] = -37.06649180814577 [ORARIO | RISPOSTA] = -37.69723660775087 [ORARIO | RACCOLTADATI] = -38.59499194345405 [ORARIO | SODDDURATA] = -38.72837020351865 [ORARIO | DUROTT] = -40.528116549073914 BKD> DISTRIBUTION CAPACITÀ [CAPACITÀ] Mean Var Lower Upper Phi [3] 0.678 0.004 0.645 0.694 0.678 [2] 0.316 0.004 0.301 0.350 0.316 [1] 0.006 0.000 0.005 0.055 0.006 BKD> DISTRIBUTION CONTATTO [CONTATTO] Mean Var Lower Upper Phi [2] 0.124 0.002 0.120 0.153 0.124 [3] 0.870 0.002 0.842 0.874 0.870 [1] 0.006 0.000 0.005 0.038 0.006 BKD> DISTRIBUTION SODDDURATA [SODDDURATA] Mean Var Lower Upper Phi [1] 0.073 0.001 0.071 0.104 0.073 [2] 0.446 0.004 0.432 0.464 0.446 [3] 0.480 0.004 0.464 0.497 0.480 BKD> DISTRIBUTION DUROTT [TEMPO,DUROTT] Mean Var Lower Upper Phi [2,2] 0.497 0.012 0.322 0.674 0.497 [2,1] 0.497 0.012 0.322 0.674 0.497 [2,3] 0.003 0.000 0.002 0.354 0.003 [2,4] 0.003 0.000 0.002 0.354 0.003 [1,2] 0.003 0.000 0.002 0.363 0.003 [1,1] 0.991 0.000 0.633 0.994 0.991 [1,3] 0.003 0.000 0.002 0.363 0.003 [1,4] 0.003 0.000 0.002 0.363 0.003 [3,2] 0.472 0.077 0.129 0.856 0.472 [3,1] 0.472 0.077 0.129 0.856 0.472 [3,3] 0.028 0.008 0.008 0.735 0.028 [3,4] 0.028 0.008 0.008 0.735 0.028 [4,2] 0.250 0.150 0.010 0.970 0.250 [4,1] 0.250 0.150 0.010 0.970 0.250 [4,3] 0.250 0.150 0.010 0.970 0.250 [4,4] 0.250 0.150 0.010 0.970 0.250 BKD> DISTRIBUTION RACCOLTADATI [DUROTT,RACCOLTADATI] Mean Var Lower Upper Phi Appendice D [2,1] [2,4] [2,2] [2,3] [1,1] [1,4] [1,2] [1,3] [3,1] [3,4] [3,2] [3,3] [4,1] [4,4] [4,2] [4,3] 219 0.916 0.004 0.076 0.004 0.885 0.084 0.002 0.029 0.257 0.246 0.251 0.246 0.257 0.246 0.251 0.246 0.006 0.000 0.006 0.000 0.003 0.002 0.000 0.001 0.153 0.148 0.150 0.148 0.153 0.148 0.150 0.148 0.583 0.002 0.040 0.002 0.681 0.065 0.001 0.022 0.010 0.004 0.004 0.004 0.010 0.004 0.004 0.004 0.955 0.266 0.409 0.266 0.911 0.250 0.211 0.195 0.988 0.956 0.970 0.956 0.988 0.956 0.970 0.956 0.894 0.006 0.094 0.006 0.862 0.101 0.002 0.035 0.250 0.250 0.250 0.250 0.250 0.250 0.250 0.250 BKD> DISTRIBUTION RISPOSTA [ORARIO,RISPOSTA] Mean Var Lower Upper Phi [3,1] 0.905 0.002 0.869 0.909 0.907 [3,3] 0.025 0.001 0.023 0.066 0.025 [3,2] 0.070 0.001 0.066 0.108 0.069 [2,1] 0.981 0.001 0.845 0.983 0.982 [2,3] 0.010 0.001 0.008 0.147 0.009 [2,2] 0.010 0.001 0.008 0.147 0.009 [1,1] 0.310 0.160 0.048 0.833 0.333 [1,3] 0.345 0.170 0.048 0.905 0.333 [1,2] 0.345 0.170 0.048 0.905 0.333 BKD> DISTRIBUTION TELEFONATE [CAPACITÀ,TELEFONATE] Mean Var Lower Upper Phi [3,1] 0.970 0.001 0.923 0.972 0.970 [3,2] 0.030 0.001 0.028 0.077 0.030 [2,1] 0.882 0.005 0.795 0.893 0.882 [2,2] 0.118 0.005 0.107 0.205 0.118 [1,1] 0.500 0.187 0.071 0.929 0.500 [1,2] 0.500 0.187 0.071 0.929 0.500 BKD> DISTRIBUTION TEMPO [SODDDURATA,TEMPO] Mean Var [1,2] 0.942 0.010 0.645 0.961 [1,1] 0.019 0.004 0.013 0.329 [1,3] 0.019 0.004 0.013 0.329 [1,4] 0.019 0.004 0.013 0.329 [2,2] 0.535 0.009 0.497 0.568 [2,1] 0.383 0.009 0.356 0.426 [2,3] 0.079 0.003 0.074 0.144 [2,4] 0.003 0.000 0.003 0.074 [3,2] 0.291 0.008 0.234 0.431 [3,1] 0.702 0.008 0.563 0.761 Lower Upper Phi 0.942 0.019 0.019 0.019 0.535 0.383 0.079 0.003 0.291 0.702 Appendice D [3,3] [3,4] 220 0.003 0.000 0.003 0.201 0.003 0.003 0.000 0.003 0.201 0.003 BKD> DISTRIBUTION ORARIO [ORARIO] Mean Var Lower Upper Phi [3] 0.782 0.003 0.743 0.792 0.782 [2] 0.213 0.003 0.202 0.251 0.213 [1] 0.006 0.000 0.005 0.055 0.006 Appendice D 221 D1.4.2 Componenti della soddisfazione: valori di Verosimiglianza e di probabilità condizionale delle componenti della Soddisfazione BKD> LIKELIHOOD SODDISFAZIONE Likelihood of dependencies to SODDISFAZIONE: [SODDISFAZIONE | DUROTT] = -56.67743348439603 [SODDISFAZIONE | TELEFONATE] = -57.830085546912315 [SODDISFAZIONE | DUROTT TELEFONATE] = -58.159849625503135 [SODDISFAZIONE | T] = -58.217237098705255 [SODDISFAZIONE | CONTATTO] = -58.273121863091276 [SODDISFAZIONE | DUROTT TEMPO] = -59.71898595273288 [SODDISFAZIONE | TEMPO] = -59.79128748458992 [SODDISFAZIONE | DUROTT CONTATTO] = -60.522368943526686 [SODDISFAZIONE | DUROTT RISPOSTA] = -60.9297735359671 [SODDISFAZIONE | SODDDURATA] = -61.99717774432239 [SODDISFAZIONE | CAPACITÀ] = -63.83500316251376 [SODDISFAZIONE | ORARIO] = -64.10567695405678 [SODDISFAZIONE | RISPOSTA] = -64.39589188116337 [SODDISFAZIONE | RACCOLTADATI] = -65.10883043779656 [SODDISFAZIONE | DUROTT RACCOLTADATI] = -69.28462743760674 [SODDISFAZIONE | DUROTT SODDDURATA] = -69.4892502033036 [SODDISFAZIONE | DUROTT ORARIO] = -70.74485000951996 [SODDISFAZIONE | DUROTT CAPACITÀ] = -71.92325930100453 BKD> DISTRIBUTION SODDISFAZIONE [DUROTT,SODDISFAZIONE] Mean Var Lower Upper Phi [2,1] 0.007 0.001 0.004 0.287 0.008 [2,3] 0.704 0.019 0.388 0.844 0.691 [2,2] 0.290 0.018 0.152 0.607 0.301 [1,1] 0.060 0.002 0.051 0.173 0.067 [1,3] 0.300 0.007 0.231 0.463 0.291 [1,2] 0.639 0.007 0.487 0.715 0.643 [3,1] 0.323 0.175 0.009 0.949 0.333 [3,3] 0.340 0.179 0.011 0.982 0.333 [3,2] 0.337 0.179 0.009 0.977 0.333 [4,1] 0.323 0.175 0.009 0.949 0.333 [4,3] 0.340 0.179 0.011 0.982 0.333 [4,2] 0.337 0.179 0.009 0.977 0.333