...

metodi bayesiani per il controllo statistico di qualita

by user

on
Category: Documents
16

views

Report

Comments

Transcript

metodi bayesiani per il controllo statistico di qualita
Politecnico di Milano
Università degli Studi
di Brescia
Università degli Studi
di Pavia
Università degli Studi
di Lecce
Dottorato di Ricerca in
TECNOLOGIE E SISTEMI DI LAVORAZIONE
XII° CICLO
METODI BAYESIANI PER IL
CONTROLLO STATISTICO DI QUALITA’
RELATORE:
Prof. Quirico SEMERARO
COORDINATORE: Prof. Roberto PACAGNELLA
CANDIDATO:
Ing. Bianca Maria COLOSIMO
Un sincero ringraziamento va in primo luogo al prof. Consonni, docente di
statistica dell’università di Pavia. Devo principalmente alla sua chiarezza
espositiva il fatto di essere riuscita a seguire, senza troppe difficoltà, il
corso di statistica bayesiana insieme ai dottorandi di statistica
metodologica. Ed è questo passo che, in un’ottica bayesiana, ha
rappresentato la mia “prior”.
Un sentito ringraziamento va poi al Prof. Tullio Tolio, che in questi anni
non mi ha mai fatto mancare il suo valido consiglio, il suo sicuro apporto,
ed uno stimolante scambio di opinioni.
Un irrinunciabile grazie va al Prof. Semeraro. In primo luogo per la sua
lucida capacità nell’indicarmi sempre il giusto equilibrio tra ricerca
metodologica ed applicazione ingegneristica. Più in generale per la sua
abilità nel bilanciare il rigore di una guida e la disponibilità all’autonomia
del contributo personale.
Desidero infine ringraziare tutti gli amici della sezione per la pazienza
con cui hanno sopportato la mia naturale tendenza a condividere
profonde e talvolte “eccessive” passioni intellettuali.
INDICE
CAPITOLO 1: Introduzione
1.1. L’approccio bayesiano come alternativa di modellizzazione
4
CAPITOLO 2: Progettazione economica di un piano di campionamento
bayesiano singolo multiattributo
2.1. Introduzione
7
2.2. Modelli economici bayesiani per la scelta dei piani di campionamento
per attributi
11
2.2.1. I piani per il campionamento monoattributo
11
2.2.1.1.
Campionamento singolo
11
2.2.1.2.
Campionamento doppio e multiplo
12
2.2.2. I piani per il campionamento multiattributo
13
2.3. Notazione
15
2.4. Il piano di minimo costo atteso: il modello di Case, Schmidt e Bennet
[Cas75].
16
2.4.1. Ipotesi del modello
16
2.4.2. Funzione obiettivo
17
2.5. Un nuovo modello economico per la progettazione di piani bayesiani
multiattributo
23
2.5.1. La modifica della funzione obiettivo
24
2.5.1.1.
Introduzione di una scelta riguardo alla politica di scarto o
ripristino del lotto
24
2.5.1.2.
Una più approfondita analisi della funzione obiettivo: la
suddivisione dei costi tra fornitore e cliente
26
2.5.2. La carta p per il controllo della distribuzione a priori
28
2.5.3. Un algoritmo di ricerca della soluzione ottima: il pattern search
casualizzato.
30
2.5.3.1.
La validazione dell’algoritmo di ottimizzazione
31
2.6. Il caso reale: determinazione del piano di minimo costo atteso per il
collaudo del corpo valvola grezzo
34
2.6.1. Il corpo valvola grezzo
34
2.6.2. Analisi dei dati storici: stima delle distribuzioni a priori
35
2.6.3. Stima dei parametri di costo
38
2.6.3.1.
Costo di collaudo: Cc
39
2.6.3.2.
Costo di rifiuto: Cr
39
2.6.3.3.
Costo di accettazione
40
2.7. Il piano di minimo costo atteso per il corpo valvola
41
2.7.1. Analisi di sensitività della soluzione adottata
41
2.8. Conclusioni e possibili sviluppi
46
CAPITOLO 3:Le carte di controllo adattative bayesiane
3.1. Introduzione
48
3.2. La progettazione economica delle carte di controllo in letteratura 53
3.2.1. Il modello di Duncan
53
3.2.1.1.
Le ipotesi
53
3.2.1.2.
La notazione
55
3.2.1.3.
I ricavi ed i costi
55
3.2.1.4.
Il modello
56
3.2.2. La progettazione economica delle carte di controllo: la ricerca dopo
Duncan
63
3.2.2.1.
Generalizzazione del modello
63
3.2.2.2.
Semplificazione del modello
64
3.2.2.3.
Progettazione statistico-economica
64
3.2.2.4.
Produzioni di durata limitata
65
3.2.2.5.
Carte di Controllo a Statistiche Dipendenti
65
3.2.2.6.
La progettazione integrata del controllo di qualità
65
3.2.2.6.1.
Modelli basati sulle rilavorazioni e sulla dimensione del lotto
66
3.2.2.6.2.
Modelli basati sulla dimensione del lotto di produzione e di
ispezione
66
3.2.2.6.3.
Modelli basati sulle politiche di controllo del processo e di
gestione della produzione
67
3.2.2.6.4.
Modelli per il progetto congiunto delle carte
68
3.3. Le carte di controllo a parametri variabili
69
3.3.1. Modelli per carte a parametri variabili
71
3.3.2. Carte di controllo dinamiche non bayesiane
72
3.3.3. Carte di controllo dinamiche bayesiane
75
3.4. Progettazione economica di una carte di controllo adattativa bayesiana
per il controllo delle non conformità
80
3.4.1. Notazione
80
3.4.2. Il modello
81
3.4.2.1.
Ipotesi
81
3.4.2.2.
Lo schema di controllo adattativo
82
3.4.3. La determinazione dei parametri di controllo
84
3.4.3.1.
La funzione obiettivo
85
3.5. Valutazione numerica delle performance delle carte di controllo. 92
3.5.1. Analisi di sensitività della soluzione
95
3.6. Conclusioni e futuri sviluppi
98
CAPITOLO 4 Misurare e monitorare la qualità del servizio: un approccio
bayesiano
4.1. Introduzione
100
4.2. Il servizio e il prodotto
103
4.3. La Qualità del servizio in letteratura
105
4.4. Le dimensioni della qualità del servizio
109
4.4.1. Indicatori “tangibili” del Servizio
110
4.4.1.1.
Indicatori di qualità interna
110
4.4.1.1.1.
Dimensione tecnica
110
4.4.1.1.2.
Dimensione economica
111
4.4.1.1.3.
Dimensione organizzativa
112
4.4.1.1.4.
Dimensione ambientale
113
4.4.1.2.
Indicatori di qualità esterna
115
4.4.1.3.
Controllo periodico degli indicatori
118
4.4.2. Indicatori “intangibili” del Servizio: analisi di Customer Satisfaction
118
4.4.2.1.
Score Cards
119
4.4.2.2.
Reply Card
120
4.4.2.3.
Gestione reclami
120
4.4.2.4.
Transaction monitoring
121
4.5. Metodi per la valutazione della qualità del servizio in letteratura
122
4.5.1. Il Servqual
122
4.5.1.1.
La struttura
123
4.5.1.2.
Applicazioni del SERVQUAL
124
4.5.1.3.
Il dibattito sul SERVQUAL
125
4.5.2. Il Qualitometro
125
4.5.2.1.
Il modello concettuale
125
4.5.2.2.
La struttura
126
4.5.2.3.
Confronto tra SERVQUAL e QUALITOMETRO
127
4.5.3. IL SERVPERF
127
4.5.3.1.
Il modello concettuale
127
4.5.3.2.
La struttura
128
4.5.4. Normed Quality
128
4.5.4.1.
Il modello concettuale
128
4.5.4.2.
La struttura
129
4.5.5. TWO-WAY Model
129
4.6. Proposta di una nuova metodologia di analisi dei dati di Customer
Satisfaction basata sulle reti di dipendenza bayesiane
132
4.7. Le reti di dipendenza bayesiane
133
4.8. Analisi di Customer Satisfaction: il caso “ Call Center ASSITALIA”
136
4.8.1.1.
Scelta della strategia di ricerca per il Questionario Assitalia
139
4.8.2. Analisi dei dati e rappresentazione dei risultati
140
4.8.2.1.
I legami tra le domande del questionario
4.8.2.2.
Determinazione dei pesi di importanza
4.8.3. Conclusioni
141
147
150
CAPITOLO 5 Conclusioni
152
Bibliografia
154
Appendice A Elementi di statistica bayesiana
166
Appendice B Le
riproducibilità
distribuzioni
beta
e
polya
e
la
proprietà di
168
Appendice C Risultati numerici della progettazione di una carta di
controllo c adattativa bayesiana
172
Appendice D Bayesian Belief Network: il metodo e il software Bayesian
Knowledge Discovery
188
INDICE DELLE FIGURE
Figura 2.1: Il corpo valvola grezzo ...................................................35
Figura 3.1: Parametri di progettazione di una carta di controllo.........52
Figura 3.2: Differenti stati del sistema nel modello di Duncan ...........57
Figura 3.3: Calcolo del sottointervallo di tempo τ nell’approccio di Duncan.
..............................................................................................59
Figura 3.4: Classificazione delle carte di controllo a parametri variabili.70
Figura 3.5: Lo schema di controllo..................................................84
Figura 3.6: Calcolo di τi nell’approccio proposto................................86
Figura 3.7: Calcolo di f i T (0,0 ) ........................................................87
Figura 3.8: Calcolo di f i T (1,0 ) ........................................................88
Figura 3.9: Calcolo di f i T (0,1) .........................................................88
Figura 3.10 Calcolo di f i T (1,1) ........................................................89
Figura 3.11: Andamento dei parametri al variare della probabilità di fuori
controllo .................................................................................91
Figura 3.12 Normal plot dei risultati ottenuti con progettazione statica94
Figura 3.13 Normal plot dei risultati ottenuti con progettazione dinamica
..............................................................................................94
Figura 3.14 L’effetto dei diversi parametri nell’analisi di sensitività ....97
Figura 4.1: La qualità del servizio in Gronroos [Gro82]....................107
Figura 4.2: La qualitá del servizio in Parasuraman, Zeithaml e Berry.109
Figura 4.3: Un semplice Direct Acyclic Graph (DAG) che rappresenta una
rete di dipendenza bayesiana ..................................................134
Figura 4.4 Rete Bayesiana ottenuta dall’analisi dei dati (strategia di ricerca
Arc Inversion) ........................................................................141
Figura 4.5 Legame Tempo-Sodddurata-Durott-Raccoltadati ............143
Figura 4.6 Legame Capacita’-Telefonate ........................................146
Figura 4.7 Legame Orario-Risposta ...............................................147
INDICE DELLE TABELLE
Tabella 2.1: Principali simboli utilizzati nel capitolo 2 ....................…16
Tabella 2.2: Parametri statistici adottati nella validazione dell’algoritmo di
ricerca [Cas75] ........................................................................32
Tabella 2.3 Parametri economici adottati nella validazione dell’algoritmo di
ricerca [Cas75] ........................................................................32
Tabella 2.4: Risultati della fase di validazione dell’algoritmo di ricerca della
soluzione ottima. .....................................................................33
Tabella 2.5: Gli attributi per il collaudo del corpo valvola grezzo.........36
Tabella 2.6: Test χ 2 per verificare la distribuzione a priori adottata ...37
Tabella 2.7: Stima dei parametri della distribuzione a priori ..............38
Tabella 2.8: Costi per non conformi in lotti accettati .........................40
Tabella 2.9: Piano di minimo costo per il corpo valvola grezzo ............41
Tabella 2.10: Piano attualmente adottato in azienda .........................41
Tabella 2.11: Analisi di sensitività: effetto del costo di accettazione ....42
Tabella 2.12 Analisi di sensitività: effetto del costo variabile di collaudo43
Tabella 2.13 Analisi di sensitività: effetto della dimensione del lotto ...44
Tabella 2.14 Analisi di sensitività: effetto della media della distribuzione a
priori ......................................................................................44
Tabella 2.15 Analisi di sensitività: effetto della deviazione standard della
distribuzione a priori................................................................45
Tabella 2.16 Analisi di sensitività: effetto dei parametri di costo indipendenti
dagli attributi ..........................................................................45
Tabella 3.1: Alcune delle caratteristiche distintive dei modelli esaminati per la
progettazione economica di carte statiche time varying..................72
Tabella 3.2: Modelli proposti per la progettazione economica di carte
dinamiche non bayesiane .........................................................75
Tabella 3.3: Modelli proposti in letteratura per la progettazione economica di
una carte adattativa bayesiana .................................................79
Tabella 4 Principali simboli nell’approccio proposto ..........................81
Tabella 3.5: Parametri adottati nella valutazione numerica................92
Tabella 3.6: Casi simulati nell’analisi di sensitività. ..........................96
Tabella 3.8 Risultati dell’analisi di sensitività...................................97
Tabella 4.1 Indicatori ed obiettivi delle dimensioni tangibili del servizio
[Neg92] .................................................................................115
Tabella 4.2: Categorie di attributi della qualità del Two-way model ( insoddisfazione, + soddisfazione, 0 neutrale) ............................130
Tabella 4.3:Confronto di alcuni strumenti utilizzati per la valutazione della
qualitá del servizio [Cal97]......................................................131
Tabella 4.4 Domande e stati delle variabili per l’analisi delle dipendenze138
Tabella 4.5 Tabella riassuntiva dei dati raccolti ..............................139
Tabella 4.6 Valori di Verosimiglianza dei legami considerati.............144
Tabella 4.7 Valori di probabilità condizionata. ................................145
Tabella 4.8 Analisi del legame SODDISFAZIONE - CC/TRAD...........148
Tabella 4.9 Verosimiglianza delle componenti della Soddisfazione ....149
Capitolo 1
Introduzione
1
CAPITOLO 1
INTRODUZIONE
"La Qualità… Sappiamo cos'è, eppure non lo
sappiamo. Questo è contraddittorio. Alcune cose
sono meglio di altre, cioè hanno più Qualità. Ma
quando provi a dire in che cosa consiste la
Qualità, astraendo dagli oggetti che la possiedono,
paff, le parole ti sfuggono. Ma se nessuno sa cos'è,
ai fini pratici non esiste per niente. Invece esiste,
eccome… Perché mai la gente pagherebbe una
fortuna per certe cose e ne getterebbe altre nella
spazzatura? Ovviamente alcune sono meglio di
altre… Ma in cosa consiste il meglio?"
Robert Pirsig
Zen and the Art of Motorcycle Maintenance: An Inquiry into Values
(1974, traduzione italiana, Adelphi 1981).
Il brano di Pirsig introduce e rappresenta in modo molto efficace la
confusione e l’incertezza che hanno accompagnato la definizione di
qualità nel corso degli anni. C’è oramai convergenza tra mondo
accademico e aziendale sulla definizione di qualità come: “insieme delle
caratteristiche di un’entità che ne determinano la capacità di soddisfare
esigenze espresse ed implicite.” (UNI EN ISO 8402).
Da questa definizione appare chiaro che il problema di controllare la
qualità può essere suddiviso in due sottoproblemi. Il primo consiste nel
determinare in primo luogo quali sono le caratteristiche dell’entità che
sono in grado di determinare soddisfazione in chi usufruisce del bene.
Capitolo 1
Introduzione
2
In secondo luogo occorre individuare un legame quantitativo tra
caratteristiche e soddisfazione del cliente: decidere cioè i valori o gli
intervalli di valori che ogni caratteristica può assumere per soddisfare le
esigenze espresse ed implicite.
Noto il legame tra caratteristiche del bene e soddisfazione, occorre
definire una modalità di controllo nel tempo di queste caratteristiche.
La necessità di un controllo ha ovviamente origine nella presenza di
una certa imprevedibile variabilità di queste caratteristiche nel tempo.
Il primo sottoproblema, ossia il legame tra soddisfazione e
caratteristiche dell’entità è spesso risolto nel caso in cui il cliente sia
“evoluto”. Spesso infatti, per prodotti non di largo consumo, si pensi ad
esempio ai beni strumentali, le caratteristiche che individuano la
soddisfazione sono modellate attraverso il concetto di specifica. In un
componente meccanico ad esempio, le tolleranze dimensionali e
geometriche rappresentano l’insieme di vincoli che alcune
caratteristiche del prodotto devono soddisfare affinché il prodotto sia da
ritenersi soddisfacente. La soddisfazione in questo caso può quindi
coincidere con il concetto di conformità, anche se non è trascurabile la
presenza di fattori tradizionalmente ritenuti secondari (es. estetica) che
rimangono legati ad una percezione soggettiva del prodotto.
Il problema di definizione del legame tra caratteristiche e
soddisfazione è invece molto meno chiaro per prodotti di largo consumo
ed è emerso ancor più prepotentemente alla ribalta negli ultimi anni
con la crescente attenzione alla qualità dei servizi. In quest’ultimo caso
le problematiche relative all’identificazione
ed alla misura della
soddisfazione del cliente sono ancora questioni aperte e irrisolte, dato
che non si è ancora assestata in letteratura una metodologia
quantitativa su cui esiste una certa convergenza.
Risolto il problema di definizione del legame tra caratteristiche
dell’entità e soddisfazione del cliente attraverso la definizione delle
specifiche, il concetto di qualità può allora riprendere il tradizionale
significato di conformità alle specifiche. Controllare la qualità nel tempo
significa quindi verificare che l’entità continui a rispettare i vincoli
imposti dalle specifiche, realizzando quindi un bene che soddisfa le
esigenze per cui è stato progettato. Come accennato in precedenza il
concetto di controllo della qualità in questo caso è strettamente legato
al concetto di variabilità intrinseca a qualunque processo reale di
trasformazione. In questo caso con variabilità si intende variazione
imprevista rispetto ad un comportamento tollerato o accettato. Se ad
esempio è noto l’effetto dell’usura utensile sul diametro di un albero
tornito, e si è già previsto attraverso una compensazione adattativa
della profondità di passata o più semplicemente attraverso una
sostituzione dell’utensile a intervalli opportuni, è ovvio che in questo
caso si è comunque in presenza di variabilità prevista, o che può
ritenersi accettata. Questa variabilità ritenuta naturale non è oggetto
Capitolo 1
Introduzione
3
del controllo statistico di qualità ed è spesso modellata attraverso un
modello statistico della variabile in uscita (distribuzione, parametri,
struttura di autocorrelazione temporale). Le tecniche di controllo della
qualità sono orientate invece a segnalare tempestivamente la presenza
di anomalie e imprevisti che determinano una extra-variabilità, o meglio
una variabilità che non è ritenuta accettabile o naturale.
Tra le metodologie orientate ad effettuare un controllo statistico della
qualità, i piani di campionamento e le carte di controllo sono
sicuramente gli strumenti più diffusi. La differenza tra questi due
approcci ha origine nella diversa natura e nei diversi obiettivi che le due
metodologie si propongono. Un piano di accettazione nasce dall'esigenza
di esercitare un controllo sui prodotti in ingresso ad un qualsiasi stadio
produttivo: l'attenzione è essenzialmente orientata al prodotto e solo
indirettamente al processo di cui il prodotto risulta un risultato.
L'adozione di piani di accettazione è infatti il più delle volte orientata a
valutare le prestazioni di un fornitore, sia esso esterno o interno al
sistema (ad esempio un altro stadio produttivo) sul cui processo non si
è in grado di esercitare un effettivo controllo. In questo caso l'obiettivo è
inoltre quello di definire la procedura più corretta per individuare la
presenza di parti difettose nel flusso, continuo o discreto, di parti in
ingresso. Informazione chiave è quindi quella relativa ai limiti di
specifica delle variabili di qualità di interesse, per giudicare se un pezzo
risulta conforme o meno alle specifiche di progetto.
L'adozione di carte di controllo all'interno di un sistema produttivo è
invece essenzialmente orientata a porre l'attenzione sul processo:
vengono misurate una o più caratteristiche di qualità allo scopo di
inferire sullo stato del processo che le ha generate. In questo caso
infatti non si tengono in considerazione, salvo in casi particolari (ad es.
limiti di controllo modificati), le specifiche della variabili di interesse:
l'obiettivo è testare l'ipotesi di processo in controllo, dove con controllo
si intende la situazione di funzionamento ''stabile'', ''a regime'' della
macchina o stadio produttivo in esame. L'attenzione è quindi dedicata
alla parte prodotta, intesa come risultato di uno stato di funzionamento
del processo che l'ha generata. Questa attenzione al processo più che al
prodotto determina inoltre una maggiore capacità di influenzare le
prestazioni della macchina o fase controllata. Qualora si evidenzi una
situazione di fuori controllo, si prevede infatti una precisa procedura di
ricerca della causa assegnabile e, eventualmente, un intervento sul
processo al fine di ripristinare la situazione di funzionamento ''stabile''.
Tale procedura di ricerca ha luogo presumibilmente a processo non
funzionante, con evidente influenza sulla cadenza produttiva risultante.
Il lavoro si occuperà di fornire una proposta di soluzione
relativamente a tutti i problemi evidenziati, seguendo il flusso
produttivo del materiale in azienda.
Capitolo 1
Introduzione
4
Si inizierà infatti dall’analisi del processo di accettazione del materiale
in ingresso. Nel secondo capitolo si introdurrà un approccio per la
progettazione economica di piani di accettazione nel caso in cui più
caratteristiche di qualità siano da controllare (piani multiattributo).
Una volta che il materiale in ingresso è stato accettato, a valle delle
varie fasi produttive è possibile adottare delle carte di controllo. Il terzo
capitolo proporrà un approccio per la progettazione economica di carte
di controllo per la misura delle non conformità.
Infine il bene prodotto è consegnato al cliente, sia esso un’altra
azienda o un utente finale. In quest’ambito occorre individuare quali
sono gli aspetti che più pesantemente condizionano la soddisfazione del
cliente riguardo ai servizi di erogazione del bene (servizio logistico) e
assistenza post-vendita. Il quarto capitolo si occupa quindi del
problema di definire un approccio per l’analisi e la misura della qualità
del servizio attraverso la misura della soddisfazione del cliente
(customer satisfaction).
Comune a tutti gli approcci proposti è l’adozione di strumenti di
statistica bayesiana. Le ragioni per cui una tale scelta si giustifica nei
diversi ambiti, verranno di volta chiarite in ogni capitolo e riassunte
nelle conclusioni. In questo capitolo si intende tuttavia fornire qualche
cenno riguardo ai presupposti dell’inferenza bayesiana.
1.1. L’approccio bayesiano come alternativa di
modellizzazione
Un felice esempio che inquadra bene la differenza tra approccio
bayesiano e approccio frequentista si deve a L.J. Savage (’61) [Ber85].
L’autore ipotizza tre situazioni in cui si ritiene utile procedere ad un
esperimento caratterizzato da prove bernoulliane (n prove indipendenti
il cui possibile esito è successo/insuccesso e la cui probabilità di
successo θ è costante nel tempo).
Le tre situazioni sono molto differenti: nella prima si intende valutare
se un musicologo è in grado di indovinare se l’autore di uno spartito è
Haydn o Mozart. A tal fine viene progettato un esperimento che consiste
in 10 prove, ognuna delle quali consiste in una estrazione casuale di
uno spartito sottoposto al musicologo che deve decidere riguardo
l’autore. L’esperimento viene condotto e dà luogo a 10 successi su 10.
Il secondo esperimento riguarda una signora inglese la quale sostiene
di riuscire a valutare, osservando una tazza di the con del latte, se è
stato versato prima il the o il latte. L’esperimento condotto per valutare
l’abilita dell’anziana signora consiste in 10 prove che danno luogo a 10
successi su 10.
Capitolo 1
Introduzione
5
Nell’ultimo esperimento un ubriaco sostiene di riuscire a prevedere se
nel lancio di una moneta non truccata l’esito sarà testa o croce. Anche
in questo caso viene condotto un esperimento in cui su 10 tentativi,
l’ubriaco indovina 10 volte.
L’impostazione frequentista determina per tutti e tre gli esperimenti la
stessa stima puntuale della probabilità di successo. Infatti i 3
esperimenti sono formalmente identici: in ogni prova l’esito è
rappresentabile attraverso una variabile booleana (1= successo;
0=insuccesso); si è in presenza di 10 osservazioni xi i=1,..,10 dove
iid
x i ∼ bernoulli(θ ) , cioè ogni xi segue una distribuzione bernoulliana di
parametro θ dove θ rappresenta la probabilità di successo. Con
un’impostazione frequentista si procede alla stima di massima
verosimiglianza per θ che, in ognuno dei tre esperimenti risulta uguale
e pari a:
n.ro successi 10
θˆ =
=
=1
n.ro prove
10
Ma la domanda che ci si pone è: avere nei tre casi la stessa stima per
la probabilità di successo è un risultato ‘intuitivamente’ accettabile?
Rifacendosi ad un semplice buon senso è possibile ritenere che l’esito
complessivo delle 10 prove sia da imputare passando dal primo al terzo
esempio sempre più al caso e sempre meno all’abilità. In definitiva si ha
un informazione a priori sulla differenza tra le tre situazioni che
potrebbe essere opportunamente modellata ma che nell’impostazione
frequentista non trova spazio. L’approccio bayesiano si basa sul
presupposto che sia possibile considerare il parametro della
distribuzione, in questo caso θ, non semplicemente come un valore
definito seppur incognito, da stimare. In un approccio bayesiano si
ritiene che anche il parametro possa essere caratterizzato da una
distribuzione di probabilità che, in un’impostazione bayesiana,
rappresenta un’informazione a priori, soggettiva, π (θ ) che si ha sul
parametro. Nota questa distribuzione a priori del parametro e la
distribuzione delle osservazioni dato il parametro f ( x θ ) , il teorema di
Bayes generalizzato consente di ottenere la distribuzione a posteriori:
π (θ | x~) =
f ( x |θ )π (θ )
∫Θ f ( x |θ )π (θ )d θ
=
f ( x |θ )π (θ )
m(x )
dove:
- x vettore delle osservazioni;
- θ parametro;
Capitolo 1
Introduzione
6
- {f (x θ ),θ ∈ Θ} densità di probabilità;
- π (θ ) densità, distribuzione iniziale di θ (prior);
- m (x ) = ∫ f ( x θ )π (θ )dθ densità marginale di x .
Θ
In definitiva l’approccio bayesiano consente di ottenere informazioni sul
parametro attraverso la distribuzione a priori e i dati osservati (per
maggiori dettagli sul meccanismo di inferenza bayesiano, si veda
l’Appendice A).
Non disconoscendo la possibilità di ipotizzare una fondata
distribuzione a priori soggettiva, occorre sottolineare che in questo
lavoro non si ricorrerà mai all’introduzione di un’informazione
soggettiva. La distribuzione a priori sarà di conseguenza sempre
introdotta a partire dalla “storia” del processo. Di conseguenza verrà
semplicemente sfruttata la maggiore flessibilità modellistica
dell’approccio bayesiano confrontato con quello frequentista.
Capitolo 2
7
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
CAPITOLO 2
PROGETTAZIONE ECONOMICA DI UN
PIANO DI CAMPIONAMENTO
BAYESIANO SINGOLO
MULTIATTRIBUTO
2.1. Introduzione
Il campionamento di accettazione è uno degli strumenti di controllo
statistico della qualità più adottati nella normale pratica manifatturiera
e consiste nel decidere riguardo ad un lotto di materie prime,
semilavorati o prodotti finiti in ingresso. La decisione viene presa
verificando il rispetto degli standard qualitativi di un sottoinsieme di
parti nel lotto (campione di dimensione n). In funzione di quanto
osservato ispezionando le parti nel campione, viene presa una decisione
(accettazione o rifiuto) che riguarda l’intero lotto. In generale la verifica
degli standard qualitativi è eseguita per attributi. Ciò significa che viene
verificato che il pezzo in ingresso sia da ritenersi conforme rispetto a
tutte le caratteristiche di qualità su cui sono imposte delle specifiche
(attributi). La progettazione del piano consiste appunto nel definire,
riferendosi al caso più semplice di piano di campionamento semplice
monoattributo, la dimensione del campione n ed il numero di
accettazione Ac, ossia il numero di non conformi superato il quale il
lotto è rifiutato.
In realtà la scelta diventa più complessa se si passa a campionamenti
composti da più fasi decisionali o relativi a più attributi. Infatti, in
letteratura esistono ormai più tipologie di piani di accettazione tra cui è
possibile scegliere. Una classificazione degli approcci più diffusi
riguarda:
Gla tipologia di piano: la scelta è tra piani per attributi e per
variabili. Diversamente a quanto accade nel caso di carte di
controllo, la tipologia più diffusa di piano è quella per attributi.
Capitolo 2
8
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
E’ in relazione a questa tipologia di piano che son stati proposti
il maggior numero di approcci che nel seguito andremo ad
elencare.
GIl numero di attributi considerati: in questo caso si parla di
piani mono o multiattributo. Per la seconda tipologia di piano,
di cui si occuperà in dettaglio questo capitolo, gli approcci
proposti in letteratura sono tutt’altro che numerosi. E’ possibile
comunque ovviare a questa mancanza utilizzando un approccio
approssimato che consiste nel ridurre un piano multiattributo,
in cui i singoli attributi sono stocasticamente indipendenti, in
più piani singoli, avendo cura di scegliere opportunamente i
valori di rischio per cliente e fornitore [Dun86].
Gil numero di stadi decisionali: si distinguono in questo caso i
piani singoli, doppi o multipli. Esiste infatti la possibilità di
progettare un campionamento in accettazione il cui esito
(accettazione o rifiuto del lotto) può avvenire a seguito di un
cero numero di test sequenziali. Ad ogni stadio decisionale, ad
esclusione dell’ultimo, si può accettare il lotto, rifiutarlo o
procedere con un ulteriore campionamento e quindi con un
ulteriore stadio decisionale.
Gpiani meno frequentemente utilizzati:
• sequenziali: in questo caso si collauda una parte alla volta
(dimensione del campione n=1) finché il numero cumulato di
pezzi non conformi determina l’accettazione o il rifiuto del
lotto.
• piani a campionamento a catena: nel caso di collaudo
distruttivo o di test molto costosi, la dimensione del
campione è spesso molto piccola. In questi casi si può
adottare un piano con campionamento a catena che riduce il
rischio del fornitore per percentuale di difettosi molto basse.
• piani a campionamento continuo: nel caso in cui le parti
che arrivano dal fornitore non sono naturalmente
raggruppate in lotti, si può adottare un piano che consente di
giudicare le singole parti alternando collaudi al 100% a
collaudi di una frazione limitata f di parti, per ridurre i costi
di campionamento.
• piani Skip Lot: sono una naturale estensione dei piani a
campionamento continuo nel caso in cui però il fornitore
provveda a fornire le parti in lotti. Anche in questo caso, se la
percentuale di difettosi riscontrata è particolarmente bassa,
si provvede a ridurre lo sforzo di campionamento
controllando solo una frazione dei lotti in ingresso.
Nella progettazione di un piano di campionamento per attributi si
possono adottare due scelte: la prima riguarda l’adozione di un
Capitolo 2
9
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
approccio statistico o economico mentre la seconda riguarda l’adozione
di un’ottica bayesiana o frequentista.
Al contrario di quanto accade nella progettazione delle carte di
controllo, che verrà trattata diffusamente nel terzo capitolo, le due
possibili scelte non sono tra di loro indipendenti.
Nel tradizionale approccio alla progettazione di piani di
campionamento, si usa adottare un’ottica statistica, in cui si considera
il concetto di rischio ma senza procedere ad una sua valorizzazione
economica. In quest’ambito infatti i parametri del piano sono scelti in
base alla curva caratteristica operativa che si intende adottare o, più
precisamente, definendo due punti della curva rappresentativi del
rischio del consumatore e del rischio del produttore.
L’approccio economico si contrappone a quello statistico poiché la
scelta del piano da adottare è ottenuta attraverso l’ottimizzazione di una
funzione economica in cui si considerano i costi di ispezione, i costi di
accettazione di prodotti difettosi e i costi di rifiuto di prodotti conformi.
Quasi tutti gli approcci economici proposti in letteratura si rifanno ad
un impostazione bayesiana e questa evidenza è da attribuirsi ad un
importante risultato che va sotto il nome di teorema di Mood [Moo43].
Prima di introdurre la principale conclusione del teorema occorre fare
qualche premessa sull’approccio bayesiano in quest’ambito. Si
supponga che un prodotto è fornito in una serie di lotti da un fornitore.
A causa di una naturale variabilità, questi lotti sono caratterizzati da
una qualità che varia nel tempo. Questa variabilità può essere distinta
in variabilità interna al lotto (campionamento) e variabilità tra lotti
(campionamento più variabilità di processo). Se queste due fonti di
variabilità sono uguali, significa che il processo è stabile nel tempo e
che ogni lotto può essere considerato come un campione casuale
estratto da un processo in cui la probabilità di generare non conformi è
costante. Questa situazione è sottintesa in tutti i piani di
campionamento tradizionali o non-bayesiani. Spesso però il processo
che genera i lotti non è stabile nel tempo, per cui le ipotesi sulle quali si
basa l’approccio tradizionale al controllo in accettazione non sono più
verificate ed è naturale applicare un approccio bayesiano. Infatti in un
approccio non bayesiano il parametro che regola la generazione di
difettosi nel lotto, p, è ritenuto costante anche se incognito. In un
approccio bayesiano invece sul parametro p si prevede una
distribuzione f(p), prior, che modellizza la variabilità di questo
parametro nel tempo. Il principale risultato del teorema di Mood è che
se f(p)=1 se p=p0 e f(p)=0 quando p ≠ p0, allora non c’è bisogno di
campionare [Mon96]. Di conseguenza la convenienza economica al
campionamento si ha solo in presenza di una variabilità naturale nella
frazione di difettosi con cui i lotti sono generati.
Vista la naturale relazione tra progettazione economica ed approccio
bayesiano, quasi tutti i modelli bayesiani proposti in letteratura sono
Capitolo 2
10
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
rivolti a progettare economicamente il collaudo in accettazione. Tra
questi, molti si occupano, più in dettaglio, della progettazione
economica di piani monoattributo. In realtà nei casi reali, i lotti in
ingresso sono caratterizzati da più caratteristiche di qualità che devono
essere congiuntamente controllate.
In questo capitolo si affronterà quindi il problema della progettazione
economica di piani di accettazione bayesiani multiattributo. Partendo
da un’analisi dello stato dell’arte si procederà a valutare criticamente gli
approcci proposti su questo argomento, proponendo un metodo che non
assume a priori una politica nel caso di rifiuto del lotto. In letteratura
infatti, la progettazione economica di piani multiattributo è condotta
assumendo che tutti gli attributi siano “scrappable” o “screenable”. Per
attributo scrappable si intende una caratteristica che, qualora provochi
il rifiuto del lotto, porta allo scarto del lotto. In questo caso si sta
implicitamente ipotizzando che il collaudo al 100% sia o impossibile
(per es. nel caso di controllo distruttivo) oppure antieconomico. Se
invece il rifiuto del lotto provocato da un attributo comporta il collaudo
al 100% e l’eventuale ripristino dei pezzi non conformi, l’attributo è
detto screenable. L’unica ragione per assumere a priori che tutti gli
attributi appartengano ad una o all’altra classe è una maggiore
semplicità gestionale della procedura di accettazione.
Nell’approccio proposto, che trae origine da [Des97], l’appartenenza di
un attributo all’una o all’altra classe (e quindi la politica da seguire sul
lotto a valle di un rifiuto rispetto a quell’attributo: collaudo al 100% o
scarto del lotto) sarà ritenuta un’ulteriore variabile decisionale del
modello, scelta sulla base dei costi che occorre sostenere nei diversi
casi.
In secondo luogo verrà esaminata con maggiore attenzione l’adozione
di una data distribuzione a priori per gli attributi di interesse, punto
critico in genere dell’impostazione bayesiana. Verrà quindi proposta
una stima della distribuzione a priori sulla base dei dati storici e una
procedura per valutare se, nel tempo, l’adozione di una determinata
distribuzione a priori non sia più da ritenersi valida. L’adozione
dell’approccio proposto verrà infine presentato in relazione ad un caso
reale, evidenziando i vantaggi economici rispetto alle procedure adottate
in azienda allo stato attuale.
Capitolo 2
11
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.2. Modelli economici bayesiani per la
scelta dei piani di campionamento per
attributi
A parte l’approccio proposto dall’American Society for Quality Control
in [Cal90] relativo alla progettazione di un piano bayesiano con
approccio statistico, tutti gli approcci bayesiani sui piani di accettazione
propongono una progettazione economica del piano, come già anticipato
nel precedente paragrafo.
Analogamente a quel che accade nella progettazione statistica, la
maggior parte degli approcci proposti trattano di piani monoattributo,
mentre solo due approcci, che verranno discussi in maggior dettaglio,
riguardano la progettazione economica nel caso in cui il
campionamento sia da effettuare in relazione a più attributi.
Quest’ultima situazione rappresenta il caso in cui un pezzo può
risultare non conforme, e quindi non superare il test di accettazione, a
causa di m diversi tipi di non conformità, tra loro indipendenti.
2.2.1.
I piani per il campionamento
monoattributo
2.2.1.1. Campionamento singolo
La maggior parte dei modelli proposti in letteratura per la
progettazione economica di piani di accettazione con approccio
bayesiano, si occupano del caso più semplice: il piano singolo
monoattributo. Il primo modello in quest’ambito si deve a Guthrie e
Johns nel ‘59 [Gut59]. In questo primo lavoro sull’ottimizzazione
economica dei piani di accettazione, vengono evidenziati i principali
costi coinvolti dalla progettazione del piano, principalmente:
- costo di accettazione di pezzi non conformi nella parte di lotto
non collaudata;
- costo di riparazione dei pezzi non conformi rilevati;
- costo di collaudo dei pezzi del campione;
- costo di rifiuto di pezzi conformi nella parte di lotto non
collaudata.
Il modello determina, nel caso di dimensione N del lotto
sufficientemente grande, delle relazioni asintotiche che permettono di
calcolare il numero di accettazione. Riprendendo il modello di Guthrie e
Johns, Hald nel ’60 [Hal60] semplifica l’approccio introducendo una
funzione di costo lineare e utilizzando il concetto di break-even quality
Capitolo 2
12
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
pr: la frazione di difettosi che determina un punto di pareggio tra
accettare o rifiutare il lotto. Nonostante la semplificazione introdotta e i
successivi sviluppi proposti da Hald fino all’ultimo lavoro presentato nel
’68 [Hal68], in cui gli autori propongono delle tabelle per facilitare
l’applicazione dell’approccio proposto, la progettazione economica
bayesiana risulta ancora distante da una semplice applicazione, per il
numero elevato di informazioni che l’uso delle tabelle richiede.
Tuttavia i principali spunti introdotti da Hald (l’uso di una forma
tabellare e il rilassamento del vincolo di interezza sul numero di
accettazione e sulla dimensione del campione) sono condivisi dall'unica
norma attualmente in vigore sui piani di campionamento bayesiani
[JIS63]. In questa norma si fornisce una soluzione al problema della
progettazione del piano di accettazione bayesiano in tabelle, funzione di
tre parametri ottenuti considerando il rapporto tra varianza all’interno
dei lotti e varianza tra i lotti, la dimensione dei lotti, i costi di collaudo,
il punto di break-even e la frazione media di non conformi.
Differente dagli approcci precedenti, l’approccio proposto in [Erc74]
propone due piani di campionamento singolo a inizio e fine del processo
produttivo. Sicuro apporto dell’approccio è l’individuazione della
relazione esistente tra la qualità in uscita al processo produttivo e il
piano di accettazione sulle materie prime in ingresso. Risulta con
quest’approccio chiaro che la qualità in uscita è frutto di due forme di
nonconformità, la prima proveniente dai materiali in ingresso, la
seconda causata dal vero e proprio processo produttivo.
L’ipotesi di funzione di costo lineare, comune a tutti gli approcci finora
elencati, viene infine modificata nel modello presentato in [Mos84b], in
cui si introduce il concetto di avversione o propensione al rischio del
decisore. Al costo atteso si sostituisce quindi l’utilità attesa che,
sebbene risulti un interessante miglioramento del modello di
ottimizzazione economica, presenta i consueti problemi di stima della
funzione utilità.
Occorre infine citare, per dovere di completezza, un ultimo insieme di
approcci, che però modificano la struttura classica del processo
decisionale di un piano di campionamento e che sono denominati PASS
(Price-Adjusted Single Sampling). La progettazione economica di questo
tipo di piani singoli si basa sull’idea di accettare comunque il lotto a
seguito del collaudo, modificando il prezzo pagato dal cliente in
funzione del livello di non conformità riscontrato nel lotto [Fos72],
[Fos77], [Cha83], [Ehr88].
2.2.1.2. Campionamento doppio e multiplo
In letteratura è stato presentato un unico modello di piano di
campionamento doppio. In [Ste78] è infatti proposto un approccio per
Capitolo 2
13
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
campionamento a due stadi per tutti i tipi di collaudo: distruttivo (in
questo caso è di conseguenza impossibile procedere ad un collaudo al
100% nel caso di rifiuto del lotto), non distruttivo e collaudo interrotto
(curtailed inspection). Anche relativamente ai piani multipli, un solo
approccio è stato finora proposto in letteratura [Mor79]. In ipotesi di
distribuzione a priori nota, il modello è strutturato come problema
decisionale markoviano in cui il processo è l’attività di campionamento
e la posizione del processo è definita da due valori: lo stadio e lo stato.
Ogni stadio è definito dal numero di pezzi collaudati fino a quel
momento e lo stato è definito dal numero di pezzi non conformi
riscontrati allo stesso istante. La probabilità di transizione da uno stato
all’altro è la probabilità di trovare un certo numero di pezzi difettosi.
Valorizzando economicamente tutte le possibili scelte, il modello
propone un set di equazioni ricorsive che porta a definire il piano
multiplo ottimo economicamente.
2.2.2.
I piani
multiattributo
per
il
campionamento
Tutti i modelli di campionamento multiattributo, condividono la stessa
impostazione: la definizione di una funzione obiettivo e l’applicazione di
un metodo di ottimizzazione. Il problema è un problema a variabili
intere poiché occorre definire la coppia di valori Aci (numero di
accettazione) e ni (dimensione del campione), entrambe quantità intere,
per ognuno degli m attributi, supposti indipendenti. Tutti i modelli
adottano come algoritmo di ottimizzazione il pattern search, un
algoritmo di ricerca diretta della soluzione che risulta, però, fortemente
dipendente dall’ipotesi di funzione obiettivo unimodale e che verrà
approfondito nel paragrafo 2.5.3.
iI modelli per la progettazione di piani multiattributo si possono
essenzialmente suddividere in due categorie, in funzione dell’approccio
utilizzato nella funzione obiettivo. Il primo tipo di piano, cui
appartengono gli approcci proposti in [Sch72], [Cas75], [Ail75] e
[Mos86], mira alla minimizzazione del costo totale atteso; il secondo,
proposto in [Mos84a], considera invece come funzione obiettivo l’utilità
del decisore.
Nel primo insieme di lavori, la prima differenza riguarda le ipotesi
assunte. In particolare [Sch72] usa una distribuzione poissoniana per il
numero di non conformi nel campione e una distribuzione a priori
esponenziale mista. In [Cas75] invece, la distribuzione a priori utilizzata
è una polya e, sfruttando la proprietà di riproducibilità (descritta in
Appendice B) si deriva un modello discreto anziché continuo.
Capitolo 2
14
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
[Mos86] e [Ail75] condividono l’impostazione di [Cas75], che
rappresenta, almeno teoricamente un superamento dell’approccio in
[Sch72]. In dettaglio però [Mos86] si occupa di fissare K programmi di
campionamento, uno al termine di ciascuno dei K stadi produttivi del
processo, supposti in sequenza. Il metodo quindi propone soluzione ad
un problema di suddivisione dello sforzo di ispezione interno al
processo più che ad un problema di progettazione del collaudo in
accettazione. [Ail75], invece, estende l’analisi di [Cas75] al caso di
controllo contemporaneo per attributi e per variabili.
Il secondo filone di ricerca è orientato a massimizzare l’utilità attesa ed
è rappresentato dall’approccio proposto in [Mos84a]. In questo caso
l’obiettivo è introdurre esplicitamente l’attitudine al rischio del decisore,
e anche se teoricamente valido, presenta la consueta difficoltà di
stimare la funzione obiettivo.
Tra gli approcci proposti in letteratura, si prenderà come punto di
partenza quello proposto in [Cas75] poiché si è interessati a sviluppare
un piano per l’accettazione in ingresso nel caso di più attributi (e non di
caratteristiche modellabili in parte come attributi e in parte come
variabili) si farà riferimento all’approccio proposto in [Cas75],
proponendone una modifica della funzione obiettivo e dell’algoritmo di
ricerca della soluzione ottima. Per comprendere meglio le differenza
proposte, si partirà introducendo l’approccio nel prossimo paragrafo. In
seguito, nel paragrafo 2.5, si descriveranno in dettaglio le modifiche
proposte.
Capitolo 2
15
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.3. Notazione
Simbolo
m
Numero di attributi
i ∈ (1,..,m )
Indice per identificare l’attributo
ni
Dimensione del campione relativamente all’i-mo attributo
Ac i
Numero di accettazione relativamente all’i-mo attributo
N
Dimensione del lotto
Xi
Numero di nonconformi relativamente all’i-mo attributo
presenti nel lotto
xi
Numero di nonconformi relativamente all’i-mo attributo
presenti nel campione di dimensione ni
fN(X)
Distribuzione del numero di non conformi nel lotto
gni(xi)
Distribuzione del numero di non conformi rispetto all’i-mo
attributo, nel campione di dimensione ni
pi
Frazione di parti non conformi nei lotti in accettazione
s,t,s’,t’,w
Parametri della distribuzione a priori della frazione di pezzi
non conformi pi nel lotto
Pai
Cc
Probabilità di accettazione relativamente all’i-mo attributo
Cr
Costo di rifiuto del lotto
Ca
Costo di accettazione del lotto
CCi -
costo di collaudo di un item rispetto all’i-mo attributo
(i=1,..,m);
Cscarto
costo di scarto dell’intero lotto;
CAi
costo derivante dalla presenza di un pezzo difettoso non
collaudato in un lotto accettato (i=1,..,m);
Costo di collaudo del lotto
Csost
Costo di sostituzione di un pezzo danneggiato al collaudo:
diverso da zero nel caso di collaudo distruttivo
CC 100 % i
costo per collaudare tutto il lotto rispetto all’i-mo attributo
Crepl
costo di sostituzione (o rimpiazzo) di un pezzo non
conforme con uno conforme
Capitolo 2
16
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Crit .
costo-opportunità del ritardo con cui il cliente processa il
nuovo lotto in ingresso qualora il lotto precedente sia stato
rifiutato
Tabella 2.1: Principali simboli utilizzati nel capitolo 2
2.4. Il piano di minimo costo atteso: il
modello di Case, Schmidt e Bennet
[Cas75].
2.4.1.
Ipotesi del modello
1. Ogni singolo lotto in ingresso ha dimensione N, costante.
2. Il collaudo di un pezzo è eseguito rispetto ad m attributi
indipendenti.
3. Per ciascun attributo si intende determinare una coppia di numeri
interi (ni, Aci), per i=1,..,m, che rappresentano rispettivamente
l’ampiezza del campione da collaudare ed il numero di accettazione
rispetto all’attributo i-esimo. Il numero totale di pezzi prelevati è
quindi max{n i } .
i
4. Il collaudo è supposto distruttivo. Qualora il lotto non superi il test,
non si può procedere con un controllo al 100%. In questo caso
infatti il lotto viene definitivamente scartato. Quando invece il lotto
è accettato, i pezzi collaudati sono sostituiti con altrettanti pezzi
addizionali.
5. Il collaudo è esente da errori (quest’ipotesi non è esplicitamente
citata nell’articolo, ma sembra opportuno segnalarla).
6. Sono note le stime delle seguenti grandezze economiche:
- CCi = costo di collaudo di un item rispetto all’i-mo attributo
(i=1,..,m);
- Cscarto= costo di scarto dell’intero lotto;
- CAi= costo derivante dalla presenza di un pezzo difettoso non
collaudato in un lotto accettato (i=1,..,m);
- Csost= costo di sostituzione di un pezzo (danneggiato al collaudo).
7. Per ogni attributo, la distribuzione a priori della frazione di pezzi
non conformi pi è una somma pesata di due beta di parametri s, t,
s’, t’>0. Le m distribuzioni sono indipendenti. I loro parametri sono
Capitolo 2
17
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
stimati con il metodo dei momenti, note le stime delle medie µi e
delle varianze σ2 i, con le seguenti equazioni:
si =
ti =
(1 − µi )µi 2
σ i2
− µi
(2.1.)
(1 − µ i )2 µ i
− (1 − µi )
σ i2
(2.2.)
Come dimostrato in Appendice B, nell’ipotesi che il lotto di dimensione
N sia estratto mediante campionamento binomiale da un processo
caratterizzato, relativamente all’attributo i-mo, dalla frazione di pezzi
non conformi pi con distribuzione a priori indicata nell’ipotesi 7, la
distribuzione del numero di pezzi non conformi relativamente allo
stesso attributo è la somma pesata di due polya di parametri si, ti, s’i,
t’ i:
 N  Γ(si + X i ) Γ(ti + N − X i ) Γ(si + t i )
f N ( X i ) = wi 

+
Γ(t i )
Γ(si + t i + N )
 X i  Γ(si )
 N  Γ(s'i + X i ) Γ(t 'i +N − X i ) Γ(s'i +t 'i )

+ (1 − wi )
Γ(t 'i )
Γ(s' i +t 'i + N )
 X i  Γ(s'i )
(2.3.)
per 0 ≤ wi ≤ 1, si , t i , si ', t 'i > 0 ed i = 1,..,m
Le m distribuzioni sono indipendenti.
Per il teorema di Hald (descritto in Appendice B), la densità gni(xi) del
numero di pezzi non conformi nel campione si ottiene da fN(X i),
sostituendo ni ad N ed xi ad X i..
2.4.2.
Funzione obiettivo
La funzione obiettivo è il costo totale atteso, composto dalle seguenti
categorie di costo:
Û Costo di collaudo: Cc
Û Costo di rifiuto: Cr
Û Costo di accettazione: Ca
Il costo di collaudo può essere calcolato come somma dei costi relativi al
collaudo per ogni attributo. Il costo del collaudo relativamente all’i-mo
attributo può, d’altra parte, essere calcolato come prodotto del costo
Capitolo 2
18
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
unitario di collaudo relativamente all’i-mo attributo per il numero di
pezzi collaudati relativamente allo stesso attributo:
Cc =
m
∑ CCi n i
(2.4.)
i =1
dove:
CCi = costo di collaudo di un item rispetto all’i-mo attributo.
Per il calcolo del costo di rifiuto, occorre moltiplicare il costo di scarto
del lotto, Cscarto, supposto noto (ipotesi 6) per la probabilità che il lotto
venga rifiutato. Quest’ultima probabilità è il complemento ad uno della
probabilità di accettazione. D’altra parte un lotto verrà accettato se
supererà il test relativamente a tutti gli attributi (intersezione di eventi).
Per l’ipotesi di indipendenza tra gli attributi, la probabilità di
accettazione è pari al prodotto delle probabilità di accettazione
relativamente ai singoli attributi.
Rimane quindi da calcolare la probabilità di accettazione relativamente
all’i-mo attributo: il lotto supererà il test (verrà accettato) rispetto
all’attributo i qualora il numero di non conformi xi riscontrato nel
campione di dimensione ni non risulti superiore al numero di
accettazione Aci. Sempre relativamente all’i-mo attributo, se ipotizziamo
noto il numero di non conformi X i presenti nel lotto di dimensione N, il
numero di non conformi xi nel campione ni segue una distribuzione
ipergeometrica.
Condizionatamente a X i, la probabilità di accettazione relativamente
all’i-mo attributo risulta quindi:
Pai | X i =
Ac i
∑ ϕ n i ( xi | X i )
xi =0
(2.5.)
dove ϕ ni indica una distribuzione ipergeometrica
Indicata con fN(X i) la probabilità di trovare X i non conformi in un lotto di
dimensione N, si ottiene:
Pa i =
 Ac i

 ∑ ϕ (x | X )f ( X ) 
n
i
i
N
i
i


X i =0  xi =0

N
∑
(2.6.)
Di conseguenza considerando l’insieme degli m attributi, il costo di
rifiuto è dato da:
Capitolo 2
19
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Cr = Cscarto (1 −
m

i =1

m
N
Ac i

∏ Pai ) = Cscarto 1 − ∏ ∑ ∑ ϕni ( x i | X i ) f N (X i ) 
i =1 X i = 0 x i = 0
(2.7.)

D’altra parte la sommatoria:
N
∑ ϕ n i (x i | X i ) f N ( X i ) = g n i (x i )
X i =0
rappresenta g n i ( x i ) , ossia la probabilità di riscontrare xi elementi
difettosi rispetto all’attributo i-mo nel campione di dimensione ni.. Di
conseguenza la (2.7) può essere riscritta come:

m Ac i

Cr = Cscarto 1 − ∏ ∑ g n i (x i ) 
 i =1x = 0


i

(2.8.)
dove
Cscarto= costo di scarto dell’intero lotto.
L’ultimo elemento da considerare è il costo di accettazione di un lotto
Ca. Si consideri in prima istanza noto il numero di numero di non
conformi, relativamente ad ognuno degli m attributi, in un lotto di
dimensione N: X 1, ..., Xm. La probabilità di accettazione in questo caso
risulta:
Pa( X 1 ,..,X m ) =
m
∏ Pai ( X i ) =
i =1
m Ac i
∏ ∑ ϕn i ( x i | X i )
(2.9.)
i =1x i = 0
Per stimare Ca occorre poi considerare che qualora il lotto sia accettato,
due fonti di costo devono essere considerate: la prima riguarda la
sostituzione dei pezzi collaudati e la seconda l’accettazione di pezzi
difettosi. Infatti, qualora il lotto risulti accettato, dal momento che il
collaudo è supposto distruttivo, occorre sostituire i pezzi collaudati,
sostenendo un costo Csost max{n i } , visto che il numero di pezzi da
i
collaudare è pari a max{n i } .
i
La seconda fonte di costo riguarda il numero di non conformi che,
relativamente all’i-mo attributo, può essere presente sia nella frazione
Capitolo 2
20
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
di lotto non ispezionata N- max{n i } , sia nel gruppo di parti che
i
sostituiscono i pezzi collaudati max{n i } .
i
Se si considera che il gruppo di pezzi che sostituiscono quelli collaudati
sono generati sempre dallo stesso processo, complessivamente il
numero di pezzi non conformi sarà sempre riferito ad un lotto di
dimensione N e sarà quindi indicato con X i.
In definitiva:
 m

Ca( X 1 ,..,X m ) =  ∑ CAi X i  + Csost max{n i
i
 i =1


 m  Aci
} ∏  ∑ ϕn i ( x i | X i )

i =1 x i = 0

(2.10.)
dove:
CAi= costo derivante dalla presenza di un pezzo difettoso non
collaudato in un lotto accettato;
Csost= costo di sostituzione di un pezzo (danneggiato al
collaudo).
Rimuoviamo infine l’ipotesi che sia noto il numero di difettosi X i rispetto
all’attributo i-mo presenti nel lotto. Considerando che la probabilità di
avere X i elementi difettosi relativamente all’attributo i-mo nel lotto di
dimensione N è fN(X i), si ottiene:
Ca =
N
∑
 m
 m
 m  Ac i

CA
X
+
Csost
max
{
n
}
ϕ
(
x
|
X
)
∑  ∑ i i
i  ∏ ∑ ni i
i  ∏ f N (X i )

i =1
i
Xm = 0 
i =1 x i = 0
i = 1

(2.11.)
N
...
X1 = 0
Una scrittura equivalente ma più compatta evidenzia la possibilità di
applicare il teorema di Bayes:
Ca =
•
m
m

N
Ac i

X i =0
xi = 0

∑ CAi ∑ X i ∑ ϕn i ( x i | X i ) f N ( X i ) •
i = 1
Ac k
N
∏ ∑
∑ ϕn k ( x k | X k ) f N (X k ) +
k =1 X k = 0 x k = 0
k ≠i
m
+ Csost max{ n i } ∏
i
N
Ac i
∑ ∑ ϕn i ( x i | X i ) f N ( X i )
i =1 X i = 0 x i = 0
(2.12.)
Capitolo 2
21
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Per il teorema di Bayes la distribuzione a posteriori ψ N (X i | x i ) del
numero di non conformi nel lotto rispetto all’i-mo attributo, dato che si
è osservato un numero xi di non conformi relativamente allo stesso
attributo nel campione, è data da:
ψ N (X i | x i ) =
ϕ ni ( x i | X i ) f N ( X i )
N
=
ϕ ni ( x i | X i ) f N ( X i )
∑ ϕ ni ( x i | X i ) f N ( X i )
g ni (x i )
(2.13.)
Xi =0
Per cui:
ϕ n i (x i | X i ) f N (X i ) = ψ N ( X i | x i )g n i ( x i )
(2.14.)
Di conseguenza:
N
Ac i
X i =0
xi = 0
∑ Xi
=
Ac i
∑ ϕ ni ( x i | X i ) f N ( X i ) =
Ac i
N
(2.15.)
∑ ∑ X i ψ N ( X i | x i )g ni ( x i ) = ∑ E ( X i | x i )g n i ( x i )
xi =0 X i = 0
xi =0
Considerando inoltre che:
N
∑ ϕ n i (x i | X i ) f N ( X i ) = g n i (x i )
(2.16.)
X i =0
Sostituendo le espressioni (2.15) e (2.16) nell’equazione (2.12) si ottiene:
Ca =
m

Ac i
 m Ac k
xi = 0
k =1 x k =0
∑ CAi ∑ E (X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) +
i = 1
k≠i
(2.17)
m Ac i
+ Csost max{ n i } ∏
i
∑ g n i (x i )
i =1x i = 0
In definitiva, il costo totale atteso che si intende minimizzare può essere
ricavato considerando le tre componenti di costo indicate (collaudo,
rifiuto e accettazione):
Capitolo 2
22
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
C TOT = Cc + Cr + Ca
(2.18)
E sostituendo le equazioni (2.4), (2.8) e (2.17) C TOT
l’espressione:
m Ac i


+ Cscarto 1 − ∏ ∑ g n i (x i )  +
 i =1x = 0

i =1

i

Ac i
m
 m Ac k
+ ∑ CAi ∑ E ( X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) +

k =1 x = 0
i =1
xi =0

k
CTOT =
assume
m
∑ CCi n i
k≠i
m Ac i
+ Csost max{ n i } ∏
i
∑ g ni (x i )
i =1 xi = 0
(2.19)
Capitolo 2
23
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.5. Un nuovo modello economico per la
progettazione di piani bayesiani
multiattributo
Le modifiche proposte rispetto all’approccio descritto nel precedente
paragrafo riguardano essenzialmente la funzione obiettivo, la modalità
di controllo della distribuzione a priori e l’algoritmo di ottimizzazione.
Infatti l’approccio proposto in [Cas75] ipotizza che tutti gli attributi
diano luogo ad un collaudo distruttivo, escludendo così la possibilità di
effettuare, a valle del rifiuto del lotto, un collaudo al 100% con
eventuale ripristino dei pezzi non conformi. In realtà , se non tutti gli
attributi danno luogo ad un controllo distruttivo, la scelta della politica
più opportuna a valle di un rifiuto del lotto è da individuarsi in funzione
dei costi coinvolti. Inoltre, occorre considerare che nella realtà non tutti
i costi sono da attribuire allo stesso soggetto (consumatore o fornitore
del lotto). Spesso nella realtà produttiva si stipulano delle norme
contrattuali che attribuiscono i costi da sostenere a seguito di un rifiuto
del lotto al fornitore, per motivarlo a migliorare la qualità delle parti in
ingresso. Questa possibilità verrà, di conseguenza opportunamente
modellata nella funzione obiettivo, proponendo quindi un approccio che
risulta più facilmente applicabile alla realtà produttiva.
Il secondo problema affrontato riguarda il controllo nel tempo della
validità della distribuzione a priori utilizzata, punto considerato
tradizionalmente critico nell’impostazione bayesiana. Nel caso proposto
occorre in primo luogo sottolineare che non si adotta un ottica
puramente bayesiana, adottando un approccio tipo empirical bayes,
visto che la distribuzione a priori è stimata, sia riguardo all’ipotesi
distribuzionale sia riguardo ai parametri, dai dati storici disponibili.
Secondariamente verrà proposta una carta di controllo da utilizzare per
verificare che nel tempo, i parametri che caratterizzano la distribuzione
non varino, rendendo poco realistica la prior utilizzata.
Infine verrà proposto un algoritmo di ottimizzazione basato, come per
gli altri approcci proposti in quest’ambito in letteratura, su un
algoritmo di ricerca diretta opportunamente modificato per considerare
il caso in cui la funzione obiettivo sia discreta e non necessariamente
unimodale.
Capitolo 2
24
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.5.1.
La modifica della funzione obiettivo
2.5.1.1. Introduzione di una scelta riguardo alla
politica di scarto o ripristino del lotto
Nel caso di piani multiattributi, i modelli proposti in letteratura
prevedono una netta distinzione tra attributi “scrappable” e attributi
“screenable”. Per attributo scrappable si intende una caratteristica che,
qualora provochi il rifiuto del lotto, porta allo scarto del lotto. In questo
caso si sta implicitamente ipotizzando che il collaudo al 100% sia o
impossibile (per es. nel caso di controllo distruttivo) oppure
antieconomico. Se invece il rifiuto del lotto provocato da un attributo
comporta il collaudo al 100% e l’eventuale ripristino dei pezzi non
conformi, l’attributo è detto screenable.
Ipotizzare una distinzione a priori tra attributi screenable e scrappable
significa definire a priori l’azione che verrà eseguita su un lotto
rifiutato. In realtà solo per attributi caratterizzati da collaudi distruttivi
la scelta è obbligata: negli altri casi, può essere opportuno valutare
economicamente le conseguenze di una o dell’altra azione. Se infatti
alcuni attributi sono collaudabili senza danno, si potrebbe valutare
economicamente se convenga effettuare un collaudo al 100% oppure
scartare il lotto.
La proposta di un nuovo modello economico si basa quindi sul fatto
che possa essere opportuno inserire nella funzione obiettivo un’altra
variabile decisionale che consente di definire la politica da eseguire a
valle di un rifiuto del lotto.
L’espressione del costo di rifiuto Cr deve essere quindi
opportunamente modificata.
Per decidere se collaudare al 100% o sostituire il lotto, occorre quindi
confrontare le due grandezze seguenti:
1. Cr1: costo del collaudo al 100% con rimpiazzo dei pezzi non
conformi per ciascuno degli attributi rispetto ai quali il lotto è
stato rifiutato.
2. Cr2: costo di rifiuto dell’intero lotto.
Ricaviamo in primo luogo l’espressione del costo atteso Cr1 nel primo
caso. Si ipotizzi di collaudare il lotto al 100% solo rispetto agli attributi
che hanno dato luogo al rifiuto. Per ogni attributo quindi la probabilità
che si proceda con un collaudo al 100% e rimpiazzo dei non conformi è
pari al complemento ad uno della probabilità di accettazione rispetto a
quell’attributo, data da:
Capitolo 2
25
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Pa i =
 Aci
 Aci

ϕ
(
x
|
X
)
f
(
X
)
∑  ∑ ni i i N i  = ∑ g ni (x i )
Xi = 0  xi = 0
 xi = 0
N
(2.20.)
Quindi la probabilità con cui ogni attributo dà luogo al collaudo e
eventuale ripristino dei non conformi è 1 − Pai = 1 −
Ac i
∑ gni ( xi ) .
x i =0
Con questa probabilità quindi, relativamente all’i-mo attributo, si
procede al collaudo al 100% e alla sostituzione dei non conformi.
Il numero atteso di non conformi rispetto all’i-mo attributo nel lotto di
dimensione N può essere calcolato come:
∑ [(E ( X i | x i ))g ni ( x i )]
ni
(2.21.)
xi = 0
dove
E ( X i | xi ) è il valore atteso del numero di difettosi rispetto
all’attributo i, dato che si sono osservati xi non conformi nel
campione;
g ni (x i ) è la probabilità di osservare xi non conformi nel campione
di dimensione ni.
Il costo complessivo della prima politica risulta quindi:
Cr1 =

ni
Ac i






CC
100
%
+
Crepl
(
E
(
X
|
x
)
)
g
(
x
)
1
−
g
(
x
)
∑ 
∑
∑ ni i 
i
i
i
ni i


i =1 
xi = 0
 x i =0

m
[
]
(2.22.)
dove:
CC 100 % i rappresenta il costo per collaudare tutto il lotto
rispetto all’i-mo attributo;
C repl rappresenta il costo di sostituzione (o rimpiazzo) di un
pezzo non conforme con uno conforme.
Si noti che l’espressione ricavata è un upper bound del costo reale di
questa politica. Infatti si sta trascurando la possibilità che una parte
risulti difettosa per più di un attributo tra quelli che hanno causato il
rifiuto, ipotesi per altro ragionevole visto che si sta trascurando un
effetto del secondo ordine.
Il costo della seconda politica (politica 2) è invece già stato introdotto ed
indicato con Cscarto.
Capitolo 2
26
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Cr 2 = Cscarto
(2.23.)
Di conseguenza si introduce un’ulteriore variabile decisionale che verrà
scelta dal modello in funzione dei costi in gioco. Questa variabile
decisionale ξ è una variabile boolena che assumerà il valore 0 se la
miglior politica è la politica 1 (collaudo 100% e sostituzione dei non
conformi) e assumerà invece il valore 1 se risulta economicamente più
conveniente rifiutare il lotto.
Più formalmente:
ξ = 0

ξ = 1
se Cr 2 > Cr1
(2.24.)
altrimenti
dove
le espressioni di Cr1 e Cr2 sono date rispettivamente dalle equazioni
(2.22) e(2.23).
Di conseguenza il costo di rifiuto Cr da inserire nella funzione obiettivo
sarà [ξCr 2 + (1 − ξ )Cr1] per la probabilità di rifiutare il lotto:
m Ac i


Cr = [ξ Cr 2 + (1 − ξ )Cr1]1 − ∏ ∑ g n i ( x i )  =
 i =1 x = 0


i


ni
m 

= ξCscarto + (1 − ξ ) ∑ CC100% i + Crepl ∑ (E ( X i | x i ))g n i ( x i )  •



i =1 
xi = 0


[
]
(2.25.)
Ac i

 
m Ac i

• 1 − ∑ g n i ( x i ) 1 − ∏ ∑ g n i ( x i ) 

  i =1 x = 0

xi = 0
i

 

2.5.1.2. Una più approfondita analisi della
funzione obiettivo: la suddivisione dei costi tra
fornitore e cliente
Un’ipotesi alla base della formulazione della funzione obiettivo nei
modelli adottati in letteratura è che tutti i costi siano da attribuire al
medesimo soggetto. Questa ipotesi può risultare plausibile nel caso in
cui il piano di accettazione sia posto tra due reparti di una stessa
azienda, qualora inoltre non si intenda trattare i due reparti come
centri di costo distinti.
Quando il piano è eseguito su lotti in ingresso provenienti da un
fornitore esterno all’azienda, l’attribuzione delle voci di costo dipende
Capitolo 2
27
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
dalle specifiche contrattuali pattuite tra fornitore ed azienda. In
particolare le specifiche contrattuali spesso riguardano la politica da
adottarsi in caso di rifiuto del lotto.
Spesso infatti, nel caso in cui il lotto non risulti accettabile in
riferimento a qualche attributo, gli eventuali costi di rifiuto o di
collaudo vengono attribuiti al fornitore, in modo da generare una
maggiore attenzione agli standard qualitativi richiesti.
Nel caso in cui questa situazione sia stipulata nel contratto, la funzione
obiettivo risulta modificata relativamente al costo di rifiuto Cr.
In riferimento al caso produttivo reale che verrà descritto in dettaglio
nel paragrafo 2.6, si analizza di seguito la modifica da effettuare nel
caso in cui, come spesso accade, le spese da sostenere a seguito del
rifiuto del lotto siano a carico del fornitore.
La scelta economicamente più conveniente tra scartare il lotto oppure
passare ad un controllo al 100% con ripristino è una scelta che
riguarda il fornitore. In ipotesi che questa scelta sia effettuata con ottica
economica, analogamente a quanto descritto nel paragrafo precedente,
si introduce la stessa variabile booleana ξ che è pari a 0 se conviene
collaudare al 100% e riparare i non conformi, 1 altrimenti.
Di conseguenza, coerentemente a quanto descritto:
ξ = 0

ξ = 1
se Cr 2 > Cr1
altrimenti
(2.26)
dove
le espressioni di Cr1 e Cr2 sono date rispettivamente dalle equazioni
(2.22) e(2.23).
Il cliente invece sosterrà solo i costi relativi all’eventuale ritardo in
produzione. Infatti se il fornitore decide di collaudare al 100% con
ripristino dei difettosi, il cliente vedrà arrivare i primi pezzi subito dopo
i primi collaudi, non dovendo sostenere il costo dovuto al ritardo
(perdita di opportunità) tempi improduttivi. Se invece il lotto viene
scartato, il cliente dovrà aspettare la realizzazione di un altro lotto e
quindi inizierà a processare le parti in ingresso con un certo ritardo. Il
costo del ritardo è indicato con Crit.
Dal momento che la funzione economica CTOT è stata stimata
considerando il punto di vista del cliente, il costo di rifiuto deve essere
opportunamente modificato.
Il costo del rifiuto diventa in questo caso:

m Ac i

Cr = ξCrit (1 − Pa ) = ξCrit 1 − ∏ ∑ g ni ( x i ) 
 i =1x =0


i

dove:
(2.27)
Capitolo 2
28
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Crit è il costo-opportunità del ritardo con cui il cliente processa il
nuovo lotto in ingresso qualora il lotto precedente sia stato
rifiutato.
Riassumendo, la funzione obiettivo che verrà considerata nel modello è:
m Ac i



CC
n
+
ξ
Crit
1
−
g ni (x i ) +
∑ i i
∏
∑
 i =1 x = 0

i =1

i

Ac i
m
 m Ac k
+ ∑ CAi ∑ E ( X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) +

k =1 x = 0
i =1
xi =0

k
CTOT =
m
(2.28.)
k≠i
m Ac i
+ Csost max{ n i } ∏
i
∑ g ni (x i )
i =1 xi = 0
con
ξ = 0

ξ = 1
se Cr 2 > Cr 1
(2.29.)
altrimenti
e
Cr1 =
m

∑ CC100 % i
i =1 
Cr 2 = Cscarto
+ Crepl
ni

Ac i

xi = 0

xi =0

∑ [(E ( X i | x i ))g n i ( x i )]1 − ∑ g ni ( x i ) (2.30.)
(2.31.)
2.5.2.
La carta p per il controllo della
distribuzione a priori
L’applicazione del modello di minimo costo atteso richiede la stima della
distribuzione a priori della frazione pi di pezzi non conformi rispetto
all’i-mo attributo. Nell’ipotesi di scegliere una forma funzionale
sufficientemente flessibile come la beta, diventa invece necessario
monitorare nel tempo la correttezza dei parametri che individuano la
distribuzione. Nella bibliografia esaminata quest’aspetto è trascurato
per cui si ritiene utile, per favorire un’applicazione dell’approccio,
proporre una metodologia che consideri l’ipotesi di verifica nel tempo
della distribuzione a priori.
Capitolo 2
29
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Si assuma che la distribuzione a priori sia una beta di parametri s e t.
Questo significa ipotizzare che il processo sia caratterizzato da una
media:
p prior =
s
s +t
(2.32.)
ed il livello di certezza con cui affermiamo quest’ipotesi è dato da:
σ 2 prior =
st
(s + t )2 (s + t + 1)
=
p prior (1 − p prior )
(s + t + 1)
(2.33.)
Come dimostrato in Appendice B, la posterior sarà ancora una beta di
parametri s+x e t+n+x. Ciò significa che una stima della difettosità del
lotto da cui abbiamo estratto il campione di numerosità n contiene x
pezzi non conformi è
p post = E ( p |s,t ,n , x ) =
s +x
s +t +n
(2.34.)
In definitiva tale stima tiene conto dell’idea a priori e dell’informazione
campionaria.
Se l’idea a priori su p si avvicina alla realtà, il dato sperimentale
confermerà l’ipotesi, dando luogo a p post ≅ p prior .
In tal caso l’incertezza con cui è effettuata la nostra ipotesi viene anche
ridotta dal dato sperimentale. Infatti la varianza della distribuzione a
posteriori è data da:
σ 2 post =
(s + x )(t + n − x )
(s + t + n )2 (s + t + n + 1)
=
p post (1 − p post )
(s + t + n + 1)
(2.35)
Qualora risulti p post ≅ p prior , si ottiene σ 2 post < σ 2 prior .
Di conseguenza si può concludere che, se la distribuzione a priori
descrive adeguatamente l’andamento (in termini di frequenza) della
difettosità del processo, la stima p post del valore di p ricade all’interno
dei limiti di una carta di controllo progettata precisando un errore del
primo tipo pari ad α.
Ricordando che la distribuzione beta, può assumere due tipi di forma,
in funzione dei parametri, è possibile progettare due tipi di carte di
controllo:
Capitolo 2
30
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Beta a forma di campana:
UCL=k2
CL= p prior
LCL= k1
Zona di allarme: p post > UCL e p posti < LCL
i
Con k1 e k2 tali che:
k1
∫
beta ( p |s, t )dp =
0
α 1
α
e ∫ beta ( p |s,t )dp =
2 k2
2
Beta a forma di U:
UCL=k2
CL= p prior
LCL= k1
Zona di allarme: LCL < p post < UCL
i
Con k1 e k2 tali che:
k2
∫ beta ( p |s,t )dp = α
k1
2.5.3.
Un algoritmo di ricerca della
soluzione ottima: il pattern search
casualizzato.
L’algoritmo utilizzato come base di partenza è il pattern search, un
algoritmo di ricerca sequenziale diretta non vincolata per
l’ottimizzazione di funzioni n-dimensionali proposto da Hooke e Jeeves
(per una descrizione dell’algoritmo si veda [Bei79] e [Dix73]).
Le ipotesi alla base dell’algoritmo sono la continuità e l’unimodalità
della funzione da ottimizzare. Nella ricerca infatti ad ogni passo
l’obiettivo è cercare una direzione promettente verso cui l’algoritmo
“accelera” confidando di trovare in quella direzione l’ottimo cercato.
L’algoritmo si interrompe quando non riesce più a trovare una direzione
in cui la funzione obiettivo migliora, a partire dall’ultimo punto
esplorato. Ovviamente se la funzione non è unimodale, non si ha
nessuna garanzia che l’ottimo (massimo o minimo) trovato sia assoluto
e non relativo.
Per superare questi limiti, si propone una variante dell’algoritmo: il
pattern search discreto casualizzato. Infatti nel problema della selezione
del piano di campionamento di minimo costo atteso occorre modificare
l’algoritmo considerando che:
Capitolo 2
31
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
- l’ottimizzazione riguarda una funzione a variabili intere e non è
necessariamente unimodale. Inoltre esistono un insieme di vincoli
cui la funzione è soggetta (vincoli di consistenza: Aci<ni, ni≤N; e
vincoli di interezza e non negatività);
- l’algoritmo di ottimizzazione deve avere tempi di elaborazione
ragionevoli, decisi dall’utente.
Per ovviare al problema della tipologia di funzione, visto che non si ha
nessun elemento analitico per decidere che questa sia o meno
unimodale, occorre utilizzare più punti di partenza dai quali partire alla
ricerca della soluzione ottima. Questa scelta permette di ridurre la
probabilità di confondere ottimi relativi con assoluti.
La scelta dei punti di partenza è eseguita attraverso una routine di
generazione di numeri casuali che determina soluzioni di partenza che
rispettano i vincoli (interezza, non negatività, e vincoli di consistenza:
numero di accettazione minore della dimensione del campione e
dimensione del campione minore o uguale alla dimensione del lotto). Le
verifiche dei vincoli di consistenza non si limitano solo alla selezione
causale dei punti di partenza, ma sono ripetute anche nei passi
successivi dell’algoritmo, durante l’esplorazione dell’intorno del punto
corrente e dopo il salto nella direzione ritenuta “promettente”.
Il vincolo di interezza viene invece rispettato considerando sempre la
parte intera del valore di raggio utilizzato per esplorare l’intorno del
punto. A seguito di un insieme di prove iniziali, si è inoltre notato che
variazioni delle due variabili decisionali da decidere per ogni attributo
(dimensione del campione e numero di accettazione) hanno effetti
diversi sulla funzione obiettivo. Per far fronte a questa diversità,
l’algoritmo adotta automaticamente raggi di esplorazione diversi (il
raggio di esplorazione per Aci è pari alla parte intera di un decimo del
raggio usato per ni).
Ovviamente ad ogni step dell’algoritmo è registrata la miglior soluzione
corrente: partendo da diversi starting point è necessario scegliere la
migliore delle soluzioni ottenute a partire dai diversi punti. Per validare
l’algoritmo di pattern search discreto casualizzato, è stata effettuato un
confronto sulla base dei risultati riportati in [Cas75].
2.5.3.1. La validazione dell’algoritmo di
ottimizzazione
Per verificare la validità dell’algoritmo proposto è stata eseguita la
ricerca della soluzione di minimo costo atteso in riferimento ai dati
riportati in [Cas75]. Il piano progettato in questo lavoro riguarda 3
attributi, i cui parametri statistici ed economici sono riportati
rispettivamente in Tabella 2.2 e Tabella 2.3.
Capitolo 2
32
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Parametri della prior
Peso w
s
t
s’
t’
Attributo 1
0,9
0,98
97,02
0,8
7,2
Attributo 2
0,95
0,998
997,002
0,996
497,004
Attributo 3
0,85
0,992
247,008
0,9
17,1
Tabella 2.2: Parametri statistici adottati nella validazione dell’algoritmo
di ricerca [Cas75]
Costi unitari [$]
Sostituzione
Rifiuto
Collaudo
Accettazione
pezzo
conforme
Attr 1
Attr 2
Attr 3
0,001
11
0,002
3
0,001
8
0,20
0,41929
non
Tabella 2.3 Parametri economici adottati nella validazione dell’algoritmo
di ricerca [Cas75]
Il piano ottimo è progettato in riferimento a diverse dimensioni del lotto:
20, 50, 200, 1000 e 14000.
I risultati del confronto tra la soluzione riportata in [Cas75] e la
soluzione determinata con l’algoritmo di ricerca proposto sono riportati
in Tabella 2.4.
N
Soluzione
[Cas75]
(n1,n2,n3)
(Ac1,Ac2,Ac 3)
20
50
200
1000
14000
(7,0,7)
(0,0,0)
(9,0,9)
(0,0,0)
(26,0,26)
(1,0,1)
(54,0,54)
(2,0,2)
(229,0,200)
(9,0,7)
di
Costo
totale
atteso
4,7080
Soluzione
con
l’algoritmo
porposto
(n1,n2,n3)
(Ac1,Ac2,Ac 3)
(7,0,7)
(0,0,0)
11,6557 (9,0,9)
(0,0,0)
44,8049 (26,0,26)
(1,0,1)
206,7574 (52,0,52)
(2,0,2)
2706,635 (212,0,212)
(9,0,7)
∆%
Costo
totale
atteso
4,7080
0
11,6557
0
44,8049
0
206,7197
-0,02
2704,535
-0,08
Capitolo 2
33
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Tabella 2.4: Risultati della fase di validazione dell’algoritmo di ricerca
della soluzione ottima.
Come è possibile osservare, l’algoritmo proposto trova in tre casi su
cinque la soluzione trovata dall’autore dell’articolo, mentre negli altri
due casi rimanenti la soluzione proposta dall’algoritmo di pattern
search discreto casualizzato è caratterizzata da un costo minore, anche
se di entità trascurabile.
Capitolo 2
34
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.6. Il caso reale: determinazione del piano
di minimo costo atteso per il collaudo del
corpo valvola grezzo
2.6.1.
Il corpo valvola grezzo
Il collaudo cui ci si riferisce nell’applicazione del modello proposto trae
spunto dall’attività di Controllo Qualità di un azienda che effettua
lavorazioni meccaniche conto terzi su macchine transfert e CNC. In
particolare si studierà il piano di accettazione di minimo costo atteso
relativo ad un corpo valvola di ottone. Infatti il corpo valvola arriva
all’azienda sotto forma di grezzo. L’azienda esegue quindi tutte le
lavorazioni meccaniche (per dettagli relativi al ciclo di lavorazione, si
veda [Mar96]) e consegna il finito al cliente. Il pezzo sarà poi montato
insieme ad altri otto componenti per andare a realizzare
un’elettrovalvola ELT/D Serie 55 da utilizzare per svariate applicazioni
(tra le altre: macchine per caffè, macchine saldatrici, sistemi antifurto,
macchinari ad uso dentistico).
Il pezzo grezzo è un corpo valvola in ottone OT58 UNI 5705 del peso di
circa 55g, costituito da tre elementi [Figura 2.1):
1. Cannotto asse sede;
2. Cannotto porta gomma;
3. Cannotto ingresso fluido.
Allo stato attuale la ditta esegue in accettazione un campionamento
per attributi sui lotti di ingresso che dovrebbe, secondo gli accordi
contrattuali, essere progettato con riferimento alla norma MIL-STD105D e con un valore di AQL=1%. In realtà la ditta non ha mai
applicato a norma i piani di accettazione. Infatti per gli attributi la ditta
applica un piano singolo con collaudo ridotto, senza considerare le
regole di switching. Per le variabili convertite in attributi, la ditta
applica un piano singolo con numeri di accettazione e rifiuto progettati
secondo le MIL-STD ma con numerosità del campione pari ad una
frazione fissa della numerosità del lotto. Visto che la dimensione dei
lotti varia (da 5000 a 40000 pezzi) si dovrebbe in realtà progettare di
volta in volta la numerosità del campione appropriata riferendosi alla
norma.
Capitolo 2
35
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Figura 2.1: Il corpo valvola grezzo
2.6.2.
Analisi dei dati storici: stima delle
distribuzioni a priori
Per progettare il piano di minimo costo atteso, si è proceduto in primo
luogo ad analizzare i dati relativi al numero di pezzi non conformi
relativamente al set di attributi utilizzati nel piano di accettazione
originario [Mar96]. I dati analizzati corrispondono ai moduli di
registrazione relativi al periodo gennaio 90- novembre 91. Osservando i
dati, si è proceduto alla definizione di un subset di attributi rilevanti.
Sono stati infatti trascurati gli attributi per i quali non era mai stata
riscontrata nessuna non conformità e quelli per i quali non si procedeva
ad un vero e proprio campionamento ma ad una semplice verifica di
Capitolo 2
36
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
conformità con quanto ordinato. In definitiva gli attributi oggetto
dell’analisi sono riportati in Tabella 2.5. In particolare nella prima
colonna è riportata l’etichetta dell’attributo che verrà utilizzata nel
seguito della trattazione, nella seconda si riporta l’etichetta
dell’attributo adottata in azienda, nella terza colonna è contenuta una
descrizione del tipo di attributo.
Attr
Descrizione
Codice
attributo
in azienda
1
3
Verifica della presenza di macchie e/o
ammaccature che pregiudicano la funzionalità
e/o l’estetica del pezzo
2
4
Controllo di completezza dello stampato
3
6
Verifica della presenza di bave e/o difetti di
tranciatura
4
7
Verifica che il pezzo non sia storto o disassato
in modo tale da impedirne il corretto
posizionamento nelle morse di serraggio
5
104
Verifica del rispetto della tolleranza prescritta
[mm]:
+ 0 .1
−
11 0 .3
Verifica del rispetto della tolleranza prescritta
6
+0 .2
106
[mm]: ∅10.5
− 0.3
Verifica del rispetto della tolleranza prescritta
7
+0
107
[mm]: 8
− 0.3
Verifica del rispetto della tolleranza prescritta
8
+0.2
201
[mm]: 5
− 0.2
Verifica del rispetto della tolleranza prescritta
9
204
+ 0.2
[mm]: 13 .5 − 0 .2
Tabella 2.5: Gli attributi per il collaudo del corpo valvola grezzo
Capitolo 2
37
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Detta pi la frazione di prodotti non conformi relativamente all’i-mo
attributo,
occorre
stimare
la
distribuzione
a
priori
f ( p1, p2 , p 3 , p 4 , p5 , p6 , p 7 , p 8 , p 9 ) . Da un’analisi dei coefficienti di
correlazione tra dati relativi a diversi attributi, si può ritenere che non
esista dipendenza, per cui si può procedere al calcolo della
distribuzione a priori come prodotto delle singole distribuzioni:
f ( p1, p2 , p 3 , p 4 , p5 , p 6 , p 7 , p8 , p9 ) =
9
∏ f ( pi )
i =1
Per avere una prima indicazione sulla forma distribuzionale più
opportuna si è proceduto utilizzando il metodo riportato in [Hah67] che,
esaminando i coefficienti di asimmetria e curtosi, consente di dare
un’indicazione sulla forma funzionale più opportuna per modellare un
set di osservazioni.
Per tutte le caratteristiche, la forma più opportuna è risultata essere
una beta a forma di U. Per confermare l’ipotesi, si è proceduto
effettuando il test χ 2 .
Impostando un α del 5% si sono ottenuti i risultati in Tabella 2.6 (il
valore di χ 2 va confrontato con il valore di χ α2 (22)=33,92):
0
ATTR
χ
2
1
2
3
4
5
6
7
8
9
0,46 17,84 33,05 30,62 17,18 26,06 24,46 22,27 17,33
0
p-value
1,00 0,72
0,06
0,10
0,75
0,25
0,32
0,44
0,75
Tabella 2.6: Test χ 2 per verificare la distribuzione a priori adottata
Per tutti gli attributi non è stato quindi possibile rifiutare l’ipotesi di
distribuzione beta. Di conseguenza dai dati storici si è proceduto a
stimare media e varianza campionarie per ogni set di dati (relativi ad
ognuno dei 9 attributi). Note media e varianza campionarie è possibile
quindi ricavare i parametri si e ti delle distribuzioni a priori per ognuno
degli attributi considerati (Tabella 2.7).
Capitolo 2
38
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
ATTRIBUTI
1
2
3
4
5
6
7
8
9
µ̂i
0,0024
0,1988
0,2533
0,1036
0,2260
0,3255
0,1818
0,0675
0,1995
σˆ i
0,0060
0,3452
0,4140
0,2746
0,3944
0,4639
0,3519
0,2247
0,3813
si
ti
0,1603 66,2150
0,0670 0,2699
0,0262 0,0771
0,0240 0,2076
0,0282 0,0966
0,0066 0,0136
0,0365 0,1643
0,0166 0,2296
0,0196 0,0786
Tabella 2.7: Stima dei parametri della distribuzione a priori
2.6.3.
Stima dei parametri di costo
Richiamando la funzione obiettivo:
m Ac i


+ ξCrit1 − ∏ ∑ g n i ( x i )  +
 i =1 x = 0

i =1

i

Ac i
m
 m Ac k
+ ∑ CAi ∑ E ( X i | x i )g n i ( x i ) ∏ ∑ g nk (x k ) +

k =1 x = 0
i =1
xi =0

k
CTOT =
m
∑ CCi n i
(2.36.)
k≠i
m Ac i
+ Csost max{ n i } ∏
i
∑ g ni (x i )
i =1 xi = 0
con
ξ = 0

ξ = 1
se Cr 2 > Cr1
(2.37.)
altrimenti
e

ni
Ac i






CC
100
%
+
Crepl
(
E
(
X
|
x
)
)
g
(
x
)
1
−
g
(
x
)
∑ 
∑
∑ ni i 
i
i
i
ni i



i =1 
xi = 0
 x i =0

Cr 2 = Cscarto
Cr1 =
m
[
]
(2.38.)
(2.39.)
I parametri di costo richiesti per l’applicazione del modello di minimo
costo atteso sono:
Capitolo 2
39
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
- Costo di collaudo (Cc):
•CCi = costo di collaudo di un item rispetto all’i-mo attributo.
- Costo di rifiuto del lotto (Cr):
•Cscarto= costo di scarto dell’intero lotto;
•CC100% i= costo del collaudo al 100% rispetto all’i-mo
attributo;
•Crepl= costo di rimpiazzo di un pezzo non conforme;
•Crit = costo per un eventuale ritardo in produzione causato dal
rifiuto del lotto in accettazione.
- Costo di accettazione del lotto (Ca):
•CAi = costo derivante dalla presenza di un pezzo difettoso non
collaudato in un lotto accettato;
•Csost= costo di sostituzione di un pezzo (danneggiato al
collaudo).
2.6.3.1. Costo di collaudo: Cc
Per calcolare il costo di collaudo del lotto è necessario conoscere il
valore del costo di collaudo di un pezzo relativamente ad ogni attributo
(CCi). CCi è stato stimato come composto da una componente fissa ed
una variabile. La prima componente si stima considerando le attività di
raccolta campione, messa a punto dei moduli di registrazione e misura
di consistenza del campione raccolto con il valore nominale della
dimensione del campione previsto nel piano.
Il costo fisso di collaudo è pari a £13550 per ogni lotto collaudato
mentre il costo variabile cambia a seconda che l’operazione di collaudo
preveda un controllo visivo o la misura di una quota. Nel primo caso
(attributi 1,2,3,4) il costo per attributo misurato è di £50/pezzo; nel
secondo caso corrisponde a 75£/pezzo.
2.6.3.2. Costo di rifiuto: Cr
Come descritto nel paragrafo 2.5.1.2, per calcolare il costo di rifiuto
occorre valutare le posizioni contrattuali di fornitore e cliente a seguito
del rifiuto del lotto. In questo caso specifico, è il fornitore ad assumersi
la responsabilità economica del rifiuto, ma gli viene comunque lasciata
la scelta di scartare il lotto oppure procedere ad un collaudo al 100%
con ripristino. Si è già discussa questa posizione del fornitore nel
paragrafo 2.5.1.2, e la si è modellata attraverso una variabile booleana
ξ. Il valore di ξ è fornito dal confronto tra Cr1 e Cr2 che dipendono da:
•Cscarto= costo di scarto dell’intero lotto;
•CC100% i= costo del collaudo al 100% rispetto all’i-mo
attributo;
•Crepl= costo di rimpiazzo di un pezzo non conforme;
Capitolo 2
40
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Per stimare CC100%i, visto che si tratta di un collaudo al 100%,
occorre considerare i costi di collaudo descritti in precedenza e
considerare un lotto di dimensione pari a 20000 pezzi. Crepl è invece
dato dal costo pieno industriale del grezzo (350 £/pezzo) meno il
ricavato della rottamazione dei pezzi sostituiti (2,5 £/g *55 g/pezzo =
137,5 g/pezzo).
Rimane infine da stimare Cscarto. Se il lotto viene completamente
rottamato, si sostiene una perdita pari al costo pieno industriale per il
numero di parti nel lotto (350 £/pezzo *20000 pezzi) cui occorre
sottrarre il ricavato della vendita del rottame di ottone (20000pezzi*
55g/pezzo* 2,5£/g).
Per il cliente l’unico possibile costo, che sosterrà qualora il fornitore
consegni il lotto in ritardo, è il costo del ritardo Crit=
70£/pezzo*20000pezzi (stimato considerando il valore aggiunto che si
sarebbe generato durante il tempo di ritardo).
2.6.3.3. Costo di accettazione
Il costo CAi derivante dall’accettazione di un pezzo difettoso rispetto
all’attributo i-mo è stato stimato considerando le conseguenze che la
non rilevazione della difettosità di tipo i, determina nella lavorazione
alle macchine utensili o nel collaudo finale. Si è quindi arrivati alla
stima riportata in Tabella 2.8
Attributo
1
2
3
4
5
6
7
8
Identificativo
3
4
6
7 104 106 107 201
dell’attributo
nella notazione
originale
CAi [£/pezzo]
360 334 428 428 300 300 300 3600
9
204
3600
Tabella 2.8: Costi per non conformi in lotti accettati
In particolare l’elevato costo CAi per un pezzo accettato ma non
conforme rispetto agli attributi 8 e 9 si deve al fatto che in questi casi il
difetto determina un assemblato da scartare ed è quindi pari al costo
pieno industriale del finito. Poiché nessuno degli attributi prevede un
controllo distruttivo, il costo di sostituzione Csost è nullo.
Capitolo 2
41
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.7. Il piano di minimo costo atteso per il
corpo valvola
In funzione dei dati di costo stimati, si è proceduto alla progettazione
del piano di minimo costo atteso, le cui caratteristiche sono riportate in
Tabella 2.9.
Attributo
Aci
ni
1
0
4
2
3
3
26
2
23
4
1
13
5
1
9
6
7
0
4
2
13
8
0
31
9
0
33
Tabella 2.9: Piano di minimo costo per il corpo valvola grezzo
Come si può osservare il piano individuato è caratterizzato da
campioni di dimensione ridotta. Il costo complessivo del piano è di
60000£. Se si osserva la curva OC derivante dall’adozione di questo
piano essa risulta avere pendenza elevata per bassi valori di p. Come
era prevedibile quest’andamento della curva OC significa un rischio
elevato per il fornitore, la cui funzione di costo non è stata infatti tenuta
in considerazione nell’approccio.
Confrontando la soluzione ottenuta con la soluzione attualmente
adottata in azienda (riportata in Tabella 2.10) si può osservare una
notevole riduzione dei costi. Infatti la soluzione attualmente adottata in
azienda prevede un costo di 165000£.
Attributo
Aci
ni
1
5
125
2
5
125
3
5
125
4
5
125
5
5
20
6
5
20
7
5
20
8
5
20
9
5
20
Tabella 2.10: Piano attualmente adottato in azienda
2.7.1.
Analisi di sensitività della soluzione
adottata
Le difficoltà che spesso si incontrano nella stima dei costi e dei
parametri statistici che intervengono nella funzione obiettivo, rende
opportuno procedere con un’analisi di sensitività. In questo modo è
possibile valutare la variazione che si ha nella funzione obiettivo
qualora si commetta un errore nella stima dei parametri di ingresso al
modello.
A rigore si dovrebbe procedere analizzando tutte le possibili
combinazioni di errori di stima dei parametri (che sono in totale 40),
Capitolo 2
42
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
tuttavia una prima analisi prevede la deviazione di un solo parametro
alla volta.
Per progettare l’analisi di sensitività occorre valutare l’entità delle
variazioni che si intendono considerare. In questo caso si è scelto di
imporre variazioni significative per considerare il comportamento del
piano in condizioni critiche.
Inoltre risulta utile precisare che i parametri statistici si e ti,
caratterizzanti la distribuzione a priori, sono stati fatti variare con
qualche accorgimento. Dal momento che i parametri si e ti della
distribuzione a priori relativamente all‘i-mo attributo, sono stimati con
il metodo dei momenti a partire dai valori di media e varianza, è
sembrato più opportuno introdurre una variazione in questi ultimi
parametri, piuttosto che intervenire direttamente su si e ti . Di
conseguenza si sono ottenuti differenti valori per le modifiche dei
parametri statistici per ogni attributo.
Costo di accettazione
ATTR valore originale valore modificato costo totale atteso
[migliaia di £]
1
0,36
3,6
75,611
2
0,334
3,34
126
3
0,428
4,28
88,807
4
0,428
4,28
90,664
5
0,3
3
97,479
6
0,3
3
69,097
7
0,3
3
110,68
8
3,6
36
97,186
9
3,6
36
101,45
Tabella 2.11: Analisi di sensitività: effetto del costo di accettazione
Osservando i risultati in Tabella 2.11 si può concludere che la
soluzione ottima è abbastanza robusta a variazioni del costo di
accettazione di un pezzo non conforme. Infatti a fronte di un aumento
di un fattore 10 di questi parametri di costo si ottiene un costo totale
atteso mediamente amplificato di un fattore 1,5 (e mai superiore a 2).
Questo risultato risulta interessante soprattutto considerando le
approssimazioni che a volte è necessario adottare nella stima di questo
parametro. Analogamente, come si osserva in Tabella 2.13, anche errori
di stima o una naturale variabilità nella dimensione del lotto,
influenzano in misura limitata il risultato in termini di costo totale
atteso.
Capitolo 2
43
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Al contrario la soluzione risulta particolarmente sensibile ad errori
grossolani di stima dei costi variabili di collaudo Tabella 2.12. Questo
risultato è in primo luogo da imputare alla situazione modellata. Infatti
la presenza della variabile booleana ξ, determina un salto nella funzione
doi costo. In particolare ξ passa dal valore 0 al valore 1 quando i costi
di collaudo al 100% a seguito di un rifiuto diventano troppo grandi: in
questo caso il fornitore ha convenienza a scartare il lotto, facendo
sostenere al cliente i costi relativi al ritardo con cui un nuovo lotto
arriva.
Analogamente un forte aumento della media della frazione di pezzi non
conformi causa un notevole incremento del costo atteso. Ciò è dovuto in
primo luogo allo stesso effetto osservato per il costo di collaudo: la
variabile boolena ξ passa dal valore 0 al valore 1. In secondo luogo
l’aumento della media causa un aumento del costo atteso di
accettazione del lotto, aumentando il numero medio di non conformi
nella parte del lotto non ispezionata che si traducono in un costo nel
caso in cui il lotto passi il controllo di accettazione. Infine, occorre
osservare che anche la stima della deviazione standard risulta critica.
La principale motivazione per questo comportamento deriva ancora una
volta dal salto a gradino compiuto dalla funzione obiettivo quando il
valore della variabile booleana ξ cambia.
Costo variabile di collaudo
ATTR valore originale
valore modificato costo totale atteso
[migliaia di £]
1
0,05
0,5
1307,5
2
0,05
0,5
1317,4
3
0,05
0,5
1316,1
4
0,05
0,5
1311,6
5
0,075
0,75
1311,8
6
0,075
0,75
1308,4
7
0,075
0,75
1314,5
8
0,075
0,75
1326,6
9
0,075
0,75
1328
Tabella 2.12 Analisi di sensitività: effetto del costo variabile di collaudo
Capitolo 2
44
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Dimensione del lotto
N
costo totale atteso
[migliaia di £]
40000
95,241
30000
77,325
10000
41,494
5000
32,536
2000
27,162
Tabella 2.13 Analisi di sensitività: effetto della dimensione del lotto
Media
ATTR valore originale valore modificato costo totale atteso
[migliaia di £]
1
0,0024
0,0242
1331,4
2
0,1988
0,7953
1407,1
3
0,2533
0,7598
1388,4
4
0,1036
0,829
1421,2
5
0,226
0,678
1398,1
6
0,3255
0,651
1368,1
7
0,1818
0,727
1409,4
8
0,0675
0,675
1424,1
9
0,1995
0,7981
1403,9
Tabella 2.14 Analisi di sensitività: effetto della media della distribuzione
a priori
Capitolo 2
45
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Deviazione standard
ATTR valore originale
valore modificato costo totale atteso
[migliaia di £]
1
0,006
0,0478
62,839
2
0,3452
0,0345
1426,1
3
0,414
0,0414
1431,2
4
0,2746
0,0275
1402,8
5
0,3944
0,0394
1433,3
6
0,4639
0,0464
1451,5
7
0,3519
0,0352
1417
8
0,2247
0,0225
1473,7
9
0,3813
0,0381
1426,2
Tabella 2.15 Analisi di sensitività: effetto della deviazione standard della
distribuzione a priori
valore
valore
costo totale
originale modificato atteso
[migliaia di £]
costo di rifiuto del lotto
1400
14000
59,41
costo fisso di collaudo
13,55
135,5
181,36
costo unitario di rimpiazzo di un
0,212
2,12
59,41
pezzo non conforme
Tabella 2.16 Analisi di sensitività: effetto dei parametri di costo
indipendenti dagli attributi
Infine osservando la Tabella 2.16, si osserva che i parametri di costo
non dipendenti dagli attributi risultano rilevanti in situazioni in cui
coinvolgono variazioni della variabile ξ. In particolare, aumenti del costo
di rifiuto del lotto e del costo unitario di rimpiazzo di un pezzo non
conforme non introducono significative variazioni del costo totale
atteso, mentre il costo fisso di collaudo introduce una variazione del
costo totale atteso di una magnitudo circa pari alla variazione del
parametro (fattore 10). In realtà osservando meglio la soluzione trovata,
si può osservare che qualunque errore di stima del suddetto parametro
risulta ininfluente sulla scelta del piano, modificando solo il valore del
costo totale atteso ma non i parametri di progetto del piano.
Capitolo 2
46
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
2.8. Conclusioni e possibili sviluppi
In questo capitolo è stato proposto un approccio per la progettazione
di un piano di campionamento multiattributo. Grande attenzione è
stata principalmente dedicata alla definizione di un approccio
applicabile, per superare il tradizionale ambito puramente accademico
in cui la progettazione economica dei piani di accettazione è da anni
relegata. Avendo sempre come riferimento un caso produttivo reale si è
proposto un approccio in grado di considerare:
- la caratteristica di multidimensionalità degli attributi su cui si
esegue un collaudo in accettazione;
- la possibilità di selezionare economicamente la migliore politica a
valle del rifiuto del lotto (politica che è spesso definita a priori);
- la presenza di due soggetti economici distinti (fornitore e cliente) tra
cui i costi di un eventuale rifiuto si suddividono, spesso per contratto.
E’ sempre con l’idea di proporre approcci applicabili che si possono
evidenziare diverse direzioni di futura indagine.
In primo luogo si ritiene opportuno, migliorare l’analisi numerica di
sensitività valutando l’effetto di variazioni dei parametri anche meno
critiche. E’ possibile secondariamente provare a rilassare l’ipotesi di
lavoro basata su famiglie coniugate e indagare altri tipi di distribuzioni,
adottando nella soluzione approcci tipo Markov Chain MonteCarlo
[Gil96].
Si potrebbe inoltre estendere la portata del modello rilassando qualche
ipotesi che potrebbe risultare poco realistica in alcuni contesti
produttivi. In primo luogo si potrebbe introdurre la possibilità di avere
lotti di dimensione variabile e non necessariamente fissa. In secondo
luogo potrebbe essere opportuno includere eventuali errori di ispezione
nella fase di collaudo, soprattutto nei casi in cui l’ispezione abbia una
forte componente umana.
Capitolo 2
47
Progettazione economica di un piano di campionamento bayesiano singolo
multiattributo
Capitolo 3
Le carte di controllo adattative bayesiane
48
CAPITOLO 3
LE CARTE DI CONTROLLO
ADATTATIVE BAYESIANE
3.1. Introduzione
I processi produttivi sono sempre soggetti ad un certo grado di
variabilità ritenuta “naturale”. Quando il processo opera in condizioni di
variabilità naturale, si ritiene che esso sia in controllo.
Occasionalmente a questa variabilità propria del processo, si aggiunge
un’extra-variabilità dovuta a cause occasionali quali, ad esempio,
settaggi impropri delle variabili di controllo, errori degli operatori,
materiali in ingresso non conformi con le specifiche [Mon96]. In queste
condizioni si ritiene utile agire tempestivamente rimuovendo la causa
assegnabile, in modo da ricondurre il processo ad uno stato di
funzionamento ritenuto “regolare”. Il beneficio di questo intervento sul
processo si traduce in un miglioramento delle performance. Infatti
l’extra-variabilità dovuta ad una causa occasionale si traduce spesso in
un aumento della difettosità in uscita dal processo.
Obiettivo degli strumenti di controllo statistico di processo
(Statistical Process Control, SPC) è proprio quello di fornire delle
tecniche qualitative e quantitative che supportino il decisore ad
individuare tempestivamente cause di variabilità che non sono ritenute
accettabili.
Tra le principali tecniche proposte in letteratura, si possono elencare:
Istogrammi: sono utilizzati per ottenere la distribuzione empirica delle
frequenze delle realizzazioni di certi eventi rilevanti per il processo;
Check sheet: permettono di classificare i vari tipi di difetti riscontrati
riportando nel tempo la frequenza di accadimento.;
Carte di Pareto: sono diagrammi a barre che rappresentano la
frequenza di accadimento o il costo di un certo numero di categorie di
cause, ordinate in modo decrescente rispetto alla grandezza misurata;
Capitolo 3
Le carte di controllo adattative bayesiane
49
facilitano l'individuazione dell'insieme di cause più rilevanti per un dato
criterio di priorità.
Diagramma di causa-effetto: si tratta di una tecnica di
rappresentazione delle cause potenziali che determinano un dato effetto
che è l'oggetto dello studio. L'utilizzo di questo diagramma è molto
spesso iterativo in quanto ogni causa può essere l'effetto di altre cause;
Defect Concentration Diagram: sono rappresentazioni di un prodotto
in cui sono riportate le posizioni dei difetti riscontrate durante
l’ispezione. E’ quindi possibile ottenere un’indicazione della
localizzazione più frequente per ogni tipo di difetto, facilitando quindi
l’individuazione della causa.
Scatter plots: sono diagrammi bidimensionali che su ciascun asse
riportano il valore di due distinte caratteristiche di interesse.
Diagrammi di questo tipo aiutano ad evidenziare la presenza di
correlazione fra i dati in esame;
Carte di controllo: utilizzando una rappresentazione grafica, si riporta
l'andamento nel tempo di una statistica (media campionaria, deviazione
standard campionaria, range) legata alla caratteristica di qualità di
interesse (ad esempio frazione di difettosi nel campione, misura di una
quota, ecc.). Ogni punto rappresentato sulla carta è confrontato con i
limiti di controllo che definiscono la regione di rifiuto di un test d’ipotesi
che mira a scoprire se il processo è cambiato oppure no. Se il punto
fuoriesce da questa banda, ossia cade nella regione di rifiuto, significa
che c’è evidenza statistica per ritenere che il processo sia fuori
controllo. A seguito di questo segnale si procede alla ricerca di una
causa assegnabile che può aver determinato questo fuori controllo. Se
la causa assegnabile è individuata, si procede a rimuoverla, ossia a
ripristinare una condizione naturale di funzionamento del processo. Se
invece la causa assegnabile non è individuata, si ritiene che il fuori
controllo sia dovuto ad un falso allarme, quindi si continua a operare
Tra le varie tecniche di SPC introdotte, le carte di controllo hanno
avuto sicuramente maggior successo e diffusione. A partire dal primo
modello ideato da Shewart negli anni ’20, la ricerca ha continuato e
continua tuttora a proporre nuove metodologie di controllo di processo
che traggono spunto dalla tradizionale carta di Shewart ma sono adatte
alle più svariate applicazioni.
Una breve classificazione degli approcci proposti riguarda
essenzialmente:
Capitolo 3
Le carte di controllo adattative bayesiane
50
⇒il numero di caratteristiche di qualità da monitorare
congiuntamente. Questa caratteristica distingue due tipologie di
approcci:
õcarte di controllo per singola caratteristica di qualità;
õcarte di controllo multivariabili, in cui è nota, o
stimata dalle osservazioni, la struttura di correlazione
(matrice di varianza covarianza) tra le differenti
caratteristiche di qualità del prodotto.
⇒il tipo di caratteristica da monitorare. In primo luogo è
necessario distinguere tra caratteristiche misurate attraverso
variabili, o attraverso attributi:
õcarte di controllo per variabili: in questo caso si
misura, a valle del processo una caratteristica che può
assumere valori in un continuo. In particolare, molto
diffuse sono le carte adottate per controllare media e
dispersione della grandezza di interesse:
åcarte X -R: se la dispersione è stimata e
controllata usando il metodo dell’escursione (range);
åcarte X -S: se la dispersione è stimata e
controllata attraverso la deviazione standard
campionaria.
õcarte di controllo per attributi: si misura una
caratteristica che è rappresentabile attraverso una
variabile booleana. In particolare due tipologie di carte
vengono in quest’ambito utilizzate:
åcarte p (np): in cui la statistica di interesse è la
frazione (il numero) di non conformi riscontrati in
un campione di dimensione n;
åcarte c (u): in cui la statistica di interesse è il
numero di non conformità in un campione di n (o
nella singola) unità di ispezione.
⇒la struttura di autocorrelazione temporale tra i dati: in
quest’ambito si può ipotizzare indipendenza o autocorrelazione
con passo dato. In quest’ultimo caso si può procedere, in ipotesi
di variazione lenta della media, con un approccio EWMA,
altrimenti, se la struttura di autocorrelazione è più complessa
occorre utilizzare modelli si analisi delle serie storiche (ad
esempio ARIMA).
⇒l’entità della variazione che si desidera sia segnalata. In
questo caso, la scelta tra approcci è spesso legata al concetto di
capacità di processo. Con riferimento alla media di una
caratteristica di qualità, se il PCR (ossia il rapporto tra intervallo
di specifica e tolleranza naturale del processo) è elevato, si può
pensare che spostamenti anche rilevanti della media non diano
luogo a significative variazioni della difettosità in uscita dal
Capitolo 3
Le carte di controllo adattative bayesiane
51
processo. L’approccio tradizionale allora dà luogo ad un numero
eccessivo di allarmi per fuori controllo. In questo caso si procede
quindi all’adozione di una carta a limiti modificati.
Al contrario, se il PCR è piccolo si intende adottare una carta
molto sensibile anche a piccoli spostamenti, per evitare eccessivi
aumenti della difettosità in uscita (carte CUSUM, EWMA, Moving
Average).
Scelta, in funzione delle caratteristiche del processo e del sistema di
misura, la tipologia più opportuna di carta, occorre procedere alla fase
di progettazione. La progettazione di una carta di controllo consiste
sostanzialmente nella definizione di tre parametri: la dimensione del
campione n che andrà ispezionato, la frequenza di campionamento h e
il coefficiente dei limiti di controllo k (cioè la distanza dei limiti di
controllo dalla linea centrale espressa in unità di deviazione standard
campionaria).
Per decidere il valore di questi tre parametri di progetto,
sinteticamente rappresentati in Figura 3.1, la letteratura propone
principalmente due approcci: l’approccio statistico e l’approccio
economico 1.
La progettazione statistica di una carta di controllo si basa
sull’analogia tra carta di controllo e test d’ipotesi: come già anticipato
una carta di controllo può di fatto essere considerata un test di ipotesi
eseguito ad intervalli regolari di tempo. Come in ogni test di ipotesi è
necessario quindi procedere alla scelta degli errori di primo e secondo
tipo che si intende accettare.
Nell’approccio economico la scelta delle variabili di controllo è invece
eseguita ottimizzando una funzione obiettivo economica. In questo caso
gli errori di primo e secondo tipo non sono fissati a priori, ma sono
selezionati considerando il modo in cui la loro scelta condiziona le
prestazioni economiche della politica di controllo.
Qualunque sia l’approccio adottato, in letteratura tradizionalmente i
parametri di controllo sono selezionati in fase di progetto e utilizzati poi
durante l’esercizio della carta di controllo senza modifiche.
Questa ipotesi consente di semplificare la complessità matematica
della trattazione e di ottenere una più semplice gestione della procedura
di controllo durante l’esercizio. Tuttavia, i recenti sviluppi nell’ispezione
e nella misura automatica e nella elaborazione on-line di una grande
quantità di dati, hanno notevolmente ridotto la necessità di adottare
semplici modelli statistici di analisi dei dati. In questo scenario,
l’adozione di procedure di controllo statistico dinamiche è quindi
diventata una valida alternativa al tradizionale approccio.
1
In realtà esiste un terzo approccio “ibrido” definito statistico-economico che
verrà però approfondito nel secondo paragrafo come variante dell’approccio
economico.
Capitolo 3
Le carte di controllo adattative bayesiane
52
Una carte di controllo è considerata dinamica o adattativa se almeno
uno dei parametri di controllo può variare in real time sulla base delle
informazioni relative allo stato corrente del processo, rappresentato dal
valore della statistica campionaria di interesse.
Di conseguenza, una carte di controllo adattativa prevede un continuo
aggiornamento dei parametri decisionali che individuano la procedura
di controllo, utilizzando tutte le informazioni disponibili fino a
quell’istante. L’aumento di flessibilità di uno schema di controllo
adattativo sembra determinare un più efficace monitoraggio del
processo, in riferimento a criteri statistici o economici.
UCL= µ w+ k σ w
CL=µ w
LCL= µ w - k σ w
Campi one
(n par ti)
h
t
Figura 3.1: Parametri di progettazione di una carta di controllo
In questo capitolo si intende proporre una metodologia di
progettazione economica di una carta di controllo adattativa,
utilizzando lo schema di inferenza bayesiano.
Prima di procedere con i dettagli sul modello proposto, si procederà
ad una descrizione dello stato dell’arte relativo alla progettazione
economica di carte di controllo. Successivamente si descriverà lo stato
della ricerca relativa alle carte adattative, prestando particolare
attenzione ai modelli di progettazione economica. Sarà poi descritto il
modello proposto e la fase di sperimentazione numerica in cui le
prestazioni dell’approccio sono state messe a confronto con quelle di un
tradizionale approccio statico.
Capitolo 3
Le carte di controllo adattative bayesiane
53
3.2. La progettazione economica delle carte
di controllo in letteratura
Il primo utilizzo della progettazione economica per la determinazione
delle procedure di controllo è proposto da Girshick e Rubin nel ’52
[Gir92]. Successivamente, Duncan propone nel ‘56 un modello per la
progettazione economica di una carta per la media [Dun56],
comunemente considerato il punto di partenza della ricerca in questo
campo. Dal primo ‘pioneristico’ modello di Duncan molti autori hanno
successivamente contribuito alla ricerca in diverse direzioni.
Per comprendere le differenti direzioni di ricerca si ritiene utile partire
descrivendo in dettaglio questo modello che rappresenta lo starting
point in quest’ambito. I vari filoni di ricerca verranno quindi descritti
individuando le variazioni rispetto a questo modello di riferimento.
3.2.1.
Il modello di Duncan
In questo paragrafo dettaglieremo e discuteremo criticamente il modello
di Duncan [Dun56].
Basandosi sul precedente lavoro di Girshick e Rubin [Gir92], Duncan
propone nel 1956 un criterio di progetto il cui obiettivo è la
massimizzazione del profitto per unità di tempo. Si assume che la
media della caratteristica oggetto del monitoraggio abbia livello in
controllo pari a µ 0 e che il manifestarsi aleatorio della causa
assegnabile produca uno spostamento (shift) della media di processo
dal valore µ 0 a µ 0 + δσ oppure a µ 0 − δσ .
Il processo è monitorato utilizzando una carta per la media X la cui
linea mediana è pari a µ 0 ed i limiti di controllo superiore ed inferiore
σ
σ
sono rispettivamente µ 0 + k
e µ0 − k
. I campioni di produzione
n
n
sono estratti ogni h unità di tempo. Per ciascuna delle unità campionate
si misura la caratteristica di qualità oggetto del controllo, si calcola la
media dei valori misurati e la si traccia sulla carta. Se il valore ottenuto
per un campione eccede il limite di controllo superiore oppure quello
inferiore, si produce un ''allarme'' che porta alla ricerca della causa
dell'anomalia e, se essa esiste, al ripristino del processo.
3.2.1.1. Le ipotesi
L'autore ipotizza che:
1. il processo di guasto sia istantaneo;
2. la causa di guasto sia singola;
Capitolo 3
Le carte di controllo adattative bayesiane
54
3. il modello di guasto sia poissoniano;
4. in seguito ad allarmi prodotti dal sistema di controllo non si
proceda all'arresto della macchina, nè per ricercare la causa
assegnabile nè per ripristinare il processo;
5. la frequenza di campionamento determinata in sede di progetto
sia poi tenuta fissa durante il funzionamento del sistema;
6. il processo non si autocorregga.
Per processo di guasto all'ipotesi 1 si intende il meccanismo di
transizione verso lo stato di produzione di fuori controllo. Si assume
quindi che, alla manifestazione della causa assegnabile, il livello della
media di processo passi istantaneamente dal livello desiderato µ 0 a
µ 0 + δσ o µ 0 − δσ . Il termine ''guasto'' è quindi qui utilizzato
impropriamente: non si tratta infatti di un vero guasto del processo, ma
di uno stato di produzione che potremmo dire degradato. Quest'assunto
rende il modello inadatto a descrivere spostamenti graduali della media
come per esempio nel caso dell'usura di un utensile 2.
L'ipotesi 2 asserisce che per il sistema studiato esiste una sola causa
responsabile dello spostamento della media e di effetto noto. Nella
realtà essa è raramente soddisfatta e questo ha motivato un'estesa
ricerca in quest'area. Il lettore interessato veda [Dun71], [Kna69].
In 3 si assume che il numero di cause assegnabili che hanno luogo in
un certo intervallo di tempo è descritto da un processo stocastico di
Poisson omogeneo, la cui intensità è λ manifestazioni per unità di
tempo. Quest'ipotesi classica, comune a molti altri modelli di
progettazione, è utile perchè determina una considerevole
semplificazione formale. Diversi autori si sono interessati allo sviluppo
di modelli che considerino distribuzioni diverse da quella esponenziale:
uno studio interessante in quest'area è quello di Baker [Bak71].
In 4 si suppone che il processo non sia arrestato nè durante il periodo
preposto alla ricerca della causa assegnabile nè durante quello
associato alla sua rimozione: queste azioni avvengono dunque durante
il processamento delle parti. Questo restringe grandemente, a nostro
avviso, l'ambito di utilizzo del modello. Riformulazioni successive del
problema da parte di altri autori hanno provveduto a rimuovere questo
assunto.
L'ipotesi 5 impone che il tempo che intercorre fra l’estrazione di due
campioni successivi è tenuto costante dopo la progettazione delle carte.
Alcuni autori hanno osservato che una tale politica non si rivela
ottimale per un ampio range di casi applicativi e ciò ha motivato un
ampio filone della ricerca nel campo delle carte di controllo adattative.
Con 6 invece si considera che, una volta manifestatasi la causa
assegnabile, il processo, se non subisce alcun intervento da parte del
2
Lavori proposti in questa area sono [Dre89], [Gib67], [Que88], [Sch90].
Capitolo 3
Le carte di controllo adattative bayesiane
55
personale preposto al suo controllo, rimane nello stato di fuori controllo
raggiunto.
3.2.1.2. La notazione
L'autore indica con:
λ il parametro della distribuzione esponenziale che regola il
meccanismo di manifestazione della causa assegnabile;
δ lo shift della media che si intende rilevare espresso in unità di
deviazione standard σ ;
σ la deviazione standard della caratteristica controllata;
h l'intervallo di tempo fra due campioni successivi;
k il parametro che definisce i limiti di controllo rispetto alla
media;
n la numerosità del campione prelevato ogni h unità di tempo;
V0 il ricavo per unità di tempo di produzione con processo in
controllo;
V1 il ricavo per unità di tempo di produzione con processo fuori
controllo;
a1 il costo di campionamento fisso sostenuto per ogni campione
estratto;
a2 il costo variabile di campionamento per unità campionata;
a3 il costo sostenuto per la ricerca della causa assegnabile e per
la sua rimozione nel caso di un allarme fondato;
a’3 il costo sostenuto per la ricerca della causa assegnabile nel
caso di un falso allarme;
g il tempo necessario per l'estrazione un esemplare dalla
produzione;
D il tempo necessario per la rimozione della causa assegnabile.
3.2.1.3. I ricavi ed i costi
Duncan considera tre categorie di ricavi e di costi: ricavi da produzione,
costi da estrazione di campioni e costi associati all'investigazione ed
eventualmente al ripristino del processo.
Ricavi da produzione
Si adottano due distinti coefficienti di ricavo per unità di tempo per
caratterizzare la produzione del sistema: il primo, V 0, rappresenta il
ricavo per unità di tempo che deriva dalla produzione in stato di
processo in controllo; il secondo, V1, caratterizza invece la produzione
realizzata in stato di fuori controllo.
Costi di estrazione dei campioni
Capitolo 3
Le carte di controllo adattative bayesiane
56
Per essi si considera una componente fissa a1 ed una variabile a2. La
prima insorge ogni volta che si estrae un campione, mentre il costo
variabile insorge per ogni unità campionata. Il costo totale che si
associa all'estrazione di un campione è quindi pari a a 1+a2n.
Costi di ripristino e di investigazione
Sono definiti da due distinti coefficienti: a3 e a 3’. L'utilizzo di due distinti
coefficienti di costo si giustifica con il fatto che le azioni di
investigazione e di rispristino, cioè di investigazione e di rimozione della
causa assegnabile, differiscono sostanzialmente tra di loro sia per il
tempo necessario alla loro esecuzione sia per i costi che esse
comportano. L'autore ritiene quindi necessario penalizzarle in modo
diverso.
3.2.1.4. Il modello
Duncan definisce quattro stati di sistema:
v stato 1, o stato di produzione in controllo;
v stato 2, o stato di produzione fuori controllo non segnalato;
v stato 3, o stato di produzione fuori controllo dopo il primo
allarme per raccolta dati necessari all'indagine;
v stato 4, o stato di produzione fuori controllo per ripristino del
processo
L'evolvere del sistema nel tempo è descritto da un processo stocastico
renewal reward. Il soggiorno del processo fra i suoi stati di sistema può
infatti essere visto come una serie di cicli indipendenti che si ripetono
nel tempo, ciascuno dei quali inizia e termina con la fine di una fase di
ripristino. Gli istanti che segnano il termine della fase di ripristino sono
detti rinnovamenti per il fatto che il processo, dopo questi istanti, evolve
come se quello che è avvenuto precedentemente non avesse mai avuto
luogo. Ad ogni ciclo è associata una ricompensa (o reward), che nel
nostro caso è costituita dal ricavo netto che il sistema realizza fra due
rinnovamenti successivi. La Figura 3.2 rappresenta i legami fra le
transizioni di stato del sistema.
Capitolo 3
Le carte di controllo adattative bayesiane
τ
57
2’
1
2
3
1
Causa assegnabile
h
t
Campione
(n par ti)
Fuori contr ollo
k
Ricerca ed elim inazione della
c ausa ass egnabile
Figura 3.2: Differenti stati del sistema nel modello di Duncan
Ogni ciclo inizia con un periodo di produzione in stato 1. Dopo un certo
tempo, si manifesta la causa assegnabile, evento che segna il passaggio
del processo nello stato di produzione fuori controllo. Il processo vi
soggiorna fino a che la procedura di controllo, dopo l'estrazione di un
campione, produce un allarme. Ciò segna il passaggio in stato 3 e dà
inizio alla fase di investigazione per la ricerca della causa dell'allarme.
Una volta individuata, si accede allo stato 4 nel quale avviene l'effettivo
ripristino del processo. Al suo termine il ciclo si conclude e comincia il
successivo con una nuova transizione nello stato 1. L'evolvere del
processo nel tempo fra questi stati è rappresentato in Figura 3.2.
Indicando il valore aggiunto associato ad un ciclo con R e con T la sua
durata, l'obiettivo del modello è la massimizzazione del valore aggiunto
medio per ciclo in funzione dei parametri di progetto delle carte n,h e k,
ossia la massimizzazione di E(R/T).
Il calcolo di questo valore atteso risulta semplificato in virtù di un
importante teorema [Ros83]:
In un processo stocastico renewal reward, siano Xn l'intervallo di
tempo tra due rinnovamenti successivi, Rn la ricompensa che si
riceve all'inizio dell'n-esimo rinnovamento e R(t) la ricompensa
totale ricevuta al tempo t. Siano altresì le coppie (X n,R n) fra di loro
indipendenti ed identicamente distribuite.
Capitolo 3
Le carte di controllo adattative bayesiane
Si ha con probabilità uguale a uno:
 R (t )  E (R )
lim E 
=
t →∞  t 
E (T )
58
(3.1.)
Il valore atteso del rapporto E (R /T ) si riduce quindi al rapporto dei
valori attesi E (R ) /E (T ) . Duncan procede quindi separatamente al
calcolo di E [R ] e di E [T ].
Indicando con Ti, i=1,2,3,4 il tempo che il processo trascorre nello stato
i, il calcolo di E [T ] utilizza una nota proprietà dei valori attesi:
E (T ) = E (T1 ) + E (T2 ) + E (T3 ) + E (T 4 )
(3.2.)
Il primo valore atteso è il tempo medio che il processo trascorre in
controllo all'interno di un ciclo. In virtù dell'ipotesi di modello
poissoniano di guasto, esso è:
E (T1 ) =
1
λ
(3.3.)
Per il periodo T2 l'autore osserva che la probabilità che all'estrazione di
un campione ci si accorga dello stato effettivo del processo, dato che si
è manifestata una causa assegnabile, è una prova di Bernoulli con
probabilità di successo 1-β. β rappresenta l'errore di secondo tipo
commesso dalla carta che, nel caso in cui la caratteristica controllata
abbia distribuzione normale, è calcolato come:
 −k−δ n
∞

β = 1 −  ∫−∞
φ (z )dz + ∫k − δ n φ (z )dz 


(3.4.)
dove φ (z ) rappresenta la funzione densità di probabilità della normale
standard.
Pertanto, il numero medio di campioni da estrarre prima di accorgersi
dell'avvenuta manifestazione della causa assegnabile è pari a 1/(1-β ).
Considerando che l'intervallo tra due campioni successivi è costante e
pari ad h, si deduce che l'intervallo di tempo fra l'ultimo campione
prelevato in controllo prima della manifestazione della causa
assegnabile e la segnalazione dell'allarme è h\(1- β ). Come si può
evincere dalla Figura 3.2, questo calcolo comprende l'intervallo di
tempo τ in cui il processo è in controllo fra i due campioni in cui si
Capitolo 3
Le carte di controllo adattative bayesiane
59
manifesta la causa assegnabile che abbiamo già considerato nel calcolo
di E(T1). Occorre quindi sottrarre questa quantità da h\(1- β).
λ e-λt dt
t
jh
-λt
f(t)= λe
(j+1)h
t
dt
Figura 3.3: Calcolo del sottointervallo di tempo τ nell’approccio di
Duncan.
Osservando la Figura 3.3, si può dedurre che:
( j +1)h
τ =
∫jh
(t − jh )λe −λt dt
( j +1)h
−λt
∫jh λe dt
=
1 − (1 + λh )e − λh
λ (1 − e − λh )
(3.5.)
Si può concludere quindi che il tempo medio all'interno di un ciclo che
il processo trascorre fra la manifestazione della causa assegnabile e
l'allarme prodotto dalla procedura di controllo è:
E (T2 ) =
h
−τ
1− β
(3.6.)
Durante il periodo di produzione in stato 3, si indaga sulle cause
dell'allarme appena manifestatosi. L'autore assume che il tempo medio
per eseguire il campionamento necessario per individuare la causa
responsabile dell'allarme sia una funzione lineare della dimensione del
campione prelevato, ossia:
E (T 3 ) = gn
(3.7.)
Una possibile obiezione che si può muovere a quest'ipotesi è che non è
vero in generale che la dimensione del campione da estrarre per
individuare le cause dell'allarme debba essere necessariamente pari a
n. Potrebbe infatti accadere che la causa assegnabile sia
Capitolo 3
Le carte di controllo adattative bayesiane
60
particolarmente ostica da ricercare e che un campione di dimensione n
non sia sufficiente.
L'ultimo periodo che compone il ciclo è quello in cui si procede
effettivamente alla rimozione della causa assegnabile. L'autore suppone
che il tempo necessario alla rimozione della causa sia noto, costante e
pari a D, quindi:
E (T 4 ) = D
(3.8.)
Il valore atteso della durata di un ciclo completo, in virtù dell’equazione
(3.2) risulta quindi:
E (T ) =
1
h
+
− τ + gn + D
λ 1− β
(3.9.)
Per il calcolo del valore aggiunto medio realizzato in un ciclo, l’autore
considera i ricavi e costi discussi al paragrafo 3.2.1.3. Scomponiamo il
ricavo netto R nelle sue componenti, ossia ricavi derivanti dalla
produzione R P, costi di campionamento CC, costi da falsi allarmi CFA e
costi di ripristino CR:
R = R P − C C − C FA − C R
(3.10.)
Anche in questo caso è possibile semplificare il calcolo come:
E (R ) = E (R P ) − E (C C ) − E (C FA ) − E (C R )
(3.11.)
Ricavi attesi. I ricavi attesi di ciclo sono calcolati in funzione dello stato
del sistema. Il ricavo per unità di tempo V0 è attribuito a quella parte di
ciclo T nella quale il processo produce in controllo il cui valore atteso è
E (T1). Alla restante parte di ciclo, la cui durata attesa è E (T)-E (T1) è
associato il ricavo derivante dalla produzione fuori controllo V1.
E (R P ) = V 0
1
+ V1 (E (T ) − E (T1 ))
λ
(3.12.)
Si fa notare che Duncan assume che sia possibile procedere al
ripristino o all'ispezione del processo mentre esso continua ad operare.
Al di là del fatto che questo sia effettivamente possibile nei diversi casi
reali, osserviamo che così si assume implicitamente che sia conveniente
non arrestare il processo durante il ripristino.
Capitolo 3
Le carte di controllo adattative bayesiane
61
Costi di campionamento. Per ottenere il costo medio derivante
dall'estrazione di campioni di produzione durante un ciclo, il costo di
estrazione di un campione per il numero atteso di campioni estratti
durante un ciclo di durata E(T ). Il costo che si sostiene per estrarre un
campione è costituito dalla somma di un contributo fisso che insorge
ogni volta che il campione è estratto e da un termine proporzionale al
numero di unità prelevate: a1+a2n. Essendo i campioni estratti con una
frequenza di h unità di tempo, il numero atteso di campioni estratti in
un ciclo è E (T ) /h . Il costo atteso di campionamento per ciclo è dunque
fornito da:
E (CC ) = a1 + a 2 n
E (T )
h
(3.13.)
Questo calcolo merita qualche osservazione. Duncan così suppone
implicitamente di estrarre campioni di produzione anche durante il
ripristino della macchina. Questo è un controsenso in virtù del fatto che
è inutile prelevare un campione di produzione per inferire sullo stato
del processo quando è ben noto che esso si trova in stato di fuori
controllo.
Costi dovuti a falsi allarmi.
Essi sono calcolati moltiplicando il numero medio di allarmi rivelatisi
falsi per il costo associato alla loro investigazione a’3. Se si considera
che i falsi allarmi possono aver luogo solo quando il processo è in
controllo e che la probabilità che si verifichi uno shift in h unità di
tempo è fornita da 1 − e −λh , il numero atteso di campioni estratti prima
che abbia luogo uno shift è distribuito come un geometrica il cui valor
e −λh
. Se si indica con α l'errore di primo tipo della carta,
1 − e −λh
ossia la probabilità che la carta produca un allarme dato che il processo
è in controllo, il numero medio di campioni prelevati dal processo
quando esso è in controllo e che danno luogo a falsi allarmi è
e −λh
α
.
1 − e − λh
medio è
Nel caso in cui la caratteristica controllata abbia distribuzione normale,
l'errore di primo tipo α è:
∞
k
α = 2∫ φ(z )dz
(3.14.)
dove φ (z ) è la funzione densità di probabilità della normale standard.
Capitolo 3
Le carte di controllo adattative bayesiane
62
I costi associati a questi allarmi sono quindi:
E (C FA ) = a 3 '
e −λh
1 − e − λh
α
(3.15.)
Costi da ripristino del processo. In virtù del fatto che un ciclo è definito
come l'intervallo di tempo che trascorre tra due ripristini successivi,
segue che durante un ciclo può aver luogo solo un ripristino. Per questo
motivo il costo medio da ripristino del processo per ciclo è pari al costo
di un singolo ripristino, ossia:
E (C R ) = a 3
(3.16.)
In virtù dell’equazione (3.11), si può concludere che:
E (R ) = V 0
1
E (T )
e −λh
+ V1 (E (T ) − E (T1)) − (a1 + a 2n )
− a3 − a3 '
α
λ
h
1 − e − λh
(3.17.)
Infine, la funzione obiettivo oggetto di massimizzazione è:
E (R )
=
E (T )
V0
1
E (T )
e −λh
+ V1 (E (T ) − E (T1)) − (a1 + a 2n )
−a3 −a3'
α
λ
h
1 − e − λh
1
h
+
− τ + gn + D
λ 1− β
(3.18.)
L'autore termina l'articolo con un'analisi di sensitività. Basandosi su un
caso reale, viene quindi studiata l'influenza dei diversi parametri
caratteristici di sistema sui valori ottimi delle variabili di progetto delle
carte. Le conclusioni dell'analisi sono che:
G la dimensione ottima del campione n è determinata
principalmente dal valore δ dell'ampiezza dello shift che si
intende rilevare. In generale per shift ampi, ossia δ ≥2, sono
sufficienti campioni di ampiezza compresa fra 2 e 10. Shift di
minor dimensione, ossia 1≤ δ ≤2, producono campioni nel range
fra 10 e 20, mentre shift molto piccoli, cioè δ ≤1.5, possono
richiedere campioni di dimensione superiore a 40 unità.
G la differenza V0- V1 influisce principalmente sull'intervallo di
campionamento h. Differenze consistenti portano a valori di h più
ridotti.
Capitolo 3
Le carte di controllo adattative bayesiane
63
G i costi associati alla ricerca della causa assegnabile a’3 e al
ripristino a3 hanno impatto principalmente sull'ampiezza dei
limiti di controllo, nel senso che loro grandi valori portano a
limiti di controllo più ampi.
G variazioni dei costi d'estrazione dei campioni influiscono sui tre
parametri di progetto: ad un aumento del costo di
campionamento fisso a1 corrisponde un aumento dell'intervallo
di tempo h fra due campioni successivi e del numero di unità
prelevate n; maggiori valori di a2 portano a campioni di
dimensione minore presi meno frequentemente e a più stretti
limiti di controllo.
G tassi di transizione minori conducono ad una minore
frequenza di campionamento h.
G l'ottimo di progetto è relavamente poco sensibile ad errori di
stima dei coefficienti di costo, ossia la superficie di costo è
relativamente piatta nell'intorno dell'ottimo. L'ottimo economico è
invece molto sensibile ad errori di stima dei parametri δ, µ0 e σ.
3.2.2.
La progettazione economica delle
carte di controllo: la ricerca dopo Duncan
3.2.2.1. Generalizzazione del modello
I contributi più importanti in quest'area sono stati quelli di Lorenzen e
Vance [Lor86] e di Von Collani [Col88].I primi propongono un modello di
progetto più generale di quello di Duncan che possa essere utilizzato
per tutti i tipi di carte e per i più diversi sistemi produttivi,
indipendentemente dalla statistica utilizzata. Il loro lavoro discute
anche le ipotesi di assenza di memoria per la distribuzione esponenziale
del tempo in controllo e di causa assegnabile singola di shift di
grandezza data. Basandosi su un esempio di progetto e sulla relativa
analisi di sensitività, gli autori concludono che l'ampiezza dello shift δ
che ci si propone di rilevare influenza la perdita minima oraria di
progetto ma non i parametri di progetto della carta.
Von Collani propone una diversa formulazione del problema e ripone
maggior enfasi sulla semplicità del modello non rinunciando allo stesso
tempo alla sua generalità. Il modello permette di incorporare diverse
politiche d'azione come il controllo, l'ispezione, e la sostituzione delle
parti. Pregi di questo lavoro sono l'unificazione delle diverse teorie
sinora utilizzate, la riduzione del numero delle variabili in gioco e
Capitolo 3
Le carte di controllo adattative bayesiane
64
funzioni obiettivo più semplici che rendono più agevole l'utilizzo di
algoritmi d'approssimazione.
3.2.2.2. Semplificazione del modello
Questo filone della ricerca è motivato che dal fatto che generalmente le
tecniche di progetto economico delle carte portano a considerare
parametri di costo difficili da stimare nei diversi contesti produttivi ed a
modelli molto complessi da risolvere. Sebbene siano stati proposti
diversi algoritmi per risolvere gli specifici problemi, essi molto spesso
richiedono hardware e software specifici che non sono in generale
disponibili in ogni azienda. Inoltre molti autori hanno messo in rilievo
come la complessità inerente di questi modelli si sia rivelata essere uno
dei principali deterrenti per l'implementazione di queste tecniche.
Dei molti lavori che hanno contributo in quest'area, quelli che hanno
indicato la strada da percorrere sono stati quelli proposti da von Collani
[Col86] [Col88] [Col89]. Egli propone un modello che può essere risolto
senza l'ausilio di un computer e che prevede la stima di soli tre
parametri di costo. Il valore dei lavori che propone risiede nella
riduzione dello sforzo sia computazionale per la risoluzione del modello
che di stima dei parametri necessari per il progetto.
3.2.2.3. Progettazione statistico-economica
Quest'area della ricerca è stata motivata dalle critiche di Woodall nei
confronti della progettazione economica delle carte di controllo che
possono essere così riassunte (si veda a questo proposito [Woo86]):
⇒progetti economicamente ottimali tendono a produrre carte di
controllo che hanno un numero eccessivo di falsi allarmi;
⇒carte di controllo progettate secondo criteri economici hanno in
generale scarse prestazioni dal punto di vista statistico;
⇒i modelli proposti considerano generalmente un solo shift nella
caratteristica di qualità di grandezza fissata. Se invece fosse
possibile rilevare shift di grandezza anche minore rapidamente,
si eviterebbero ulteriori perdite di ricavi;
⇒i modelli economici sono in contraddizione con la filosofia di
Deming, secondo la quale è necessario avere uno stretto controllo
del processo e la produzione di esemplari non conformi non deve
essere permessa.
Saniga [San89], a questo proposito, propone un modello che permette la
progettazione economica congiunta delle carte X e R imponendo vincoli
sugli errori di primo e secondo tipo delle carte. Un modello simile per le
carte EWMA è successivamente proposto da Montgomery, Torng,
Capitolo 3
Le carte di controllo adattative bayesiane
65
Cochran e Lawrence [Mon95]. Altri lavori in quest'area sono quelli
proposti da McWilliams [McW94] e da Saniga, Davis e McWilliams
[San95].
3.2.2.4. Produzioni di durata limitata
Tutti i modelli di progettazione economica che hanno seguito il lavoro di
Duncan assumono una descrizione del sistema basata sui processi
stocastici renewal reward Questi processi stocastici considerano una
successione infinita di cicli di rinnovamento ed i modelli di progetto
economico che su essi si basano fanno riferimento all'evolvere
stazionario del processo produttivo. Qualora invece la produzione abbia
luogo su intervalli di tempo limitati, il comportamento del sistema
produttivo dipende fondamentalmente dalle condizioni iniziali e quindi i
modelli basati su questi processi stocastici risultano non applicabili. I
lavori di maggior interesse in quest'area sono quelli di Weigand [Wei92],
[Wei93], e di del Castillo e Montgomery [Del93] [Del96a]
3.2.2.5. Carte di Controllo a Statistiche Dipendenti
Un'altra area di recente interesse è quella della progettazione di carte a
statistiche dipendenti, per le quali i punti riportati sulle carte sono fra
loro dipendenti. Questo è il caso delle carte EWMA cui si sono
interessati Montgomery, Torng, Cochran e Lawrence [Mon95] e CUSUM
per le quali si può vedere [Kea94]. A questo filone di ricerca
appartengono anche gli studi sulle carte per la media a varianza
incognita, per le quali uno studio interessante è quello di del Castillo
[Del96b], perchè il fatto che la varianza non sia nota rende i punti
riportati sulle carte dipendenti.
3.2.2.6. La progettazione integrata del controllo di
qualità
Il campo della progettazione integrata delle carte di controllo ha sinora
produtto un numero di lavori modesto rispetto a quelli relativi al
semplice progetto economico.
L'attenzione è qui rivolta all'integrazione delle politiche di controllo della
qualità con quelle di gestione della produzione. Raggrupperemo i lavori
presenti in letteratura in quattro gruppi.
Capitolo 3
Le carte di controllo adattative bayesiane
66
3.2.2.6.1. Modelli basati sulle rilavorazioni e sulla
dimensione del lotto
Tradizionalmente i modelli di gestione della produzione assumevano
che il controllo del processo fosse perfetto e che non avessero mai luogo
rilavorazioni di pezzi non confromi. In realtà ciò è ben lontano
dall'essere vero nella maggior parte dei casi, e il problema che ci si
propone di risolvere è di determinare la dimensione del lotto per la
rilavorazione se si considerano i costi di set-up e di mantenimento a
scorta. Questo problema è di grande interesse perché esso ha nella
realtà un'influenza non trascurabile sul sequenziamento delle parti.
Lavori in quest'area sono quelli di Gupta e Chakraborty [Gup84] e di
Tayi e Ballou [Tay88]. Gupta e Chakraborty hanno proposto un modello
per determinare la dimensione ottimale del lotto di produzione e di
quello di rilavorazione applicabile nel caso dell'industria alimentare e
del vetro dove la rilavorazione avviene solo dall'inizio alla fine del
processo produttivo. Nel caso più generale, la rilavorazione può aver
luogo in una qualsiasi fase del sistema produttivo e questo influenza
fortemente il sequenziamento dei prodotti sulla singola macchina,
aspetto che gli autori non considerano. Tayi e Ballou estendono il
modello di Gupta e Chakraborty modellando anche il fatto che ci possa
essere controllo della qualità degli esemplari realizzati ad ogni stadio
della processo produttivo. Entrambi questi modelli suppongono che le
procedure di controllo siano perfette e che tutte le unità scartate dal
sistema di controllo, a qualsiasi stadio esse lo siano, siano riprocessate
a partire dal primo stadio del processo produttivo. Quest'ipotesi è stata
oggetto di diverse critiche da parte di più autori.
3.2.2.6.2. Modelli basati sulla dimensione del lotto
di produzione e di ispezione
In questo ambito due sono i problemi connessi al progetto del sistema
di ispezione del processo. Il primo è relativo al determinare dove porre le
stazioni di ispezione in un processo produttivo multistadio, mentre il
secondo fa riferimento all'attribuzione degli operatori alle stazioni
d'ispezione.
Il primo dei due problemi presenta il trade-off fra due tipologie di costi:
aumentando le stazioni preposte all'ispezione aumentano i costi di
ispezione e quelli legati alla gestione delle parti riconosciute come
difettose (i.e. scartarle, ripararle, rilavorarle), mentre sono meno
rilevanti i costi associati alla lavorazione di parti difettose che sono
state individuate e le penalità relative al consegnare parti non conformi
al cliente.
Un risultato fondamentale per il problema della location è stato fornito
da Lindsay e Bishop [Lin64] che hanno stabilito che per sistemi in cui
Capitolo 3
Le carte di controllo adattative bayesiane
67
l'ispezione è perfetta e la struttura dei costi lineare, la politica ottimale
d'ispezione è non ispezionare oppure ispezionare tutto il lotto. Questo
risultato ha portato allo sviluppo di diversi modelli di localizzazione
delle stazioni d'ispezione basati sulla programmazione dinamica
Trippi [Tri66] ha invece fornito una soluzione al problema
dell'allocazione degli operatori alle stazioni d'ispezione in un sistema
produttivo seriale multi stadio. Il suo modello tuttavia suppone che la
generazione dei difetti sia regolata da una distribuzione stazionaria di
Bernoulli e che gli ispettori non commettano errori, il che limita
l'ambito d'applicazione del modello.
Il problema dell'imperfetta ispezione è stato affrontato per la prima volta
da Eppen e Hurst [Epp74] che hanno considerato l'errato rifiuto di
unità effettivamente conformi e l'errata accettazione di unità non
conformi. Il modello, basato sulla programmazione dinamica, considera
però che l'individuare un pezzo difettoso sia indipendente dal tipo di
difetto in questione e dallo stadio nel quale esso deve essere rilevato.
Questa formulazione è stata poi estesa da Yum e McDowell [Yum87] i
quali hanno considerato diverse politiche di gestione per le unità che
sono state scoperte essere difettose: riparazione, rilavorazione e scarto.
Raz e Bricker [Raz87] hanno presentato un modello basato sulle
ispezioni ripetute. L'idea che propongono è di eseguire l'ispezione delle
parti più volte in modo da ridurre l'impatto degli errori d'ispezione.
Un lavoro completo è quello di Barad [Bar90]. Applicando il concetto di
punto di pareggio all'ispezione dei lotti, il lavoro dimostra che, dati una
struttura di costo, gli errori d'ispezione e la percentuale di difettosi in
un dato lotto, la politica ottimale è non ispezionare il lotto se la
percentuale di difettosi è inferiore ad un certo valore critico oppure
ispezionare tutto il lotto se questo valore è superato.
3.2.2.6.3. Modelli basati sulle politiche di controllo
del processo e di gestione della produzione
A quest'area di ricerca non è stata dedicata l'attenzione che merita. Il
primo lavoro che ha messo in rilievo la grande importanza del legame
fra politiche di controllo del processo e quelle di dimensionamento del
lotto è stato quello di Porteus [Por86], il quale ha mostrato
analiticamente come costi di set-up più bassi possono giovare al
sistema produttivo determinando migliori performance in termini di
conformità. Nonostante alcune ipotesi stringenti, il modello di Porteus
ha permesso di dare una giustificazione analitica ai nuovi concetti di
matrice giapponese quali quello di qualità alla sorgente e di necessità di
riduzione dei tempi di set-up.
Altri lavori hanno concentrato l'attenzione sui legami fra controllo di
processo e politiche di manutenzione. In particolare Posner e Tapiero
Capitolo 3
Le carte di controllo adattative bayesiane
68
[Pos87] hanno affrontato in maniera congiunta i problemi relativi ai
programmi di manutenzione, di controllo di qualità e di produttività,
sviluppando un modello che esprime la distribuzione di probabilità del
livello di qualità in funzione della politica di manutenzione scelta. Altri
lavori in quest'area sono quelli proposti da Hsu e Tapiero [Hsu88],
[Hsu89], [Hsu90], [Hsu92].
Rosenblat e Lee [Ros86] si soffermano invece sulle relazioni che
intercorrono fra dimensione del lotto, costi della qualità, costi e tempi di
set-up, costi di mantenimento a scorta e aspetti legati al deterioramento
dei processo produttivo. Il modello proposto consente di determinare la
dimensione del lotto ottimale considerando il fatto che il processo
produce parti sia conformi che non conformi. Il lavoro però ha il neo di
considerare queste relazioni a livello di singola macchina e non a livello
di sistema. In questa stessa area si colloca anche il lavoro di del Castillo
[Del95] che però si focalizza su una carta di controllo per la media ed
un processo di produzione monostadio e monoprodotto in cui la
domanda è descritta da un processo stocastico stazionario. Il modello,
nel suo ambito di utilizzo, permette di progettare il sistema di controllo
per raggiungere un certo livello di servizio oppure di trovare la politica
di produzione migliore che permetta di massimizzare il livello di servizio
dati certi parametri di controllo della carta. Uno dei lavori più recenti in
quest'area è quello di Rahim e Ben-Daya [Rah98]. Il modello proposto
permette la determinazione simultanea del lotto di produzione, del
piano d'ispezione e del progetto della carta di controllo per un processo
di produzione continuo. L'ottimizzazione economica che è alla base del
calcolo di questi parametri di funzionamento del sistema, considera tre
fondamentali voci di costo: costi di set-up, costi di mantenimento a
scorta; costi del controllo della qualità attraverso una carta X .
3.2.2.6.4. Modelli per il progetto congiunto delle
carte
Quest'area di ricerca è forse la più povera di lavori fra tutte quelle
sinora discusse, ma non per questo meno interessante. Gli unici lavori
in quest'ambito sono quelli di Peters e Williams [Pet87], [Pet89] e di
Colosimo e al. [Col00]. I primi lavori di Peters e Williams considerano
congiuntamente il problema del progetto delle carte e del loro
posizionamento, tuttavia la formulazione proposta tende a valutare il
progetto solo in termini di costo ed a non riporre la necessaria
attenzione sugli aspetti legati all'effettiva produttività di parti conformi
del sistema. Nell’approccio di Colosimo e al. invece si considera la
possibilità che la correlazione tra caratteristiche di qualità influenzi
complessivamente le prestazioni del sistema, modificando la
produttività complessiva dello stesso. L’approccio è tuttavia ancora
limitato a due fasi in sequenza e ulteriori estensioni sono, allo stato
attuale, in fase di studio.
Capitolo 3
Le carte di controllo adattative bayesiane
69
3.3. Le carte di controllo a parametri
variabili
L’opportunità di aumentare l’efficacia della politica di controllo
rilassando il vincolo di parametri di controllo costanti, è stata esplorata
per la prima volta negli anni ’60. Nel primo modello di Bather [Bat63] la
poltica di controllo ottima per un processo è infatti risolta adottando
valori fissi per n (dimensione del campione) e h (frequenza di
campionamento), ma consentendo al parametro k (ampiezza dei limiti di
controllo) di variare nel tempo.
Nel modello di Carter [Car72] solo il parametro h è invece assunto
costante, mentre i parametri n e k sono determinati consentendo loro di
variare nel tempo. Tuttavia la diffusione di questi primi approcci è
risultata molto limitata essenzialmente per la complessità della
trattazione matematica che determina la politica di controllo ottima.
Infatti da questi primi modelli occorre aspettarre circa 20 anni per
ritrovare in letteratura un rinnovato e diffuso interesse per le carte di
controllo dinamiche o a parametri variabili. I modelli proposti in
letteratura nell’ultimo decennio sono, al contrario dei primi,
caratterizzati da una grande attenzione alla semplicità della trattazione
e ad un continuo confronto con approcci equivalenti ma statici, per
dimostrare i vantaggi derivanti dall’adozione di politiche di controllo a
parametri variabili.
Tra gli approcci proposti in quest’ambito, occorre distinguere tra
carte di controllo a parametri variabili e carte di controllo adattative o
dinamiche. Nel primo caso la metodologia di controllo proposto prevede
che i parametri varino nel tempo, ma con una dinamica di variazione
già nota a priori. Ciò significa che in fase di progettazione, prima di
utilizzare la carta di controllo, vengono determinati tutti i valori che i
tre parametri di progetto andranno ad assumere nell’orizzonte
temporale di riferimento. Una volta fissati questi valori di hi, ni, ki, per
i=1,2,…, essi non sono più aggiornati, durante il monitoraggio del
processo. In definitiva lo schema di controllo è a parametri variabili ma
statico.
Il secondo tipo di approccio, che dà luogo a carte di controllo
adattative o dinamiche, prevede che uno, due o tutti e tre i parametri
della carta possano variare nel tempo in real time, in funzione
dell’informazione fornita dall’ultimo (o dagli ultimi) campioni misurati.
All’interno di questa tipologia di approccio, se nella scelta dei parametri
il meccanismo di aggiornamento della conoscenza si basa sulla
statistica bayesiana, la carta di controllo è detta adattativa bayesiana.
Capitolo 3
Le carte di controllo adattative bayesiane
CARTE DI CONTROLLO A PARAMETRI
VARIABILI
CARTE DI CONTROLLO ADATTATIVE
(O DINAMICHE)
CARTE DI CONTROLLO
ADATTATIVE BAYESIANE
70
h, n, k variano nel tempo
h, n, k variano nel tempo in funzione
dell’informazione proveniente dal sistema
in real time
h, n, k variano nel tempo in funzione
dell’informazione proveniente dal sistema in
real time secondo un meccanismo di
aggiornamento della conoscenza bayesiano
Figura 3.4: Classificazione delle carte di controllo a parametri variabili.
La principale differenza tra approccio adattativo e adattativobayesiano consiste nel fatto che nel primo la decisione riguardo ai
parametri di controllo da adottare nel futuro, è eseguita considerando
solo il valore dell’ultima statistica collezionata dal processo.
Nell’approccio bayesiano invece, il meccanismo di aggiornamento della
conoscenza prevede che la decisione riguardo ai parametri di controllo
da adottare nel futuro sia presa considerando, in modo opportuno, tutti
i valori della statistica campionaria collezionati a partire dall’ultimo
ripristino (azione correttiva) sul processo.
Per comprendere meglio quest’affermazione, si ipotizzi di essere
all’inizio del periodo di produzione. All’istante 0 la probabilità che il
processo sia fuori controllo è nota e pari a 0 (in ipotesi di assenza di
errori nel ripristino). Con questa sicurezza si scelgono i parametri
relativi al prossimo campionamento. Secondo questo schema, dopo un
certo intervallo temporale, verrà misurato un campione di parti e la
statistica di riferimento verrà memorizzata. Considerando questa
statistica, la probabilità che il processo sia fuori controllo verrà
aggiornata come media pesata dell’informazione a priori (probabilità che
il processo sia fuori controllo, prima dell’ultima osservazione) e del
valore della statistica osservato. Se questa probabilità a posteriori di
essere fuori controllo non è troppo “elevata”3, la carta non segnala un
fuori controllo e, sono scelti conseguentemente i parametri di controllo
per il futuro. Se si reitera il ragionamento, è chiaro che dopo il secondo
campionamento la probabilità a posteriori sarà composta da una media
pesata dell’informazione collezionata sul processo dall’inizio
dell’orizzonte temporale e dell’informazione disponibile prima che la
3
Ulteriori dettagli su quest’affermazione saranno definiti quando si entrerà nel merito della
progettazione economica di una carta di controllo adattativa bayesiana
Capitolo 3
Le carte di controllo adattative bayesiane
71
produzione iniziasse. In definitiva, finchè la storia del processo non è
“cancellata” da un intervento di ripristino, la carta adattativa bayesiana
continua a collezionare in modo opportuno tutta l’informazione
proveniente dai campionamenti e sceglie di conseguenza i parametri di
controllo da adottare.
3.3.1.
Modelli per carte a parametri
variabili
Lo studio di carte a parametri variabili è stato essenzialmente motivato
dalla necesità di trattare meccanismi di failure diversi da quello
poissoniano. Infatti, sebbene la distribuzione esponenziale del tempo di
interarrivo tra guasti 4 sia realistica in molti casi di componenti
caratterizzati da tasso di failure costante (TFC), come ad esempio i
componenti elettronici o i sistemi composti da un gran numero di
componenti; in molti processi è plausibile ipotizzare un meccanismo di
invecchiamento, per la presenza di fenomeni come la fatica e l'usura,
che determina un tasso di guasto crescente (TGC), spesso modellato
attraverso la densità di Weibull.
Per questi processi, la probabilità di uno shift è crescente con il
tempo di produzione. E' perciò ragionevole aspettarsi che un
campionamento progressivamente più frequente, o limiti di controllo
più severi, per esempio, possano condurre ad uno schema di controllo
di processo più economico.
Modelli per la progettazione economica di carte con limiti di controllo
time varying sono stati proposti da Banerjee e Rahim [Ban88],
Parkhideh e Case [Par89], Rahim e Banerjee [Rah93] e Rahim [Rah94].
Tutti riguardano la progettazione di carte. I modelli di Banerjee e
Rahim trattano come parametro time varying unicamente l'intervallo di
campionamento, assumendo che durante il processo la dimensione n
dei campioni e il limite di controllo individuato da k, restino costanti.
Invece Parkhideh e Case consentono a tutti e 3 i parametri di
assumere valori indipendenti dagli esiti campionari, ma variabili nel
tempo. Tutti modelli citati prendono in esame almeno cause che si
presentano in accordo con la funzione di densità di Weibull.
Rahim in [Rah94] integra il modello di controllo statistico di processo
con quello per la determinazione del lotto di produzione
economicamente ottimo (EPQ, economic production quantity),
considerando i costi di setup e di mantenimento a scorta, in aggiunta a
quelli più tipici del controllo di processo.
L'ottimizzazione dei rispettivi modelli, limitatamente ad un modello
probabilistico di guasto Weibull, si traduce in politiche sostanzialmente
4
Con guasti si intende qualunque modifica nel modo di variare “naturale” del processo.
Capitolo 3
Le carte di controllo adattative bayesiane
72
differenti. In [Ban88] [Rah93] e [Rah94], se da un lato n e k sono
costanti, dall'altro gli intervalli di campionamento decrescono
rapidamente. In [Par89] invece h, k, n decrescono tutti ma lentamente.
Nonostante questa differenza entrambi le impostazioni consentono di
realizzare vantaggi di costo, nei casi numerici presentati, dell'ordine del
5% - 10%, arrivando fino al 16%, rispetto ad una carta altrettanto
statica, ma con parametri costanti.
Banerjee
e Rahim
[Ban88]
Tipo di carta
Tempo di guasto
Numero di cause
assegnabili
Intervallo produttivo
Parametri variabili
Parametri fissi
Determinazione del
lotto produttivo
Riduzione dei costi
X
Parrkhideh
e Case
[Par89]
X
Weibull
Weibull
1
Rahim e
Banerjee
[Rah93]
X
Rahim
[Rah94]
X
1
IFR,
generica
1
IFR,
generica
1
Infinito
h
n, k
no
Infinito
h, n, k
--no
finito
h
n, k
Sì
finito
h
n, k
sì
5%-17%
1%-15%
1,5%-7,5%
3%-6%
Tabella 3.1: Alcune delle caratteristiche distintive dei modelli esaminati
per la progettazione economica di carte statiche time varying
3.3.2.
Carte di controllo dinamiche non
bayesiane
A giudicare dalla produzione di articoli nella letteratura scientifica,
l'interesse manifestato in quest'ambito appare essere tutt'altro che
trascurabile [Tag94].
Si osservi però che per la maggior parte delle carte di controllo
dinamiche non bayesiane presentate in letteratura, non vengono
formulati modelli per una progettazione economica, ma statistica,
contrariamente a quanto accade per quelle bayesiane. Le loro
prestazioni non sono valutate in relazione ai costi coinvolti, bensì sulla
base di parametri statistici appositamente introdotti. Infatti l'efficienza
statistica di uno schema di controllo è determinato dalla "rapidità" con
cui esso evidenzia l'occorrenza di cause assegnabili e dalla frequenza
dei falsi allarmi.
Capitolo 3
Le carte di controllo adattative bayesiane
73
l'ARL (average run length) 5, parametro di prestazione statistica più
diffusamente utilizzato, è una misura valida per confrontare l'efficienza
di diversi schemi di controllo, solo se l'intervallo di campionamento h è
costante e uguale per i due schemi che si stanno confrontando. Nelle
carte VSI (variable sampling interval), che sono le più diffuse fra quelle
adattative, questa condizione non sussiste. Perciò si introducono, fra gli
altri:
ATS (average time to signal) = valore atteso del tempo dall'inizio del
processo fino all'istante in cui un allarme viene generato.
ATTS (adjusted average time to signal)= valore atteso dell'intervallo di
tempo dall'occorrenza della causa assegnabile all'istante in cui la carta
genera un allarme.
La scelta dei valori per le variabili di progetto avviene ottimizzando
parametri di prestazione statistica come quelli indicati e confrontando
rispetto a questi parametri di prestazione gli approcci statici con quelli
dinamici. Occorre comunque precisare che l’assenza di una
valorizzazione economica della prestazione degli schemi di controllo,
può condurre a situazioni in cui vantaggi statistici dell’approccio
dinamico, come la rapidità attesa nell'evidenziare l'accadimento di una
causa assegnabile e la ridotta frequenza di falsi allarmi, ottenibili da
uno schema di controllo dinamico rispetto ad uno statico, possono
essere accompagnati da una accresciuta frequenza di campionamento o
da un incremento della dimensione del campione. Una progettazione
economica garantisce invece di non incorrere in simili situazioni.
Tuttavia molto meno numerosi sono i modelli proposti per la
progettazione economica di carte dinamiche non bayesiane. Come
riportato in [AlS97] gli approcci in quest’area sono proposti da Park e
Reynolds [Par94], Prabhu,Montgomery e Runger [Pra97], Das e Jain
[Das97a], Das, Jain e Gosavi [Das97b].
Park e Reynolds in [Par94], propongono un modello per una carta
X con dimensione del campione adattativa (VSS, variable sample size),
in cui n può assumere due soli valori, piccolo, ns, e grande, nl,
costituenti la dimensione del prossimo campione da prelevare a
seconda che il valore attuale di X rispettivamente superi o no in valore
assoluto, un valore soglia di attenzione w , inferiore al limite di
controllo k . L'intervallo di campionamento h è costante, al pari di k. Il
processo, evolve indefinitamente ed è soggetto a molteplici cause
assegnabili che si manifestano indipendentemente e con tempi di
interarrivo esponenziale: ciascuna causa origina shft di diversa entità. I
parametri di progetto h, w, k, ns ,nl vengono determinati minimizzando
una funzione di costo atteso per unità di tempo. Dai casi numerici
5
L'ARL è definito come una funzione del reale stato del processo e fornisce il
numero medio di campioni da prelevare prima che la carta generi un allarme,
falso o giustificato, appunto a seconda della condizione del processo.
Capitolo 3
Le carte di controllo adattative bayesiane
74
proposti essi evincono che il loro modello consente risparmi fino al 25%
rispetto ad una carta statica (con n costante), anch'essa progettata
minimizzando la setssa funzione obiettivo. Inoltre l’approccio consente
di ottenere migliori prestazioni statistiche rispetto alla stessa carta FSS,
poiché sia AATS sia la frequenza dei falsi allarmi sono inferiori .
Prabhu,Montgomery e Runger in [Pra97] presentano un modello per
la carta X con 2 variabili di progetto adattative: n, dimensione del
campione che può assumere 2 soli valori ns (short) e nl (long), ed h,
intervallo di campionamento, anch'esso a 2 soli valori hs (short) e hl
(long): la carta viene perciò spesso definita VSS ed anche VSI, variable
sampling interval.
Una sola causa assegnabile esponenzialmente distribuita può
occorrere nel processo che evolve all'infinito; essa determina uno
spostamento della media a µ 1= µ0±d·s. In funzione delle variabili di
progetto della carta, con i simboli già introdotti per [Par94], hs , hl , ns ,
nl , w, k, viene determinata una funzione obiettivo costo atteso per unità
di tempo. Gli autori anziché determinare le variabili di progetto
ottimizzando la funzione obiettivo, focalizzano l'attenzione su una
minimizzazione vincolata al soddisfacimento di prefissati vincoli di
prestazione statistica, ATS(µ0)> soglia 1 e ATS(µ 1)< soglia 2.
Dall'analisi di 16 casi numerici si evince che la carta dinamica
consente valori attesi del costo per unità di tempo minori rispetto alla
corrispondente carta statica; ha inoltre ATS(µ 0) migliori, cioè più lunghi,
ma anche ATS(µ 1) più lunghi.
Das e Jain in [Das97a] presentano un modello per carta X con VSI e
VSS come Prabhu,Montgomery e Runger in [Pra97]. Da questi ultimi si
differenziano però perché:
1. considerano hi ed ni variabili aleatorie, a causa della aleatorietà del
processo;
2. utilizzano regole empiriche o "run rules" 6 per la selezione del
prossimo intervallo di campionamento.
Gli autori esaminano una carta con due differenti modelli
probabilistici per descrivere la v.a. hi : i parametri delle funzioni di
densità utilizzate devono essere noti o stimati dal progettista della
carta: sono parametri in input al modello; a ciascun modello è poi
associato un intervallo di possibili dimensioni dei campioni.
La funzione obiettivo è ancora il costo atteso per unità di tempo, e gli
autori riportano i risultati ottenuti in riferimento ad un esempio
numerico. La procedura di ottimizzazione si dimostra condurre solo in
un minimo locale.
Das, Jain e Gosavi in [Das97b], viene proposto un modello per una
carta X VSI, con h che assume solo i valori hs (breve) e hl (lungo).
6
Regole empiriche che consistono nell’osservare l’andamento di un certo numero di
realizzazioni passate della statistica.
Capitolo 3
Le carte di controllo adattative bayesiane
75
L'unica causa assegnabile considerata, che si presenta con tempi di
interarrivo esponenzialmente distribuiti, determina uno shift della
media da µ 0 a µ 1= µ 0 + d·s , con d>0 .
Gli autori derivano l'espressione per il valore atteso del costo per
unità di tempo che viene minimizzato rispetto alle variabili di progetto
hs, hl, n, w e k .
Il confronto della carta proposta con una statica di riferimento, nei
casi numerici indagati, evidenzia vantaggi di costo per la carta dinamica
dell'ordine del 5%, quando lo shift è contenuto, cioè per un parametro d
in input al modello inferiore a 1,5; invece per valori di d superiori, il
vantaggio rapidamente diminuisce fino a scomparire per d =2,5 , dove w
= k e le due carte divengono identiche.
Park e
Reynolds
[Par94]
Tipo di carta
Tempo di guasto
Numero di cause
assegnabili
Intervallo
produttivo
Parametri
adattativi
Parametri fissi
Funzione
obiettivo
Prabhu,
Montgomery
e Runger
[Pra97]
Das e
Jain
Das, Jain e
Gosavi
[Das97a]
[Da97b]
X
X
X
X
Esponenzial esponenziale esponenzi Esponenzial
e
ale
e
m>1
1
1
1
Infinito
Infinito
Infinito
finito
n
h, n
h, n
h
h, k
Valore
atteso del
costo per
unità di
tempo
k
k
Valore atteso
Valore
del costo per atteso del
unità di
costo per
tempo
unità di
tempo
n, k
Valore
atteso del
costo per
unità di
tempo
Tabella 3.2: Modelli proposti per la progettazione economica di carte
dinamiche non bayesiane
3.3.3.
Carte di controllo dinamiche
bayesiane
Tra i modelli proposti sulle carte di controlo adattative bayesiane
occorre distinguere un primo set di lavori in cui l’attenzione è
Capitolo 3
Le carte di controllo adattative bayesiane
76
principalmente rivolta agli aspetti teorici dell’approccio, più che a quelli
applicativi. A questo insieme di lavori appartengono quelli proposti da
Bather [Bat63], Taylor [Tay65] [Tay67], Carter [Car72] e Crowder in
[Cro92]. Come è possibile osservare tutti gli approcci sono stati proposti
negli anni ‘60-’70, ad esclusione di [Cro92] che, a partire da [Bat63],
enfatizza l'interesse verso i piccoli lotti di produzione.
Questi primi lavori sono ad ampio spettro e non si rivolgono
direttamente alla progettazione di carte di controllo. Tuttavia, i modelli
in [Bat63], [Tay65] , [Tay67] e [Cro92], possono essere messi in
corrispondenza con carte di controllo ad intervallo di campionamento h
e dimensione del campione n costanti, ma limite di controllo k
adattativo . Invece il modello in [Car72] presenta sia n che k adattativi,
ma h costante.
Un risultato teorico molto importante di questi primi modelli è che
esiste una politica controllo ottimale se si utilizza un’impostazione
bayesiana in cui tutta l’informazione disponibile sullo stato del
processo, è racchiusa nella probabilità che il processo sia fuori
controllo, probabilità che è continuamente aggiornata attraverso
teorema di Bayes generalizzato.
Tuttavia le implicazioni operative di questi primi modelli sono state
limitate dalla complessità delle regole di controllo da essi generate.
I modelli più recenti per la progettazione di carte di controllo
dinamiche bayesiane sono esclusivamente presentati a tale scopo,
perciò viene posta particolare attenzione alle loro implicazioni operative,
cercando, di contenerne la complessità.
L'unico modello per una progettazione statistica di una carta
bayesiana è quello proposto da Vaughan in [Vau93]; i pochi altri invece
riguardano la progettazione economica.
Vaughan in [Vau93] propone una carta per attributi, di tipo n·p
(numero di difettosi), con intervallo di campionamento h adattativo, n
costante e coefficiente k individuante la posizione del limite di controllo,
pure costante, ma trasformato in un intero, detto numero di
accettazione c = 0 . Sia di il numero di pezzi non conformi nel campione
i. L'insorgenza della causa assegnabile determina uno shift della
difettosità da p0 a p1 con p1 > p0 .
Dopo ogni prelievo campionario con il teorema di Bayes, viene
aggiornata la probabilità π che il processo sia fuori controllo, a partire
da quella nota prima del prelievo. La lunghezza dell'intervallo di
campionamento hi è determinata dal fatto che ciascun campione è
prelevato quando π raggiunge un prespecificato valore π s .
In funzione del numero di accettazione c , funzione di n e di π s , si
determina il seguente schema di controllo:
⇒se di > c , viene generato un allarme e, dopo la ricerca della causa
assegnabile e l'eventuale ripristino, lo schema di controllo riprende
con un assegnato h1;
Capitolo 3
Le carte di controllo adattative bayesiane
77
⇒se di = c , non c'è alcun allarme, e il processo continua con hi+1 , che
dipende dal numero di di non conformi presenti nel campione.
Questa carta è stata confrontata da Vaughan con la corrispondente
carta np FSI, fixed sampling interval. Dal confronto emerge che la carta
bayesiana presenta un valore atteso della frequenza di falsi allarmi più
basso e una velocità attesa di cogliere shift del processo a p1 più
elevata. Se il reale stato di fuori controllo p differisce da quello per cui
la carte è stata progettata (p1) la prestazione statistica della carta
bayesiana è ancora preferibile rispetto alla statica se p< p1 o di poco >,
mentre per p >> p1 non lo è più.
Modelli per la progettazione economica di carte di controllo
dinamiche bayesiane sono stati proposti da vari autori: Tagaras [Tag94]
[Tag96], Calabrese [Cal95], e Porteus e Angelus [Por97].;
Il modello presentato in [Tag94] propone una carte di controllo per la
media X , adattativa h e k (n=1 costante). La causa assegnabile, che si
manifesta con tempo di interarrivo esponenziale, determina uno shift a
µ 1 = µ0+ d·s . Quando la carta genera un allarme il processo viene
interrotto e si inizia la ricerca della causa assegnabile. Il problema di
ottimizzazione viene descritto con una formulazione di programmazione
dinamica in cui si definisce il minimo valore atteso del costo in un
orizzonte temporale finito di durata H. Vengono inoltre presentati 24
casi numerici in cui si dimostra che il vantagio di un approccio
bayesiano, rispetto ad un analogo approccio statico, varia da 2,9% a
25,8% ed in media risulta pari a 14,5%.
Tagaras in [Tag96], estende il modello del ‘94 [Tag94] per la carta X
rendendolo adattativo non solo in h e k , ma anche in n . Egli presenta
28 casi numerici che documentano come la carta bayesiana, rispetto a
quella statica di riferimento, consente riduzioni del costo atteso in
media del 8,95% , e, in alcuni casi, prossimi al 15% .
Il modello proposto da Calabrese [Cal95], presenta una carta
adattativa bayesiana per il controllo statistico della difettosità di
processo, p. L'intervallo di campionamento h e la dimensione n dei
campioni sono costanti, mentre il coefficiente per il limite di controllo,
k, è adattativo. Si assume che due soli valori sono possibili per la
difettosità: quello nominale p0 quando il processo è in controllo e p1 > p0
quando il processo è fuori controllo. L'occorrenza della causa
assegnabile (che induce lo shift p0 a p1) avviene con tempi di interarrivo
esponenzialmente distribuiti. Si ipotizza inoltre che, durante la ricerca
della causa assegnabile il processo venga interrotto. Ancora una volta il
controllo statistico del processo si attua monitorando la probabilità π
che il processo sia fuori controllo, probabilità che è aggiornata, a valle
di ogni campionamento, attraverso il teorema di Bayes generalizzato.
L’autore prova che la politica di controllo ottimale si realizza quando la
carta genera un allarme se π supera un certo valore critico. Sebbene in
Capitolo 3
Le carte di controllo adattative bayesiane
78
questo schema di controllo i limiti di una carta p tradizionale non sono
considerati esplicitamente, è possibile stabilire una equivalenza tra il
valore critico di π e il limite di controllo di una carta p all’i-mo
campione (ki , in breve). In questo senso il meccanismo di controllo
statistico bayesiano, può essere visto come adattativo in k. L'orizzonte
temporale in cui in processo evolve è finito e costituito da N intervalli di
campionamento di ampiezza h . Anche in questo caso la funzione
obiettivo è data dal valore atteso dei costi legati alla politica di controllo.
Calabrese fornisce i risultati in una serie di casi numerici che
documentano una riduzione dei costi attesi che va dal 10% al 15%,
rispetto ad una carta p statica progettata con approccio simile a quello
tradizionale di Duncan.
L’ultimo approccio analizzato è proposto nel ’97 da Porteus e Angelus
[Por97], i quali sviluppano un modello per controllare la difettosità di
un processo. Le ipotesi sono comuni ai modelli descritti: l'occorrenza di
una singola causa assegnabile determina un accrescimento della
frazione di non conformi rispetto a quella del processo in controllo, la
causa assegnabile si manifesta con un tasso di guasto costante. Unica
differenza significativa è che in questo approccio la lunghezza del
periodo di produzione dipende dalla dimensione del lotto di produzione,
che é una variabile di decisione del modello. In definitiva l’approccio
propone una selezione congiunta della politica di controllo e della
dimensione del lotto ottimale. Analogamente a quanto avviene negli altri
approcci bayesiani adattativi, l’informazione disponibile sullo stato del
processo è rappresentata dalla probabilità π che il processo sia fuori
controllo, aggiornata usando il teorema di Bayes generalizzato. La carta
proposta è adattativa in h e k, mentre il parametro n risulta fissato e
pari a 1. In aggiunta ai consueti costi associati al controllo di processo,
gli autori considerano i costi di setup e di mantenimento a scorta. Essi
utilizzano il valore atteso del costo sostenuto per valutare schemi di
controllo alternativi e decidere contestualmente la dimensione del lotto.
Sebbene alcuni esempi numerici sono presentati e discussi, Porteus
ed Angelus non fanno un confronto diretto dei costi con una politica di
controllo statica. Invece esprimono i loro risultati in forma di
"opportunità per un miglioramento nel controllo statistico di processo":
un insieme di osservazioni sulla validità di un approccio bayesiano
adattativo. Alcune di queste sono peculiari del contesto produttivo
esaminato, ma la maggior parte sono applicabili in generale e riferite
alla scelta degli intervalli di campionamento.
Capitolo 3
Le carte di controllo adattative bayesiane
Tagaras
[Tag94]
Calabrese
[Cal95]
79
Tagaras
[Tag96]
Porteus e
Angelus
[Por97]
p
esponenz.
1
Tipo di carta
p
X
X
Tempo di guasto
esponenz. esponenz. esponenz.
Numero di cause
1
1
1e2
assegnabili
Orizzonte temporale
Finito
Finito
Finito
Finito
Parametri dinamici
h, k
k
h, k, n
h,k
Parametri fissi
n=1
h, n
--n=1
Determinazione del
no
no
no
Si
lotto produttivo
Funzione obiettivo
Valore
Valore
Valore
Valore
atteso dei atteso dei atteso dei atteso dei
costi
costi
costi
costi
Riduzioni di costo
2,9%10%-15% 1%-15% Non fornito
25,8%
Tabella 3.3: Modelli proposti in letteratura per la progettazione
economica di una carte adattativa bayesiana
Capitolo 3
Le carte di controllo adattative bayesiane
80
3.4. Progettazione economica di una carte
di controllo adattativa bayesiana per il
controllo delle non conformità
Tra gli approcci proposti per la progettazione economica di una carta
adattativa bayesiana (Tabella 3.3), nessun modello si è occupato della
progettazione di carte per il controllo del numero di nonconformità.
Secondariamente tutti gli approcci proposti in letteratura si rivolgono
ad una situazione produttiva in cui l’orizzonte temporale di riferimento
è fissato a priori. Quest’ipotesi sottintende una situazione in cui, a
causa di un ripristino per manutenzione programmata o per set-up,
ogni H unità di tempo, si può ipotizzare che il processo sia riportato ad
uno stato di funzionamento nominale o in controllo. Seppur plausibile
in numerosi contesti produttivi, quest’ipotesi è necessaria nei modelli
per ottenere un modello analiticamente trattabile.
L’approccio proposto in questo capitolo rilassa l’ipotesi di orizzonte
temporale finito, introducendo però un’approssimazione nella ricerca
della soluzione ottima. I risultati della sperimentazione numerica
confermano comunque che i vantaggi della soluzione proposta rispetto
all’equivalente soluzione ottenuta con approccio statico sono
paragonabili a quelli che si ottengono con i metodi adattativi bayesiani
“esatti” proposti in letteratura (Paragrafo 3.3.3).
3.4.1.
Notazione
t
Indice temporale
i
Periodo di produzione tra l’ i-1mo e l’imo campione
hi
Intervallo di tempo tra due campionamenti.
X i ∈ {0,1}
Stato del sistema alla fine dell’imo periodo
produzione (0: in-controllo; 1: fuori- controllo)
Yi
Numero di nonconformità nell’imo campione
yi
Numero di nonconformità osservate nell’imo campione
λ 0 , λ1
Numero medio di nonconformità quando il processo è,
rispettivamente, nello stato 0, 1.
1/ν
Tempo medio per avere un cambiamento di stato
a i ∈ {0,1}
Decisione all’inizio dell’ imo periodo di produzione (0:
di
Capitolo 3
Le carte di controllo adattative bayesiane
{
81
continua a produrre; 1: ferma produzione)
P (ai ) = plj (ai ) Matrice delle probabilità di transizione dallo stato X i-1=l
π i , π 'i
allo stato X i=j dopo aver preso l’azione ai
Probabilità che X i =1, rispettivamente, prima e dopo
l’ispezione dell’ imo campione
f i ( X i − 1 ,a i ) Profitto atteso nell’ imo periodo, dati X i-1 e ai
mo
f i T ( X i −1 ,a i Profitto atteso nell’unità di tempo nell’i periodo, dati
X i-1 e ai
Fi (a i )
Profitto atteso nell’unità di tempo nell’ imo periodo, dato
ai
V 0 , V1
Ricavi netti nell’unità di tempo quando X i=0 e X i=1,
rispettivamente
A
Costo di ricerca di una causa assegnabile (costi di
falso allarme)
R
Costo di riparazione del sistema
I
Costi di ispezione
tFA
Tempo di ricerca di una causa assegnabile
tR
Tempo di riparazione del sistema
Tabella 4 Principali simboli nell’approccio proposto
3.4.2.
Il modello
3.4.2.1. Ipotesi
Il processo si assume sia caratterizzato da due stati: lo stato di
funzionamento in controllo (stato 0) e lo stato di funzionamento fuori
controllo (stato 1). La transizione dallo stato di funzionamento nominale
allo stato di funzionamento fuori controllo è da imputare all’occorrenza
di una causa assegnabile, evento caratterizzato da un tempo di
interarrivo che è esponenzialmente distribuito con media 1/ν . Si
assume che il processo produca unità di ispezione caratterizzate da un
numero di non conformità distribuito secondo una distribuzione
poissoniana con media λ0 qualora il processo sia caratterizzato dallo
stato 0 e media λ1 qualora il processo si trovi in stato 1 ( λ1 > λ0 )
Capitolo 3
Le carte di controllo adattative bayesiane
82
Quando la carta segnala un fuori controllo, cioè il numero di
nonconformità rilevate eccede il limite di controllo, il processo è
momentaneamente fermato per procedere alla ricerca di una causa
assegnabile. Si assume che questo processo di ricerca non sia
caratterizzato da errori. Se la causa assegnabile non viene rilevata, il
segnale di fuori controllo è da imputare ad un falso allarme e di
conseguenza si riprende a produrre. Qualora invece la causa
assegnabile è identificata, il processo rimane in stato di inattività per
consentire l’azione di ripristino che viene condotta sulla macchina per
rimuovere la causa assegnabile. Anche questa azione di ripristino si
ipotizza sia caratterizzata da assenza di errori.
Senza perdita di generalità, si assume inoltre che l’unità di tempo sia
uguale al tempo per processare un’unità di ispezione.
3.4.2.2. Lo schema di controllo adattativo
Per controllare il processo produttivo si intende progettare una carta
di controllo c adattativa. Anche se la dimensione del campione è
assunta costante, la carte progettata è adattativa dato che l’intervallo
tra due campionamenti e il limite di controllo (numero di nonconformità
che provoca un segnale di fuori controllo) possono variare nel tempo.
Infatti, riferendosi al generico periodo imo, dopo che hi unità sono state
prodotte, l’unità di ispezione è controllata e il numero di nonconformità
yi è osservato.
In funzione di yi la carta segnala eventualmente un fuori controllo
attraverso la variabile decisionale ai+1 : se ai+1 =0 il processo appare in
controllo e quindi di procede con il processamento delle parti; se invece
ai+1 =1 il processo risulta fuori controllo per cui la produzione viene
arrestata e si procede con la ricerca di una causa assegnabile. Si
osservi quindi che in questo approccio la variabile decisionale ai+1
sostituisce la variabile k adottata nei tradizionali approcci statici. Infatti
nel tradizionale approccio statico, la regola di segnalazione del fuori
controllo è definita come violazione di un limite di controllo,
determinato attraverso k (quando cioè il numero di non conformità
osservate supera il limite di controllo). In questo approccio invece, la
violazione del limite di controllo è sintetizzata nella variabile ai+1 =1.
Insieme alla selezione del valore di ai+1 , la procedura di controllo
identifica la lunghezza dell’intervallo di produzione prima del prossimo
campionamento: hi+1 .
Le due variabili decisionali che determinano lo schema di controllo
sono individuate massimizzando il profitto orario relativo al prossimo
intervallo di produzione.
Capitolo 3
Le carte di controllo adattative bayesiane
83
Il valore di questa funzione obiettivo è influenzato dallo stato attuale
del sistema, l’approccio bayesiano è adottato per aggiornare
l’informazione relativa allo stato del processo.
Considerando l’ipotesi di occorrenza poissoniana dello shift, se il
processo è in controllo all’inizio dell’ imo periodo, la probabilità che uno
shift occorra durante il prossimo intervallo di produzione è data da:
γ i = 1 − e −νh i
(3.19.)
Indicando con X i lo stato del sistema alla fine dell’ imo periodo e con
plj (a i ) la probabilità che il processo passi dallo stato X i-1=l allo stato
X i=j dato che l’azione ai è stata presa, la matrice delle probabilità di
transizione P (ai ) = plj (ai ) può essere ricavata come segue:
{
1 − γ i
P (a i = 0 ) = 
 0
}
γi 
and P (a i = 1) =
1 
1 − γ i
1 − γ

i
γi
γ i 
(3.20.)
Si indichi con π 'i −1 la probabilità che il processo sia fuori controllo
dopo l’i-1mo campionamento, la probabilità che il processo sia nello
stesso stato prima di inziare l’ ispezione dell’ imo campione risulta:
π i = π 'i −1 p11 (a i ) + (1 − π 'i −1 ) p01 (a i )
(3.21.)
Visto che l’espressione di π i è basata sull’informazione disponibile
prima di controllare l’i mo campione, in ottica bayesiana, π i rappresenta
la probabilità a priori (prior).
Indicata con Yi la variabile casuale che rappresenta il numero di
nonconformità nell’unità di ispezione, e con yi il valore di questa
variabile osservato nell’ imo campione, l’ipotesi di distribuzione
poissoniana può essere formalizzata come segue:
Yi|λ∼Poisson(λ)
Pr(yi|λ ) =
e −λλy i
yi !
(3.22.)
Dopo che l’ ima unità di ispezione è stata controllata, la probabilità
che il processo sia fuori controllo può essere aggiornata applicando il
teorema di Bayes. Di conseguenza per la probabilità a posteriori
(posterior) si ottiene la seguente espressione:
Capitolo 3
Le carte di controllo adattative bayesiane
Pr(y i |λ1 ) Pr(λ1 )
=
Pr(yi )
Pr(y i |λ1 )π i
=
=
Pr(y i |λ1 )π i + Pr(yi | λ0 )(1 − π i )
84
π 'i = Pr(λ1 |yi ) =
1
λ
1 + e λ1 − λ0  0
 λ1
(3.23.)
yi
 1−πi
 (
)
πi

Una volta nota la posterior, tutte le decisioni per il prossimo periodo
(ai+1 , hi+1 ) possono essere prese massimizzando il valore atteso del
profitto per unità di tempo come descritto nel prossimo paragrafo. Lo
schema finale della procedura di controllo è riportato in Figura 3.5.
1
i
hi
h1
π’i-1
Probabilità che il
processo è fuori
controllo dopo
mo
l’i-1 campione
t
πi
Probabilità che il
processo è fuori
controllo prima
mo
dell’i campione
hi
i
mo
π’i
Probabilità che il
processo è fuori
controllo dopo
mo
l’i campione
campione: yi
Variabili
decisionali:
§ ai+1
§ hi+1
Figura 3.5: Lo schema di controllo
3.4.3.
La determinazione dei parametri di
controllo
La determinazione dei parametri di progetto per il prossimo periodo è
eseguita massimizzando la funzione obiettivo valore atteso del profitto
per unità di tempo. Ad ogni istante vengono infatti selezionati i
parametri di controllo valutando il valore atteso del profitto unitario
ottenibile nel prossimo periodo al variare della politica di controllo
adottata. Siccome l’ottimizzazione è eseguita con un approccio look-
Capitolo 3
Le carte di controllo adattative bayesiane
85
forward ad un solo periodo, la soluzione ottenuta non sarà l’ottimo.
Infatti per ottenere l’ottimo occorrerebbe proiettare fino alla fine
dell’orizzonte temporale di riferimento, l’effetto delle proprie scelte in
termini economici. Da questa necessità, nasce l’esigenza, comune a
tutti gli approcci proposti, di individuare un orizzonte temporale di
scelta finito, ipotizzando l’esistenza di una politica di manutenzione o
set-up che riporta il sistema allo stato iniziale di funzionamento ad
intervalli prefissati. Qualora questa non risulti un’ipotesi plausibile,
occorrerebbe di conseguenza proiettare all’infinito l’effetto economico
delle proprie scelte riguardo alla politica di controllo da adottare.
Comunque sia, la ricerca dell’ottimo determina un consistente
incremento della complessità computazionale e del tempo di calcolo. E’
infatti necessario utilizzare algoritmi di programmazione dinamica che
comportano necessariamente una discretizzazione delle variabili di
interesse. Un ulteriore studio si rende quindi necessario nel definire il
valore corretto di questi parametri di discretizzazione.
L’approccio alternativo proposto in questo paragrafo invece nasce
dalla constatazione che, in ipotesi di processo non caratterizzato da
usura (come nel caso di ipotesi di guasto poissoniano) l’effetto di una
politica di controllo sui periodi successivi è comunque limitato. Per cui
in questo paragrafo è proposto un approccio di ottimizzazione che
determinerà una soluzione sub-ottima, ma con complessità
computazionale praticamente trascurabile e che consente di rilassare
l’ipotesi di orizzonte temporale di riferimento finito.
Al fine di valutare i vantaggi della soluzione proposta, verrà in
seguito proposto un confronto tra approccio statico ed approccio
bayesiano approssimato proposto. La tesi è infatti che, qualora anche in
presenza di una soluzione sub-ottima (ricavata con il metodo descritto)
l’approccio bayesiano determini profitti mediamente superiori a quelli
ottenibili con l’equivalente approccio statico, questo sarà ancor più vero
se nella ricerca dell’ottimo si adotterà un metodo esatto.
3.4.3.1. La funzione obiettivo
Iniziamo con l’indicare con f i ( X i −1, a i ) il profitto atteso nell’i-mo
periodo di produzione, dato che il processo inizia il periodo in stato Xi-1
e l’ultima azione presa all’inizio dell’intervallo temporale è stata ai.
Il profitto atteso per unità di tempo nelle stesse condizioni è indicato
con f i T ( X i −1 ,a i ) e può essere ricavato come rapporto tra f i ( Xi −1, ai ) e
la lunghezza dell’i-mo periodo.
Per determinare il valore di f i T ( X i −1 ,a i ) al variare delle politiche di
controllo è necessario introdurre delle grandezze economiche. Il ricavo
netto per unità di tempo è V 0 qualora il processo sia in controllo, e V 1 se
Capitolo 3
Le carte di controllo adattative bayesiane
86
il processo è fuori controllo (V0>V1). Ogni volta che il processo viene
fermato a seguito di un segnale di fuori controllo che però risulta
infondato, si incorre in un costo di falso allarme A (costo per ricercare
la causa assegnabile). Se invece l’allarme è giustificato, il costo da
sostenere risulta pari a A+R (dove R rappresenta il costo addizionale di
ripristino del processo, cioè di rimozione della causa assegnabile). I
costi di ispezione per unità di prodotto sono indicati con I.
Il tempo richiesto per la ricerca della causa assegnabile a seguito di
un segnale di fuori controllo è indicato con tFA, mentre tR indica il tempo
richiesto per ripristinare il processo una volta che la causa assegnabile
è stata evidenziata.
Per ogni combinazione di X i −1 e a i occorre valutare il valore del
profitto per unità di tempo. Le quattro possibili espressioni di
f i T ( X i −1, ai ) possono essere ricavate come segue. Si indichi con τ i il
valore atteso del tempo prima dell’occorrenza di una causa assegnabile,
dato che questa occorre nell’i-mo periodo:
τi =
1 − e −νh i (νhi + 1)
(3.24.)
ν (1 − e −νh i )
ν e-νt dt
a
νt
f(t)= ν e-
a+hi
t
dt
Figura 3.6: Calcolo di τi nell’approccio proposto
Se l’azione presa all’inizio del periodo i-mo è continuare a processare
le parti e il processo è in controllo, il valore atteso del profitto nel
prossimo periodo è pari a Figura 3.7:
Capitolo 3
Le carte di controllo adattative bayesiane
87
hi
Shift
con prob γi
hi
a i=0: CONTINUO
Figura 3.7: Calcolo di f i T (0,0 )
V 0h i − I se nessuno shift occorre nel prossimo periodo, cioè con
probabilità (1 − γ i ) ;
V 0τ i + V1 (h i − τ i ) − I se uno shift occorre nel prossimo periodo, cioè
con probabilità γ i .
Quindi l’espressione di f i T (0,0 ) può essere calcolata come:
f ( 0,0 ) (1 − γ i )V 0h i + γ i V1 (h i − τ i ) + γ i V 0τ i − I
f i T ( 0,0 ) = i
=
=
hi
hi
γ
V 0 h i − (V 0 − V1 )(h i − i ) − I
ν
=
hi
(3.25.)
Se l’azione presa è continuare a processare quando il processo è fuori
controllo (Figura 3.8), il valore atteso del profitto nel prossimo periodo
sarà V 1hi-I, dal momento che durante tutto il prossimo periodo il
processo continuerà a produrre nello stato di fuori controllo.
Capitolo 3
Le carte di controllo adattative bayesiane
88
hi
hi
a i=0: CONTINUO
Figura 3.8: Calcolo di f i T (1,0 )
Quindi f i T (1,0 ) può essere calolato come segue:
f (1,0) V1hi − I
I
f i T (1,0 ) = i
=
= V1 −
hi
hi
hi
(3.26.)
Se l’azione presa è fermare il processo mentre il processo è in
controllo (falso allarme), il profitto atteso per il prossimo periodo è
identico a f i (0,0) , eccetto per un costo addizionale dovuto al falso
allarme (A) (Figura 3.9).
tFA
hi
Shift
con prob γi
tempo ricerca causa (falso allarme)
a i=1: FERMO
Figura 3.9: Calcolo di f i T (0,1)
Di conseguenza si ricava:
Capitolo 3
Le carte di controllo adattative bayesiane
89
γ 

V0hi − (V 0 − V1 )hi − i  − I − A
f (0,1)
ν 

f i T (0,1) = i
=
hi + tFA
hi + tFA
(3.27.)
Con simili osservazioni, il valore atteso del profitto per unità di tempo
qualora l’azione presa è fermare il processo quando il processo è fuori
controllo, risulta (Figura 3.10):
tFA
tR
hi
Guasto
Con prob γ
tempo ripristino
tempo ricerca causa
a i =1: FERMO
Figura 3.10 Calcolo di f i T (1,1)
γ 

V0h i − (V 0 − V1)h i − i  − I − A − R
f i (1,1)
ν 

f i T (1,1) =
=
h i + tR + t FA
h i + tR + tFA
(3.28.)
Le espressioni di f i T ( X i −1, ai ) calcolate permettono di determinare il
valore atteso del profitto per unità di tempo come funzione dell’azione
a i che deve essere presa a inizio periodo Fi (ai). Dal momento che
l’azione deve essere selezionata quando l’i-1mo periodo è appena finito e
il numero di non conformità nell’i-1 ma unità di ispezione è noto, tutta
l’informazione disponibile sullo stato del processo è rappresentata da
π 'i −1 , ossia dalla probabilità che il processo sia fuori controllo dopo l’i-1
mo campione.
Se l’azione presa è continuare a produrre, il valore atteso del profitto
per unità di tempo per il prossimo periodo è F i(0):
Capitolo 3
Le carte di controllo adattative bayesiane
Fi (a i ) = Fi (0) = (1 − π 'i −1 ) f T i (0,0 ) + π 'i −1 f T i (1,0) =
γ
(V 0 − V1 ) i
I
ν (1 − π '
= V1 +
i −1 ) −
hi
hi
90
(3.29.)
Se l’azione presa è fermare la produzione, il valore atteso del profitto
per unità di tempo per il prossimo periodo, F i(1), è:
Fi (a i ) = Fi (1) = (1 − π 'i −1 ) f T i (0,1) + π 'i −1 f T i (1,1) =
γ 

V 0 h i − (V0 − V1 )h i − i  − I − A
ν 

= (1 − π 'i − 1 )
+
h i + t FA
(3.30.)
γ 

V 0h i − (V 0 − V1 )h i − i  − I − A − R
ν 

+ π 'i −1
h i + t R + t FA
In entrambe le espressioni (3.29) e (3.30), π 'i −1 e π i −1 possono essere
rispettivamente ricavate dalle equazioni (3.21) e (3.23) aggiornando
opportunamente l’indice temporale. Dal momento che le espressioni
(3.29) e (3.30) sono funzioni della lunghezza del prossimo intervallo di
tempo hi, la procedura di ottimizzazione può essere eseguita in due
passi. Durante la prima fase, il massimo profitto per unità di tempo è
individuato, dato che l’azione da prendere a i è supposta nota. Di
conseguenza due valori di hi che massimizzano le espressioni (3.29) e
(3.30) sono calcolati. Attraverso il confronto numerico dei due valori del
massimo profitto per unità di tempo ottenuti per a i =0 e a i =1, il
massimo globale è determinato. Una volta individuato il massimo
complessivo, è di conseguenza definita la coppia di parametri di
controllo (a i , h i ) che andrebbero adottati per il prossimo periodo.
Capitolo 3
Le carte di controllo adattative bayesiane
91
30
25
20
hi_min
15
ai
10
5
π
0,
4
0,3
6
0,3
2
0,2
8
0,2
4
0,
2
0,1
6
0,1
2
0,0
8
0,0
4
0
0
Figura 3.11: Andamento dei parametri al variare della probabilità di
fuori controllo
In Figura 3.11 è riportato, a titolo d’esempio, l’andamento dei due
parametri hi e ai al variare della probabilità di fuori controllo π.
Come è possibile osservare, il parametro hi varia essenzialmente tra
due valori: il primo adottato quando ai =0 e il secondo adottato se ai =1.
La scelta di ai=1 equivale ad avere, all’inizio del periodo i-mo, un
segnale di fuori controllo. Visto che un segnale di fuori controllo dà
luogo ad una ricerca causa e ad un eventuale ripristino, se ai =1 si è
certi che il processo inizia a produrre nell’i-mo periodo in controllo
(avendo ipotizzato assenza di errori nella ricerca causa e ripristino). In
questo caso la carta adattativa consente che il prossimo campione sia
ispezionato dopo un periodo di tempo adeguatamente lungo hi alto. Se
invece a inizio periodo ai =0, la carta non ha evidenza per dire che il
processo è fuori controllo (infatti questo accade per valori della
probabilità di essere fuori controllo π bassi). Di conseguenza, visto che il
processo non parte con un ripristino, il prossimo campione sarà
ispezionato dopo un hi non troppo elevato.
Capitolo 3
Le carte di controllo adattative bayesiane
92
3.5. Valutazione numerica delle
performance delle carte di controllo.
Per valutare se l’approccio proposto può indurre un miglioramento
delle performance, è stato progettato ed eseguito un confronto numerico
tra le prestazioni ottenute con l’approccio bayesiano adattativo proposto
e con un approccio statico. Dal momento che la variabile di prestazione
considerata è il profitto orario, la progettazione economica della carta di
controllo statica è stata definita riferendosi a questa funzione obiettivo.
Il confronto numerico è stato eseguito, procedendo ad una
progettazione economica dei due tipi di carta e valutando il valore
atteso delle performance (profitto medio orario) sulla base dei parametri
di ingresso riportati in Tabella 3.5.
Parametri
Numero medio di non conformità prodotti in stato 0 λ0
Numero medio di non conformità prodotti in stato 1 λ1
Tempo medio per avere uno shift
1/ν
Tempo a seguito di un falso allarme
tFA
tR
Tempo di riparazione
Profitto orario in stato 0
V0
V1
Profitto orario in stato 1
Costi a seguito di un falso allarme
A
R
Costi di ripristino
Costi di ispezione
I
Caso1
20
25
50
1
1
450
250
25
25
10
Tabella 3.5: Parametri adottati nella valutazione numerica
Visto che la progettazione della carta economica bayesiana è
effettuata utilizzando i dati provenienti dal processo, è stato necessario
procedere ad un set di simulazioni. Sono stati quindi simulate 250
unità di tempo di produzione di una fase controllata con approccio
statico e con approccio bayesiano. Ogni run di simulazione (250 unità
di tempo) è stato ripetuto 100 volte, sia per l’approccio statico che per
quello bayesiano. Per ogni run di simulazione è stato memorizzato il
profitto orario registrato. Di conseguenza una popolazione di 100
profitti orari è stata ricavata sia per la fase controllata con approccio
statico, sia per quella controllata con approccio dinamico. Su queste
due popolazioni è stata verificata l’ipotesi di normalità con un test di
Anderson-Darling. Impostando un errore del primo tipo del 5%, non è
stato possibile rifiutare l’ipotesi di normalità dei dati, come si può
dedurre dai normal plot e dai p-value riportati in Figura 3.12 e in
Capitolo 3
Le carte di controllo adattative bayesiane
93
Figura 3.13 per la popolazione di profitti orari ottenuti rispettivamente
con l’approccio statico e dinamico.
Avendo verificato la normalità dei dati si è proceduto ad un test t per
il confronto tra medie:
H0 : µs = µa
H1 : µ s ≠ µa
dove µ s rappresenta il profitto orario medio ottenuto con approccio
statico e µ a il profitto medio ottenuto con l’approccio adattativo.
Il risultato permette di concludere che c’è evidenza statistica per
rifiutare l’ipotesi di uguaglianza fra le medie del profitto orario ottenuto
con approccio statico e dinamico. In particolare si osserva che
l’approccio bayesiano permette di ottenere un vantaggio del profitto
µˆ − µˆ s
medio orario ∆ % = a
100 pari a 7,5%.
µˆ s
Two-Sample T-Test and CI: bayes1; stat1
Two-sample T for bayes1 vs stat1
bayes1
stat1
N
100
100
Mean
382,2
355,5
StDev
18,9
28,9
SE Mean
1,9
2,9
Difference = mu bayes1 - mu stat1
Estimate for difference: 26,74
95% CI for difference: (19,92; 33,55)
T-Test of difference = 0 (vs not =): T-Value = 7,75
Value = 0,000 DF = 170
P-
Capitolo 3
Le carte di controllo adattative bayesiane
94
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
300
350
400
stat1
Average: 355,475
StDev: 28,9026
N: 100
Anderson-Darling Normality Test
A-Squared: 0,323
P-Value: 0,523
Figura 3.12 Normal plot dei risultati ottenuti con progettazione statica
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
340
390
440
bayes1
Average: 382,212
StDev: 18,8780
N: 100
Anderson-Darling Normality Test
A-Squared: 0,413
P-Value: 0,332
Figura 3.13 Normal plot dei risultati ottenuti con progettazione
dinamica
Capitolo 3
Le carte di controllo adattative bayesiane
3.5.1.
95
Analisi di sensitività della soluzione
Per valutare se il vantaggio registrato con l’approccio bayesiano si
mantiene anche al variare dei parametri di ingresso della carta, si è
proceduto ad effettuare un analisi di sensitività (i cui dettagli sono
riportati in Appendice C).
Su tutti i parametri di ingresso sono state introdotte delle variazioni
del 100%: ogni parametro rilevante è stato quindi raddoppiato.
Un’attenzione particolare è stata tuttavia dedicata a due coppie di
parametri che è sembrato opportuno considerare congiuntamente. La
prima coppia si riferisce al numero medio di non conformità generate
dal processo in stato 0 ed 1 (λ0 e λ1), e la seconda coppia al profitto
orario ottenuto dal processo nei due stati (V0 e V1). Se si raddoppia il
valore del parametro λ0 si riproduce una situazione irrealistica in cui il
numero medio di nonconformità prodotte nello stato 0 (in controllo) è
superiore allo stesso parametro nel caso di processo fuori controllo.
Analogamente per il profitto orario nel caso di fiuori controllo: V1:
raddoppiando questo parametro si simulerebbe una situazione in cui il
profitto orario quando il processo è fuori controllo è maggiore rispetto al
caso di processo in controllo. Queste situazioni irrealistiche non sono di
conseguenza state simulate.
Considerando che il numero totale di parametri è pari a 10 e dua di
questi parametri (λ0 e V1) non vengono modificati, 8 nuovi casi sono
stati simulati. In
Tabella 3.6 sono riportati l’insieme dei casi simulati, indicando nella
prima colonna (caso 1) i parametri nel caso base. Anche in questo caso
sono state simulate 250 unità di tempo di produzione di un processo
monitorato con i due approcci. Per ognuno degli 8 casi sono state poi
eseguite 100 repliche per l’approccio bayesiano e altre 100 per
l’approccio statico. Per le due popolazioni di valori del profitto orario
ottenute è stato eseguito un test di Anderson-Darling per verificare la
normalità dei dati. Quando è stato necessario rifiutare l’ipotesi di
normalità per la popolazione di osservazioni, il test t-Student per il
confronto di medie è stato sostituito con il test non parametrico di
Mann-Whitney.
In tutti i casi esaminati è stato possibile concludere che c’è evidenza
statistica per affermare che il profitto orario ottenuto adottando un
approccio statico dello schema di controllo è diverso da quello ottenuto
con un approccio dinamico.
I risultati in termini di aumento medio percentuale di profitto orario
ottenibile passando da un approccio statico ad uno dinamico sono
riportati in
Capitolo 3
Le carte di controllo adattative bayesiane
96
Tabella 3.7. Come è possibile osservare lo schema di controllo
adattativo determina un incremento nel profitto orario che varia, nei
casi esaminati, dal 7,5% al 13,4%. Inoltre
Parametri
Numero
medio di non
conformità
λ0
prodotti
in
stato 0
Numero
medio di non
conformità
λ1
prodotti
in
stato 1
Tempo medio
per avere uno 1/ν
shift
Tempo
a
seguito di un tFA
falso allarme
Tempo
di
tR
riparazione
Profitto
orario
in V0
stato 0
Profitto
orario
in V1
stato 1
Costi
a
seguito di un A
falso allarme
Costi
di
R
ripristino
Costi
di
I
ispezione
Caso Caso Caso Caso Caso Caso Caso Caso Caso
1
2
3
4
5
6
7
8
9
20
20
20
20
20
20
20
20
20
25
30
25
25
25
25
25
25
25
50
50
100
50
50
50
50
50
50
1
1
1
2
1
1
1
1
1
1
1
1
1
2
1
1
1
1
450
450
450
450
450
650
450
450
450
250
250
250
250
250
250
250
250
250
25
25
25
25
25
25
50
25
25
25
25
25
25
25
25
25
50
25
10
10
10
10
10
10
10
10
20
Tabella 3.6: Casi simulati nell’analisi di sensitività.
Capitolo 3
Le carte di controllo adattative bayesiane
OUTPUT
caso1
DATA
382,2
carta
adattativa
bayesiana
carta statica 355,5
7,5%
Guadagno
medio
percentuale
97
caso2 caso3 caso4 caso5 caso6 Caso7 caso8 caso9
360,6 381,8 381,1 381,4 381,2 382,4 380,5 380,6
318,1 346,7 353,6 352,4 350,6 352,9 347,0 350,7
13,4% 10,1% 7,8% 8,2% 8,7% 8,4% 9,7% 8,5%
Tabella 3.7 Risultati dell’analisi di sensitività
Come indicato in
Tabella 3.7, il raddoppio di ogni parametro di ingresso dà luogo ad
un maggior incremento del profitto orario passando ad un approccio
adattativo. In particolare, in Figura 3.14 è riportata la differenza tra il
∆ % ottenuto a seguito del raddoppio del parametro riportato in ascissa
e il ∆ % ottenuto nel caso base. Come è possibile osservare, i parametri
che maggiormente influenzano il miglioramento con approccio
adattativo sono il numero medio di non conformità generato nel caso di
fuori controllo λ1 e il tempo medio tra due shift 1/ν.
7,0%
6,0%
5,0%
4,0%
3,0%
2,0%
1,0%
0,0%
tFA
tR
A
I
V0
R
1/n
l1
Figura 3.14 L’effetto dei diversi parametri nell’analisi di sensitività
Capitolo 3
Le carte di controllo adattative bayesiane
98
3.6. Conclusioni e futuri sviluppi
In questo capitolo è stato presentato un nuovo approccio per la
progettazione economica di carte di controllo per il controllo delle non
conformità generate da un processo. Il principale vantaggio
dell’approccio proposto è la semplicità dell’algoritmo di ottimizzazione
che, inoltre, non necessita dell’ipotesi di orizzonti temporali di
riferimento finiti. La sperimentazione numerica ha anche permesso di
dimostrare che l’approccio risulta promettente in confronto alla
tradizionale progettazione statica, determinando dei vantaggi nel
profitto orario significativi.
Dal momento che le ricerca in quest’ambito ha avuto un nuovo
impulso solo recentemente, una serie di possibili sviluppi futuri
possono essere considerati.
In primo luogo, visto che l’approccio si basa su una probabilità di
riferimento (la probabilità a posteriori) ottenuta collezionando
informazioni sul processo sarebbe opportuno estendere il confronto
numerico ai tradizionali approcci che operano non solo sull’ultima
statistica di riferimento, come CUSUM ed EWMA.
A differenza del tradizionale approccio statico, l’approccio adattativo
può inoltre risultare particolarmente vantaggioso in situazioni in cui
l’occorrenza dello shift non è caratterizzata dalla proprietà di assenza di
memoria (come nel caso di shift poissoniani). Di conseguenza
l’applicazione di carte adattative per processi caratterizzati da diversi
meccanismi di guasto (per modellare processi di invecchiamento e
usura) può risultare particolarmente interessante.
Capitolo 3
Le carte di controllo adattative bayesiane
99
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
100
CAPITOLO 4
MISURARE E MONITORARE LA
QUALITÀ DEL SERVIZIO: UN
APPROCCIO BAYESIANO
4.1. Introduzione
La grande attenzione dedicata negli ultimi anni alla qualità del servizio
è da ritenersi solo il prodromo di un capitolo ancora da scrivere, su cui
è plausibile convoglieranno grandi energie in ambito accademico e
industriale.
Tra le ragioni che hanno portato a spostare l’attenzione dal prodotto al
servizio sicuramente vi è l’ambito sempre più globale della competizione
per le aziende che forniscono prodotti. In questi settori è ormai sempre
più necessario competere con fattori tradizionalmente ritenuti secondari
come il servizio offerto all’atto dell’erogazione del bene prodotto e
l’assistenza post vendita. Se si considera inoltre la crescente attenzione
verso la dismissione e il riciclaggio, l’attenzione al servizio prestato da
un azienda andrà sempre più oltre la vita utile del bene prodotto. A
questi fattori, già evidenziati da chi enfatizza negli ultimi anni la
necessità di controllare la qualità del servizio, vanno aggiunti altri
segnali che ancor di più sottolineano la grande attualità del tema.
L’avvento del commercio elettronico, innanzitutto. Questa nuova forma
di vendita renderà infatti ancor più difficile il contatto con il cliente e
ancor più necessaria l’esigenza di un feedback sulla soddisfazione di
quest’ultimo rispetto al prodotto e al servizio erogato.
Inoltre, l’importanza di monitorare la qualità dei risultati sta prendendo
sempre più piede in ambiti molto distanti da quelli tradizionali.
L’attenzione a questo tema è ormai evidenziata in tutte le aziende di
servizi, pubbliche e private: dall’università ai trasporti ferroviari, dalle
poste alle aziende di fornitura di energia e gas.
La grande sfida in quest’ambito è nella definizione di standard
qualitativi che possano essere ritenuti sufficientemente generali e nella
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
101
definizione di metodi per misurare e controllare nel tempo la
soddisfazione del cliente rispetto alla qualità del servizio offerto. Due
principali aspetti rendono problematica la definizione di metodologie in
quest’ambito: il servizio è caratterizzato da una spiccata
multidimensionalità e le varie dimensioni che vanno a influenzare la
soddisfazione del cliente rispetto al servizio percepito sono talvolta non
oggettivamente misurabili. Accanto ad indicatori misurabili, come ad
esempio il numero di reclami, la soddisfazione dipende infatti da aspetti
intangibili, come la disponibilità dell’interlocutore e la rapidità di
risposta, che necessitano di un giudizio fortemente soggettivo da parte
del cliente. E’ ormai pratica consolidata quella di sottoporre al cliente
dei questionari progettati per interrogare direttamente la popolazione di
clienti riguardo al loro grado di soddisfazione La definizione dei
principali aspetti (o indicatori) su cui si intende ottenere informazioni, è
spesso compito di un team che coinvolge diverse funzioni aziendali e
che dipende esplicitamente dal contesto in cui l’azienda opera. La
traduzione di questi indicatori in un insieme di domande può poi essere
fatta utilizzando i metodi proposti in letteratura, di cui si fornisce una
descrizione in seguito. Questi metodi forniscono delle indicazioni su
come sottoporre le domande ai clienti: il numero di possibili risposte tra
cui il cliente può scegliere e la modalità con cui quest’ultimo deve
esporre il proprio giudizio (ad esempio giudizio verbale come ottimo–
sufficiente–insoddisfacente, o scala numerica). Dal momento che
ognuno degli indicatori rispetto ai quali si interroga il cliente, può poi
influenzare con diverso peso la qualità percepita, i metodi proposti
richiedono spesso al cliente stesso di indicare, nello specifico, un peso
d’importanza di ogni indicatore.
Il lavoro proposto in questo capitolo, il quale prende spunto da [Boi99],
intende approfondire due aspetti legati all’analisi di questionari atti a
monitorare la soddisfazione del cliente relativamente al servizio
percepito. L’approccio è orientato a definire una rete di dipendenza tra
le domande sottoposte alla popolazione dei clienti, a partire dai dati
ottenuti. Questa rete di dipendenza indica il legame di condizionamento
che esiste tra gli esiti delle varie domande. In pratica viene costruito un
grafo probabilistico in cui un arco orientato indica che l’esito ottenuto
relativamente ad una domanda condiziona probabilisticamente l’esito
ottenuto su altre domande.
Questa rete ottenuta a valle dell’analisi dei dati può essere utilizzata in
diversi modi. In primo luogo può servire a definire cluster di domande
tra cui esiste un forte legame di dipendenza. La definizione di questi
cluster facilita l’individuazione di macroindicatori da monitorare nel
tempo. All’interno di ciascun cluster si può poi procedere alla riduzione
del numero di domande. Questa fase, di taratura del questionario, è
indispensabile per aumentare l’efficacia dell’indagine. Infatti è noto che
l’attenzione e la disponibilità che un intervistato dedica alle risposte si
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
102
riduce notevolmente al crescere del numero di domande. La rete di
dipendenza facilita infatti nell’individuazione delle domande “superflue”.
Se infatti, dall’analisi dei dati si individuano delle domande
(condizionate) per le quali la risposta fornita dagli intervistati è
fortemente dipendente dalla risposta fornita su qualche altra domanda
(ritenuta condizionante), è possibile procedere all’eliminazione di queste
domande che non forniscono informazioni aggiuntive. Ultimo ma non
per importanza, l’aspetto relativo ai pesi. In quasi tutti i questionari è
infatti contemplata una domanda che richiede l’espressione di un
giudizio relativamente alla soddisfazione complessivamente percepita.
Dall’analisi delle domande che più fortemente condizionano l’esito di
questa risposta generale, si può dedurre quali sono gli indicatori che
più pesantemente influenzano la soddisfazione globale. Risulta così
inutile chiedere espressamente alla popolazione di clienti di indicare il
peso di importanza relativamente ad ogni aspetto dell’indagine.
La flessibilità dell’approccio bayesiano ben si adatta inoltre ad iterare
nel tempo quest’analisi dei dati. Infatti è possibile per le reti di
dipendenza bayesiane evidenziare una distribuzione a priori di un
modello di dipendenza dei dati. Se questa distribuzione a priori è in
realtà stata ottenuta dall’ultima analisi dei dati eseguita, è possibile
ottenere una distribuzione a posteriori che è frutto sia delle osservazioni
ottenute con la nuova interrogazione sia delle analisi passate,
rappresentate attraverso la prior.
Il capitolo è organizzato come segue. Dapprima verrà ulteriormente
dettagliata la differenza tra prodotto e servizio, entrando nei dettagli
delle caratteristiche tangibili e intangibili che vanno a influenzare la
soddisfazione del cliente riguardo al servizio di cui usufruisce.
Secondariamente saranno brevemente descritte le caratteristiche dei
metodi proposti in letteratura per l’analisi della qualità del servizio.
Infine si descriverà l’approccio proposto applicandolo ad un caso reale il
call center di una società di assicurazioni (Assitalia).
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
103
4.2. Il servizio e il prodotto
Il servizio non è altro che il “prodotto” di un processo ripetitivo le cui
caratteristiche sono determinabili dal produttore generalmente a base
umana, mentre il prodotto manufatto è il risultato di un processo
ripetitivo a base di macchina.
Il servizio ha, come il prodotto, delle caratteristiche qualitative reali
(quelle rilevanti per l’utilizzatore che sono le basi per la determinazione
della qualità del servizio secondo questi). E’ un evento di fruizione per il
cliente, di erogazione per il fornitore, al cui risultato concorrono diverse
variabili. Per capire quali effettivamente esse siano è necessario fare la
distinzione tra processo del servire (i cui standard sono determinati dal
produttore) e servizio, inteso come output (i cui standard sono
determinati dal cliente).
La natura del servizio lo rende diverso dal prodotto in base alle seguenti
differenze:
§ Caratteristica del processo produttivo: Il servizio non è altro che il
“prodotto” di un processo prevalentemente “a base umana”, mentre
il prodotto manufatto è, spesso, il risultato di un processo ripetitivo
“a base di macchina”.
§ Intangibilità: I beni possono essere descritti come oggetti fisici. Al
contrario il servizio è un’azione, una prestazione. Commercializzare
una prestazione è molto differente da commercializzare un oggetto
fisico. Le caratteristiche di un oggetto possono, per esempio, essere
apprezzate guardandolo, mentre non è la stessa cosa per il servizio
che è in sostanza un “prodotto intangibile che mira a migliorare lo
stato del cliente così come egli richiede” (UNI-ISO 8402). La
valutazione dell’esito del servizio presenta, quindi, una forte
componente di “intangibilità” perché entrano in gioco oltre alle
componenti oggettive che soddisfano i bisogni materiali del cliente,
anche quelle soggettive dovute al modo in cui il servizio giunge al
compimento (personale e non tangibile).
§ Partecipazione attiva del cliente al processo di produzione del
servizio: A differenza del prodotto facilmente standardizzabile, il
servizio si realizza nel momento in cui si concretizza il rapporto
cliente-fornitore. Spesso il servizio fornito tende ad essere
personalizzato in funzione delle esigenze espresse dal cliente.
L’assemblaggio finale può aver luogo in tempo reale ed il suo utilizzo
si ha durante la sua realizzazione. Questo implica che la qualità
associata all’esperienza del servizio è in parte funzione del processo
di erogazione, ma soprattutto legata all’interazione del cliente con le
funzioni che lo erogano.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
104
§
Eterogeneità: E’ difficile riprodurlo consistentemente ed esattamente
e non c’è possibilità di revisione prima che venga consegnato al
cliente ( non si può recuperare un cattivo servizio) proprio perché
produzione e consumo sono spesso contestuali [Leo93]. L’erogazione
del servizio tenderà in qualche modo a differire nel corso del tempo o
al variare dei clienti. Conseguentemente nell’ambito delle diverse
transazioni è lecito aspettarsi un certo grado di variabilità.
§ Deperibilità: Poiché il servizio è una prestazione, non può essere
immagazzinato. La sua deperibilità crea problemi di capacità per
l’organizzazione di questo. Inoltre le capacità di servizio disponibili
ma inutilizzate, durante un determinato periodo di tempo risultano
effettivamente dissipate e sprecate.
In conclusione occorre considerare la stretta correlazione tra fornitore e
cliente che nel servizio si realizza: per meglio comprendere la qualità di
quest’ultimo occorrerà analizzare il processo del servire , caratterizzato
da standard qualitativi spesso definiti dal produttore, ed il suo output,
il servizio, le cui specifiche sono, invece, determinate dal cliente.
La norma ISO 8402 (Qualità – Termini e definizioni) definisce il Servizio
come:
“Risultato di attività svolte, sia all’interfaccia tra fornitore e cliente che
all’interno dell’organizzazione del fornitore, per soddisfare le esigenze
del cliente.”
Queste caratteristiche peculiari del prodotto “servizio” rendono
particolarmente critica la misurazione delle performance del fornitore,
infatti tutti gli indici tradizionali di rendimento, non conformità,
produttività sono fortemente legati al beneficio che il cliente ne trae, al
valore aggiunto che viene trasferito alla sua attività, in sostanza,
dipendono direttamente dalla Customer Satisfaction.
Un servizio erogato in maniera particolarmente Efficiente, cioè con
l’utilizzo ottimale delle risorse dell’azienda, se non è Efficace, cioè non
soddisfa i bisogni del cliente, non ha valore e rischia di portare a gravi
perdite di immagine per l’azienda. La definizione delle necessità e delle
aspettative è una fase fondamentale del processo di progettazione del
servizio, in quanto il fornitore deve cercare di far esplicitare al cliente
anche i bisogni impliciti e non chiaramente definiti, così da non far
insorgere insoddisfazione già dalla fase contrattuale.
A supporto di quanto detto si possono citare i dati di alcune ricerche
della “American Management Association” sugli acquisti, dalle quali
risulta che circa il 65% del volume di affari nelle imprese sono acquisti
ripetuti, quindi riferiti a clienti soddisfatti e fidelizzati, e che il costo di
acquisizione di nuova clientela è 5 volte superiore a quello relativo al
mantenimento di quella già esistente. Quindi conviene soddisfare i
clienti a fondo e cercare di renderli “fedeli” alla propria azienda, e per
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
105
fare ciò è indispensabile instaurare uno stretto rapporto con il cliente,
venendo a conoscenza dei desideri ed impegnandosi a trovare il modo di
esaudirli.
4.3. La Qualità del servizio in letteratura
“La qualità del servizio é un concetto misurabile per analizzare la
soddisfazione dei propri clienti. Il buon governo dell’azienda richiede il
consapevole supporto della misurazione, intesa come processo di
conoscenza. La valutazione di una qualità del servizio non può
prescindere da una misurazione del livello di soddisfazione della
clientela (fenomeni di mercato) e dell’efficienza dei processi aziendali
(fenomeni d’azienda) che concorrono a determinare tale livello” [Col87].
Pertanto la qualità del servizio può essere sinteticamente definita come:
Q S=
Q
Qualitá attesa
= A
Qualitá realizzata Q R
Quando si parla di efficienza dei processi aziendali si fa riferimento alla
qualità offerta, quando, invece, si vuole monitorare l’impatto sul cliente
ed il suo livello di soddisfazione, allora é più opportuno andare a
valutare la qualità percepita del servizio.
“La qualità percepita é la misura con cui un prodotto/servizio assolve le
funzioni attese dall’utente” [Col97]. In letteratura la qualità del servizio
é stata definita come il risultato del confronto tra quello che i clienti
ritengono che il fornitore debba loro offrire e le prestazioni che il
fornitore é in grado di erogare effettivamente [Gho94], e quindi sempre
come rapporto tra una realizzazione ed un’attesa.
Spesso si verifica una differenza tra il servizio che l’acquirente si
aspetta (servizio atteso) e la percezione che lo stesso riceve in relazione
al servizio effettivamente ottenuto (servizio percepito). Se questa
differenza é importante perché in sede di contrattazione non si sono
definiti i dettagli del servizio, l’immagine del fornitore finirà per uscirne
fortemente danneggiata.
Per esempio, un cliente può essere portato a ricordare sempre, a
proposito di un fornitore, quell’unico caso in cui le cose sono andate
male e non cercare invece di ridimensionare l’importanza di questo caso
mettendolo in relazione ai tanti altri in cui le forniture si sono svolte
regolarmente.
Il cliente confronta continuamente il SERVIZIO PERCEPITO ed il
SERVIZIO ATTESO; il risultato di questo processo sarà la QUALITA’
PERCEPITA DEL SERVIZIO [Gro82].
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
106
La qualità del servizio dipende, quindi, da queste due variabili [Col87] e
[Gal91], é quindi necessario conoscere quali siano le risorse e le attività
che, all’interno dell’azienda, hanno incidenza su di esse.
Alla luce dei benefici ricercati e delle conoscenze, convinzioni ed
esperienze maturate, il consumatore qualifica le proprie attese con
riferimento ad un insieme di attributi rilevanti dell’offerta,
specificandone la gerarchia e l’intensità ritenute ottimali. In tal modo
definisce la composizione del servizio per lui ideale e su questa base,
attraverso la comparazione degli elementi differenziali percepiti,
analizza le alternative esistenti sul mercato apprezzando la qualità
offerta e sceglie. Dopo la fruizione del servizio, valuta la qualità del
servizio considerando il paragone tra le sue attese e le sue percezioni.
Gronroos [Gro82] afferma che per controllare la qualità del servizio
bisogna:
- definire come la qualità del servizio é percepita dal consumatore
- definire quali sono le risorse e le attività che la influenzano e quindi
come l’azienda può incidere sulla qualità del servizio.
La qualità del servizio dipende dal fatto che il cliente é influenzato da
COME egli riceve il servizio (qualità funzionale), oltre che da COSA
riceve (risultato del servizio ossia qualità tecnica).
La qualità tecnica é riferita al risultato del servizio; per esempio, nel
caso di un’officina per la riparazione di autovetture, é la disponibilità
della macchina al momento concordato, la sua pulizia e le sue
condizioni meccaniche.
La qualità funzionale é relativa all’interazione tra chi eroga e chi riceve il
servizio ed alla percezione che il cliente ha di questo. Ancora nel caso
dell’officina, essa é relativa alla quantità di spiegazioni che il meccanico
fornisce al cliente, alla comunicazione direttamente al cliente nel caso ci
sia un ritardo o un ulteriore lavoro da fare.
Entrambe queste grandezze vanno ad incidere sulla qualità percepita
dal cliente.
Ovviamente le dimensioni della qualità funzionale non possono essere
determinate oggettivamente e quantitativamente come le dimensioni
tecniche.
Quindi, i contatti con il cliente, l’apparenza, il comportamento,
l’accessibilità sono elementi che agiscono direttamente sulla qualità
funzionale. Mentre il Know-how dell’azienda, i macchinari, i sistemi
informativi e le soluzioni tecniche agiscono sulla qualità tecnica.
In accordo con Swan e Comb [Swa76] che parlano di prestazione
tecnica e prestazione funzionale, anche Gronroos afferma che la qualità
tecnica é una condizione necessaria ma non sufficiente per garantire la
soddisfazione del cliente.
Una qualità tecnica accettabile é il prerequisito per una qualità
funzionale di successo, ma i problemi temporanei di qualità tecnica
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
107
possono essere scusati dai consumatori se la qualità funzionale é
sufficientemente buona.
Sasser, Olsen e Wyckoff [Sas78] hanno anch’essi proposto tre
dimensioni relative al processo di erogazione del servizio: i materiali, le
attrezzature ed il personale .
Attivitá di marketing,
esperienze passate
SERVIZIO
ATTESO
Qualità percepita
del servizio
SERVIZIO
PERCEPITO
Immagine
Contatti
con il
cliente
Soluzioni tecniche
Know
how
QUALITA’
TECNICA
macchine
Sistemi computerizzati
Atteggiamenti
QUALITA’ Relazioni
FUNZIONALE interne
Chiarezza
Accessibilitá
Apparenza
Figura 4.1: La qualità del servizio in Gronroos [Gro82].
Lehtinen e Lehtinen [Leh82] individuano tre aspetti della qualità: la
qualità fisica (riguardante aspetti fisici del servizio), la qualità aziendale
(riguardante il profilo dell’azienda), la qualità interattiva che deriva
dall’interazione tra il personale di contatto ed il cliente. Essi affermano,
inoltre, che é necessario distinguere tra la qualità associata al processo
di erogazione e quella associata al risultato del servizio.
S. Boomsma [Boo91] definisce la qualità del servizio come la risultante
delle impressioni e dei giudizi che il cliente ricava da ogni particolare
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
108
osservabile prima, durante e dopo la fornitura del servizio; dette
impressioni possono essere classificate in tre categorie:
- qualità tecnica (COSA): qualità che si può paragonare alla qualità del
prodotto (la differenza é che la prima si può descrivere con le specifiche
tecniche).
- qualità funzionale (COME): riguarda il modo in cui l’azienda struttura
le sue consegne.
- qualità di relazione(CHI): dipende dalle relazioni che gli addetti hanno
con i clienti (valida in particolare per un’azienda di servizi).
Una versione modificata dell’analisi degli aspetti salienti della qualità
del servizio é quella presentata da Parasuraman [Par85] dove vengono
individuati come aspetti salienti della qualità percepita del servizio la
affidabilità, la credibilità, la competenza, l’accessibilità al servizio, la
cortesia, ecc.
Parasuraman, Zeithaml, Berry hanno definito la qualità percepita del
servizio come l’intensità e la direzione della discrepanza tra le percezioni
e le aspettative che i clienti hanno del servizio; questa percezione é
collocabile su una scala che va dalla qualità ideale a quella
inaccettabile in funzione della distanza tra servizio atteso e servizio
percepito.
Il modello concettuale da essi elaborato è presentato nella Figura 4.2.
Questo modello mostra le attività salienti di un’organizzazione di servizi
che influenzano la percezione della qualità. Mostra, inoltre, le
interazioni tra queste attività ed identifica i legami tra le attività chiave
relative all’erogazione di un livello della qualità del servizio
soddisfacente.
Secondo Parasuraman, Zeithaml e Berry, la discrepanza tra le
percezioni e le attese del consumatore (Gap5) è funzione di altri quattro
differenziali esposti nel seguito brevemente:
- differenziale tra le attese del consumatore e le percezioni del
management di queste (Gap1): il management può non avere una
giusta percezione di ciò che il consumatore si aspetta;
- differenziale sulle specifiche della qualità del servizio (Gap2): ci può
essere incapacità da parte del management di trasporre le attese del
cliente in specifiche della qualità del servizio. Questo differenziale si
può avere in fase di progettazione del servizio;
- differenziale di erogazione del servizio (Gap3): le linee guida per
l’erogazione del servizio non garantiscono un servizio di alta qualità.
Ci possono essere molte ragioni per questo gap come la carenza di
un supporto sufficiente dello staff di front-line, i problemi di
processo;
- differenziale di comunicazione esterna (Gap4). le attese del cliente
sono formate dalle comunicazioni esterne di un’organizzazione. Per
ridurre questo gap un’organizzazione deve spiegare accuratamente il
servizio offerto ed il modo in cui questo è erogato.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
Passa -parola
Bisogni personali
109
Esperienze passate
SERVIZIO ATTESO
Gap5
SERVIZIO PERCEPITO
Consumatore
Fornitori
Erogazione del servizio
Gap3
Gap1
Gap4
Comunicazioni
esterne
al consumatore
Trasformazioni delle
percezioni in specifiche
di servizio
Gap2
Percezioni del management
delle attese del
consumatore
Figura 4.2: La qualitá del servizio in Parasuraman, Zeithaml e Berry.
Dalle definizioni riportate in letteratura è evidente che il problema di
misurare e controllare la qualità del servizio nasce da una implicita
difficoltà nel tradurre e comprendere le esigenze e i bisogni del cliente.
Occorre di conseguenza definire opportunamente la modalità di raccolta
e analisi dei dati, a valle della quale apportare le opportune modifiche al
sistema di erogazione del servizio in un ottica di miglioramento
continuo.
4.4. Le dimensioni della qualità del servizio
Si considerino le sei dimensioni della qualità individuate in [Neg92]:
§ Tecnica
§ Economica
§ Organizzativa
§ Relazionale
§ Immagine
§ Ambientale
Per ognuna di queste è necessario definire i fattori di interesse da
tenere sotto controllo, cercando di scegliere elementi realmente
indicativi dell’evoluzione qualitativa del processo di erogazione del
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
110
servizio. Delle sei dimensioni considerate non tutte possono essere
misurate con indicatori ricavabili direttamente dai dati aziendali, in
quanto alcune necessitano di apposite indagini di percezione di questi
aspetti da parte del cliente attraverso adeguati studi di Customer
Satisfaction, i quali verranno trattati nei prossimi paragrafi. Rientrano
in questa categoria la dimensione relazionale, quindi ciò che riguarda i
comportamenti e gli atteggiamenti, le attitudini e la competenza
specifica degli operatori, e la dimensione di immagine, considerando
proprio gli effetti psicologici e di atteggiamento dei clienti rispetto
all’azienda erogante il servizio.
Si tratteranno in primo luogo gli aspetti direttamente valutabili dagli
indicatori “fisici”, cioè ricavabili in modo più o meno diretto dai dati a
disposizione dell’azienda o attraverso apposite misurazioni.
4.4.1.
Indicatori “tangibili” del Servizio
Esistono un set di fattori che possono essere valutati semplicemente
osservando il processo di erogazione del servizio. Il monitoraggio e il
confronto con gli standard stabiliti porta ad avere una visione più
precisa del servizio offerto e delle performance da un punto di vista
interno all’organizzazione, quindi della qualità interna. Questa
prospettiva mette in evidenza gli sforzi fatti dall’azienda, in termini di
risorse mobilitate e di coinvolgimento del personale, per lo sviluppo e il
mantenimento di un sistema qualità efficiente ed efficace. Di seguito
verranno trattati invece quegli indicatori, ricavabili dalle indagini di
mercato e dai dati a disposizione dell’azienda, che, attraverso la
valutazione della durata del rapporto di fornitura o dell’ampliamento
della clientela, danno una stima della qualità del servizio offerto (qualità
esterna).
4.4.1.1.
Indicatori di qualità interna
L’implementazione di un sistema di indicatori per il controllo delle
attività di un’azienda ha bisogno in primo luogo di una chiara e precisa
definizione degli obiettivi del controllo stesso, nel senso di stabilire
preventivamente gli elementi più importanti da esaminare e in modo da
focalizzare l’attenzione su un ristretto numero di dati, più facili da
gestire e da interpretare.
4.4.1.1.1.
Dimensione tecnica
La dimensione tecnica rappresenta le caratteristiche fisiche,
visibili, del processo di erogazione del servizio e quindi più facilmente
misurabili. Gli indicatori da utilizzare vengono scelti sulla base di
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
111
considerazioni strategiche e di politica aziendale, cioè si devono
valutare, caso per caso, le necessità specifiche dell’organizzazione di
controllare gli andamenti di alcune prestazioni tecniche rispetto ad
altre. Come in ogni altra attività aziendale vanno considerate anche
opportune analisi economiche e di convenienza per quanto riguarda il
numero e la precisione delle indagini e degli indicatori da utilizzare, in
quanto, pur essendo le dimensioni tecniche relativamente le più facili
da misurare, la loro rilevazione rappresenta sempre un notevole
impegno di tempo e di risorse.
Tra i fattori più frequentemente utilizzati nella valutazione delle
prestazioni “tecniche” durante il processo di erogazione del servizio,
possiamo citare:
♦ i tempi: di consegna, di erogazione vera e propria, di risposta al
cliente, di attesa per il servizio, di gestione del disservizio;
♦ le prestazioni specifiche del servizio: precisione, affidabilità,
formazione necessaria per gli utenti, qualità e quantità dei servizi
“secondari” (di supporto) erogati;
♦ le condizioni contrattuali: vincoli, prezzi, condizioni di pagamento.
Il sistema informativo per accedere a questi dati deve solamente
riferirsi, ad esempio, al controllo dei tabulati di consegna delle merci,
oppure dal confronto tra la data di richiesta da parte del cliente di un
certo servizio e la data di erogazione dello stesso.
.Come è stato prima ricordato la scelta degli indicatori dipende dalle
condizioni aziendali, dal tipo di servizio erogato, dagli obiettivi dell’alta
direzione e soprattutto dalle indicazioni ricavate da eventuali lamentele
dei clienti su particolari aspetti dell’organizzazione e dell’attività svolta,
in quanto non bisogna dimenticare che l’obiettivo fondamentale per il
raggiungimento della qualità nei servizi è la soddisfazione delle
necessità e dei bisogni degli utenti.
4.4.1.1.2.
Dimensione economica
Le riflessioni economiche sull’erogazione del servizio prendono in
considerazione i costi sostenuti per realizzare una fornitura gradita al
cliente, che soddisfi i suoi bisogni espliciti, impliciti e latenti e che,
inoltre, utilizzi in modo efficiente le risorse interne dell’azienda,
evitando sprechi e costi inutili.
Necessitano delle misurazioni sui costi della qualità, intese come delle
valutazioni dell’entità di risorse messe in campo per la prevenzione di
eventuali disservizi, per la formazione, quindi, del personale sia di
front-line che di back-office, per l’impiego dei mezzi e supporti adatti
alla corretta erogazione del servizio e per il controllo e l’analisi delle
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
112
prestazioni aziendali, con i conseguenti sforzi di miglioramento e
correzione di eventuali fattori non adeguati. Bisogna valutare, in questo
contesto, anche l’impegno dedicato dall’alta direzione per dare ai
dipendenti chiare ed adeguate linee guida, di lavoro e di
comportamento, per la realizzazione e la corretta interpretazione della
politica aziendale, fattore questo misurabile quantitativamente con la
frequenza delle riunioni aziendali e con la valutazione dei mezzi di
comunicazione utilizzati.
A queste considerazioni ne vanno aggiunte altre sui costi della nonqualità, intesi come quelle spese sostenute dall’azienda per risarcire i
clienti insoddisfatti del trattamento ricevuto, per effettuare il ritiro e la
sostituzione di eventuale merce inesatta rispetto all’ordine oppure
consegnata in condizioni non accettabili, insomma per motivi imputabili
ad un’erogazione non conforme del servizio. Si possono considerare in
questa classe tutti quei costi sostenuti dall’azienda per la realizzazione
di determinati obiettivi, ma terminati in insuccessi, sia di
organizzazione interna che verso i clienti esterni, portando una perdita
economica e di immagine per l’azienda.
Proprio le considerazioni sull’immagine e sulla reputazione
dell’organizzazione fanno assumere a quest’ultima tipologia di costi
notevole importanza nell’ambito delle strategie aziendali, rendendo
necessaria un’adeguata misurazione dei dati a disposizione ed una
corretta analisi ed interpretazione dei segnali di allarme per eventuali
inefficienze.
In aggiunta alle misurazioni degli indici assoluti di impegno di risorse
per la qualità si possono utilizzare degli indici relativi che mettono in
rapporto i costi sostenuti, rappresentati dagli indici trattati prima, con
il livello di attività dell’azienda, ovvero con il fatturato, o il valore
aggiunto. In questo modo si riesce a valutare l’impegno effettivo della
direzione nell’ambito della qualità, sottolineando la necessità di
controllare l’impiego di risorse nel mantenimento, e nel miglioramento,
delle prestazioni “qualitative” aziendali in relazione all’effettivo volume
di attività.
Questi indici, sia quelli assoluti che relativi danno utili indicazioni circa
la politica per la qualità seguita dall’alta direzione, evidenziando
particolari sforzi sostenuti in alcuni periodi e portando i responsabili a
valutare poi l’efficacia dell’impegno assunto attraverso il confronto con i
risultati effettivamente ottenuti.
4.4.1.1.3.
Dimensione organizzativa
Per quanto riguarda la misurazione delle prestazioni dal punto di vista
organizzativo si possono utilizzare degli indici di Funzionalità ed
Efficienza delle attività di coordinamento ed organizzazione. La
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
113
valutazione di questi aspetti può essere realizzata attraverso indicatori
del tipo:
Funzionalità:
Flessibilità _ organizzat iva =
# Serv personaizz ati (T )
# ServTot (T )
Efficienza:
[ # Innovazioni introdotte in T ]
[ Tempo medio di introduzione di una variazione di un servizio]
Possono essere considerati indicatori dell’Efficienza dell’organizzazione
anche:
[ Incremento degli utenti nel tempo] (tra esercizi consecutivi)
[ Aumento del margine operativo ]
in quanto evidenziano una preferenza degli utenti per il modo di gestire
i servizi dell’azienda e la capacità di quest’ultima di aumentare il
fatturato gestendo al meglio i centri di costo, quindi sono segni tangibili
dell’abilità di gestione dell’alta direzione.
4.4.1.1.4.
Dimensione ambientale
Questa dimensione riguarda la facilità con cui il cliente può
accedere al servizio, le condizioni in cui si trova durante la fruizione
dello stesso e la funzionalità delle attrezzature e dei mezzi messi a sua
disposizione. Gli indicatori che possono essere utilizzati in questo
ambito sono, ad esempio:
Tempo di Accesso rispetto alla concorrenza =
Tm * ( Acc )
Tmconc ( Acc )
dove:
Tm*(Acc): tempo medio di accesso al servizio erogato dall’azienda
Tmconc(Acc): tempo medio di accesso ad un servizio analogo offerto dal
concorrente migliore
Accessibilità Nuovo Servizio=
# Tel (serv *)
# Tel (serv Trad )
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
114
#Tel(serv*): Numero medio di telefonate (o contatti) necessarie con il
nuovo servizio offerto
#Tel(servTrad): Numero medio di telefonate necessarie con il servizio
tradizionale
[# Guasti alle attrezzature a disposizione]
[Tempi di attesa al centralino automatico]
[ Numero linee telefoniche a disposizione per informazioni]
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
Dimensione
TECNICA
Obiettivi del
controllo
Tempi
Prestazioni
Condizioni
contrattuali
ECONOMICA
Costi della
Qualità
Costi della Non
Qualità
ORGANIZZATIV Funzionalità
A
Efficienza
AMBIENTALE
Condizioni
Funzionalità
Accessibilità
115
Indicatori
•
•
•
•
•
•
•
•
•
Consegna
Erogazione
Risposta
attesa per il servizio
gestione disservizio
Precisione
Affidabilità
Giorni di dilazione pagamenti
Livello prezzi rispetto
concorrenza
• % Fatturato per: - prevenzione
- formazione
- controllo
- innovazione
- qualità
• % Fatturato per: - risarcimenti
sostituzioni
• Flessibilità organizzativa
• Numero innovazioni introdotte
• Tempo di introduzione di una
variazione
• Aumento numero utenti
• Aumento margine operativo
• Numero linee telefoniche
• Numero guasti attrezzature
• Tempo di accesso rispetto alla
concorrenza
• Accessibilità nuovo servizio
• Tempi di attesa al centralino
Tabella 4.1 Indicatori ed obiettivi delle dimensioni tangibili del servizio
[Neg92]
4.4.1.2. Indicatori di qualità esterna
Sicuramente uno dei fattori che più dimostrano la bontà di un servizio
o di un prodotto è la fedeltà (“loyalty”) della clientela sia al
prodotto/servizio in questione, sia all’azienda o al marchio. Ricordando
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
116
che per acquisire un nuovo cliente si spende circa cinque volte in più,
in promozioni, sconti, campagne pubblicitarie, rispetto a quanto costa
mantenerne uno già acquirente, o utente per quanto riguarda i servizi,
abituale.
I seguenti sono solo indicatori parziali della Customer Satisfaction, in
quanto non analizzano le motivazioni del perché un cliente si rivolga o
meno all’azienda per l’erogazione del servizio, ma possono essere
utilizzati come campanelli d’allarme nel caso di una brusca caduta degli
indici o di trend decrescenti, sintomo di problemi e di carenze nel
processo di realizzazione del servizio.
Il Customer Retention Rate (CRR) è un indice della fedeltà degli utenti
ai servizi erogati dall’azienda ed esamina il rapporto tra il numero di
clienti che hanno continuato ad usufruire del servizio durante
l’intervallo di tempo considerato (nT) e il numero di clienti all’inizio del
periodo stesso (T0):
CRR nT =
RECUS(T0 + nT)
⋅100
NCUS(T0 )
CRR: Customer Retention Rate nel periodo considerato (nT)
RECUS: Customer Retention, numero di clienti rimasti fedeli all’azienda
al tempo T0+nT
NCUS: Number of Customers, numero totale di clienti presenti al
periodo iniziale
Naturalmente, non tutti i clienti hanno lo stesso peso, in termini
economici e di considerazione, per l’azienda, quindi con il Customer
Lifetime Value (CLV) si cerca attribuire al cliente un valore monetario in
base alla media del valore dei servizi resi, alla frequenza delle forniture
ed alla stima della durata del rapporto commerciale:
CLV = ATV ⋅ YFP ⋅ CLE
CLV: Customer Lifetime Value
ATV: Average Transaction Value ( $ )
YFP: Yearly Frequency of Purchase (1/tempo), frequenza degli acquisti
(o fruizione del servizio)
CLE: Customer Life Expectancy (tempo), aspettativa sulla durata del
rapporto di clientela
Un altro indicatore di Loyalty della clientela è l’Average Customer
Seniority (ACS), che valuta l’anzianità media dei clienti, ossia la durata
media dei rapporti di fornitura:
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
N
ACS ( T0 + nT ) =
∑ NCUS
i =1
i
117
⋅i
NCUS ( T0 + nT )
ACS : Average Customer Seniority calcolata al tempo T0+nT
i : Periodo considerato (da 1 a N)
NCUSi : Numero clienti nel periodo i
NCUS(T0+ nT) : Numero totale di clienti al tempo T0+ nT
Per avere un’indicazione di massima sull’aumento o la
diminuzione del numero di clienti dell’azienda in un certo periodo si
può utilizzare il Customer Development Rate (CDR),
CDR (T0 + nT ) =
NCUS (T0 + nT ) − NCUS (T0 )
⋅100
NCUS ( T0 )
CDR : Customer Development Rate calcolato al tempo T0+nT
tenendo ben presente che questo non tiene conto se i clienti sono nuovi
o fidelizzati, quindi un valore positivo potrebbe derivare da una
campagna pubblicitaria o da una promozione particolarmente riuscita
invece che dalle prestazioni qualitative dell’organizzazione.
Gli indici presentati in questo paragrafo, data la loro semplicità,
vengono utilizzati soprattutto a titolo descrittivo, per evidenziare
particolari trend di crescita e di sviluppo dell’attività aziendale, per
presentare delle analisi sulla clientela e sulle abitudini degli utenti, per
avere promuovere particolari servizi o per gratificare i clienti più
assidui. La cosa da tenere sempre presente è che questi indici non
considerano i motivi per cui i clienti usufruiscono dei servizi
dell’azienda, i quali possono anche essere la mancanza di servizi
sostitutivi o la comodità logistica, implicazioni personali, presenza di
servizi complementari, quindi è molto importante che tutte le
valutazioni basate su di essi siano sempre seguite da premesse sulle
ipotesi che ne stanno alla base, da esposizioni approfondite della loro
struttura e degli obiettivi delle indagini svolte, in modo che i risultati
possono essere interpretati correttamente, senza il pericolo di attribuire
significati errati agli andamenti evidenziati. Per gli stessi motivi sopra
descritti, viene sconsigliato il loro utilizzo per fini decisionali o di
pianificazione, per i quali vengono utilizzati indicatori più affidabili,
precisi ed approfonditi.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
118
4.4.1.3. Controllo periodico degli indicatori
Dall’esigenza della precisione degli indicatori nasce la necessità di
effettuare, e quindi di pianificare preventivamente, un controllo
periodico sulla effettiva rispondenza dei dati elaborati con l’andamento
delle caratteristiche del servizio esaminate. Infatti, nel transitorio
iniziale dell’implementazione di un sistema di rilevazione ad indici, ne
vengono adottati un numero maggiore del necessario cercando di
capire: quali sono più sensibili alle variazioni dei fattori di interesse,
attraverso l’analisi di sensitività, quali danno indicazioni corrette
sull’andamento reale dell’erogazione del servizio e quali portano a
valutazioni distorte, quali infine sono tra loro correlati, cioè i valori degli
indici sono legati alle stesse caratteristiche del servizio.
Gli indici utilizzati devono essere periodicamente controllati in quanto,
oltre a possibili errori di sviluppo concettuale degli indicatori, per cui
non si hanno le informazioni ricercate, di solito si evidenziano dei trend
di miglioramento delle prestazioni nell’ambito dei fattori misurati e
tenuti sotto osservazione, mentre caratteristiche del servizio che prima
non erano considerate critiche, pur essendo comunque importanti,
presentano dei peggioramenti dovuti al fatto che i dipendenti prestano
maggiore attenzione agli aspetti che sanno essere misurati dalla
direzione, tralasciando quelli non considerati.
Per questo motivo di solito, ad intervalli stabiliti, vengono svolte delle
misurazioni a carattere globale del processo di erogazione del servizio,
paragonando i risultati dei diversi indici, valutando la coerenza delle
informazioni ricavate e confrontando le percezioni dei clienti con i valori
stabiliti internamente all’azienda.
4.4.2.
Indicatori “intangibili” del Servizio:
analisi di Customer Satisfaction
La identificazione del Servizio Atteso da parte del cliente nasce da un
processo che comprende le sue esigenze personali, le esperienze
passate, sia sullo specifico argomento, sia in generale, e le
comunicazioni informali recepite dal mercato. Sono importantissime a
questo livello le indagini presso la clientela per capire le loro reali
necessità e quindi permettere ai dirigenti di realizzare una corretta
percezione delle aspettative degli utenti, in modo da non creare delle
discordanze tra il servizio erogato e quello atteso.
Obiettivo delle analisi di Customer Satisfaction è di rilevare un quadro
preciso delle aspettative del cliente, quindi i dati ricavati devono essere
elaborati ed analizzati evidenziando i punti critici che necessitano di
maggiore controllo e di adeguati miglioramenti.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
119
Il programma di monitoraggio degli aspetti intangibili del servizio e
quindi della soddisfazione del cliente comprende, oltre che la rilevazione
vera e propria attraverso i sondaggi telefonici o la compilazione di
questionari, anche l’implementazione di sistemi di controllo su
particolari aspetti concordati con i clienti, le indagini fra i dipendenti
per sondare le condizioni di lavoro, le visite presso i clienti, se l’attività
svolta lo consente, la gestione reclami. Tutte queste attività consentono
di portare continui progressi all’organizzazione e di migliorare la
posizione dell’azienda sul mercato.
Il questionario di Customer Satisfaction è considerato il migliore
indicatore dell’andamento dei processi di erogazione del servizio ed
inoltre gli altri strumenti presentati sono riferiti più alle tecniche di
gestione ed organizzazione che alla misurazione delle prestazioni
realizzate dall’azienda. Viene comunque esposta una breve descrizione
delle tecniche citate, le quali, se implementate in modo corretto,
portano a notevoli vantaggi per l’organizzazione e per le funzioni
decisionali.
4.4.2.1. Score Cards
Le Score Cards (carte a punti), vengono utilizzate per tenere sotto
controllo degli aspetti del servizio erogato ad alcuni clienti, di solito i
più importanti per l’azienda a livello di volume di affari o dal punto di
vista strategico, attraverso l’osservazione di indicatori scelti in accordo
con i clienti stessi. L’implementazione di questo strumento coinvolge
direttamente l’utente ed è proprio quest’ultimo che deve definire, con
l’aiuto del responsabile del servizio, i fattori più importanti da
monitorare. Vengono definiti in questo modo degli indicatori specifici i
quali vengono valutati sia dal cliente che dall’azienda stessa,
evidenziando così il Gap esistente della percezione tra chi riceve e chi
realizza il servizio. Spesso questa differenza causa insoddisfazione nel
cliente e, nello stesso tempo, demotivazione nell’organizzazione, la quale
valutando in modo positivo l’erogazione del servizio, non riesce a
comprendere le lamentele raccolte. Una volta stabiliti i punti di
disaccordo tra le diverse valutazioni, l’azienda deve implementare le
adeguate azioni correttive di miglioramento, andando incontro alle
esigenze ed alle indicazioni date dall’utente interpellato. La stretta
interazione tra cliente ed azienda che si crea utilizzando le Score Cards,
come abbiamo detto, richiede un impegno non sottovalutabile da parte
del fruitore del servizio, ma sicuramente questo viene ripagato dalla
maggiore attenzione nei suoi confronti e dalla realizzazione di un
servizio molto vicino alle sue esigenze reali. Questo strumento dà
risultati sempre migliori con il prolungarsi del periodo di collaborazione
azienda – cliente, naturalmente se quest’ultimo è rappresentativo di
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
120
una buona parte della clientela e se gli indicatori vengono scelti in
maniera accurata.
4.4.2.2. Reply Card
Uno strumento particolare nella rilevazione della qualità è la Reply
Card, in quanto valuta la realizzazione del servizio nel momento stesso
della sua fruizione da parte del cliente. Ad esempio nel servizio di
assistenza tecnica, l’incaricato consegna una Reply Card prestampata
all’utilizzatore finale e chiede di compilarla e riconsegnarla direttamente
a lui, oppure rinviarla all’azienda. Questa Card contiene alcune
domande sulla realizzazione del servizio, sulla competenza del tecnico e
sulla soddisfazione globale del cliente. L’indagine è molto semplice ma
richiede una corretta valutazione dei risultati da parte dell’azienda. I
punteggi negativi richiedono un nuovo contatto con il cliente per
approfondire i motivi dell’insoddisfazione e quindi, dopo aver
evidenziato le cause, viene dato il via alle opportune azioni correttive.
Anche i punteggi particolarmente positivi devono essere analizzati per
poter ottenere in futuro gli stessi risultati con tutti gli altri clienti.
L’utilizzo delle Reply Cards completano le altre indagini svolte e quindi
vanno debitamente incentivate presso i clienti, sottolineando lo sforzo
compiuto dall’azienda per soddisfare i loro bisogni. I risultati di queste
analisi vanno registrati e conservati in opportuni database, dai quali poi
si possono ricavare varie rappresentazioni, stratificate per servizio, per
cluster di clienti o per personale coinvolto nella realizzazione, dando
indicazioni alla direzione di insufficienze nella definizione del servizio,
nella percezione delle necessità di alcuni clienti o di particolari
mancanze nella formazione dei dipendenti.
4.4.2.3. Gestione reclami
Anche la gestione reclami può essere affiancata agli altri strumenti,
tenendo però conto del basso tasso di utilizzo di questo servizio offerto
dalle aziende. Infatti, da studi svolti dalla “American Management
Association”, solo il 4% circa dei clienti insoddisfatti si lamenta con
l’azienda, soprattutto se le procedure di reclamo sono particolarmente
complicate o percepite come inutili. Comunque, l’implementazione di
un’efficiente servizio reclami può portare a nuove informazioni e, in
molti casi, porta al mantenimento del cliente (customer retention), che,
sebbene insoddisfatto, trova nell’attenzione dell’organizzazione un
motivo per sceglierla nuovamente. L’analisi dei reclami deve essere
eseguita in modo sistemico, cioè attraverso uno studio del diagramma
causa-effetto (diagramma di Ishikawa) devono essere evidenziati i fattori
più frequenti di reclamo e ad ognuno di questi deve essere associato un
livello di gravità. Al verificarsi di un reclamo, oltre alla classificazione ed
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
121
archiviazione di tutti i dati che lo riguardano, devono essere allertati
immediatamente i responsabili del reparto o del livello dove si è
verificata la non conformità e devono essere avviate le necessarie azioni
correttive. In seguito deve essere verificata e misurata l’efficacia delle
azioni intraprese ed inoltre devono seguire opportune misure preventive
che evitino il ripetersi del reclamo. Per ogni reclamo ricevuto, una
corretta gestione dello stesso prevede la registrazione dei tempi di
risoluzione e di intervento ed il confronto con i dati già a disposizione
sui casi analoghi. Ricordando il principio di miglioramento continuo da
applicare al sistema qualità aziendale, le prestazioni nella risoluzione
dei reclami dovrebbero essere in costante aumento, quindi è importante
produrre ad intervalli regolari, ad esempio mensilmente, dei reports
sull’attività di gestione dei reclami, evidenziando i reparti o le funzioni
migliori o peggiori, motivando così il personale a considerare
maggiormente le lamentele dei clienti.
4.4.2.4. Transaction monitoring
Per quanto riguarda il miglioramento dei processi interni e delle
condizioni di lavoro, esiste uno strumento molto efficace, se investito
della debita importanza dalla direzione. Questo strumento è
denominato Transaction monitoring e consiste in periodiche indagini
interne, svolte solitamente attraverso brevi questionari, rivolte ai
dipendenti, sulle condizioni di lavoro, sulle prestazioni richieste dai
responsabili e i risultati ottenuti in realtà, sulla motivazione espressa
nel lavoro e sul livello di formazione e di preparazione desiderato e
acquisito. Nel questionario vengono proposte delle domande aperte per
sondare l’opinione dei lavoratori ed eventualmente, raccogliere spunti di
miglioramento e di sviluppo.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
122
4.5. Metodi per la valutazione della qualità
del servizio in letteratura
A valle delle considerazioni sulla complessità di misura e controllo della
qualità del servizio, in questo paragrafo si intende mettere in luce lo
stato dell’arte riguardo agli strumenti proposti per la misura della
qualità del servizio.
Nel valutare la qualità del servizio occorre distinguere tra due principali
categorie di indicatori che contestualmente vanno a definire le
caratteristiche del servizio erogato e la sua capacità di soddisfare le
esigenze del cliente.
In primo luogo esistono una serie di indicatori misurabili o
quantificabili che possono essere distinti in indicatori di qualità interna
e indicatori di qualità esterna. I primi sono essenzialmente ricavati
esaminando il processo di erogazione del servizio internamente
all’azienda, i secondi riguardano l’effetto che la qualità percepita ha sul
cliente. a qualità percepita derivano da
4.5.1.
Il Servqual
Il modello concettuale impostato e progressivamente perfezionato da
Parasuraman, Zeithaml e Berry [Par85], [Par88] e [Par91] è quello di
valutare il divario tra le aspettative del cliente e la percezione che questi
ha della prestazione ricevuta (rispetto alla specifica azienda di cui si
intende valutare la qualità del servizio).
La qualità del servizio può essere pertanto misurata nel modo seguente:
QS =
5
∑ wi QSi
i =1
dove:
QS i = punteggio SERVQUAL per la dimensione i-esima
n i = numero di attributi per la dimensione i-esima
w i = peso associato a ciascuna dimensione
Il punteggio per ogni dimensione si può ricavare come:
QS i =
ni
∑ (P j
j =1
−Ej)
dove:
P j = percezione della prestazione riferita all’attributo j
E j = attese sulla qualità del servizio per l’attributo j
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
123
Questo modello non è un modello previsivo ma semplicemente una
misura specifica in cui la qualità è misurata come percezioni meno
attese (P-E), sebbene gli autori, successivamente contrastati da Teas
[Tea93] abbiano affermato che si hanno progressivamente livelli
crescenti di qualità se il punteggio SERVQUAL aumenta costantemente
da -6 a +6. ( Le scale utilizzate per la misura di P-E prevedono che il
punteggio più alto per un attributo si abbia quando il punteggio delle
attese è +1 e quello delle percezioni è +7, pertanto il punteggio
SERVQUAL per quell’attributo è +6. Viceversa il punteggio più basso è 6).
4.5.1.1. La struttura
Dal punto di vista operativo il sistema SERVQUAL consiste in un
sistema di questionari strutturati in modo tale da rilevare da una parte
le percezioni e le aspettative degli utenti, dall’altra il livello di
importanza che ogni utente attribuisce a ciascun parametro del servizio
(quest’ultimo aspetto viene valutato chiedendo direttamente al cliente di
ripartire tra le varie dimensioni un totale di 100 punti).
I parametri del servizio sono fattori riassuntivi dei singoli indicatori. Il
livello di importanza che ciascun utente attribuisce a ciascun
parametro permette, in particolare, di confrontare i risultati ponderati
da quelli non ponderati e quindi valutare se nei fattori ritenuti più
importanti dagli utenti, il servizio erogato funziona più o meno
efficacemente.
Le scale di valutazione a 7 punti dedicate rispettivamente a misurare le
aspettative del cliente e le loro percezioni, i cui estremi corrispondono al
“Pieno accordo” ed al “Pieno disaccordo” misurano agli attributi del
servizio di ciascuna azienda.
Tutti questi attributi sono relativi a 5 dimensioni, espresse in 22 + 22
voci della qualità complessiva del servizio, che nelle imprese di servizi
sono:
Aspetti tangibili: aspetto delle strutture fisiche, dell’attrezzatura, del
personale e dei mezzi di comunicazione;
Affidabilità: capacità di prestare il servizio promesso in modo affidabile
e preciso.
Capacità di risposta: volontà di aiutare i clienti e fornire prontamente
il servizio.
Capacità di rassicurazione: grandezza che combina competenza,
cortesia, credibilità e sicurezza.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
Empatia: grandezza che
comprensione del cliente 1.
combina
accesso,
comunicazione
124
e
L’applicazione pratica del SERVQUAL si effettua [Par96a] [Par96b]
rivedendo la sua forma standard e apportando gli aggiustamenti
necessari per rilevare il giudizio del cliente, modificando adeguatamente
gli attributi della sezione dedicata ad ogni dimensione, in relazione al
contesto dell’azienda in cui si sta operando.
4.5.1.2. Applicazioni del SERVQUAL
Le possibilità di utilizzo del SERVQUAL sono:
- determinare, per ogni attributo del servizio, il valore dello scostamento
medio tra percezioni ed aspettative dei clienti;
- valutare la qualità del servizio erogata da un’impresa per ciascuna
delle cinque dimensioni;
- calcolare il punteggio globale ponderato SERVQUAL di un’impresa.
Questo punteggio tiene conto non solo degli scostamenti della qualità
del servizio riferiti alle singole dimensioni ma anche dell’importanza
relativa di ognuna di queste (come indicato dal punteggio attribuito ad
ogni dimensione);
- seguire nel tempo l’evoluzione delle aspettative e delle percezioni dei
clienti (rispetto ai vari attributi del servizio e/o alle dimensioni
SERVQUAL);
- confrontare i punteggi SERVQUAL di un’impresa con quelli dei
concorrenti;
- identificare ed esaminare i segmenti di clientela che valutano in
maniera significativamente differente le performance di servizio
dell’impresa;
Il SERVQUAL risulta particolarmente valido quando viene impiegato,
periodicamente, per eseguire a posteriori l’andamento della qualità del
servizio e quando é utilizzato con altri indicatori.
1
Sebbene queste dimensioni rappresentano distintamente i diversi aspetti della qualità del
servizio, esse sono correlate come risulta evidente dalle analisi degli stessi autori in cui essi
effettuano la rotazione obliqua sulle soluzioni dei fattori.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
125
4.5.1.3. Il dibattito sul SERVQUAL
Numerosi studi basati sull’uso del SERVQUAL hanno criticato questo
strumento di indagine ponendo diversi interrogativi riguardanti
soprattutto il numero di dimensioni ed il punteggio differenziale.
- il numero di dimensioni
Studi successivi non sono stati in grado di riprodurre la struttura a 5
dimensioni come quella presentata da Parasuraman, Zeithaml e Berry;
per questi il numero di dimensioni varia da 2 a 8. Il motivo di questo
può essere dovuto sia alle differenze sulla raccolta dei dati e nelle
procedure di analisi sia al grado con cui le valutazioni dei clienti di una
specifica azienda si mantengono più o meno simili attraverso le diverse
dimensioni (e quindi queste possono aumentare o diminuire).
- la necessità di misurare la qualità del servizio come differenza tra
punteggi
L’applicazione operativa di qualsiasi modello concettuale come
differenza tra due altri modelli è stata messa in discussione per motivi
psicometrici, specialmente nei casi in cui le differenze tra punteggi sono
utilizzate per analisi multivariate. Coloro che criticano la validità delle
differenze tra punteggi hanno suggerito che le misure dirette del gap tra
aspettative-percezioni sono psicometricamente superiori. Ma le evidenze
empiriche disponibili non hanno dimostrato la superiorità delle misure
dirette.
4.5.2.
Il Qualitometro
4.5.2.1. Il modello concettuale
Il progetto QUALITOMETRO attualmente in sperimentazione presso la
Biblioteca del Dipartimento di Sistemi di Produzione ed Economia
dell’Azienda (DISPEA) del Politecnico di Torino [Fra97] é stato concepito
cercando di effettuare valutazioni e controlli in linea della qualità di un
servizio o meglio del differenziale tra qualità attesa e percepita,
affrontando due tipi di problemi relativi agli altri strumenti di solito
utilizzati:
- La scalarizzazione delle informazioni :
Negli altri strumenti durante codifica viene introdotta una metrica
arbitraria che può portare ad un’errata interpretazione dei dati raccolti,
quando, in fase di pre-elaborazione dei dati, le scale di valutazione a
punti vengono trasformate in scale numeriche lineari ad intervallo che
consentono di ordinare gli oggetti in modo tale che differenze tra valori
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
126
consecutivi della scala siano tra loro uguali2. Con queste scale, non
essendo definita l’origine, si possono eseguire solo operazioni di
uguaglianza, disuguaglianza, ordinamento e sottrazione.
Negli stessi strumenti si assume, inoltre, che il modo di intendere la
scala sia lo stesso per tutti i soggetti intervistati e non vari nel tempo
anche per quelli che usufruiscono periodicamente del servizio,
entrambe ipotesi fortemente critiche dal punto di vista dell’aggregabilità
e l’interpretabilità dei dati.
La scalarizzazione può causare, quindi un effetto di distorsione sulle
informazioni raccolte minandone “arbitrariamente” la veridicità.
Nel QUALITOMETRO, invece, per superare l’attività di codifica
numerica delle scale di valutazione, si lavora sulle proprietà ordinali
delle informazioni rilasciate dall’intervistato, ed inoltre si fa a meno
dell’ipotesi di omogeneità dei sistemi di riferimento adottati dagli
intervistati.
-Valutazione contemporanea delle attese e delle percezioni
Le stime di qualità attesa e di quella percepita vengono effettuate,
differentemente dagli altri strumenti,
separatamente con un
questionario di 8+8 domande (8 per la valutazione delle attese e 8 per la
valutazione delle percezioni), limitando al minimo i pericoli di
inquinamento reciproci.
La qualità attesa é rilevata mediante un questionario prima che l’utente
usufruisca del servizio, mentre quella percepita sullo stesso dopo averlo
ricevuto.
4.5.2.2. La struttura
L’organizzazione dello strumento, con alcune varianti, é fondata sulle
determinanti della qualitá di un servizio presentate nel modello di
Parasuraman, Zeithaml e Berry. Il vantaggio del QUALITOMETRO, a
differenza degli altri metodi, é quello di essere meno intrusivo nei
confronti dell’utente.
L’indagine viene effettuata con una scheda con scale di valutazione a 7
punti.
I dati ottenuti possono essere trattati similmente agli altri questionari
(cardinalizzazione), oppure si può lavorare sulle proprietà ordinali delle
informazioni ottenute dall’intervista.
2
Per esempio, se si attribuiscono ai due estremi di una scala a sette punti le
affermazioni “pieno accordo’’ e “pieno disaccordo” i simboli numerici 1 e 7, e a
ciascuno dei punti intermedi un simbolo compreso tra 1 e 7 e si considera la
distanza tra due qualunque punti successivi identica su tutta la scala, si é di fatto
operato il passaggio da una scala ordinale ad una cardinale ad intervallo.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
127
Per ogni intervistato, mediante l’analisi multicriteri, viene analizzata la
prevalenza della qualità attesa sulla qualità percepita (Q A > Q P ) o
viceversa.
Le tecniche di supporto alle decisioni dell’analisi a multicriteri (MCDA)
consentono l’analisi e l’aggregazione delle preferenze espresse da un
decisore in modo da consentire un confronto tra due alternative a ed b
sulla base di vettori di valutazione g( a) e g( b).
Quella utilizzata dal QUALITOMETRO é una relazione binaria detta di
surclassamento (o prevalenza): a surclassa b -tenuto conto delle
preferenze implicite ed esplicite del decisore- se dati i criteri di
valutazione delle due alternative, si può ammettere l’ipotesi che a é
preferita ad b, ma nessuna delle due alternative é dominante in senso
stretto.
Il confronto viene, quindi, effettuato senza assegnare un punteggio a
ciascuna alternativa, ma individuando solo quella dominante.
4.5.2.3. Confronto tra SERVQUAL e QUALITOMETRO
Il SERVQUAL ed il QUALITOMETRO sono stati confrontati [Cig97]
attraverso una sperimentazione su 15 clienti di un’azienda che
provvede all’assistenza tecnica di apparecchiature per le prove su
materiali per simulazioni di laboratorio.
I clienti che hanno utilizzato entrambi i questionari li hanno ritenuti
entrambi validi, ma hanno fatto notare che il QUALITOMETRO è di
facile utilizzo e più immediato, mentre il SERVQUAL risulta molto più
lungo da compilare.
Un pregio del SERVQUAL è quello di formulare le domande relative ai
pesi di importanza delle dimensioni in modo più efficace rispetto al
QUALITOMETRO. Questo aspetto è stato evidenziato dalla
sperimentazione in cui si è rilevata una maggiore differenziazione nelle
attribuzioni dei valori da parte dei clienti.
4.5.3.
IL SERVPERF
4.5.3.1. Il modello concettuale
Elaborato da Cronin, Taylor e Steven [Cro92b] e [Cro94] è uno
strumento che valuta la qualità del servizio solo tramite le percezioni e
senza i pesi di importanza.
QS =
5
∑ Pi
i =1
Dove la percezione relativa alla dimensione i-esima si puó scrivere
come:
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
Pi =
128
ni
∑ w j Pj
j =1
dove:
i = singola dimensione
n i = n° di attributi per la dimensione i
P j = performance relative all’attributo j-esimo
w j = peso attribuito all’attributo j-esimo
Le tesi di Cronin dimostrano che le percezioni misurate più
sinteticamente dalla scala delle sole performance da sole sono
sufficienti a misurare la soddisfazione degli interrogati.
Il vantaggio è quello di ridurre sensibilmente le domande poste (circa il
50%) e come dimostrato da Cronin e Taylor [Cro92b], l’analisi del
modello supporta la superiorità della scala SERVPERF rispetto al
SERVQUAL.
4.5.3.2. La struttura
La struttura del questionario è del tutto simile a quella del SERVQUAL
relativa alle sole percezioni. Le scale di valutazione sono comparative a
7 punti. Mentre le dimensioni hanno la stessa importanza, la
valutazione dell’importanza relativa di ogni singolo attributo è chiesta
sempre al cliente, l’unica differenza è che non si chiede di allocare i 100
punti come nel SERVQUAL, ma di utilizzare ancora una scala simile a
quella usata nelle altre sezioni del questionario.
4.5.4.
Normed Quality
4.5.4.1. Il modello concettuale
Teas [Tea93] e [Tea94], definisce un indice della qualità percepita
calcolato come una differenza tra il livello massimo assoluto attribuito a
ciascun attributo e l’ideale realizzabile considerato in relazione alla
situazione in cui il servizio viene erogato.
QS = NQ =
5
∑ wi NQi
i =1
Il punteggio NQ relativo alla dimensione i-esima si può esprimere con la
seguente espressione, dove c’è una netta distinzione tra attesa reale e
attesa realizzabile per ogni attributo del servizio.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
NQ i =
∑ w j [(P j
ni
i =1
) (
− I j − A Ej −I j
129
)]
P j = percezioni relative all’attributo j-esimo;
AEj = attesa realizzabile per l’attributo j-esimo;
I j = attesa ideale per l’attributo j-esimo;
4.5.4.2. La struttura
La struttura del modello NQ è sempre quella di un questionario a più
sezioni , il numero di dimensioni è sempre 5, cambia invece il numero
di enunciati che sono 10+10+10+10+10.
Le scale utilizzate sono sempre comparative a 7 punti.
4.5.5.
TWO-WAY Model
Tra gli altri strumenti proposti, nel TWO-WAY MODEL [Sch94]
l’intervistato valuta numerose caratteristiche del servizio sotto due
aspetti uno “oggettivo” (con riferimento alla presenza ed all’assenza di
alcuni attributi della qualità) ed uno "soggettivo” (che implica
l’insoddisfazione o la soddisfazione per il servizio ricevuto). Un
questionario con coppie di domande relative ai due aspetti permette di
classificare le risposte date ai clienti e valutare il servizio offerto.
La valutazione TWO-WAY è semplicemente rivolta ad identificare,
derivando le aspettative del cliente dalle risposte ai questionari, gli
attributi che il servizio ha o dovrebbe avere e valutando in base a questi
il servizio offerto.
Gli attributi della qualità sono classificati, nelle seguenti categorie:
Attributi attrattivi: sono attributi la cui presenza dà soddisfazione ma la
cui assenza non causa insoddisfazione;
Attributi one-dimensional: Attributi la cui presenza causa soddisfazione,
ma la cui assenza genera insoddisfazione;
Attributi “must-be”: Attributi la cui presenza è implicita ed è accettata
senza creare soddisfazione, ma la cui assenza genera insoddisfazione;
Attributi indifferenti: Attributi la cui esistenza è indifferente ai fini della
qualità;
Attributi inversi : Attributi la cui presenza genera insoddisfazione e la
cui assenza genera soddisfazione.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
130
Valutazione
del cliente* quando
un attributo della
qualità è
Attrattivi
Onedimensional
“Must-be”
Indifferenti
Inversi
Presente
+
+
0
0
-
Assente
0
-
-
0
+
Tabella 4.2: Categorie di attributi della qualità del Two-way model ( insoddisfazione, + soddisfazione, 0 neutrale)
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
SERVQUAL QUALITOMETRO
[Par85]
[Fra97]
[Par88]
[Par91
[Par96]
Fondamento
teorico alla
base del
metodo
Scala per
risposte
Importanza
delle
dimensioni
Analisi dei
dati
Tipo di preelaborazione
dei dati
Dimensioni
del
campione
Numero
dimensioni
Le
determinanti
della qualitá
del servizio,
cioé gap tra
qualitá
attesa e
qualitá
percepita,
ognuna
mediata con i
pesi di
importanza
Semantica
differenziale
a 7 punti
Valutazione
dei pesi a
somma
costante
NORMED
QUALITY
[Tea93]
[Tea94]
Sulla base Si distingue
della teoria
tra attese
dei gap e
ideali ed
delle
attese
determinan realizzabili.
ti della
qualitá del
servizio si
misurano le
attese e le
percezioni
in momenti
separati.
Comparativ Semantica
a a 7 punti differenziale
a 7 punti
SERVPERF
[Cro92b]
[Cro94]
131
TWO-WAY
[Sch94]
La qualitá La qualitá
del servizio del servizio
é valutata
é valutata
tramite le su risposte
sole
a
percezioni. questionari
che
valutano
aspetti
“oggettivi”
ed aspetti
“soggettivi”.
Semantica
differenzial
e a 7 punti
Comparativ Valutazione Valutazion
a a 7 punti
dei pesi a e dei pesi a
somma
somma
costante
costante
Semantica
a 5 punti.
Non
richiesto
Analisi
Metodi
Analisi
Analisi
Analisi
fattoriale
MCDA
fattoriale
fattoriale
fattoriale
seguita da
seguita da seguita da
rotazione
rotazione
rotazione
obliqua
obliqua
obliqua
Scalarizzazio Scalarizzazi Scalarizzazi Scalarizzazi Scalarizzazi
ne
one
one
one
one
290-487
80
120
660
330
Cinque
Cinque
Cinque
Cinque
Cinque
Tabella 4.3:Confronto di alcuni strumenti utilizzati per la valutazione
della qualitá del servizio [Cal97].
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
132
4.6. Proposta di una nuova metodologia di
analisi dei dati di Customer Satisfaction
basata sulle reti di dipendenza bayesiane
L’analisi dei metodi proposti in letteratura fa emergere due principali
aspetti che motivano la proposta del metodo proposto. Il primo riguarda
l’ipotesi di indipendenza tra i giudizi emessi relativamente ad ogni
domanda sottoposta all’intervistato. In realtà, visto che la modalità con
cui lo stesso collega mentalmente i vari aspetti della qualità percepita è
incognita, potrebbe esistere una correlazione tra i vari aspetti su cui
l’utente è chiamato ad esprimersi. A valle di un analisi dei dati raccolti
può quindi essere molto utile analizzare la struttura di questa
correlazione per evidenziare in primo luogo dei cluster di domanda
correlate. Questi cluster vanno a definire dei macroindicatori che è utile
monitorare nel tempo. Inoltre, all’interno di ogni cluster, può essere
opportuno evidenziare i legami di dipendenza condizionale tra i vari
indicatori su cui il cliente esprime il proprio giudizio. Può infatti
capitare che qualche domanda sia ridondante e possa, di conseguenza
essere eliminata. Questa fase, detta di taratura, del questionario può
notevolmente incrementare l’efficacia dell’intervista, visto che la
concentrazione di chi risponde, e di conseguenza l’affidabilità delle
risposte fornite, è fortemente dipendente dal numero di domande cui è
sottoposto.
Il secondo aspetto che ha motivato la ricerca di un approccio alternativo
si riferisce alla intrinseca caratteristica di multidimensionalità del
servizio. Per ovviare al problema di dover sintetizzare in un unico
indicatore la qualità del servizio, tutti i metodi proposti in letteratura
richiedono direttamente all’intervistato di esprimere un giudizio sul
peso d’importanza delle varie dimensioni della qualità indagate tramite
il questionario. Il problema di sintetizzare in un peso l’importanza
relativa di aspetti caratterizzati da una forte disomogeneità, è però un
problema tutt’altro che semplice, diffusamente trattato in letteratura
nella teoria della decisione strutturata a molti criteri (MCDA: Multi
Criteria Decision Analysis) o meglio quella parte di essa nota come
MADM (Multi Attribute Decision Making). L’approccio più diffuso in
quest’ambito l’Analytical Hierarchical Process [Saa96], sottolinea come
per valutare il peso d’importanza di attributi molto disomogenei, risulta
necessario sottoporre l’intervistato a confronti a coppie.
L’approccio indagato in [Col98] e [Lau97] relativamente alla qualità del
servizio logistico in BTicino, è stato tuttavia recepito male dagli
intervistati, i quali hanno rimproverano al questionario AHP l’eccessiva
lunghezza da dedicare nella compilazione.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
133
A valle di queste esperienze, l’approccio proposto in questo capitolo
ribalta completamente l’ottica, sfruttando il fatto che è consuetudine
includere nel questionario una domanda relativa alla soddisfazione
complessiva del cliente relativamente al servizio percepito.
Analizzando la correlazione esistente tra la risposta fornita a questa
domanda e l’esito relativo alle altre, è possibile individuare
automaticamente l’importanza relativa dei vari indicatori.
Ad esempio se la soddisfazione generale è sempre molto ridotta quando,
contestualmente, il cliente indica un basso grado di soddisfazione per il
tempo di risposta dell’azienda, è possibile ritenere che quest’aspetto
influenzi fortemente il grado di soddisfazione generale.
In altre parole il grado di correlazione tra le variabili su cui il cliente è
chiamato ad esprimersi può fornire importanti indicazioni su come
queste si influenzino l’un l’altra e su come ognuna di queste influenzi il
giudizio complessivo sulla qualità percepita. Con questo obiettivo,
utilizzeremo le reti di dipendenza bayesiane al fine di individuare i
legami statistici tra le variabili su cui il cliente è chiamato ad esprimere
un giudizio.
4.7. Le reti di dipendenza bayesiane
Formalmente una rete bayesiana (Bayesian Network BN) è definita da
un insieme di variabili X=(X 1, X2, ..Xn) e da una rete M, un grafo
aciclico diretto (Direct Acyclic Graph (DAG)), che definisce il modello di
dipendenza condizionale tra gli elementi di X. Senza perdere di
generalità si assume che la generica variabile Xi è discreta e può
r
assumere ri possibili valori x 1i ,..., xi i . Se la ima variabile ha una
distribuzione che dipende solo dai valori assunti dall’insieme dei
variabili Π i ⊂ X , questa variabile è detta child (figlio) delle variabili in
? i . Simmetricamente le variabili in ? i sono considerate parents
(genitori) di Xi.
Graficamente, ogni variabile in X è rappresentata da un nodo nel grafo
M, mentre un legame di dipendenza condizionale è rappresentato nel
grafo M mediante un arco orientato che parte da un parent in Π i , per
arrivare alla variabile Xi child.
La mancanza di archi in M rappresenta quindi l’ipotesi di indipendenza
condizionale tra le variabili non connesse. Data la struttura del DAG M,
la probabilità congiunta di X può quindi essere fattorizzata in:
p(x k ) =
n
k
∏ p( x i i |p ij )
i =1
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
134
dove p ij rappresenta la configurazione delle variabili incluse in Π i in
x k . Di conseguenza il vantaggio computazionale della struttura
rappresentata nella rete bayesiana è essenzialmente la fattorizzazione
della distribuzione di probabilità congiunta.
Come esempio di BN, si consideri il DAG rappresentato in Figura 4.3.
Y1
Y2
Y3
Figura 4.3: Un semplice Direct Acyclic Graph (DAG) che rappresenta
una rete di dipendenza bayesiana
Si assume per semplicità che tutte e tre le variabili X i (i = 1,...,3) ,
possano assumere due valori: ri = 2 (i = 1,..., 3 ) . Come si può osservare
dal DAG, Π 1 = Π 2 = φ and Π 3 = ( X 1 , X 2 ) . Visto che X1 and X 2 possono
entrambi assumere due valori, Π 3 può assumere quattro valori π 3 j ,
corrispondenti a quattro possibili combinazioni delle occorrenze di
X1 and X 2 :
π 31 = ( x11 , x 21 ), π 32 = ( x11 , x 22 ), π 33 = ( x12 , x 21 ), π 34 = (x 12 , x 22 )
Quindi la probabilità congiunta di un occorrenza: y k = {y11 , y 21 , y 32 }
può essere calcolata come:
p(y k ) = p(y11 ) p(y 21 ) p(y 32 | π 31 ) = p(y11 ) p(y 21 ) p(y 32 |y11 , y 21 ) .
Come risulta dall’esempio appena descritto, la conoscenza della
struttura di dipendenza condizionale tra le diverse variabili, può
semplificare la valutazione della funzione di probabilità congiunta.
I primi utilizzi delle reti di dipendenza bayesiane prevedevano che gli
esperti indicassero la struttura dei legami di dipendenza (DAG)
permettendo una valutazione numerica delle probabilità condizionate a
partire dai dati campionari. Questo modo di procedere è molto simile a
quanto si esegue tradizionalmente con i sistemi esperti, in cui la
struttura dei legami tra le variabili in oggetto è fornita dall’esperienza di
coloro i quali progettano il sistema esperto. Il grande passo in avanti
nell’applicazione delle reti di dipendenza bayesiane tuttavia è stato
compiuto nel momento in cui sono stati individuati dei metodi per
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
135
dedurre la struttura del modello di BBN a partire dai soli dati
campionari, senza la necessità di ricorrere alla conoscenza degli esperti.
Grazie alla flessibilità dell’approccio bayesiano, è possibile inoltre
utilizzare entrambe le fonti di informazione: la conoscenza degli esperti
può infatti essere modellata attraverso una prior sulla struttura della
BBN, la quale, insieme all’informazione proveniente dai dati è usata per
stimare la posterior sulla struttura del modello. Come sempre, nel caso
in cui non si disponga di un informazione iniziale, la prior può essere
non informativa, lasciando solo all’informazione proveniente dai dati il
ruolo di definire la struttura della BBN.
In un ottica di continuo aggiornamento della conoscenza e di
miglioramento continuo della qualità, la flessibilità dell’approccio
bayesiano può anche essere utilizzata come aggiornamento della
conoscenza acquisita fino a quel momento. Si supponga di aver
eseguito un cero numero di campionamenti che hanno fornito un
modello a posteriori della rete BN. In seguito ad un ulteriore
campionamento, questo modello può essere considerato come prior da
aggiornare con i dati provenienti dal campione. In quest’ottica non c’è
indicazione soggettiva e il metodo di aggiornamento della conoscenza
con meccanismo bayesiano continua a utilizzare i dati osservati nei
campioni che via via vengono raccolti.
Un punto critico nella scelta della metodologia per individuare la rete
bayesiana dai dati collezionati in un database è la presenza di dati
mancanti. Considerando l’applicazione per cui si intende utilizzare
l’approccio, è possibile prevedere che alcuni quesiti dei questionari
sottoposti ai clienti possano rimanere senza risposta. In questo caso
risulta quindi necessario utilizzare un approccio in grado di mantenere
validità nel caso di dati mancanti.
A valle di quest’ultima specifica, si è scelto di utilizzare il software
Bayesian Belief Network, sviluppato presso la Open University
[http://kmi.open.ac.uk/projects/bkd/]. I dettagli degli algoritmi
implementati e dell’interfaccia del software sono riportati in Appendice
D.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
136
4.8. Analisi di Customer Satisfaction: il caso
“ Call Center ASSITALIA”
Il questionario oggetto di studio è stato utilizzato nella sezione Call
Center dell’Assitalia per la rilevazione della Customer Satisfaction ed
impiegato, per una prima analisi indicativa di taratura dello stesso, in
un sondaggio che ha coinvolto un campione di 60 agenti esterni facenti
capo alla stessa azienda.
Le domande sottoposte agli intervistati sono riassunte in Tabella 4.4,
dove, insieme alle domande, si riportano le possibili risposte.
Coerentemente con quanto indicato per le reti di dipendenza bayesiane,
le domande poste agli intervistati sono trattate come variabili e le
possibili risposte sono considerate come “stati” delle “variabili”. In
Tabella 4.5 è inoltre riportata, per ogni domanda del questionario, la
frequenza di risposte ottenute sul campione intervistato. Prima di
procedere con l’individuazione della rete di dipendenza bayesiana,
occorre effettuare una prima analisi qualitativa dei dati. Quest’analisi
permette di elaborare delle considerazioni su eventuali dati inutili o non
adatti allo studio prefissato. In quest’ottica è stato confrontato il
questionario utilizzato dall’Assitalia con i dati raccolti attraverso
l’indagine e si è giunti a delle conclusioni sulle informazioni di cui
avvalersi nella ricerca.
La prima informazione raccolta circa la disponibilità dell’intervistato a
rispondere alle domande del questionario è stata considerata non
inerente all’analisi da noi svolta, quindi, pur inserendo i dati in un
primo Database riassuntivo per eventuali valutazioni sulla percentuale
di risposta ottenuta (Redemption), essa non viene contemplata nel
seguito dell’indagine.
Per quanto riguarda la quarta domanda circa gli orari di apertura del
servizio Call Center preferiti dall’utente, la decisione di non
comprendere i pochi dati raccolti nel Database definitivo è dipesa
dall’esigua consistenza delle risposte ottenute, 15 su 60, ossia il 25%.
Non si sono ritenute affidabili le stime effettuate dal software sul 75% di
dati mancanti, essendo molto probabile la possibilità di giungere a
conclusioni sbagliate e prendendo inoltre atto del fatto che la domanda
così posta non ha suscitato l’interesse degli intervistati. Questa
rinuncia a rispondere può essere interpretata come soddisfazione per
gli orari attuali, per altro già richiesta nella domanda precedente,
oppure come mancanza da parte della clientela di necessità precise
sull’argomento. In ogni caso le risposte rilevate sono state registrate nel
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
137
primo Database, sempre a disposizione dei responsabili per successive
valutazioni.
Domanda
0 Disponibilità all'intervista
Variabile
DISPONIBILITÀ
1 Soddisfazione generale
SODDISFAZION
E
2 Servizio Call Center vs.
tradizionale
CC/TRAD
Risposta
Si
No
Nulla
Stato
1
2
1
Abbastanza
Molto
Peggiore
2
3
1
2
3
1
2
3
1
2
5 Risposta operatore
RISPOSTA
6 Soddisfazione per modalità di
contatto
CONTATTO
Uguale
Migliore
Nulla
Abbastanza
Molto
Sab 8/13
Sab-Dom
8/13
Tutti gg 8/22
24h/24
Subito
Attesa
Occupato
Nulla
CAPACITA’
Abbastanza
Molto
Nulla
2
3
1
Abbastanza
Molto
una
oltre
< 5min
5min - 10
min
10min - 15
min
oltre
Nulla
2
3
1
2
1
2
3 Orario Lun-Ven 8.30/18.30
4 Orario preferito
7 Soddisfazione per capacità
operatore
8 Numero telefonate necessarie
9 Tempo al telefono per denuncia
10 Soddisfatto della durata
ORARIO
ORAPREF
TELEFONATE
TEMPO
SODDDURATA
3
4
1
2
3
1
3
4
1
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
12 Durata ottimale della
comunicazione
13 Processo raccolta dati
DUROTT
RACCOLTADAT
I
138
Abbastanza
Molto
< 5min
2
3
1
5min - 10
min
10min - 15
min
Non
importante
Necessari
2
Già noti
Chiesti più
volte
Ricavabili
2
3
3
4
1
4
Tabella 4.4 Domande e stati delle variabili per l’analisi delle dipendenze
0 Disponibilità all'intervista
1 Soddisfazione generale
2 Servizio Call Center vs.
tradizionale
3
4
5
6
Si
No
Totale
intervistati
Nulla
Abbastanza
Molto
Peggiore
Uguale
Migliore
Orario Lun-Ven 8.30/18.30
Nulla
Abbastanza
Molto
Orario preferito
Sab 8/13
Sab-Dom 8/13
Tutti gg 8/22
24h/24
Risposta operatore
Subito
Attesa
Occupato
Soddisfazione per modalità di
Nulla
contatto
59
1
60
4
29
24
6
13
34
0
12
45
14
0
0
1
53
4
2
0
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
7 Soddisfazione per capacità
operatore
8 Numero telefonate necessarie
9 Tempo al telefono per
denuncia
10 Soddisfatto della durata
12 Durata ottimale della
comunicazione
13 Processo raccolta dati
Abbastanza
Molto
Nulla
7
52
0
Abbastanza
Molto
una
oltre
< 5min
18
38
55
4
27
5min - 10 min
10min - 15
min
oltre
Nulla
Abbastanza
Molto
< 5min
25
2
5min - 10 min
10min - 15
min
Non
importante
Necessari
Già noti
Chiesti più
volte
Ricavabili
11
0
139
0
4
26
28
32
0
47
4
1
3
Tabella 4.5 Tabella riassuntiva dei dati raccolti
4.8.1.1. Scelta della strategia di ricerca per il
Questionario Assitalia
La scelta della strategia di ricerca dei legami di correlazione tra le
domande del questionario di Customer Satisfaction considerato, implica
delle attente valutazioni sia sulla sua struttura che sulle relazioni che
potrebbero evidenziarsi dall’analisi.
La strategia Exhaustive, proposta nelle preferenze del BKD, oltre che
non essere disponibile nella recente versione del software, risulta di
difficile implementazione e di elevato costo di elaborazione, quindi non
viene presa in considerazione nell’analisi del nostro problema. Gli
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
140
obiettivi proposti possono essere raggiunti utilizzando i dati ricavati
attraverso le strategie Greedy e Arc Inversion, le quali evidenziano
comunque in modo esauriente le reti di correlazione tra le variabili,
riducendo di molto il costo di elaborazione. Ricordiamo che la seconda
è un’applicazione della prima metodologia, eliminando però
parzialmente la dipendenza dei rapporti di correlazione dalla posizione
delle variabili nel DB.
La ricerca Greedy è la più semplice e veloce in quanto partendo
dall’ultima variabile del DB analizza gli eventuali legami con i nodi che
la precedono, tracciando gli archi che portano ad una configurazione di
Massima Verosimiglianza. La forte dipendenza della rete dalle diverse
successioni possibili delle variabili nel DB, pone dei problemi sulla
validità dei legami ottenuti. Questa strategia di ricerca può essere
considerata valida ipotizzando che, durante lo svolgersi dell’indagine
telefonica, le domande precedenti possano influenzare in qualche modo
le risposte successive dell’utente, in pratica, che i legami possano
soltanto seguire l’ordine del questionario. Lo svantaggio principale di
questa tecnica è il fatto di trascurare dei rapporti di correlazione tra le
variabili, arrivando quindi ad alcune conclusioni sbagliate sui rapporti
tra i nodi.
La strategia Arc Inversion appare la più affidabile e corretta nella
valutazione della rete bayesiana in quanto evita di assegnare troppa
importanza all’ordine di formulazione delle domande nel questionario,
garantendo una maggiore attendibilità sulla completezza nell’analisi dei
legami e sulla effettiva consistenza dei rapporti di dipendenza ipotizzati.
4.8.2.
Analisi dei dati e rappresentazione
dei risultati
La strategia di ricerca utilizzata è stata l’Arc Inversion che, come
anticipato, determina un risultato dipendente dalla sequenza con cui
sono considerate le variabili. Per avere una più chiara visione del
funzionamento del software ed una più precisa individuazione delle
correlazioni forti tra i nodi della rete, sono state utilizzate delle
permutazioni del database originario, generate casualmente.
Quindi sono state condotte le analisi di correlazione che hanno prodotto
altrettante rappresentazioni reticolari dei legami tra le variabili; questo
studio può essere considerato un’analisi di sensitività in quanto
evidenzia le variazioni dell’output, cioè i legami tra i nodi, al variare dei
dati in input, rappresentati dalla posizione delle colonne del Database.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
141
4.8.2.1. I legami tra le domande del questionario
L’analisi di sensitività, costituita da una applicazione del programma
BKD a diverse permutazioni delle colonne del Database, ha portato alla
produzione di risultati interessanti.
In primo luogo sono stati evidenziati i grossi limiti della strategia di
ricerca Greedy, la quale è altamente sensibile alla disposizione delle
variabili nel Database e quindi non è applicabile al nostro tipo di
analisi, ritenendo poco probabile un influenza significativa della
sequenza delle domande sull’opinione dei clienti circa il servizio
ricevuto.
La ricerca è stata focalizzata sulla strategia Arc Inversion, la quale,
dopo aver considerato i possibili legami seguendo l’ordine delle variabili,
valuta anche altre dipendenze al di fuori di questo ordine, sempre che
non introducano dei cicli. L’applicazione ripetuta di questa analisi ai
diversi Database ottenuti attraverso le permutazioni, ha supplito in
qualche modo alla mancanza della strategia Exhaustive nel software
BKD, portando all’identificazione di legami di dipendenza forti tra le
variabili in questione.
La struttura finale ottenuta dall’analisi è rappresentata in Figura 4.4:
questo grafo orientato è il modello di dipendenza che, tra tutte le
permutazioni considerate, ha dato luogo alla massima verosimiglianza
(LogLikelihood=-324,39989) ed è quindi da assumersi come modello di
riferimento. Dall’osservazione della figura si notano immediatamente i 3
gruppi di legami che saranno analizzati più approfonditamente nel
prossimo paragrafo.
Figura 4.4 Rete Bayesiana ottenuta dall’analisi dei dati (strategia di
ricerca Arc Inversion)
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
142
Evidenziato il legame generale tra le variabili (Figura 4.4), vengono
esaminati più attentamente i rapporti di dipendenza, sempre attraverso
il metodo della massima verosimiglianza, cercando l’effettiva
correlazione tra i nodi considerati. In Tabella 4.6 è riportata l’analisi dei
legami tra le variabili con i relativi valori della Likelihood; i massimi tra
questi sono stati evidenziati. I legami evidenziati dalla rete bayesiana
delle dipendenze sono:
1) TEMPO-SODDDURATA-DUROTT-RACCOLTADATI
2) CAPACITA’-TELEFONATE
3) ORARIO-RISPOSTA
Analizziano più in dettaglio i risultati ottenuti:
1) TEMPO-SODDDURATA-DUROTT-RACCOLTADATI
Questo legame sottolinea la correlazione tra la soddisfazione del cliente
per la durata della telefonata (domanda n°10 del questionario), la
percezione del tempo passato al telefono (domanda n°9), l’indicazione,
da parte del cliente stesso, di una ipotetica durata ottimale della
conversazione (domanda n°12) ed il giudizio sul processo di raccolta dei
dati. Il legame rappresentato può derivare dal fatto che la soddisfazione
del cliente per la durata della telefonata di denuncia del sinistro
influenza la sua percezione della durata effettiva trascorsa, quindi
bisogna considerare anche i motivi psicologici che portano alla
formazione del giudizio. Si comprende infatti quanto la soddisfazione
per un fattore del servizio faccia cambiare la prospettiva di valutazione
dell’utente: se il cliente è rimasto veramente soddisfatto della durata
della telefonata è molto probabile che la sua indicazione del tempo
passato al telefono tenda al minimo riportato nel questionario; se il
livello di soddisfazione per l’aspetto temporale del servizio è molto
basso, probabilmente l’indicazione dei minuti passati all’apparecchio
per la denuncia tenderà ad aumentare e ad essere anche maggiore del
periodo effettivamente impiegato.
Dai dati in Appendice D si ricava che, se il cliente si ritiene “molto”
soddisfatto del poco tempo necessario per la denuncia, è più probabile
(probabilità condizionata = 0,702) che indichi una durata della
telefonata minore di 5 minuti, mentre se egli si considera “abbastanza”
soddisfatto, la percezione della durata aumenta ad un tempo compreso
tra 5 e 10 minuti.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
143
Figura 4.5 Legame Tempo-Sodddurata-Durott-Raccoltadati
E’ da notare che, in nessuno dei 60 questionari rilevati, sia presente
una durata superiore ai 15 minuti ed una soddisfazione nulla, il che
significa che la politica dell’azienda sulla minimizzazione dei tempi per
la denuncia di un sinistro è stata recepita ed applicata facilmente dal
personale di Front-Office.
Dai dati di Verosimiglianza e di probabilità condizionata circa la Durata
ottimale richiesta dai clienti, si deduce che, per tutti gli intervistati, la
telefonata deve durare sicuramente meno di 10 minuti. Gli utenti che si
sono dichiarati soddisfatti per una durata della telefonata di meno di 5
minuti, è molto probabile (p=0,991) che indichino una durata ottimale
dello stesso ordine di grandezza; fra coloro che, invece, hanno
riscontrato una durata maggiore (5–10 minuti), le risposte si dividono
nell’indicazione di tempi di 5-10 minuti (p=0,497), per quelli che
probabilmente erano rimasti soddisfatti della durata
della
comunicazione, e meno di 5 minuti (p=0,497), per i ‘non completamente
soddisfatti’ o insoddisfatti.
La percezione della correttezza del processo di raccolta dei dati risulta
essere influenzata dalla valutazione, da parte degli utenti, del tempo
realmente necessario alla raccolta dei dati per la denuncia di un
sinistro. Dall’analisi dei risultati del BKD risulta che: chi ha indicato
come durata ottimale il tempo effettivo impiegato per la denuncia è
probabile che fosse soddisfatto della durata della telefonata, e quindi,
probabilmente, avrà anche affermato che gli sono stati chiesti solo i dati
necessari (si nota infatti una preponderanza della probabilità degli stati
[1,1]=0,885 e [2,1]=0,916); la diminuzione della probabilità nel caso che
fosse stata indicata la durata ottimale minima è imputabile al fatto che,
come detto precedentemente, i clienti insoddisfatti indicano la durata di
5 minuti, ritenendo che il processo di raccolta dei dati non sia stato
sufficientemente efficiente, avendo sprecato tempo in domande
ridondanti ed inutili.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
Legame
1 Durott Sodddurat Tempo
a
Durott
Tempo
Sodddurat Tempo
a
Tempo
Sodddurat
a
Tempo
Sodddurat
a
Sodddurat
a
Durott
Sodddurat
a
Tempo Sodddurat Durott
a
Tempo
Durott
Durott
-49,065
-50,591
-54,950
-55,735
Tempo Durott
Sodddurat Durott
a
Legame
2
Capacità
144
Legame
3 Durott
Raccoltadat
i
34,774
Raccoltadat
i
37,257
Raccoltadat Durott
i
45,099
Durott
40,874
-58,565
-58,279
-62,943
-35,096
-33,377
-40,874
-46,03
Telefonate -15,975
Legame
4 Orario
Telefonate -17,178
Telefonate Capacità
-43,423
Capacità
-41,749
Risposta
Risposta
Risposta
Orario
Orario
Tabella 4.6 Valori di Verosimiglianza dei legami considerati
23,832
27,846
37,697
35,176
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
Legame
1
Tempo
1
2
3
Sodddurat
a
3
2
2
145
Prob. Temp Sodddura Durot Prob.
o
ta
t
0,652
1
1
1
0,500
0,539
1
2
1
0,993
0,894
1
3
1
0,996
2
1
1
0,982
2
2
1
0,538
2
3
2
0,986
3
1
1
0,500
3
2
1
0,500
3
3
1
0,500
Legame
2
Soddisfazi Telefonate Prob.
one
1
1
0,970
2
1
0,865
3
1
0,994
Soddisfazi Contatto Prob.
one
1
3
0,731
2
3
0,818
3
3
0,993
Legame
3
CC/Trad Soddisfazi Prob.
one
1
1
0,464
2
2
0,913
3
3
0,618
Legame
4
Tempo
Orario
Prob.
1
3
0,891
2
3
0,741
3
2
0,911
Tabella 4.7 Valori di probabilità condizionata.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
146
2) CAPACITA’-TELEFONATE
Analizzando i valori della Verosimiglianza per questo secondo gruppo di
variabili Figura 4.6 , si nota che le misure maggiori si sono rilevate per
il legame tra la percezione della capacità dell’operatore telefonico ed il
numero di telefonate che sono state necessarie per la denuncia del
sinistro.
Figura 4.6 Legame Capacita’-Telefonate
Dall’analisi dei valori di probabilità condizionata, riportati in Appendice
D, si nota come una buona capacità dell’operatore nel contatto con il
cliente influisce sul numero di telefonate necessarie alla chiusura della
pratica; in effetti, nella grande maggioranza di casi in cui il personale di
Front Office è stato giudicato molto preparato per le richieste proposte,
è bastata una telefonata per portare a termine la denuncia.
Si nota quindi che il legame più intuitivo a cui si può pensare per
queste variabili, ossia che il numero di telefonate necessarie influisca
direttamente sulla valutazione del cliente circa le capacità degli
operatori, non ha il valore di verosimiglianza massimo, mentre si
evidenzia il fatto che la preparazione e l’esperienza degli operatori può
influire sull’erogazione del servizio, almeno per quanto riguarda la
percezione della clientela.
La domanda sul numero di telefonate è poi molto importante come
indicatore di efficienza del servizio e del personale di Front-Office,
quindi conviene sia sempre monitorata.
3) Legame ORARIO-RISPOSTA
L’ultimo legame che risulta dall’analisi dei Database è quello che lega la
soddisfazione per l’orario del servizio attualmente in vigore e
l’immediatezza di risposta avuta al momento della chiamata (Figura
4.7). Questo gruppo di variabili si riferisce evidentemente alla capacità
dimensionale del servizio Call Center in quanto, chi si è ritenuto molto
o abbastanza soddisfatto degli orari di servizio, probabilmente ha
ricevuto, al momento della chiamata, la risposta immediata
dell’operatore (p=0,905 e p=0,981); ciò vuol dire che il personale a
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
147
disposizione dei clienti, nella fascia di orario utilizzata, è giudicato
sufficiente. Coloro che, invece, hanno valutato gli orari non
soddisfacenti, registrano una maggiore distribuzione di eventi attesa e
linea occupata nella risposta numero 6.
Figura 4.7 Legame Orario-Risposta
Quindi, si riesce a comprendere come i livelli di soddisfazione per
l’orario di apertura del Call Center implichino diverse situazioni al
momento della chiamata.
Alla luce dello studio realizzato, l’utilizzo del software BKD nell’analisi
dei questionari di Customer Satisfaction risulta essere importante per
focalizzare l’attenzione sui legami evidenziati, i quali, a loro volta,
devono poi essere approfonditi attraverso le conoscenze a disposizione
dell’organizzazione. Il metodo della massima verosimiglianza è
particolarmente utile per rappresentare la struttura della rete
Bayesiana delle dipendenze tra le variabili considerate, in modo da
poter considerare nei successivi studi solo i legami indicati snellendo e
semplificando così l’ulteriore approfondimento. L’esame dei sessanta
questionari a disposizione ha portato alla formulazione di alcuni
suggerimenti per i responsabili del monitoraggio della Customer
Satisfaction di Assitalia, al fine di ottimizzare il questionario proposto e,
quindi, facilitare la raccolta dei dati e la successiva analisi.
Gli addetti al processo di progettazione del questionario, che, come
ricordiamo, è in fase di taratura, devono prestare particolare attenzione
ai 4 gruppi, o cluster, di variabili che riguardano l’aspetto temporale,
l’accessibilità, le capacità degli operatori e le modalità di contatto nel
servizio di Call Center.
Gli aspetti del servizio considerato concorreranno poi, in misura
diversa, alla percezione del livello di soddisfazione globale del cliente per
il servizio fruito; i prossimi paragrafi si occuperanno più
approfonditamente di questo argomento
4.8.2.2. Determinazione dei pesi di importanza
La valutazione della soddisfazione globale per il servizio utilizzato è
sicuramente un valore da tenere continuamente in osservazione nel
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
148
tempo, rappresentando in modo globale l’andamento del processo di
erogazione del servizio da parte dell’azienda. Per comprendere quali
sono i fattori che possono maggiormente influenzarla, si è proceduto
alla stima delle dipendenze condizionali delle altre variabili su cui il
cliente è chiamato ad esprimere un giudizio, con questa di riferimento.
Da quest’analisi è venuto fuori un importante legame tra la variabile del
questionario riguardante la soddisfazione generale per il servizio fruito (
domanda n°1) e quella che esprime il confronto tra il Call Center ed
l’iter di liquidazione tradizionale (domanda n°2). Questo legame risulta
abbastanza comprensibile, visto che la soddisfazione comprende
sicuramente la percezione del miglioramento rispetto alle condizioni
passate, quindi, chi si ritiene soddisfatto, molto probabilmente valuta il
nuovo servizio migliore del precedente.
Dal punto di vista probabilistico rileviamo questa dipendenza in
quanto, analizzando i dati di Tabella 4.8, si osserva che:
- se il servizio Call Center è giudicato peggiore del tradizionale, la
soddisfazione generale per il nuovo servizio è più probabile che sia
nulla
- se il Call Center è giudicato uguale al servizio tradizionale, esso è
valutato abbastanza soddisfacente
- se, infine, il nuovo servizio è percepito come migliore, la sua
valutazione generale tende ad essere molto soddisfacente
Legame
CC/Trad
Soddisfazione
Soddisfazione
Soddisfazione CC/Trad
CC/Trad
CC/Trad
1 (peggiore)
2 (uguale)
3 (migliore)
Verosimiglia
nza
-47,979
-58,217
-48,741
-56,542
Soddisfazione Probabilità
1 (nulla)
0,464
2 (abbastanza)
0,913
3 (molto)
0,618
Tabella 4.8 Analisi del legame SODDISFAZIONE - CC/TRAD
Da questo risultato si può facilmente dedurre che il grado di
soddisfazione generale per il nuovo servizio nasce dal confronto che il
cliente opera, più o meno consciamente, con il tradizionale, quindi una
delle due domande risulta essere ridondante. La decisione di eliminarne
una deve essere motivata e discussa con la direzione, in quanto, per
quanto riguarda gli argomenti di maggiore interesse per l’azienda,
l’opinione dei clienti può essere richiesta più volte, sondando così in
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
149
maniera più precisa ed affidabile la loro percezione di questi aspetti. Se
si ragionasse nell’ottica della minimizzazione del tempo dell’indagine, le
domande n°1 e 2 (portando praticamente alle stesse conclusioni)
andrebbero riformulate in un unico quesito, ma, valutando questi
risultati ridondanti come un’indicazione maggiormente precisa e sicura
della soddisfazione degli utenti, esse possono rimanere inalterate.
Approfondendo l’analisi dei valori di verosimiglianza delle relazioni tra i
fattori del servizio e la soddisfazione generale, si potrà evidenziare la
consistenza dei legami e quindi derivarne una classificazione di
importanza relativa nella realizzazione di un servizio di qualità. Questo
darà la possibilità all’azienda, in caso di soddisfazione positiva, di
evidenziare i punti di forza nei confronti della clientela e, in caso di
insoddisfazione, di apportare i dovuti miglioramenti alle caratteristiche
del servizio considerate più importanti dagli utenti. Questa metodologia
di analisi può essere generalizzata in uno strumento di controllo nel
tempo delle percezioni dei clienti circa il servizio erogato. La
Soddisfazione è generata dall’insieme dei fattori considerati, i quali
assumono diversa importanza in base al cambiamento delle necessità
del cliente, delle capacità degli operatori, oppure della struttura stessa
del servizio. Un monitoraggio, parallelo all’indagine di Customer
Satisfaction, di queste particolari relazioni, porta ad una definizione
automatica dei pesi di importanza dei fattori rispetto all’indicatore
globale della Soddisfazione. Infatti la determinazione dell’importanza
relativa può essere svolta attraverso l’analisi dei valori di
verosimiglianza elaborati dal BKD (strategia di ricerca Greedy),
considerando come nodo principale la SODDISFAZIONE e confrontando
tra loro le misure elaborate dal software, come è rappresentato in
Tabella 4.9
Legame
DUROTT – SODDISFAZIONE
TELEFONATE – SODDISFAZIONE
CONTATTO - SODDISFAZIONE
TEMPO – SODDISFAZIONE
SODDDURATA - SODDISFAZIONE
CAPACITA’ - SODDISFAZIONE
ORARIO - SODDISFAZIONE
RISPOSTA – SODDISFAZIONE
RACCOLTADATI - SODDISFAZIONE
Verosimiglianza
-56,677
-57,830
-58,273
-59,791
-61,997
-63,835
-64,106
-64,395
-65,109
Posizione
1
2
3
4
5
6
7
8
9
Tabella 4.9 Verosimiglianza delle componenti della Soddisfazione
Il controllo delle variazioni di queste posizioni attraverso dei
semplici strumenti di rappresentazione grafica, come ad esempio un
diagramma con in ascissa l’identificazione dell’indagine ed in ordinata i
5 gradi di importanza dei fattori, è un utile strumento per la gestione
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
150
del servizio, sia per la progettazione di miglioramenti interni, che per la
stesura delle strategie future. Se necessario è possibile assegnare dei
punteggi alle varie posizioni ricoperte dai fattori del servizio.
4.8.3.
Conclusioni
Lo studio effettuato sui sessanta questionari a disposizione ha
portato alla formulazione di alcuni suggerimenti per i responsabili del
monitoraggio della Customer Satisfaction, al fine di snellire il
questionario proposto e quindi facilitare la raccolta dei dati e la loro
analisi. I risultati raggiunti sono sintetizzabili nel modo seguente:
Eliminazione della domanda n° 4 sugli orari di apertura preferiti dal
cliente, in quanto, evidentemente, quest’ultimo preferisce esprimersi in
termini di soddisfazione minore o maggiore, piuttosto che entrare nello
specifico dell’organizzazione interna del servizio.
Riformulazione o eliminazione della domanda n° 12 riguardo la durata
ottimale della conversazione; la risposta più frequente è naturalmente
la più banale: il minor tempo possibile. Il cliente non può essere a
conoscenza dei passi necessari alla fornitura del servizio in esame e può
essere anche messo in difficoltà nel valutarne la durata effettivamente
occorrente. Le informazioni necessarie sull’aspetto temporale del
servizio possono essere ricavate in modo soddisfacente dalle domande
n°9 e 10.
Le domande n°1 e 2 possono essere riformulate in un unico quesito in
quanto portano praticamente alle stesse conclusioni. Nell’ottica della
minimizzazione del tempo dell’indagine nei riguardi dei clienti questa
operazione andrebbe sicuramente attuata, ma, valutando questi
risultati ridondanti come indicazione maggiormente precisa e sicura
sulla soddisfazione degli utenti, è possibile lasciare le domande
inalterate. La scelta dipende dalle necessità e dagli obiettivi dell’azienda
riguardo all’indagine.
E’ stata evidenziata l’importanza della variabile tempo necessario per la
denuncia sulla soddisfazione globale del cliente, cosicché è auspicabile
un controllo frequente di questo aspetto attraverso gli strumenti più
adatti ed alle tecniche descritte nel prossimo capitolo.
Gli obiettivi prestabiliti dell’indagine sono stati raggiunti in modo
soddisfacente, riducendo il questionario inizialmente proposto a sole 9
domande ed evidenziando i parametri critici del servizio offerto,
ponendo le basi per una più efficace e veloce indagine sulla
soddisfazione della clientela e per l’implementazione di ulteriori
strumenti di monitoraggio ed interpretazione delle informazioni.
Capitolo 4
Misurare e monitorare la qualità del servizio: un approccio bayesiano
151
Capitolo 5
Conclusioni
152
CAPITOLO 5
CONCLUSIONI
“Le opinioni riguardo al valore del teorema di Bayes sono oscillate tra
accettazione e rifiuto fin dalla data della sua pubblicazione nel 1763. …
Il modo di ragionare bayesiano, definitivamente seppellito in molte
occasioni, è recentemente risorto nuovamente con sorprendente rigore.
La rinascita si deve principalmente a tre fattori.
Primo, il lavoro di un certo numero di autori: Fisher, Jeffreys,
Barnard, Ramsey, De Finetti. Savage, Lindley, Anscombe e Stein,
sebbene non sempre diretto in questa direzione, ha consentito di
chiarire e superare qualche difficoltà filosofica e pratica.
Secondo, altre teorie inferenziali hanno individuato soluzioni semplici
in casi in cui ipotesi molto restrittive vengono assunte (normalità e
indipendenza degli errori), ma in casi differenti e, in particolare nei casi
in cui non esistano statistiche sufficienti, le soluzioni sono spesso
insoddisfacenti e poco pulite. Anche se spesso le ipotesi assunte
ricoprono un certo numero di casi di interesse scientifico, sarebbe poco
ragionevole pretendere che l’insieme di problemi statistici la cui
soluzione è o sarà richiesta dalla ricerca scientifica, coincida con
l’insieme di problemi che risulta facilmente trattabile. L’acquisizione di
dati è spesso molto più onerosa confrontata con l’analisi degli stessi. E’
chiaro che l’insieme dei dati deve quindi essere analizzato da molti
diversi punti di vista. Nella scelta di questi punti di vista, i metodi
bayesiani permettono grande enfasi sull’interesse scientifico e minor
enfasi sulla convenienza matematica.
Terzo, le semplici soluzioni fornite nei casi in cui ipotesi molto
restrittive vengano adottate hanno avuto grande popolarità per un’altra
ragione: esse sono facili da calcolare. Questa considerazione ha molta
meno forza adesso con la potenza di calcolo messa a disposizione allo
stato attuale dagli elaboratori della nuova generazione.
La ricerca scientifica utilizza i metodi statistici in un approccio
iterativo in cui all’acquisizione di una serie di dati si alterna la fase in
cui gli stessi vengono analizzati. La fase di analisi è anch’essa
determinata attraverso un approccio iterativo in cui l’inferenza a partire
Capitolo 5
Conclusioni
153
da un ipotesi di modello si alterna con la critica dello stesso modello
ipotizzato, ad esempio attraverso l’analisi dei residui.
L’inferenza è quindi solo una delle responsabilità di uno statistico.
L’inferenza bayesiana sembra offrire sufficiente flessibilità per
permettere di trattare la complessità scientifica senza avere
impedimenti derivanti da limitazioni puramente tecniche.”
G.P. Box e G.C. Tiao, Bayesian Inference in Statistical Analysis, John
Wiley & Sons, 1992.
Il punto di vista di Box e Tiao sull’adozione di un approccio
inferenziale bayesiano, ben rappresenta le motivazioni che hanno spinto
questo lavoro. L’obiettivo è stato principalmente quello di analizzare se
e in quale misura l’adozione di altre tecniche di analisi statistica
possono risultare di supporto nelle problematiche del controllo
statistico di qualità. A valle del lavoro si può concludere che, per quanto
osservato riguardo ai piani di accettazione nel secondo capitolo e
riguardo alla qualità del servizio nel quarto, l’approccio bayesiano
consente in alcuni casi di estendere il respiro della modellizzazione
riuscendo a fornire risultati non ottenibili con altri approcci inferenziali.
Per quanto riguarda invece l’applicazione dell’impostazione bayesiana
alle carte di controllo, trattata nel terzo capitolo, in quel caso
l’approccio bayesiano fornisce una naturale impalcatura per trattare
l’aggiornamento della conoscenza richiesto da un ottica adattativa.
Sicuramente quindi, a valle delle considerazioni svolte nei singoli
capitoli, l’ulteriore indagine sull’applicazione di metodi bayesiani per il
controllo statistico di qualità sembra una strada interessante da
approfondire.
Occorre in ultimo concludere con un’osservazione. La flessibilità
offerta dalla distribuzione a priori deve naturalmente essere utilizzata
con le dovute cautele. In questo caso non si intende in alcun modo
entrare nelle motivazioni ideologiche che si oppongono all’impostazione
bayesiana sostenendo che un metodo scientifico non debba contenere
alcuna forma di indicazione soggettiva. Questo genere di affermazioni
impedirebbe la formulazione di qualunque tentativo di modellazione e,
portato all’estreme conseguenze, negherebbe la validità di approcci di IA
come i sistemi esperti, in cui si rappresenta spesso una conoscenza
soggettiva degli esperti.
Nel caso in cui però quest’informazione a priori e soggettiva non sia
così robusta e consolidata si possono sempre seguire diverse strade. In
primo luogo utilizzare distribuzioni a prior non informative. In secondo
luogo, anche utilizzando altre ipotesi di distribuzioni a priori
sufficientemente “flessibili” e generali, verificare che il modello
formulato riesca davvero a prevedere i dati futuri, assestandosi come
modello in grado di rappresentare la realtà che si intende modellare.
Capitolo 5
Conclusioni
154
154
BIBLIOGRAFIA
[Ail75] R.H. Ailor, J.W. Schmidt e G.K. Bennet, 1975, The design of
economic acceptance sampling plans for a mixture of variables
and attributes, AIIE Transactions, 1975.
[AlS97] Al-Sultan, K.S. and Rahim, M.A.; 1997, Optimization in quality
control, Kluwer Academic Publishers.
[Bak71] K. R. Baker, 1971, Two process models in the economic design
of an X-chart, AIIE Transactions, 3, 4, 257-263.
[Bar90] M. Barad, 1990, A break-even level approach to location of
inspection stations in a multi-stage production process,
International Journal of Production Research, 28, 29-45.
[Ban88] P.K. Banjeree e M.A. Rahim, 1988, Economic Design of X
control charts under Weibull Shock Models, Technometrics, 30,
407-414.
[Bat63] J.A. Bather, 1963, Control Charts and Minimization of Costs,
Journal of the Royal Statistical Society, Series B, 25, 49-80.
[Bei79] C.S. Beightler, D.T. Phillips e D.J. Wilde, 1979, Foundations of
Optimization, Prentice Hall International Series in Industrial
and Systems Engineering
[Ber85] J.O. Berger, 1985, Statistical Decision Theory and Bayesian
Anlysis (Second edition), Springer
[Boo91] S.Boomsma, 1991, Il dilemma tra le specifiche del servizio e la
soddisfazione del cliente, Qualità , Dicembre 1993, [Memoria
presentata al congresso di Praga (1991)].
[Boi99] A. Boin, 1999, Proposta di un metodo di taratura e di controllo
dei risultati per un questionario di customer satisfaction: il caso
call center Assitalia, Tesi di laurea in Ingegneria Gestionale,
Politecnico di Milano, Dip. Meccanica.
[Cal90] Thomas W. Calvin, 1990, How and when to perform bayesian
acceptance sampling, The ASQC Basic Reference in Quality
155
Control: Statistical Techniques, American Society for Quality
Control.
[Cal95] J.M. Calabrese, 1995, Bayesian Process Control for Attributes,
Management Science, 41, 4, 637-645.
[Cal97] M.Caldara, M.Cignetti, F.Franceschini, “Strumenti a confronto
per a valutazione della qualità nei servizi”(I parte), Qualità:
rivista italiana dell’AICQ, n° 3, Maggio 1997.
[Car72] P.L. Carter, 1972, A Bayesian Approach to Quality Control,
Management Science, 18, 647-655.
[Cas 75] K.E. Case, J.W. Schmidt and G.K. Bennet, 1975, A discrete
multiattribute acceptance sampling AIIE Transactions.
[Cha83] B. C. Chang, 1983, Price-adjusted attribute single sampling
with polynomial indifference, IIE Transactions.
[Cig97] M.Caldara, M.Cignetti, F.Franceschini, 1997, Strumenti a
confronto per la valutazione della qualità nei servizi (II parte),
Qualità: rivista italiana dell’AICQ, n° 4, Giugno 1997.
[Col00] B.M. Colosimo, Q. Semeraro, and T. Tolio, 2000, Designing X
control charts in a multistage serial manufacturing system, 33rd
CIRP International Seminar on Manufacturing Systems,
Stockholm, Sweden, June 5-7 2000
[Col86] E. von Collani, 1986, A simple procedure to determine the
economic design of an X control chart, Journal of Quality
Technology, 18, 145-151.
[Col87] F. Colonna, 1987, Un po’ di chiarezza, Produrre, n°4 1987.
[Col88] E. von Collani, 1988, A unified approach to Optimal process
control, Metrika, 35, 145-159.
[Col89] E. von Collani, 1989, The Economic Design of Control,
Teubner, Stuttgart.
B.G.
[Col97] F. Colonna, 1997, Processo logistico, disponibilità e qualità del
servizio, De Qualitate, Gennaio,1997.
[Col98] B.M. Colosimo, A. Lauriola, and Q. Semeraro , 1998.
Applicazione dell’analisi multicriterio per la valutazione della
qualità del servizio. Rapporto interno depositato a termini di
156
legge, Dipartimento di Meccanica, Politecnico di Milano, n.0998.
[Cro92] S.V. Crowder, 1992, AN SPC Model for Short Production Runs:
Minimizing Expected Costs, Technometrics, 34, 64-73.
[Cro92b] J.Cronin, Seven, A.Taylor,1992, Measuring Service Quality: A
Reexamination and Extension, Journal of Marketing, 56, Luglio
1992, pp. 55-68.
[Cro94]
J.Cronin, Seven, A.Taylor, 1994, SERVPERF Versus
SERVQUAL: Reconciling Performance -Based and Perceptions Minus Expectations Measurement of Service Quality, Journal of
Marketing, 58,Gennaio 1994, 125-131.
[Das97a] T.K. Das e V. Jain, 1997, An Economic Design Model for X
charts with Random Sampling Policies, IIE Transactions, 29,
507-518.
[Das97b] T.K. Das, V. Jain e A. Gosavi, 1997, Economic Design of DualSampling-Interval Policies for X Charts with and withouth Run
Rules, IIE Transactions, 29, 497-506.
[Del93] E. Del Castillo e D.C. Montgomery, 1993, Optimal design of
control charts for monitoring short production runs, Economic
Quality Control, 8, 225-240.
[Del95] E. Del Castillo, 1995, Relations between X control chart design
variables and production control, Internationa Journal of
Production Research, 33, 2709-2721.
[Del96a] E. Del Castillo e D.C. Montgomery, A general model for the
optimal economic design of X-charts used to control short or
long run processes, IIE Transactions, 28, 193-201.
[Del96b] E. Del Castillo, 1996, Run lenght distributions and economic
design of X-charts with unknown process variance, Metrika, 43,
189-201.
[Des97] L. De Sario, 1997, Proposta di un modello economico per piani
di campionamento singoli bayesiani multiattributo, Tesi di
Laurea in Ingegneria Gestionale, Politecnico di Milano, Dip.
Meccanica.
157
[Dre89] Z. Drezner e G. O. Wesolowsky, 1989, Optimal control of a
linear trend process with quadratic loss, IIE Transactions, 21,
1, 66-72.
[Dix73] L.C.W. Dixon, 1972, Nonlinear Optimisation, The English
Universities Press Limited.
[Dun56] A.J. Duncan, 1956, The economic design of X-charts used to
maintain current control of a process, Journal of the American
Statistical Association, 51, 274, pp. 228-242.
[Dun71] A.J. Duncan, 1971, The economic design of X-charts when
there is a multiplicity of assignable causes, Journal of the
American Statistical Association, 66, 333, pp. 107-121
[Dun86] A.J. Duncan, 1986, Quality Contol and Industrial Engineering,
5th edition, R.D. Irwin, Homewood (IL).
[Ehr88] R. Ehrhardt, 1988, Indifference functions for price-adjusted
acceptance sampling, IIE Transactions.
[Epp74] G.D. Eppen and E.G. Hurst, 1974, Optimal allocation of
inspection stations in a multi-stage production process,
Management Science, 10, 1194-1200.
[Erc74] S. S. Ercan, M. Z. Hassan e A. Taulanda, 1974, Cost minimizing
plans with AIQL and AOQL Constraints, Management Science.
[Fra97] F.Franceschini, M.Terzago, 1997, Applicazione del QFD nei
servizi di formazione aziendale, De qualitate, Maggio 1997.
[Fos72] J.W. Foster, O.T. Perry, 1972, Price adjusted single sampling
with linear indifference, Journal of Quality Technology.
[Fos77] J.W. Foster, O.T. Perry, 1972, Price adjusted single sampling
with quadratic indifference, AIIE Transactions.
[Gal91] Galgano-Summit, 1991, La qualità del servizio: lo stato dell’arte
in Italia, F.Angeli.
[Gho94] A. Ghobadian, S. Speller e M. Jones, 1994, Service Quality:
Concepts and Models, International Journal of Quality and
Rielability Management, 11, 9, pp.43-66.
[Gib67] I. N. Gibra, 1967, Optimal control of process subject to linear
trends, The Journal of Industrial Engineering, 18, 1, 35-41.
158
[Gil96] W. R. Gilks, S. Richardson, D. J. Spiegelhalter, 1996, Markov
Chain Monte Carlo in Practice, Chapman & Hall
[Gir52] M. A. Girshick e H. Rubin 1952 A Bayes' approach to a quality
control model, Annals of mathematical statistics, 23, pp.114125.
[Gro82] C. Gronroos, 1982, Strategic management and marketing in the
service sector, Swedish School of Economics and Business
Administration, Helsingfors.
[Gup84], T. Gupta e S. Chakraborty, 1984, Looping in a multi-stage
production system, International Journal of Production
Research, 10, 69-77.
[Gut59] D. Guthrie Jr. e M.V. Johns, 1959, Bayes Acceptance Sampling
procedures for large lots, Annals of Mathematical Statistics, 30.
[Hah67] G.J. Hahn, S. S. Shapiro, 1967, Statistical Models in
Engineering, John Wiley, New York.
[Hal60] A. Hald, 1960, The compound hypergeometric distribution and
a system of single sampling inspection plans based on prior
distributions and costs, Technometrics.
[Hal68] A. Hald, 1968, Bayesian single sampling attribute plans for
continuous prior distributions, Technometrics.
[Hsu88] L. F. Hsu e C. S. Tapiero, 1988, Quality control of an unreliable
random FMS: with Bernoulli and CSP sampling, International
Journal of Production Research, 6, 1125-1135.
[Hsu89] L. F. Hsu e C. S. Tapiero, 1989, Quality control of an
unreliable flexible manufacturing system: with scrapping and
infinite buffer capacity, The International Journal of Flexible
Manufacturing Systems, 1, 325-346.
[Hsu90] L. F. Hsu and C. S. Tapiero, 1990, An economic model for
determining the optimal quality and process control policy in a
queue-like production system,
International Journal of
Production and Research, 28, 8, 1447-1457.
[Hsu92] L. F. Hsu and C.S. Tapiero, 1992, Integration of process
monitoring, quality control and maintenance in an M/G/1
queue-like production system, International Journal of
Production and Research, 30, 10, 2363-2379.
159
[JIS63] Japanese Industrial Standardization Commitee, JIS Z 90111963, Single sampling inspection procedures and tables by
attributes with severity adjustment (receiving inspection where
a consumer can select suppliers).
[Kea94] J.B. Keats and J.R. Simpson, 1994, Comparison of the X and
CUSUM control chart in a economic model, Economic Quality
Control, 9, 203-220.
[Kea97] Keats, J.B., Del Castillo, E., von Collani, E. and Saniga, E.M.;
1997, Economic Modeling for Statistical Process Control,
Journal of Quality Technology, 29, 2: 144-162.
[Kna69] H.A. Knappenberger e A.H.E. Grandage, 1969, Minimum cost
quality control tests, AIIE Transactions, 1, 1, 24-32.
[Lau97] A. Lauriola. 1997, Un’applicazione dell’analisi multicriteri alla
valutazione della qualità del servizio: il caso Bticino. Tesi di
laurea Politecnico di Milano, Dip. Meccanica. A.A.96/97.
[Leh82] U. Lehtinen, Jr. Lehtinen, 1982, Service Quality: A study of
“Quality dimension, Working paper Service Management
Institute, Helsinki.
[Leo93] E. Leonardi, 1993, Il disservizio quale strumento di qualità,
Qualità, Dicembre 1993.
[Lin64] G. F. Lindsay e A. B. Bishop, 1964, Allocation of screening
inspection effort: a dynamic programming approach,
Management Science, 10, 343-352.
[Lor86] T. J. Lorenzen e L. C. Vance, 1986, The economic design of
control charts: a unified approach, Technometrics, 28, 3-10.
[Mar96] A. Mariani e R. Mauri, 1996, Controllo della qualità di un
processo produttivo presso un’azienda per lavorazioni conto
terzi su macchine transfer, Tesi d laurea in Ingegneria
Meccanica, Politecnico di Milano, Dip. Meccanica.
[McW94] T. P. McWilliams, 1994, Economic, statistical and economicstatistical X-chart designs, Journal of Quality Technology, 26,
227-238.
[Mon95] D.C. Montgomery e J.C.C. Torng, 1995, Statistically
constrained economic design of the EWMA control chart,
Journal of Quality Technology, 23, 179-204.
160
[Mon96] D.C. Montgomery, 1990, Introduction to Statistical Quality
Control, John Wiley and Sons.
[Moo43] A. Mood, 1943, On the dependence of sampling inspection
plans upon population distributions, Annals of mathematical
statistics.
[Mor79] C.W Moreno, 1979, A performance approach to attribute
sampling and multiple actions decisions, AIIE Transactions.
[Mos84a] H. Moskowitz, R. Plante, K. Tang e A. Ravindran, 1984,
Multiattribute acceptance sampling plans fore screening and
scrapping rejected lots, IIE Transactions, 1984.
[Mos84b] H. Moskowitz e R. Plante, 1984, Effects of risk avversion on
single sample attribute inspection plans, Management Science.
[Mos86] H. Moskowitz, R. Plante e K. Tang, 1986, Multistage
multiattribute acceptance sampling in serial production
systems, IIE Transactions.
[Neg92] G. Negro, 1992, Organizzare la Qualità nei servizi. Ed. Il Sole
24ore Libri.
[Oht97] Ohta, H. and Rahim, M.A.; 1997, A dynamic economic model
for an x -control chart design, IIE Transactions, 29: 481-486.
[Par85] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1985, A conceptual
model of Service Quality and its implications for future
research, Journal of Marketing, 49, 41-50.
[Par88] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1988, SERVQUAL:
a multiple-item Scale for measuring consumer perceptions of
Service Quality, Journal of Retailing, 64, 1.
[Par89] B. Parkhided e K.E. Case, 1989, The Economic Design of a
Dynamic X-Control Chart, IIE Transactions, 21, 313-323.
[Par91] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1991, Refinement
and Reassessment of the SERVQUAL Scale, Journal of
Retailing, 67, 420-450.
[Par94] C. Park e M.R. Jr. Reynolds, 1994, Economic Design of a
Variable Sample size X- Chart, Communications in Statistics –
Simulation and Computation, 23, 467-483.
161
[Par96a] A. Parasuraman, 1996, La misura ed il controllo della qualità
del servizio, De Qualitate, Maggio1996, pp.5-15..
[Par96b] A. Parasuraman, 1996, SERVQUAL: applicazioni, messa a
punto sul campo e risultati, De Qualitate, Giugno1996, pp.515.
[Pet87] M. H. Peters e W. W. Williams, 1987, Economic design of quality
monitoring efforts for multi-stage production systems, IIE
Transactions, 81-87
[Pet89] M. H. Peters e W. W. Williams, 1989, Economic design of an
attribute control system for a multistage serial production
process, International Journal of Production Research, 27,
1269-1286.
[Por86] E. L. Porteus, 1986, Optimal lot-sizing, process quality
improvement and set-up cost reduction, Operation Research
86, 137-144.
[Por97] Porteus, E.L. and Angelus, 1997, Opportunities for Improved
Statistical Process Control, Management Science, 43, 9, 12141228.
[Pos87] M. J. M. Posner e C. S. Tapiero, 1987, Manufacturing quality
density, control and maintenance, International Journal of
Production Research, 25, 1511-1521.
[Pra97] S.S. Prabhu, D.C. Montgomery, G.C. Runger, 1997, EconomicStatistical Design of an Adaptive X Chart, International Journal
of Production Economics 49, 1-15.
[Que88] C. P. Quesenberry, 1988, An SPC approach to compensating a
tool-wear process, Journal of Quality Technology, 20, 4, 220229.
[Rah93] M.A. Rahim e P.K. Banerjee, 1993, A Generalized Model for the
Economic Design of X-Charts for Production Systems with
Increasing Failure Rate and Early Replacement, Naval Research
Logistics, 40, 787-809.
[Rah94] M.A. Rahim, 1994, Joint Determination of Production
Quantity, Inspection Schedule, and Control Chart Design, IIE
Transactions, 26, 6, 2-11.
162
[Rah98] M. A. Rahim and M. Ben-Daya, 1998, A generalized economic
model for joint determination of production run, inspection
schedule and control chart design, International Journal of
Production and Research, 36, 1, 277-289.
[Ram96a] M.Ramoni, P.Sebastiani, 1996, Robust Learning with Missing
Data, Technical Report, Knowldege Media Institute, Aug.1996.
[Ram96b] M.Ramoni, P.Sebastiani, Robust Parameter Learning in
Bayesian Networks with Missing Data, Technical Report,
Knowldege Media Institute, Nov.1996.
[Ram97a] M.Ramoni, P.Sebastiani, Efficient Parameter Learning in
Bayesian Networks from incomplete Data, Technical Report,
Knowldege Media Institute, Jan. 1997.
[Ram97b] M.Ramoni, P.Sebastiani, Learning Bayesian Networks from
incomplete Database, Technical Report, Knowldege Media
Institute, Feb. 1997.
[Ram97c] M.Ramoni, P.Sebastiani, The use of Exogenous Knowledge to
Learn Bayesian Networks from Incomplete Databases, Technical
Report, Knowldege Media Institute, Feb. 1997.
[Ram97d] M.Ramoni, P.Sebastiani, Discovering Bayesian Networks in
Incomplete Databases, Technical Report, Knowldege Media
Institute, Mar. 1997.
[Ram97e] M.Ramoni, P.Sebastiani, Parameter Estimation in Bayesian
Networks from Incomplete Databases, Technical Report,
Knowldege Media Institute, Nov. 1997.
[Ram97f] M.Ramoni, P.Sebastiani, Bayesian Inference with Missing
Data Using Bound & Collapse, Technical Report, Knowldege
Media Institute, Dec. 1997.
[Ram98] M.Ramoni, P.Sebastiani, Bayesian Methods for Intelligent Data
Analysis, Technical Report, Knowldege Media Institute, Jul.
1998.
[Raz87] T. Raz and D. Bricker, 1987, Sequencing of imperfect
operations subject to constraints on the quality of accepted and
rejected units, International Journal of Production Research,
25, 809-821.
[Ros83] S. H. Ross, 1983, Stochastic Processes, John Wiley and Sons.
163
[Ros86], M. J. Rosenblatt e H. L. Lee, 1986, Economic production cycles
with imperfect production process, IIE Transactions, 18, 4855.
[Saa96] The Analytic Network Process : Decision Making With
Dependence & Feedback by Thomas L. Saaty.
[San89] E. M. Saniga, 1989, Economic statistical control chart with an
application to X and R control charts, Technometrics, 31, 313320.
[San95] E. M. Saniga, D. J. Davis e T. P. McWilliams, 1995, Economic,
statistical and economic-statistical design of attribute charts,
Journal of Quality Technology, 27, 56-73.
[Sas78] W.E. Jr. Sasser, P. R. Olsen e D.D. Wyckoff, 1978, Management
of Service Operations: Text and Cases, Boston, MA, Allyn and
Bacon.
[Sch72] J.W. Schmidt, G.K. Bennet, 1972, Economic multiattribute
acceptance sampling, AIIE Transactions.
[Sch90] H. Schneider, K. Tang e C. O'Cinneide, 1990, Optimal control of
a production process subject to random deterioration,
Operation Research, 38, 6, 1116-1122.
[Sch94] P. B. Schary, 1994, The market place view of customer service,
Handbook of Physical Distribution Management, John
Gattorna, Gower, 1994.
[Ste78] R.D. Stewart, D. C. Montgomery e R. G. Heikes, 1978, Choice of
double sampling plans based on prior distributions and costs,
AIIE Transactions.
[Swa76] Swan, Comb, 1976, Product performance and Consumer
Satisfaction: A New Concept, Journal of Marketing, April 1976.
[Tag94] G. Tagaras, 1994, A Dynamic Programming Approach to the
Economic design of X-Charts, IIE Transactions, 26, 3, 48-56.
[Tag96] G. Tagaras, 1996, Dynamic Control Charts for Finite
Production Runs, European Journal of Operational Research,
91, 38-55.
[Tag98] G. Tagaras, 1998, A Survey of Recent Developments in the
Design of Adaptive Control Charts, Journal of Quality
164
Technology, 30, 3: 212-231.
[Tay65] H.M. Taylor, 1965, Markovian Sequential Replacement Process,
Annals of Mathematical Statistics, 36, 1677-1694.
[Tay67] H.M. Taylor, 1967, Statistical Control of a Gaussian Process,
Technometrics, 9, 29-41.
[Tay88] G. K. Tayi e D. P. Ballou, 1988, An integrated productioninventory model with reprocessing and inspection, International
Journal of Production Research, 26, 1266-1315.
[Tea93] R. Kenneth Teas, 1993, Expectations,Performance Evaluation,
and Consumers’ Perceptions of Quality, Journal of Marketing,
Ottobre 1993.
[Tea94] R.Kenneth Teas, 1994, Expectations as a Comparison Standard
in measuring service Quality: an Assessment of a
Reassessment, Journal of Marketing, 58,Gennaio 1994, 125131.
[Tri66] R. R. Trippi, 1966, An on-line computational model for
inspection resource allocation, Journal of Quality Technology,
6, 167-174.
[Yum87] B. J. Yum and E. D. McDowell, 1987, Optimal inspection
policies in a serial production system including scrap rework
and repair: a MILP approach, International Journal of
Production Research, 25, 1451-1460.
[Wei92] C. Weigand, 1992, A new approach for optimal control of a
production process, Economic Quality Control, 7, 225-251.
[Wei93] C. Weigand, 1993, On the effects of SPC on production time,
Economic Quality Control, 8, 23-61.
[Woo86] W. H. Woodall, 1986, Weaknesses of the economic design of
control charts, Technometrics, 28, 408-409.
[Vau93] T.S. Vaughan, 1993, Variable Sampling Interval np Process
Control Charts, Communications in Statistics – Theory and
Methods, 22, 147-167.
165
Appendice A
166
APPENDICE A
ELEMENTI DI STATISTICA
BAYESIANA
A.1 Il teorema di Bayes e il teorema di Bayes
generalizzato
Il teorema di Bayes fornisce una formula di calcolo per la probabilità
condizionata e può essere enunciato come segue: dati due eventi A e B,
la probabilità che l’evento A si verifichi, condizionatamente al fatto che
si è già verificato l’evento B è data da:
P (A| B ) =
P (A ∩ B )
P (B )
dove a numeratore si ha la probabilità dell’intersezione dei due eventi e
a denominatore la probabilità dell’evento condizionante.
Dal teorema di Bayes deriva il teorema delle probabilità totali in cui è
possibile ricavare la probabilità di un evento come:
P (B ) = P (B | A )P (A ) + P ( B | A )P ( A )
Partendo dal teorema di Bayes, il teorema di Bayes generalizzato può
essere ricavato estendendo alle variabili aleatorie quanto espresso nel
caso di eventi: date due variabili aleatorie x e y, con distribuzione
condizionata f(x|y) e distribuzione marginale g(y), la distribuzione
condizionata di y dato x è:
P (B|A )
P(A)
6
474
8 }
6
474
8
f ( x |y ) g(y)
g (y | x ) =
( x |y )g (y )dy
∫1f4
42443
P ( A|B )
(A.1)
P (B )
Se si considera Il teorema di Bayes generalizzato, sostituendo ad x
l’insieme di osservazioni in un campione di riferimento e ad y i
parametri che caratterizzano le distribuzioni di queste osservazioni, si
Appendice A
167
può ricavare lo schema di base dell’inferenza bayesiana. Si ipotizzi di
avere un vettore di n osservazioni ~
x indipendenti e identicamente
distribuite secondo una funzione densità di probabilità nota
{f (x θ ),θ ∈ Θ} la quale è completamente definita dato un parametro θ (si
ipotizzi per semplicità un unico parametro incognito, ad esempio la
probabilità di successo per una distribuzione binomiale o la media per
una normale in ipotesi di varianza nota).
Si ipotizzi di conoscere anche la distribuzione a priori π (θ ) del
parametro, distribuzione che rappresenta la conoscenza a priori senza
cioè osservare i dati.
A valle dell’osservazione delle n osservazioni ~
x , si può ricavare la
distribuzione a posteriori del parametro (condizionatamente a dati
osservati) π (θ | x~) , espressa da:
π (θ | x~) =
f ( x |θ )π (θ )
∫Θ f ( x |θ )π (θ )d θ
=
f ( x |θ )π (θ )
m(x )
(A.2)
dove:
- x vettore aleatorio (es. oss.ni)
- θ parametro
- {f (x θ ),θ ∈ Θ} densità di probabilità
- π (θ ) densità, distr. iniziale di θ (prior)
- m (x ) = ∫ f ( x θ )π (θ )dθ densità marginale di x
Θ
Nel calcolo della distribuzione a posteriori, il problema computazionale
è spesso rappresentato dall’integrale nel calcolo di m (x~) :
m (x~) =
∫Θ f (~x θ )π (θ )dθ
(A.3)
Gran parte della ricerca si sta infatti sviluppando nella definzione di
algoritmi numerici per il calcolo dell’integrale nell’equazione A.3 (ad
esempio i metodi Markov Chain MonteCarlo [Gil96].
Dal momento che il denominatore dell’equazione A.2 non dipende dal
valore del parametro θ , per riconoscere la forma distribuzionale della
posterior è sufficiente operare trascurando questa costante
moltiplicativa, analizzando solo il nucleo:
π (θ x~) ∝ f (x~ θ )π (θ )
14243
nucleo
Appendice B
APPENDICE B
LE DISTRIBUZIONI
168
BETA E POLYA E
LA PROPRIETÀ DI RIPRODUCIBILITÀ
B.1 La proprietà di riproducibilità
La proprietà di riproducibilità (o di invarianza rispetto al
campionamento ipergeometrico) è una importante proprietà applicabile
nel campionamento per attributi..
Siano:
N ampiezza del lotto estratto da processo di difettosità p
P la vriabile casuale che indica la frazione di pezzi non conformi
generati dal processo;
X il numero di pezzi non conformi presenti nel lotto di ampiezza N, con
distribuzione fN(X);
n la numerosità del campione estrsatto (senza reimmissione) dal lotto di
ampiezza N;
x il numero di pezzi non conformi nel campione di ampiezza n;
y il numero di pezzi non conformi nella parte non collaudata del lotto,
cioè X-x.
Detta Prob(x,y) la probabilità congiunta di trovare x pezzi difettosi nel
campione e y pezzi difettosi nella parte non collaudata del lotto, si avrà:
 X  N − X 
n  N − n 
 

 

 x  n − x 
 x  y 
Prob( x ,y ) = f N ( X )
= f N (x + y )
N 
 N 
 


n 
x + y 
Quindi la distribuzione marginale di di x si otterrà sommando
Prob(x,y) su tutti i possibili valori di y:
N − n 


N
−
n
y 
n 

g n ( x ) =   ∑ f N ( x + y )
 N 
x y =0


x + y 
Questa distribuzioned è la distribuzione ipergeometrica composta.
Appendice B
169
In [Hal60] si dimostra un teorema che si può applicare al
campionamento per attributi nella seguente formulazione:
se la distribuzione f N (X ) è:
• ipergeometrica
• binomiale
• rettangolare
• polya (generalizzazione delle prime tre)
• binomiale mista con pesi wi (corrispondente a situazioni
in cui i lotti sono prodotti da più fornitori)
• qualsiasi media pesata delle distribuzioni citate con pesi
indipendenti da N e X
e la successione delle funzioni f N (X ) , per N=1,2,…, ammette
limite non degenere
allora
per ogni N, x esibisce la stessa distribuzione di X con n al posto
di N. g n (x ) si ottiene quindi da f N (X ) sostituendo X con x ed N
con n, e si dice che la distribuzione f N (X ) è riproducibile.
Operativamente il teorema indica che si può trattare il campione di
numerosità n, estratto da un lotto generato da un processo con
distribuzione f N (X ) riproducibile, come generato da un processo che è
identico a quello che ha generato il lotto, ma effettua una produzione
limitata a n pezzi.
Un altro importante risultato riportato in [Hal60] è l’espressione del
valore atteso del numero di pezzi non conformi nel lotto di dimensione
N, condizionato al fatto di aver riscontrato x difettosi nel campione di
dimensione n:
(N − n )(x + 1) g n +1( x + 1)
E(X| x) =
+x
(n + 1)
g n (x )
B.2 La distribuzioni beta come distribuzione a
priori
L’utilizzo della distribuzione beta per modellare la distribuzione a
priori della frazione di pezzi non conformi comporta alcuni vantaggi. In
primo luogo la distribuzione beta è estremamente flessibile: può
assumere forme molto diverse e quindi rappresentare un vasto insieme
di distribuzioni dei dati. Inoltre presenta il vantaggio di avere come
distribuzione coniugata (posterior) ancora una beta, qualora la
distribuzione a posteriori sia ricavata attraverso un campionameto
binomiale.
Appendice B
170
Ipotizziamo che la variabile casuale p, frazione di pezzi non conformi,
sia distribuita secondo una beta di parametri s e t:
(s + t − 1)!
p s −1(1 − p )t −1
0 ≤ p ≤ 1 s, t > 0
(s − 1)!(t − 1)!
p(1 − p )
s
st
con media p =
e varianza σ 2p =
=
.
2
s +t
(s + t ) (s + t + 1) (s + t + 1)
Si può dimostrare che se si effettua un campionamento binomiale da
un processo avente distribuzione a priori (in funzione di p) beta di
parametri s e t, allora:
La probabilità che in un lotto di N pezzi, X siano difettosi,
indipendentemente dalla frazione di non conformi del processo, ha
distribuzione polya;
La distribuzione a posteriori ha densità beta di parametri s+x, t+n-x.
Infatti si ha:
f ( p | s, t ) =
1
f N ( X |N ,s, t ) = ∫ f ( X |N , p ) f ( p |s, t )dp =
0
=
=
1
∫ X ! (N − X )! p
N!
X
(1 − p) N − X f ( p |s, t )dp =
N!
X
(1 − p) N − X
0
1
∫ X ! (N − X )! p
0
=
(s + t − 1)! s −1
p
(1 − p )t −1 dp =
(s − 1)!(t − 1)!
N!
(s + t − 1)! 1 ( X + s )−1
(1 − p )(N − X + t )−1dp =
∫p
X ! (N − X )! (s − 1)!(t − 1)! 0
N!
(s + t − 1)! Γ( X + s )Γ(N − X + t )
=
X ! (N − X )! (s − 1)!(t − 1)! Γ( X + s + N − X + t )
N!
(s + t − 1)! ( X + s − 1)!(N − X + t − 1)!
=
X ! (N − X )! (s − 1)!(t − 1)!
(s + N + t − 1)!
=
che è la distribuzione polya con con media X =
σ2
X =
Nst(s + t + N )
Ns
= Np e varianza
s+t
.
(s + t )2 (s + t + 1)
Per ricavare il secondo risultato relativo alla distribuzione a posteriori,
occorre utilizzare il teorema di Bayes. Si osservi innanzitutto che,
poichè la distribuzione f N (X ) è una polya, la probabilità g n (x ) di
osservare x difettosi nel campione di dimensione n è anch’essa una
polya, per il teorema di riproducibilità enunciato nel paragrafo A.1.
Appendice B
171
Per cui la distribuzione marginale che compare a denominatore nella
formula della posterior (teorema di Bayes generalizzato) è proprio dato
da g n (x ) . Di consegeuenza la distribuzione a posteriori si può ricavare
come:
n!
(s + t − 1)!
p x (1 − p)n − x
p s −1 (1 − p )t −1
f ( x | p ) f ( p ) x! (n − x )!
(s − 1)!(t − 1)!
f (p | x ) =
=
=
(
s
+
t
−
1
)!
(x + s − 1)!(n − x + t − 1)!
n
!
g n (x )
x !(n − x )! (s − 1)! (t − 1)!
(s + n + t − 1)!
=
(s + n + t − 1)!
p s + x −1 (1 − p )t +n − x −1
( x + s − 1)!(n − x + t − 1)!
che è una distribuzione beta di parametri s+x, t+n-x.
Appendice C
172
APPENDICE C
RISULTATI
NUMERICI
DELLA
PROGETTAZIONE DI UNA CARTA DI
CONTROLLO
C
ADATTATIVA
BAYESIANA
Parametri
Numero
medio di non
conformità
λ0
prodotti
in
stato 0
Numero
medio di non
conformità
λ1
prodotti
in
stato 1
Tempo medio
per avere uno 1/ν
shift
Tempo
a
seguito di un tFA
falso allarme
Tempo
di
tR
riparazione
Profitto
orario
in V0
stato 0
Profitto
orario
in V1
stato 1
Costi
a
A
seguito di un
Caso Caso Caso Caso Caso Caso Caso Caso Caso
1
2
3
4
5
6
7
8
9
base
20
20
20
20
20
20
20
20
20
25
30
25
25
25
25
25
25
25
50
50
100
50
50
50
50
50
50
1
1
1
2
1
1
1
1
1
1
1
1
1
2
1
1
1
1
450
450
450
450
450
650
450
450
450
250
250
250
250
250
250
250
250
250
25
25
25
25
25
25
50
25
25
Appendice C
falso allarme
Costi
di
R
ripristino
Costi
di
I
ispezione
173
25
25
25
25
25
25
25
50
25
10
10
10
10
10
10
10
10
20
Appendice C
174
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
300
350
400
stat1
Average: 355,475
StDev: 28,9026
N: 100
Anderson-Darling Normality Test
A-Squared: 0,323
P-Value: 0,523
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
340
390
440
bayes1
Average: 382,212
StDev: 18,8780
N: 100
Two-Sample T-Test and CI: bayes1; stat1
Anderson-Darling Normality T est
A-Squared: 0,413
P-Value: 0,332
Appendice C
175
Two-sample T for bayes1 vs stat1
N
100
100
bayes1
stat1
Mean
382,2
355,5
StDev
18,9
28,9
SE Mean
1,9
2,9
Difference = mu bayes1 - mu stat1
Estimate for difference: 26,74
95% CI for difference: (19,92; 33,55)
T-Test of difference = 0 (vs not =): T-Value = 7,75
DF = 170
P-Value = 0,000
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
260
310
360
410
stat2
Average: 318,154
StDev: 36,2253
N: 100
Anderson-Darling Normality Test
A-Squared: 0,821
P-Value: 0,033
Appendice C
176
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
250
350
450
bayes2
Average: 360,655
StDev: 35,6276
N: 100
Anderson-Darling Normality Test
A-Squared: 0,830
P-Value: 0,031
Mann-Whitney Test and CI: bayes2; stat2
bayes2
N = 100
Median =
359,22
stat2
N = 100
Median =
312,08
Point estimate for ETA1-ETA2 is
44,09
95,0 Percent CI for ETA1-ETA2 is (33,68;54,66)
W = 13051,0
Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0000
Appendice C
177
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
300
350
400
stat3
Average: 346,675
StDev: 30,0759
N: 100
Anderson-Darling Normality Test
A-Squared: 0,242
P-Value: 0,766
Normal Probability Plot
,999
Probability
,99
,95
,80
,50
,20
,05
,01
,001
300
350
400
bayes3
Average: 381,851
StDev: 16,4911
N: 100
Two-Sample T-Test and CI: bayes3; stat3
Two-sample T for bayes3 vs stat3
Anderson-Darling Normality Test
A-Squared: 0,502
P-Value: 0,202
Appendice C
bayes3
stat3
N
100
100
178
Mean
381,9
346,7
StDev
16,5
30,1
SE Mean
1,6
3,0
Difference = mu bayes3 - mu stat3
Estimate for difference: 35,18
95% CI for difference: (28,40; 41,95)
T-Test of difference = 0 (vs not =): T-Value = 10,26
DF = 153
P-Value = 0,000
Appendice C
179
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
280
330
380
430
stat4
Average: 353,588
StDev: 30,2337
N: 100
Anderson-Darling Normality T est
A-Squared: 0,294
P-Value: 0,595
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
340
360
380
400
420
bayes4
Average: 381,135
StDev: 17,4098
N: 100
Two-Sample T-Test and CI: bayes4; stat4
Anderson-Darling Normality Test
A-Squared: 0,316
P-Value: 0,535
Appendice C
180
Two-sample T for bayes4 vs stat4
N
100
100
bayes4
stat4
Mean
381,1
353,6
StDev
17,4
30,2
SE Mean
1,7
3,0
Difference = mu bayes4 - mu stat4
Estimate for difference: 27,55
95% CI for difference: (20,66; 34,44)
T-Test of difference = 0 (vs not =): T-Value = 7,90
DF = 158
P-Value = 0,000
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
300
350
400
stat5
Average: 352,382
StDev: 30,2699
N: 100
Anderson-Darling Normality Test
A-Squared: 0,612
P-Value: 0,109
Appendice C
181
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
330
340
350
360
370
380
390
400
410
420
bayes5
Average: 381,371
StDev: 16,2967
N: 100
Anderson-Darling Normality T est
A-Squared: 0,844
P-Value: 0,029
Mann-Whitney Test and CI: bayes5; stat5
bayes5
N = 100
Median =
383,82
stat5
N = 100
Median =
352,48
Point estimate for ETA1-ETA2 is
29,79
95,0 Percent CI for ETA1-ETA2 is (21,65;37,94)
W = 12873,0
Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0000
Appendice C
182
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
300
350
400
stat6
Average: 350,594
StDev: 29,8327
N: 100
Anderson-Darling Normality Test
A-Squared: 0,214
P-Value: 0,846
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
320
370
420
bayes6
Average: 381,159
StDev: 19,6460
N: 100
Two-Sample T-Test and CI: bayes6; stat6
Anderson-Darling Normality T est
A-Squared: 0,511
P-Value: 0,192
Appendice C
183
Two-sample T for bayes6 vs stat6
N
100
100
bayes6
stat6
Mean
381,2
350,6
StDev
19,6
29,8
SE Mean
2,0
3,0
Difference = mu bayes6 - mu stat6
Estimate for difference: 30,57
95% CI for difference: (23,51; 37,62)
T-Test of difference = 0 (vs not =): T-Value = 8,56
DF = 171
P-Value = 0,000
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
280
330
380
430
stat7
Average: 352,865
StDev: 32,6033
N: 100
Anderson-Darling Normality Test
A-Squared: 0,148
P-Value: 0,964
Appendice C
184
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
320 330
340
350
360
370
380
390
400
410
bayes7
Average: 382,412
StDev: 17,1173
N: 100
Anderson-Darling Normality Test
A-Squared: 0,608
P-Value: 0,111
Two-Sample T-Test and CI: bayes7; stat7
Two-sample T for bayes7 vs stat7
bayes7
stat7
N
100
100
Mean
382,4
352,9
StDev
17,1
32,6
SE Mean
1,7
3,3
Difference = mu bayes7 - mu stat7
Estimate for difference: 29,55
95% CI for difference: (22,27; 36,82)
T-Test of difference = 0 (vs not =): T-Value = 8,02
DF = 149
P-Value = 0,000
Appendice C
185
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
280
330
380
430
stat8
Average: 347,018
StDev: 29,7948
N: 100
Anderson-Darling Normality T est
A-Squared: 0,328
P-Value: 0,513
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
345
355
365
375
385
395
405
415
425
bayes8
Average: 380,537
StDev: 16,7312
N: 100
Two-Sample T-Test and CI: bayes8; stat8
Anderson-Darling Normality Test
A-Squared: 0,482
P-Value: 0,226
Appendice C
186
Two-sample T for bayes8 vs stat8
N
100
100
bayes8
stat8
Mean
380,5
347,0
StDev
16,7
29,8
SE Mean
1,7
3,0
Difference = mu bayes8 - mu stat8
Estimate for difference: 33,52
95% CI for difference: (26,77; 40,27)
T-Test of difference = 0 (vs not =): T-Value = 9,81
DF = 155
P-Value = 0,000
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
300
350
400
stat9
Average: 350,755
StDev: 30,5698
N: 100
Anderson-Darling Normality Test
A-Squared: 0,305
P-Value: 0,561
Appendice C
187
Normal Probability Plot
,999
,99
Probability
,95
,80
,50
,20
,05
,01
,001
340
350
360
370
380
390
400
410
bayes9
Average: 380,604
StDev: 15,5229
N: 100
Anderson-Darling Normality Test
A-Squared: 0,529
P-Value: 0,172
Two-Sample T-Test and CI: bayes9; stat9
Two-sample T for bayes9 vs stat9
bayes9
stat9
N
100
100
Mean
380,6
350,8
StDev
15,5
30,6
SE Mean
1,6
3,1
Difference = mu bayes9 - mu stat9
Estimate for difference: 29,85
95% CI for difference: (23,07; 36,62)
T-Test of difference = 0 (vs not =): T-Value = 8,71
DF = 146
P-Value = 0,000
Appendice D
188
APPENDICE D
BAYESIAN BELIEF NETWORK: IL
METODO E IL SOFTWARE BAYESIAN
KNOWLEDGE DISCOVERY
In questa appendice si intende descrivere brevemente la metodologia
che è stata utilizzata nel capitolo 4 per definire le reti di dipendenza
bayesiane a partire da database in presenza di dati mancanti. Per
ulteriori approfondimenti, si veda [Ram96a ], [Ram96b], [Ram97a],
[Ram97b], [Ram97c], [Ram97d], [Ram97e], [Ram97f] e [Ram98].
D1.1
Metodi bayesiani
I metodi di previsione statistica tradizionale sono basati sulla
determinazione della distribuzione condizionata p( y|θ) degli n dati
osservati y = (y1,...,yn) dato il vettore θ, il quale descrive la struttura
delle dipendenze tra le variabili considerate. Questi strumenti “classici”
utilizzano le informazioni ricavate dai dati a disposizione in un
Database per correggere il modello θ
ipotizzato, attraverso
l’applicazione dell’inferenza statistica.
I metodi Bayesiani danno la possibilità di incorporare anche altre
informazioni sull’argomento in esame, quali: le esperienze passate su
temi simili o le particolari valutazioni degli esperti. Queste informazioni
iniziali, sono rappresentati dal simbolo I0 e sono fondamentali nella
definizione della probabilità a priori p(θ | I0), elaborata prima di aver
considerato i dati del Database. Questa probabilità, formulata con i dati
a disposizione, viene aggiornata con le nuove osservazioni; la revisione
delle informazioni viene rappresentata attraverso il teorema di Bayes:
p (θ y, I 0 ) =
p ( y θ , I 0 ) p(θ I 0 )
p( y I 0 )
il quale modifica la probabilità iniziale P(θ |I0) nella probabilità a
posteriori p(θ|y,I0) con l’aumentare delle informazioni. Questo processo
si basa sulla rappresentazione delle informazioni totali (I1) come somma
delle informazioni a priori (I0) e dei dati ricavati dal campione (y).
Appendice D
189
La probabilità al denominatore della formula di Bayes, detta
probabilità marginale dei dati, è ricavata dal teorema delle Probabilità
Totali:
p( y I 0 ) =
∫ p( yθ , I
0
) p (θ I 0 ) dθ
In alcuni casi le informazioni I non influiscono sul campione y , dato il
vettore θ, cioè y e I sono condizionalmente indipendenti, quindi:
p( y θ , I ) = p( y θ )
L’indipendenza condizionale delle due variabili viene indicata come
i(I,y|θ) e si verifica quando θ specifica completamente lo stato delle
informazioni, in modo che I non aggiunge nessuna nuova indicazione
rilevante.
Se gli n casi del campione y = (y1,...,yn) osservato sono indipendenti, la
densità di probabilità congiunta del campione è data da:
n
p ( y θ ) = ∏ p ( yi θ )
i =1
Questa espressione rappresenta anche la funzione di Verosimiglianza,
la quale è quindi fondamentale nel passaggio dalla densità a priori a
quella a posteriori.
D1.1.1 Direct Acyclic Graph (DAG)
La dipendenza stocastica tra le variabili I, θ e y può essere
rappresentata graficamente attraverso il Direct Acyclic Graph, il quale
(aggiungendo l’ipotesi di indipendenza condizionale i(I,y|θ), tra I ed y
dato θ) assume la seguente forma:
θ
•
•
I
•
y
Le frecce da θ verso I e y rappresentano la dipendenza stocastica di I
ed y da θ. Secondo la terminologia adottata nella statistica bayesiana, θ
viene detto PARENT di I ed y, i quali sono entrambi CHILD di θ.
La dipendenza stocastica di I e y da θ è quantificata dalle densità
condizionali p(I|θ) e p(y|θ), le quali vengono utilizzate per correggere la
distribuzione di θ. In primo luogo si determina la densità condizionale
P(θ | I) dalle informazioni I a disposizione, attraverso il teorema di
Bayes. Poi, con l’arrivo dei nuovi dati, la cui distribuzione è p( y|θ) e
utilizzando ancora una volta il teorema di Bayes, si ricava la
distribuzione di θ, p(θ | I,y).
Appendice D
190
Il metodo Bayesiano sfrutta questa caratteristica incrementale del
procedimento appena descritto, per arrivare alla definizione della
probabilità a posteriori dei parametri incogniti.
D1.1.2 Inferenza Bayesiana
Un punto fondamentale del metodo Bayesiano è l’utilizzo delle
informazioni a priori sulla distribuzione delle probabilità condizionali,
parametrizzate dal vettore θ. La definizione di questo vettore può essere
ricavata in due diversi modi:
- dall’analisi di dati a disposizione, quindi derivandola semplicemente
da un calcolo di probabilità su informazioni provenienti da studi
simili già eseguiti in passato
- da asserzioni soggettive elaborate da esperti, le quali devono essere
tradotte in termini probabilistici, utilizzabili nell’inferenza Bayesiana.
La validità e veridicità di tali asserzioni dovranno essere dimostrate
dagli stessi esperti, che saranno tenuti a documentare i metodi e le
ipotesi utilizzate.
Esempio: un approccio comune seguito dagli esperti è la scelta di una
funzione di densità a priori simile a quella della Verosimiglianza. Le due
funzioni risultano essere Coniugate e la distribuzione a posteriori di θ
sarà della stessa classe, ossia avrà la stessa forma, della funzione di
densità a priori. Questo criterio dovrebbe restringere la scelta delle
distribuzioni a priori ad una classe limitata di funzioni ed è veramente
utile solo se questa classe non risulta essere troppo estesa.
Nelle valutazioni effettuate dagli esperti è molto importante la scelta
della Precisione, o Prior Precision, la quale è data in termini di
grandezza del campione immaginario necessario alla definizione della
probabilità a priori. Questa grandezza specifica la confidenza che gli
esperti hanno nelle loro asserzioni circa le densità di probabilità definite
inizialmente: infatti, più la prior precision è maggiore e vicina alla
numerosità del campione analizzato, più la distribuzione di probabilità
a posteriori sarà simile a quella stabilita a priori. Quindi, se le
informazioni iniziali, su cui basare le decisioni circa la probabilità a
priori, sono poco precise ed affidabili, è meglio che esse non influenzino
troppo i risultati finali: quindi è necessario impostare un valore
relativamente piccolo del parametro prior precision. In questo caso, i
risultati saranno basati in misura maggiore sui dati a disposizione nel
campione analizzato. La scelta della prior precision deve tenere in
considerazione sia la bontà delle asserzioni degli esperti, sia la
rappresentatività del campione analizzato e quindi la sua numerosità.
Un problema aperto dei metodi Bayesiani è la scelta di una
distribuzione a priori che rappresenti una ignoranza iniziale
Appendice D
191
sull’argomento da parte degli esperti, cioè una funzione che sia noninformativa e non influisca quindi sulla determinazione delle
distribuzioni a posteriori. Una soluzione a questo problema può essere
l’assegnazione di una distribuzione a priori che sia il più possibile
uniforme, pur rimanendo una distribuzione di probabilità. Ad esempio,
nel caso di una distribuzione di probabilità Normale, una varianza
molto elevata risulta essere molto efficace allo scopo e, siccome la
Precisione e la varianza sono inversamente proporzionali, ciò si traduce
in un valore della Prior Precision molto piccolo. Utilizzando la
distribuzione di probabilità uniforme come funzione iniziale di
rappresentazione dell’incertezza, si assume, in realtà, che quest’ultima
sia adeguatamente rappresentata da valori equamente distribuiti di
probabilità, quindi si attribuisce un’ipotesi forte alla distribuzione dei
dati, la quale deve essere necessariamente dimostrata e verificata.
D1.1.3 Reti Bayesiane
Le reti Bayesiane, o Bayesian Belief Networks (BBN), sono dei modelli
grafici che descrivono le dipendenze tra diversi set di variabili. Esse
rappresentano un potente strumento di rappresentazione delle
informazioni, basato sulla teoria probabilistica.
Una rete Bayesiana è definita da:
- un set di variabili Y = {Y1,...,YI}discrete (per facilitare l’analisi), dove
ogni Y i è caratterizzata da ci stati, ognuno dei quali viene identificato
da yik
- un modello M delle dipendenze condizionali tra gli elementi di Y,
definito da un Direct Acyclic Graph, dove i nodi rappresentano le
variabili stocastiche e gli archi identificano le dipendenze tra di essi.
Per la seguente trattazione si utilizza la terminologia tipica dei DAG,
cioè si indicano le variabili Yi come CHILD delle variabili PARENT Π i, le
quali sono costituite dai qi stati π ij.
CHILD :
Yi = {yi1,...,yik,...,yici}
ossia Yi = {yik}
con i=1,....,I
e k=1,...,ci
PARENT: Π i = {π i1,...,π ij,...,πiqi }
ossia Π i = {π ij }
con i= 1,....,I
e j=1,...,qi
Le Π i rappresentano i legami della variabile Yi con le altre variabili Yx
con x≠i.
Ad esempio: Π 3=(Y1,Y2) rappresenta il legame tra la variabile CHILD Y3
ed i suoi PARENT Y 1 e Y 2.
Appendice D
192
Y1 •
• Y2
•
Y3
I legami tra le variabili CHILD e PARENT sono definiti dalle
distribuzioni condizionali di Y i dato Π i. Le variabili Yi sono indipendenti,
in base alle ipotesi della struttura DAG e quindi, la probabilità della
combinazione degli stati delle I variabili yk={yik,...,yIk}, combinazione
formata dalla selezione di un determinato stato k per ogni variabile Yi, è
data da:
I
p ( y k ) = ∏ p ( y ik π ij )
i =1
La componente grafica delle BBNs costituisce un modo semplice di
descrivere e comunicare le dipendenze stocastiche tra le variabili.
D1.1.4 Ricavare una rete Bayesiana dai dati di un
Database
Inizialmente le BBNs erano strutturate sulla base delle conoscenze
degli esperti, i quali davano una loro prima rappresentazione della rete
delle dipendenze fra le variabili. Quest’ultima, associata con l’ipotesi
base di indipendenza condizionale tra le variabili, dava una descrizione
probabilistica delle ipotesi formulate dagli esperti.
Per arrivare ad avere con le BBNs un valido strumento di analisi dei
dati indipendentemente dall’intervento degli esperti, si sono dovuti
sviluppare dei metodi atti a ricavare le reti Bayesiane direttamente dai
Database.
D1.1.4.1 Scelta del modello M
Dati m modelli M={M0, M1, ...,Mm} delle dipendenze fra le variabili
considerate, ad ognuno sono assegnati la probabilità a priori p( Mj | I0 )
ed i vettori delle probabilità condizionate associati, i quali vengono
indicati con il simbolo θ(j) . Le informazioni raccolte dal campione
vengono utilizzate per determinare la probabilità a posteriori per mezzo
del teorema di Bayes:
Appendice D
p (M j | I1 ) =
193
p (M j | I 0 ) p ( y | M j )
m
∑ p (M
i =1
i
| I0 ) p ( y | M i )
dove p( y | Mj ) è la Verosimiglianza marginale, la quale, sotto le ipotesi
di :
- completezza del campione (non esistono dati incogniti);
- casi indipendenti;
- distribuzione a priori dei parametri coniugata al modello di campionamento:
θ ij( j ) ≈ D(α ij1 ,...,α ijci ) ;
può essere descritta dalla seguente equazione:
p ( y | M j ) = ∏∏
I
qi
i =1
j =1
Γ(α ij )
ci
∏
Γ (α + n(π ))
ij
ij
Γ(α ijk + n( y ik | π ij ))
k =1
Γ(α ijk )
dove Γ( ⋅ ) è la funzione Gamma .
1
Se il Database è completo, gli iper-parametri α ijk+n(yik|π ij) e la
precisione α ij+n(π ij) possono essere estratti dalle distribuzioni a
posteriori delle probabilità condizionali θij, le quali sono ricavate
seguendo il metodo descritto nel paragrafo “Stima dei parametri”
(D1.1.4.2).
La scelta tra due modelli M0 e M1 si basa sul valore del rapporto
r=
p( M 0 | I 0 ) p( y | M 0 )
p(M 1 | I 0 ) p( y | M 1 )
Se r < 1 sarà scelto il modello M1, mentre se r > 1 verrà preferito il
modello M0. Se r=1 vuol dire che i due modelli sono equivalenti, quindi
la scelta dipende solo dall’osservatore.
Al crescere del numero di variabili, la valutazione di tutti i modelli
possibili diventa impraticabile, quindi è necessario utilizzare un
processo di limitazione della ricerca ad un subset di modelli. Il limite
euristico di ricerca più comune, applicato alla misura delle dipendenze
condizionali e proposto originariamente da Cooper e Herskovitz2, si
1
Γ(t ) = ∫ x t −1e − x dx che, integrando per parti, si riduce a: Γ(t + 1) = tΓ(t ) e,
quindi, se t=n : Γ(n ) = (n − 1)!
vedi inoltre: A.M. Mood, F.A. Graybill, D.C.Boes Introduzione alla statistica
App. Pag. 253 McGraw-Hill Italia 1988
2
G.F. Cooper e E.Herskovitz. A bayesian method for induction of probabilistic
networks from data. Machine Learning, 9:309-347, 1992
Appendice D
194
basa su un ordinamento parziale delle variabili, cosicchè se Yi non può
essere PARENT di Yj, Yi viene posizionato prima di Yj ( YipYj ), ossia
vengono date delle precedenze ai possibili legami, in modo da ridurne
significativamente il numero. Prendendo in considerazione la formula
della probabilità condizionale del campione estratto y (dato il modello
Mj) p( y |Mj ), ed evidenziando il contributo locale apportato del nodo Yi
e del suo PARENT Π i, si ottiene:
qi
g (Yi , Π i ) = ∏
j =1
Γ(α ij )
ci
∏
Γ(α ij + n (π ij )) k =1
Γ(α ijk + n( y ik | π ij ))
Γ(α ijk )
Per ogni nodo Yi , l’algoritmo procede aggiungendo un PARENT (Π) alla
volta e valutando g( Yi , Π i ). Il subset di variabili PARENT viene
allargato, seguendo il limite di ricerca sopra descritto, per includere la
combinazione PARENT che dia il contributo maggiore alla funzione g( Yi
, Πi ). Da questo punto di vista si può considerare il criterio di scelta
come una versione generalizzata del metodo della massima
verosimiglianza. La ricerca si ferma quando si raggiunge il massimo
della funzione e la configurazione PARENT Π i corrispondente viene
scelta come ottimale. Per comodità nei calcoli, è conveniente valutare il
logaritmo naturale della funzione g( Yi , Π i ), in quanto gli ordini di
grandezza si riducono e le valutazioni sui risultati rimangono le
medesime.
Nel caso di distribuzione uniforme a priori dei parametri, cioè α ijk=1
per tutti gli i,j,k, la formula di g( Yi , Π i ) diventa:
ci
− 1)!
∏
∏ n( y ik π ij )!
j =1 (ci + n(π ij ) − 1)! k =1
qi
(ci
D1.1.4.2 Stima dei parametri
Dato un campione di n casi y = {y1,...,yn}ed un modello M della
struttura grafica della rete (DAG), le probabilità condizionate che
definiscono la rete sono date dai parametri θ = ( θijk ), i quali devono
essere stimati dal campione y.
Si definiscono i seguenti parametri:
- θ ijk = p ( y ik π ij ,θ ) : probabilità condizionale dello stato k di Yi, dato lo
stato j di Π i e la struttura θdelle dipendenze;
- θ ij = (θ ij1 ,..., θ ijci ) : vettore associato alla distribuzione condizionale di
Yi|π ij ; deve essere ricavato dal campione y;
- n( yik |π ij ): frequenza dello stato k di Yi dato lo stato j di Πi, ricavata
dal campione y (indicata come il numero di volte che compare il caso
( yik , π ij ) nel database)
Appendice D
- n (π ij ) =
195
∑
K
n( y ik | π ij ) : frequenza dello stato j di Π i (sempre come
numero di volte in cui viene rilevato).
Il metodo Bayesiano per stimare θ si basa sull’analisi coniugata, la
quale si sviluppa come segue.
La probabilità coniugata del caso yk può essere espressa come
funzione del parametro incognito θijk:
I
p ( y k θ ) = ∏θ ijk
i =1
se i casi sono indipendenti, si definisce la funzione di Verosimiglianza:
n
I
k =1
i =1
qi
ci
L(θ ) = ∏ p( y k | θ ) = ∏∏∏θ ijk
n ( yik |π ij )
j =1 k =1
Naturalmente ciò può essere assunto nell’ipotesi di indipendenza
globale e locale, per cui la probabilità condizionale è calcolata come
prodotto delle probabilità dei singoli stati delle variabili considerate.
Sotto queste ipotesi, la densità congiunta a priori del vettore delle
probabilità condizionate θ date le informazioni a disposizione I0, può
essere esplicitata come:
p (θ | I 0 ) ∝ ∏ p(θ ij | I 0 )
ij
che induce alla definizione della densità finale (a posteriori):
ci


n ( y |π ) 
p (θ | I 1 ) ∝ ∏  p (θ ij | I 0 ) ⋅ ∏ θ ijk ij ij 

ij 
k =1
che ci consente di aggiornare in modo indipendente le distribuzioni
delle probabilità condizionali θij.
Per semplificare la trattazione viene introdotta una particolare forma
della distribuzione a priori delle probabilità condizionali θij , cioè la
distribuzione coniugata di Dirichlet con gli iper-parametri {α ij1 ,..., α ijci }
con α ijk>0.
Quindi:
θ ij | I 0 ≈ D (α ij1 ,..., α ijk ,...,α ijci )
e la densità a priori di θij è proporzionale a:
p (θ ij | I 0 ) ∝ ∏θ ijkijk
α
k
−1
Gli iper-parametri della funzione di Dirichlet α ijk rappresentano
l’opinione a priori dell’osservatore sulle distribuzioni di probabilità
iniziali dalle quali partire per svolgere l’analisi. Questi parametri
possono essere definiti anche come “frequenza dei casi immaginari
necessari per formulare la distribuzione a priori”. α ij è la precisione
Appendice D
196
locale e ( α ij-ci ) rappresenta la frequenza dei casi immaginari osservati
in π ij.
ci
α ij = ∑ α ijk
k =1
α = ∑ α ij
è la precisione globale di θ
ij
Le quantità α ijk vengono utilizzate per specificare:
la probabilità marginale di ( yik | π ij ), la quale corrisponde al valore
atteso a priori:
E (θ ijk | I 0 ) =
α ijk
α ij
e la varianza a priori:
V (θ ijk | I 0 ) =
[
]
E (θ ijk ) 1 − E(θ ijk )
α ij + 1
E’ interessante notare che, dato il valore atteso, la varianza è
inversamente proporzionale al valore della precisione locale α ij, cosicchè
un valore piccolo di questo parametro porta ad una grossa incertezza.
Quindi, visto che la Prior Precision è data da α = ∑ α ij , anche essa,
ij
come già accennato in precedenza, è un indicatore della precisione delle
assunzioni iniziali, cioè riflette l’ampiezza dello scostamento dei valori
che si osserveranno rispetto ai dati ipotizzati.
La situazione di ignoranza iniziale può essere rappresentata dal valore
di α ijk = α/(ciqi) per tutti gli i, j e k, per cui la probabilità a priori di ( yik |
π ij ) diventa semplicemente: 1/c i .
Ignoranza iniziale :
α

α
=
ijk

ci q i


 p ( y ik | π ij , I 0 ) = 1

ci
La densità a posteriori di θ
Lauritzen 3 , assume la forma:
, come dimostrato da Spiegelhalter e
θ ij | I 1 ≈ D (α ij1 + n( yi1 | π ij ),...,α ijci + n( y ici | π ij ))
In questo modo gli iper-parametri della distribuzione di θij possono
essere aggiornati attraverso le informazioni raccolte, sommando ai
parametri iniziali la frequenza dei casi (yijk , π ij) osservati nel campione.
La precisione locale α ij viene incrementata dalle nuove frequenze
raccolte, diminuendo così anche l’incertezza iniziale.
3
D.J. Spiegelhalter e W.R. Lauritzen. “Sequential updating of conditional
probabilities on direct graphical structures”. Networks, 20:157-224, 1990
Appendice D
197
Le funzioni del Valore atteso e della varianza a posteriori assumono la
seguente forma:
E (θ ijk | I 1 ) =
V (θ ijk | I 1 ) =
α ijk + n ( y ik | π ij )
α ij + n(π ij )
[
E (θ ijk | I 1 ) 1 − E(θ ijk | I 1 )
]
α ij + n(π ij ) + 1
D1.1.5 Database Incompleti (Metodologia Bound &
Collapse)
D1.1.5.1 Introduzione
La procedura utilizzata per stimare le distribuzioni di probabilità
condizionata da Database eventualmente incompleti si basa sul metodo
Bound & Collapse (1997), sviluppato da M.Ramoni e P. Sebastiani4.
Nella strutturazione delle reti di dipendenza bayesiane si assume
solitamente che il Database analizzato sia completo, siccome la
complessità della trattazione aumenta esponenzialmente in relazione al
numero di dati mancanti5, diventando praticamente ingestibile. In
realtà la presenza dei cosiddetti missing data, ossia dati non riportati,
persi o illeggibili, è molto frequente.
La presenza di campioni incompleti non è assolutamente ignorabile
durante lo svolgersi di un’analisi statistica, in quanto i dati mancanti
possono invalidare le ipotesi di casualità formulate. Il metodo Bound &
Collapse, di seguito presentato, utilizza la classificazione dei dati
mancanti [Ram97f] data da Rubin6 (1976) e sviluppata in seguito da
Little e Rubin7 (1987) e da Gelman8 (1995).
4
M.Ramoni: Knowledge Media Institute (The Open University)
P. Sebastiani Department of Actuarial Science and Statistics (City University)
5
G.F. Cooper & E.Herskovitz. A Bayesian method for induction of probabilistic
networks from data. Machine Learning, 9:309-347, 1992.
6
D.B. Rubin (1976). Inference and missing data. Biometrika, 63,581-592.
7
R. Little & D. Rubin (1987). Statistical Analysis with Missing Data. Wiley,
New York, NY.
8
A. Gelman, J.B. Carlin, H.S. Stern & D.B. Rubin (1995). Bayesian Data
Analysis. Chapman and Hall, London.
Appendice D
198
D1.1.5.2 Classificazione dei dati mancanti
Si prendono in considerazione due categorie di variabili X e Y, dove X
sono variabili indipendenti, complete e che possiamo considerare in
input, mentre Y sono variabili in output, soggette alla non-risposta. Per
comodità, la presenza di dati mancanti viene indicata con il simbolo ( ?
).
I meccanismi di assenza dei dati vengono classificati in base alla
probabilità che la mancanza di rilevazione dipenda dallo stato di Y o di
X. Quindi, quando questa probabilità dipende dallo stato di X ma non
da quello di Y, i dati vengono indicati come Missing At Random (MAR),
mentre quando essa non dipende né da X né da Y allora vengono detti
Missing Completely At Random (MCAR), come rappresentato in Tabella
D1.
Nel caso di dati MAR, i valori osservati di Y non sono in generale
rappresentativi del campione completo, ma possono diventare
significativi considerando separatamente le diverse categorie di X. Se i
dati sono classificati come MCAR, i valori osservati di Y sono un subcampione rappresentativo del campione completo originale. Quindi, in
questi due casi, il meccanismo di presenza dei dati mancanti può
essere ignorato, nel senso che l’inferenza statistica non viene
influenzata da esso.
Se la probabilità di Y=? dipende sia da X che da Y, il meccanismo dei
dati mancanti viene denominato Not Ignorable (NI) ed il campione
incompleto risultante non è più rappresentativo.
Probabilità
Dipende da:
MAR (Missing At Random)
X
MCAR (Missing Completely At /
Random)
NI (Not Ignorable)
X,Y
Tipologia di dati
Tabella D1
di
Y=?
Appendice D
199
D1.1.5.3 Campioni incompleti: metodo Bound and Collapse
Le soluzioni utilizzate in caso di campioni incompleti, basate sui
metodi Markov Chain Monte Carlo (MCMC), tra i quali Gibbs Sampling9
(Geman and Geman, 1984), EM Algorithm10 e Sequential Updating11,
seguendo il cosiddetto Missing Information Principle, cercano di
completare il Database attraverso un’inferenza dei dati a disposizione,
per poi continuare l’analisi considerando il Database come fosse
completo. Questi metodi danno buoni risultati solamente nel caso di
dati mancanti del tipo MAR, dove i dati a disposizione sono
rappresentativi del campione completo.
Le analisi svolte con questi metodi su database che presentavano
meccanismi Not Ignorable nei missing data, hanno evidenziato errori e
svantaggi:
si ipotizza che le informazioni circa il meccanismo di perdita dei dati
siano note, mentre ciò non è sempre vero
vengono implementate misure di affidabilità che non tengono conto, in
modo completo, dei dati mancanti
il costo in termini di elaborazione risulta funzione del numero di dati
mancanti, quindi il dispendio di risorse è notevole.
Il metodo Bound and Collapse (BC) cerca di ovviare a questi problemi
cercando di definire:
- un metodo di stima da campioni incompleti coerente con il modello
dei dati mancanti;
- l’identificazione di misure di affidabilità che tengano conto della
presenza dei missing data ;
- lo sviluppo di un metodo efficiente per sviluppare questi calcoli.
Questa metodologia si basa su un semplice concetto: quando non
esistono informazioni circa il meccanismo dei dati mancanti, un
campione incompleto è in grado di limitare il set di possibili stimatori,
attraverso un intervallo dato dalle distribuzioni di probabilità estreme
9
S. Geman & D. Geman. Stocastic relaxation, Gibbs distibutions and the
Bayesian restoration of images. IEEE Transaction on Pattern Analysis and
Machine Intelligence, 6:721-741, 1984.
10
A. Dempster, D. Laird and D. Rubin. Maximum likelihood from incomplete
data via the EM algorithm. Journal of the Royal Statistical Society, Series B,
39:1-38, 1977.
11
D.J. Spiegelhalter & S.L. Lauritzen. Sequential updating of conditional
probabilities on directed graphical structures. Networks, 20:157-224, 1990.
Appendice D
200
(Bound). Per ognuno di questi intervalli viene applicato un
procedimento, per cui l’intervallo viene fatto collassare ad un singolo
valore (Collapse) per mezzo di una combinazione convessa degli
stimatori estremi, con i pesi dipendenti dal modello dei dati mancanti. I
punti trovati vengono utilizzati per approssimare la distribuzione dei
parametri di interesse.
Analizziamo ora questa metodologia, cercando di evidenziare la
struttura ed i punti principali su cui si fonda, provando a dare una
visione globale della logica adottata nel software utilizzato.
Bound
Il primo passo del metodo BC consiste nel limitare il set di stimatori
utili dei parametri incogniti, attraverso la determinazione dei limiti
superiore (Upper Bound) ed inferiore (Lower Bound) in termini di
probabilità finale stimata per ogni parametro. Si trovano dei limiti
rappresentati dalle stime Bayesiane, ricavate attraverso inferenze sui
possibili completamenti del Database, le quali stime dipendono
direttamente dalle frequenze dei dati esaminati. In pratica, per ogni
variabile che presenta osservazioni incomplete, vengono considerate
tutte le possibilità di completamento, limitando i possibili stimatori ad
un set ristretto ammesso dal Database analizzato.
Si considerano le variabili casuali Xi le quali sono caratterizzate da M
stati xim e le variabili Πi che rappresentano le configurazioni PARENT
per le variabili CHILD X i.
n(xim|π ij) è la frequenza di xim data la configurazione PARENT π ij,
ricavata dai casi completi del DB, mentre n•(xim|πij) è la frequenza
massima, detta anche frequenza “artificiale”, di xim ottenuta
completando i casi incompleti:
n • (x im π ij ) = n(? π ij ) + n(x im ? ) + n(? ?)
n • (x im π ij ) = n(? π ij ) +
∑ n(x ? ) + n(? ?)
M
il
l ≠ m =1
dove:
- n( ?|π ij ) è la frequenza dei casi nei quali solo i dati della variabile
CHILD sono mancanti;
- n( xim|? ) rappresenta la frequenza dei casi con la configurazione
PARENT incognita, la quale può essere completata come π ij;
- n( ?|? ) è la frequenza dei casi in cui tutti i dati in ingresso sono
mancanti, questi possono essere completati come ( xim|π ij ).
Il massimo della stima di θijm ( =p(xim|π ij) ) viene conseguito quando
tutti i casi (Xi=?, π ij), (Xi=?, Π i=?) e (Xi=xim , Π i=?) sono completati come
Appendice D
201
(xim ,π ij) e i casi (Xi=xil , Π i=?) con l≠m, sono completati come (xil,π ij’ ) per
qualche j’≠j.
Il minimo della stessa stima si ha quando il meccanismo dei dati
mancanti è tale che: tutti i casi (Xi=?, π ij), (Xi=?, Π i=?) e (Xi=xil , Π i=?) con
l≠m, sono completati come (xil ,π ij) e tutti i casi (X i=xim , Π i=?) sono
completati come (xim,π ij’ ) per qualche j’≠j.
Si ricavano i limiti per la stima Bayesiana del valore atteso E(θim|D),
per ogni stato m della variabile Xi.
•
p ( xim | π ij , Dinc ) =
Limite superiore:
α ijm + n( xim | π ij ) + n • ( x im | π ij )
α ij + ∑ n( xim | π ij ) + n • ( x im | π ij )
m
(
)
α ijm + n ( x im | π ij )
Limite inferiore: p • xim π ij , Dinc =
α ij + ∑ n ( x im | π ij ) + n• (x im π ij )
Il
denominatore
m
secondo
∑ n(x
im
termine
π ij ) = n(π ij )
al
è
equivalente
a:
m
Completando virtualmente tutti i casi possibili come (xim , π ij), mentre le
frequenze degli altri stati di Xi dato π ij non vengono aumentate, si può
vedere la probabilità massima p•(xim|π ij , Dinc), come ottenuta da una
distribuzione di Dirichlet:
Dm α ij1 + n(x i1 π ij ),...,α ijm + n(xim π ij ) + n • ( xim π ij ),...,α ijM + n(x iM π ij )
(
)
dove si nota che aumenta solamente la frequenza del caso considerato
xim, quindi gli altri stati della variabile Xi avranno una probabilità data
da :
pm•(xil|π ij , Dinc) con l≠m.
Introducendo, nella ricerca della probabilità minima di θijm , una
variazione alle ipotesi sul completamento virtuale dei dati mancanti,
ossia ponendo che il caso (X i=xil , Πi=?) con l≠m non possa essere
completato come (xil ,π ij) ma come (xil,π ij’ ) per j’≠ j, si possono ricavare dei
nuovi limiti inferiori locali direttamente dalla probabilità massima.
Infatti, considerando le probabilità degli altri stati l≠m della variabile X i ,
si trova, fra di esse, un minimo globale, dato da:
[
]
p •loc (xik π ij , Dinc ) = min p l• ( xik π ij , Dinc )
l
che può essere anche scritto:
p •loc (xim π ij , Dinc ) =
α ijm + n ( x im | π ij )
α ij + ∑ n( xim | π ij ) + max n • (xim π ij )
m
l ≠m
e può essere adottato come Limite inferiore di θijm .
Appendice D
202
La differenza tra p•loc e p• dipende solamente dalla presenza di casi nei
quali lo stato della variabile CHILD è noto mentre è incognita la
configurazione PARENT. E’ importante notare che p•loc > p• , perciò
l’intervallo tra i limiti maggiore e minore diminuisce.
Questo metodo è implementato utilizzando un algoritmo basato
sull’albero delle decisioni, ossia considera tutti i possibili rami di
completamento del Database, per immagazzinare in modo efficiente le
informazioni sui parametri. In pratica, i limiti di probabilità vengono
calcolati per tutti gli stati di ogni variabile incompleta considerata.
L’ampiezza dell’intervallo di probabilità così ricavato diminuisce
all’aumentare delle informazioni a disposizione nel Database circa i
parametri da stimare e, quindi, rappresenta una misura della qualità
dell’informazione probabilistica ricavata, dando inoltre un’indicazione
sul grado di affidabilità delle stime.
Collapse
A questo punto, avendo a disposizione i due limiti, superiore ed
inferiore, per ogni parametro incompleto, si procede, attraverso una
combinazione convessa, alla valutazione puntuale della probabilità
condizionata di ogni xim dato lo stato π ij della configurazione PARENT Πi.
Si possono seguire due strade per questa elaborazione:
- Exogenous Knowledge: ossia, si utilizzano informazioni esterne,
solitamente elaborazioni o studi particolari di esperti, circa il modello
dei dati mancanti
- Available Information: viene svolta una stima dinamica del modello
dei dati mancanti, utilizzando le informazioni a disposizione nel
Database.
1 Exogenous Knowledge
Nel primo metodo si ipotizza di avere a priori delle informazioni sul
modello dei missing data, ossia le distribuzioni specifiche osservate in
altri casi o forzate dall’operatore per conseguire obiettivi particolari.
Queste informazioni permettono, attraverso la loro codifica, di
formulare le ipotesi sulla distribuzione che descrive la probabilità di
completamento per ogni caso incompleto del Database:
p (xim π ij , X i = ?,θ ) = φ ijm
ossia, la probabilità che dato un caso incompleto, esso sia completato
dalla combinazione CHILD-PARENT xim|π ij ,
Appendice D
203
M
e quindi:
∑φ
ijm
=1
(M= numero degli stati di Xi ).
m =1
Si ricava, in questo modo, un modello parametrico del meccanismo di
generazione dei dati mancanti (φ ijm), il quale viene utilizzato come
sistema di pesi nel calcolo della combinazione convessa. La stima
puntuale ricavata da quest’ultima operazione rappresenta la stima
attesa di Bayes ottenuta dal Database completo quando il meccanismo
dei missing data è quello ipotizzato:
pˆ (xim π ij , Dinc , φ ijm ) = φ ijm ⋅ p • (x im π ij , Dinc ) + ∑ φ ijl ⋅ p l• (xim π ij , Dinc )
l ≠m
φijm assume dei valori limite a seconda che:
- i dati vengano persi sistematicamente nel Database: φ ijm=1
- non esistano informazioni sul meccanismo di generazione dei
missing data; in questo caso viene ipotizzata una probabilità uniforme,
in quanto ogni modello è ugualmente probabile: φ ijm=1/M
(M = n° di stati della variabile considerata)
2
Available Information
Il secondo metodo utilizza le informazioni a disposizione nel
Database, attraverso le quali si deve poter ipotizzare di essere in
presenza di un meccanismo Missing At Random. Questa ipotesi è
necessaria per poter affermare che Dobs, ossia quella parte del DB con
immissioni complete, è un campione rappresentativo dell’intero DB ( D
= Dobs + Dmis ). Si può così determinare la probabilità di completamento
φˆijm attraverso i dati contenuti in Dobs ; questa probabilità viene a sua
volta utilizzata per il calcolo della combinazione convessa.
α + n(xim π ij )
φˆijm = p(x im π ij , Dobs ) = ijm
α ij + ∑ n(x im π ij )
m
dove α ijm è la frequenza dei casi immaginari per formulare la
distribuzione a priori e α ij è la prior precision.
E’ importante tenere ben presente che, per ricavare la stima puntuale
della probabilità solamente con le informazioni a disposizione nel
Database, bisogna ipotizzare la presenza di un meccanismo M.A.R. di
generazione dei missing data, che deve essere utilizzato con le dovute
premesse e precauzioni.
I risultati ottenuti nella fase Collapse vengono utilizzati nella
determinazione della funzione di verosimiglianza, necessaria per la
definizione della rete Bayesiana delle dipendenze, attraverso la formula:
Appendice D
204
qi
gˆ ( X i , Π i ) = ∏
j =1
Γ(α ij ) ci Γ(αˆ ij ⋅ pˆ (x ik π ij , Dinc ))
Γ(αˆ ij ) ∏
Γ(α ijk )
k =1
( ) (
)  ∑ n(π )


dove: αˆ ij = α ij + n π ij + pˆ π ij Dinc ⋅  n −
ij
j
Conclusioni
La rappresentazione esplicita e separata delle informazioni e le
assunzioni circa il modello dei missing-data fanno si che questo metodo
di stima risulti essere indipendente da ogni particolare meccanismo di
dati mancanti. I limiti estremi ricavati per i possibili stimatori
rappresentano l’incertezza dovuta ai dati mancanti e l’ampiezza
dell’intervallo trovato può essere vista come una misura della qualità e
della completezza delle informazioni probabilistiche contenute nel
Database, circa i parametri incogniti. Infatti, l’aumento dell’ampiezza
dell’intervallo ricavato è da imputare alla crescita dell’incertezza dovuta
all’incompletezza del Database analizzato, cioè, in altri termini, al
crescere del numero dei dati mancanti diminuisce l’affidabilità delle
stime dei parametri.
Rispetto ai metodi che basano la loro analisi sulle ipotesi di
meccanismi Missing At Random dei dati mancanti, per cui i dati a
disposizione sono rappresentativi del campione completo, il metodo
Bound & Collapse evita qualsiasi assunzione in merito, eludendo così i
problemi che si presentano nel caso di sistemi Not Ignorable, nei quali
esiste un preciso meccanismo di perdita dei dati e quindi le
informazioni disponibili per l’analisi non sono più significative in
relazione all’intero Database. Questi casi vengono di solito risolti dagli
altri metodi o forzando l’ipotesi di una distribuzione MAR dei dati
mancanti, dando luogo ad una approssimazione non trascurabile,
oppure eliminando completamente i missing data, implementando
quindi l’analisi su un Database ridotto ma completo, perdendo in
questo modo parte delle informazioni e creando problemi di affidabilità
dei risultati.
Un ulteriore vantaggio è rappresentato dal fatto che la complessità di
elaborazione è ridotta, per ogni stato della variabile in output, ad
un’analisi dei dati nella fase di ricerca dei limiti (Bound) inferiori e
superiori, e ad una loro combinazione convessa nella fase successiva
(Collapse). Quindi il costo in termini di elaborazione risulta essere
funzione solamente del numero di stati di Y ed è indipendente dal
numero di dati mancanti, portando così a differenze molto significative
nei tempi di elaborazione dei dati, da alcuni secondi nel caso del B&C
ad alcuni minuti per il Gibbs Sampling.
Appendice D
D1.2
205
Il SW Bayesian Knowledge Discovery
Il programma presenta, come interfaccia utente, 3 finestre
(Figura D.1) , attraverso le quali si possono osservare i dati del
database prescelto per l’analisi (Database), la rappresentazione della
rete Bayesiana generata dall’elaborazione dei dati stessi (Network),
oppure le linee di comando, i messaggi di errore, di elaborazione ed i
risultati delle Query (Message).
Il primo passo è selezionare il Database da studiare, il quale può
essere costruito anche attraverso Microsoft Excel, avendo l’accortezza di
salvarlo come database “Testo (delimitato da tabulazione)”, ossia come
file “*.txt”. Utilizzando la finestra Database/Select si sceglie il DB su cui
si vuole svolgere l’analisi di correlazione.
Figura D.1: Il Software BKD
D1.2.1 Impostazione dei parametri di elaborazione
E’ fondamentale a questo punto impostare i parametri
dell’elaborazione che si vuole eseguire attraverso la finestra:
Edit/Preferences. L’indicazione della Prior precision si riferisce alla
confidenza nelle stime della probabilità a priori, che può essere vista
come il numero dei casi immaginari su cui si ipotizza sia elaborata la
probabilità iniziale.
Appendice D
206
L’attivazione dell’ipotesi di modello Missing At Random per i dati
mancanti risulta essere fondamentale nella nostra analisi, in quanto lo
studio si basa proprio sulla rappresentatività dei dati raccolti in
relazione all’intero Database. Infatti, avendo scelto in maniera
assolutamente casuale il campione di intervistati, si esclude la presenza
di meccanismi di generazione dei dati mancanti del tipo Not Ignorable
ed avendo i clienti usufruito dello stesso servizio in un arco di tempo
abbastanza limitato (3 mesi), si assume che le risposte raccolte
rispecchino una comune percezione del servizio offerto e che quindi
possano essere considerate rappresentative dei dati mancanti.
L’informazione del numero massimo di stati (Max State) per
considerare una variabile discreta o continua a noi non interessa in
quanto le variabili esaminate sono tutte discrete e non superano i 4
stati possibili. Missing Symbol richiede il simbolo utilizzato per indicare
i dati mancanti nel Database, quindi è necessario sostituire la sigla NA,
data di default, con il punto interrogativo ( ? ) da noi utilizzato nel DB.
E’ molto importante indicare il segno giusto ad ogni elaborazione, in
quanto, in caso contrario, il nostro simbolo viene interpretato come una
variabile del DB e vengono calcolate le probabilità di accadimento anche
dell’evento “punto interrogativo” falsando così i risultati dell’intera
elaborazione. Max Parents e Display Precision indicano solamente il
massimo numero di legami di correlazione per un nodo, in cui lasciamo
“nessun limite” come già impostato di default, e il numero massimo di
cifre decimali utilizzate nel calcolo delle probabilità (3 nel nostro caso).
L’indicazione della strategia seguita nella ricerca (Search Strategy) dei
possibili legami tra i nodi è un punto critico in quanto presuppone
un’analisi strategica ed approfondita delle implicazioni che ogni scelta
include:
La ricerca di tipo Greedy comporta una dipendenza dei legami dalla
posizione delle variabili nel Database. Infatti le variabili presenti nei
primi posti del DB vengono considerate come nodi “genitori” rispetto
alle variabili seguenti, quindi si ha una forte interferenza da parte della
sequenza impostata nel DB, sui risultati ottenuti. L’arco tra due
variabili viene tracciato se incrementa il logaritmo della
Verosimiglianza, ossia, viene calcolato per ogni nodo il valore della
verosimiglianza
(Likelihood)
considerando
tutte
le
possibili
configurazioni di correlazione con le sole variabili che lo precedono nel
DB, e quindi si sceglie l’opzione di legame che presenta il valore
maggiore della Verosimiglianza; se nessun arco porta a questo
aumento, la ricerca viene interrotta.
L’Arc Inversion elimina parzialmente, dalla ricerca di tipo Greedy,
l’ipotesi di dipendenza dei legami di correlazione dalla sequenza di
impostazione delle variabili nel database, eseguendo la ricerca non solo
verso le variabili “genitori”, ma quando possibile, anche dagli altri nodi,
purché non vengano introdotti dei cicli. Quindi l’ordine continua ad
Appendice D
207
avere un ruolo importante, in quanto, avendo stabilito in primo luogo
delle dipendenze attraverso la strategia Greedy, alcuni legami, che
potrebbero generare dei cicli, non verranno neanche considerati.
La strategia Exhaustive esplora tutte le possibili combinazioni dei
nodi, selezionando i casi con il più alto valore del logaritmo della
Verosimiglianza, purché non ci siano cicli nella rete. Naturalmente
questo tipo di ricerca è il più dispendioso in termini di tempo e quindi
raramente implementato. La versione del software attualmente a
disposizione non prevede ancora questa opzione, ma verrà completata
in breve tempo.
E’ da sottolineare il fatto che, nel tipo di analisi da noi svolto, gli archi
che indicano i rapporti di correlazione tra le variabili non determinano il
tipo di legame effettivo che sussiste tra di esse: essi evidenziano
l’esistenza di una correlazione ma non garantiscono la correttezza della
dipendenza riportata dal grafico. Il reale rapporto di dipendenze tra i
nodi deve essere valutato successivamente in base alle informazioni a
disposizione e ad attente valutazioni sul caso preso in considerazione,
prestando molta attenzione alla significatività dei risultati ottenuti.
D1.2.2 Istruzioni principali per l’utilizzo del BKD
L’elaborazione dei dati viene svolta attraverso i comandi:
- Network / Define from data: vengono definiti i nodi della rete,
considerando come variabile la prima riga di ogni colonna del DB, la
quale deve essere impostata a questo scopo. Nella finestra Network
apparirà la rappresentazione dei nodi, i quali possono essere spostati
a piacere, cercando di dare una lettura più chiara possibile dei
legami di correlazione che verranno elaborati.
- Network / Quantify from data: il programma calcola i valori di
probabilità dei vari stati delle variabili e la relativa varianza. Vengono
ricercati anche i limiti superiori ed inferiori di probabilità per i dati
mancanti (Bounds) e viene calcolato, attraverso il metodo Bound &
Collapse presentato nel paragrafo 4.3, il valore di probabilità
puntuale per ogni stato assunto dalle incognite.
- Network / Generate a model: il programma calcola i valori di
verosimiglianza dei vari nodi e traccia così i possibili legami tra le
variabili, basandosi sul metodo della Massima Verosimiglianza. In
Output viene fornita la struttura grafica della rete su cui è possibile
formulare delle Query sullo stato delle variabili e sul loro
comportamento.
Il criterio di scelta della rete delle dipendenze utilizzato dal BKD è il
metodo della massima Verosimiglianza (Likelihood). Questa funzione
fornisce la “verosimiglianza” che le variabili casuali assumano un
Appendice D
208
particolare valore, ossia, riferendosi al caso da noi analizzato, che la
rete delle dipendenze assuma una particolare configurazione.
Vengono ipotizzati quindi vari legami di dipendenza dei quali si calcola
la verosimiglianza; i valori ricavati vengono confrontati e si sceglie il
maggiore valore rilevato.
Il valore massimo della funzione di Verosimiglianza indica quindi
la struttura della rete che presenta la maggiore probabilità di
realizzazione, ossia la configurazione più verosimile.
Appendice D
D1.3
209
Il questionario Call Center Assitalia
Appendice D
210
1
0 Disponibilità
all'intervista
1 Soddisfazione
generale
2 Servizio Call Center
vs. tradizionale
3 Orario Lun-Ven
8.30/18.30
4 Orario preferito
5 Risposta operatore
6 Soddisfazione per
modalità di contatto
7 Soddisfazione per
capacità operatore
8 Numero telefonate
necessarie
Si
No
Nulla
Abbastanza
Molto
Peggiore
Uguale
Migliore
Nulla
Abbastanza
Molto
Sab 8/13
Sab-Dom 8/13
Tutti gg 8/22
24h/24
Subito
Attesa
Occupato
Nulla
Abbastanza
Molto
Nulla
Abbastanza
Molto
una
oltre
2
1
3
1 1
4
1
5
6
1
7
8
1
1
1
1
9
1
1
10 11 12 13
1
1
1 1
14 15 16 17 18 19 20 21 22 23
1
1
1
1
1
1
1
1
1 1
24
1
25 26 27 28 29 30
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1 1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
Appendice D
9 Tempo al telefono per
denuncia
< 5min
5min - 10 min
10min - 15 min
oltre
10 Soddisfatto della durata
Nulla
Abbastanza
Molto
12 Durata ottimale della
< 5min
comunicazione
5min - 10 min
10min - 15 min
Non importante
13 Processo raccolta dati
Necessari
Già noti
Chiesti più volte
Ricavabili
211
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Appendice D
0 Disponibilità
all'intervista
1 Soddisfazione
generale
2 Servizio Call Center
vs. tradizionale
3 Orario Lun-Ven
8.30/18.30
4 Orario preferito
5 Risposta operatore
6 Soddisfazione per
modalità di contatto
7 Soddisfazione per
capacità operatore
8 Numero telefonate
necessarie
212
Si
No
Nulla
Abbastanza
Molto
Peggiore
Uguale
Migliore
Nulla
Abbastanza
Molto
Sab 8/13
Sab-Dom 8/13
Tutti gg 8/22
24h/24
Subito
Attesa
Occupato
Nulla
Abbastanza
Molto
Nulla
Abbastanza
Molto
una
oltre
31 32 33
1
1 1
34 35 36 37 38 39 40 41 42 43
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
54 55 56 57 58 59 60
1
1
1
1
1
1
1
1
1
1
1
45 46 47 48 49 50 51 52 53
1
1
1
1
1
1
1 1
1
1
1
1
44
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Appendice D
9 Tempo al telefono per
denuncia
< 5min
5min - 10 min
10min - 15 min
oltre
10 Soddisfatto della durata
Nulla
Abbastanza
Molto
12 Durata ottimale della
< 5min
comunicazione
5min - 10 min
10min - 15 min
Non importante
13 Processo raccolta dati
Necessari
Già noti
Chiesti più volte
Ricavabili
213
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Appendice D
214
Disponibil Soddisfazi CC/Tr
ità
one
ad
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
2
1
1
1
1
1
1
1
1
1
3
2
2
2
3
3
2
3
3
2
2
3
2
3
3
2
3
2
2
2
2
3
2
3
2
3
3
2
2
3
2
3
3
3
1
2
3
1
1
?
2
3
3
2
2
?
2
2
2
3
3
2
?
2
1
3
2
2
3
2
3
?
3
3
3
1
3
2
3
3
3
3
3
3
2
?
?
?
3
2
3
3
3
2
3
2
3
3
3
1
1
1
1
?
3
2
3
3
3
3
?
2
3
2
3
3
3
?
3
Orari OraPr
o
ef
3
3
3
3
3
2
2
3
3
3
3
2
3
3
3
2
3
3
3
3
3
2
3
3
3
3
3
2
3
3
3
2
3
3
?
3
2
3
2
3
3
3
3
3
3
3
?
3
3
3
3
3
3
2
3
?
1
?
?
?
4
1
?
?
?
?
?
1
?
?
1
?
1
?
?
?
1
?
?
?
?
?
1
?
?
?
?
?
?
?
?
?
?
?
?
?
?
1
?
1
?
?
1
?
1
?
?
1
?
?
Rispos Contat Capaci Telefon Temp Sodd DurOt Raccolta
ta
to
tà
ate
o Durat
t
Dati
a
1
2
3
1
2
1
?
1
1
3
2
1
2
2
2
1
1
3
2
2
2
3
2
1
1
3
3
1
1
2
1
1
1
3
3
1
2
2
1
4
1
3
3
1
1
2
1
1
1
3
2
1
2
2
2
2
1
3
2
1
2
2
1
1
1
3
3
1
2
3
2
1
1
3
3
1
2
2
?
1
1
3
?
2
1
3
?
1
1
2
2
1
3
2
2
1
1
3
2
1
2
2
2
1
1
3
3
1
2
3
?
1
1
3
3
1
2
2
2
1
1
3
3
1
2
3
2
1
1
3
3
1
2
3
?
?
1
3
3
1
1
2
1
4
3
3
3
1
1
2
?
2
1
3
3
1
2
3
?
1
1
3
3
1
1
3
1
1
1
3
3
1
3
2
1
1
1
3
3
1
1
3
1
1
1
2
3
2
2
1
1
1
1
3
2
1
1
2
1
1
1
3
2
1
?
3
?
1
1
3
3
1
1
3
1
1
1
3
3
1
1
3
1
1
2
3
3
1
1
2
1
1
1
3
2
1
2
1
1
4
1
3
3
1
1
3
?
?
1
3
2
1
2
2
1
1
1
3
3
1
?
3
?
2
1
3
3
1
?
?
?
?
3
3
2
1
1
2
1
?
1
3
3
1
?
3
?
1
1
3
2
1
2
2
1
1
1
3
3
1
1
3
1
1
1
3
2
1
2
1
1
1
2
3
3
1
2
2
1
1
1
3
2
1
2
2
1
?
1
3
3
1
1
2
1
1
1
3
3
1
2
2
2
1
1
3
3
1
1
3
?
1
1
3
3
1
1
3
1
1
1
3
3
1
1
3
1
1
?
?
?
?
?
?
?
?
2
3
3
1
2
3
2
1
1
3
3
1
1
3
1
1
1
3
2
1
1
3
1
3
1
3
2
1
1
3
1
1
1
3
3
1
1
2
?
1
1
2
2
2
1
2
1
1
1
2
?
1
2
2
2
1
1
2
2
1
1
3
1
1
Appendice D
1
1
1
1
1
2
2
2
3
3
215
?
2
3
3
3
3
2
2
3
?
?
1
1
?
?
1
1
1
1
2
?
2
3
3
3
3
3
3
3
3
1
1
1
1
1
1
2
1
1
?
3
2
3
3
3
1
1
1
?
?
1
1
1
1
1
D.2 Database utilizzato nel software BKD
D1.4
(BKD)
Risultati dell’analisi delle dipendenze
D1.4.1 Legami di dipendenza tra le variabili: valori
di Verosimiglianza e di probabilità condizionale dei
legami
BKD> LIKELIHOOD CAPACITÀ
Likelihood of dependencies to CAPACITÀ:
[CAPACITÀ | T] = -41.74856494743297
[CAPACITÀ | TELEFONATE] = -43.422869996300015
[CAPACITÀ | RISPOSTA] = -43.743475563354295
[CAPACITÀ | ORARIO] = -44.20416797011299
[CAPACITÀ | CONTATTO] = -44.574992048731644
[CAPACITÀ | SODDDURATA] = -45.23274594489171
[CAPACITÀ | RACCOLTADATI] = -45.82585656988689
[CAPACITÀ | TEMPO] = -46.34470059265041
[CAPACITÀ | DUROTT] = -47.82083563752034
BKD> LIKELIHOOD CONTATTO
Likelihood of dependencies to CONTATTO:
[CONTATTO | T] = -26.287656357630976
[CONTATTO | TELEFONATE] = -26.35836569399249
[CONTATTO | RACCOLTADATI] = -26.783404304308498
[CONTATTO | CAPACITÀ] = -27.0957875243082
[CONTATTO | ORARIO] = -27.92042762118909
[CONTATTO | SODDDURATA] = -28.086175471524083
[CONTATTO | RISPOSTA] = -28.13833477172486
[CONTATTO | DUROTT] = -28.24128168823164
[CONTATTO | TEMPO] = -29.781189087065968
BKD> LIKELIHOOD SODDDURATA
Appendice D
Likelihood of dependencies to SODDDURATA:
[SODDDURATA | T] = -58.27942033515613
[SODDDURATA | TEMPO] = -58.56535317560897
[SODDDURATA | CONTATTO] = -60.61387030823445
[SODDDURATA | TELEFONATE] = -61.10592696193746
[SODDDURATA | RISPOSTA] = -61.73201783253338
[SODDDURATA | CAPACITÀ] = -61.90235146017911
[SODDDURATA | ORARIO] = -62.21639114278162
[SODDDURATA | DUROTT] = -62.943378424625706
[SODDDURATA | RACCOLTADATI] = -62.958557007874624
BKD> LIKELIHOOD DUROTT
Likelihood of dependencies to DUROTT:
[DUROTT | TEMPO]
= -33.377351277704854
[DUROTT | TEMPO SODDDURATA] = -35.09636312014322
[DUROTT | TEMPO CONTATTO] = -38.683110724856405
[DUROTT | TEMPO CAPACITÀ] = -40.520492863748096
[DUROTT | T]
= -40.87353885457061
[DUROTT | TEMPO TELEFONATE] = -41.16365983348687
[DUROTT | TEMPO ORARIO] = -42.244850471980634
[DUROTT | CAPACITÀ]
= -43.04149019358385
[DUROTT | TELEFONATE] = -43.659348052039626
[DUROTT | ORARIO]
= -43.806101289588966
[DUROTT | CONTATTO]
= -44.01534944890061
[DUROTT | TEMPO RISPOSTA] = -44.36097568900578
[DUROTT | RACCOLTADATI] = -45.09905302310161
[DUROTT | SODDDURATA] = -46.029732523069086
[DUROTT | RISPOSTA]
= -46.45818877970789
[DUROTT | TEMPO RACCOLTADATI] = -51.21199618862766
BKD> LIKELIHOOD RACCOLTADATI
Likelihood of dependencies to RACCOLTADATI:
[RACCOLTADATI | DUROTT] = -34.77413361426374
[RACCOLTADATI | T]
= -37.257033538364354
[RACCOLTADATI | DUROTT TELEFONATE] = -39.5616584459457
[RACCOLTADATI | TELEFONATE] = -39.75871157737738
[RACCOLTADATI | RISPOSTA] = -39.88343941879367
[RACCOLTADATI | CONTATTO] = -40.10211874371562
[RACCOLTADATI | ORARIO] = -41.454876763808606
[RACCOLTADATI | SODDDURATA] = -41.789377144244376
[RACCOLTADATI | DUROTT ORARIO] = -42.040235247238066
[RACCOLTADATI | TEMPO] = -42.098966616888156
[RACCOLTADATI | DUROTT CONTATTO] = -42.365526105867936
[RACCOLTADATI | CAPACITÀ] = -42.50948403225206
[RACCOLTADATI | DUROTT CAPACITÀ] = -45.98858930435993
[RACCOLTADATI | DUROTT SODDDURATA] = -47.04358369636603
[RACCOLTADATI | DUROTT RISPOSTA] = -49.50525392331751
[RACCOLTADATI | DUROTT TEMPO] = -52.06615582375788
BKD> LIKELIHOOD RISPOSTA
Likelihood of dependencies to RISPOSTA:
216
Appendice D
[RISPOSTA | ORARIO]
= -23.832037750172404
[RISPOSTA | RACCOLTADATI] = -24.408323332142317
[RISPOSTA | ORARIO TELEFONATE] = -25.561383255232023
[RISPOSTA | ORARIO RACCOLTADATI] = -25.759301859082413
[RISPOSTA | DUROTT]
= -26.076530648308157
[RISPOSTA | ORARIO DUROTT] = -26.33594792307433
[RISPOSTA | ORARIO CAPACITÀ] = -26.789625592514714
[RISPOSTA | ORARIO CONTATTO] = -27.306308621344982
[RISPOSTA | T]
= -27.84586302513162
[RISPOSTA | TEMPO]
= -28.35341608482912
[RISPOSTA | CONTATTO] = -29.52770235872099
[RISPOSTA | CAPACITÀ] = -29.54288588929637
[RISPOSTA | TELEFONATE] = -29.54955014167537
[RISPOSTA | ORARIO SODDDURATA] = -30.339841770339344
[RISPOSTA | SODDDURATA] = -30.794059186881217
[RISPOSTA | ORARIO TEMPO] = -31.855746046506425
BKD> LIKELIHOOD TELEFONATE
Likelihood of dependencies to TELEFONATE:
[TELEFONATE | CAPACITÀ] = -15.974632285668518
[TELEFONATE | DUROTT]
= -16.858928125246432
[TELEFONATE | CAPACITÀ CONTATTO] = -16.87879917791606
[TELEFONATE | T]
= -17.178269117193707
[TELEFONATE | CONTATTO] = -17.214575560751587
[TELEFONATE | ORARIO]
= -17.53257287775565
[TELEFONATE | CAPACITÀ SODDDURATA] = -18.09983670822053
[TELEFONATE | RACCOLTADATI] = -18.28873992173526
[TELEFONATE | CAPACITÀ ORARIO] = -18.304596150539954
[TELEFONATE | RISPOSTA] = -18.881956233737483
[TELEFONATE | TEMPO]
= -19.431686702991033
[TELEFONATE | CAPACITÀ RISPOSTA] = -19.538531481374832
[TELEFONATE | SODDDURATA] = -19.761129145364343
[TELEFONATE | CAPACITÀ RACCOLTADATI] = -20.17427703997826
[TELEFONATE | CAPACITÀ TEMPO] = -21.17963414559863
[TELEFONATE | CAPACITÀ DUROTT] = -23.662928568248326
BKD> LIKELIHOOD TEMPO
Likelihood of dependencies to TEMPO:
[TEMPO | SODDDURATA]
= -54.95047286304305
[TEMPO | T]
= -55.73576432732957
[TEMPO | ORARIO]
= -55.79274526197077
[TEMPO | TELEFONATE]
= -59.06712961462365
[TEMPO | CONTATTO]
= -59.9815398516221
[TEMPO | RISPOSTA]
= -60.10318097925594
[TEMPO | CAPACITÀ]
= -60.829600213007346
[TEMPO | SODDDURATA TELEFONATE] = -61.00812430395764
[TEMPO | SODDDURATA RISPOSTA] = -61.30677967634223
[TEMPO | SODDDURATA ORARIO] = -63.30308587275263
[TEMPO | SODDDURATA CONTATTO] = -65.01157146322032
[TEMPO | SODDDURATA CAPACITÀ] = -69.36473085964754
217
Appendice D
218
BKD> LIKELIHOOD ORARIO
Likelihood of dependencies to ORARIO:
[ORARIO | T]
= -35.17562291146224
[ORARIO | TEMPO] = -35.4024929511572
[ORARIO | TELEFONATE] = -35.69264853143139
[ORARIO | CONTATTO] = -37.04042951234017
[ORARIO | CAPACITÀ] = -37.06649180814577
[ORARIO | RISPOSTA] = -37.69723660775087
[ORARIO | RACCOLTADATI] = -38.59499194345405
[ORARIO | SODDDURATA] = -38.72837020351865
[ORARIO | DUROTT] = -40.528116549073914
BKD> DISTRIBUTION CAPACITÀ
[CAPACITÀ]
Mean Var Lower Upper Phi
[3]
0.678 0.004 0.645 0.694 0.678
[2]
0.316 0.004 0.301 0.350 0.316
[1]
0.006 0.000 0.005 0.055 0.006
BKD> DISTRIBUTION CONTATTO
[CONTATTO]
Mean Var Lower Upper Phi
[2]
0.124 0.002 0.120 0.153 0.124
[3]
0.870 0.002 0.842 0.874 0.870
[1]
0.006 0.000 0.005 0.038 0.006
BKD> DISTRIBUTION SODDDURATA
[SODDDURATA]
Mean Var Lower Upper Phi
[1]
0.073 0.001 0.071 0.104 0.073
[2]
0.446 0.004 0.432 0.464 0.446
[3]
0.480 0.004 0.464 0.497 0.480
BKD> DISTRIBUTION DUROTT
[TEMPO,DUROTT]
Mean Var Lower Upper Phi
[2,2]
0.497 0.012 0.322 0.674 0.497
[2,1]
0.497 0.012 0.322 0.674 0.497
[2,3]
0.003 0.000 0.002 0.354 0.003
[2,4]
0.003 0.000 0.002 0.354 0.003
[1,2]
0.003 0.000 0.002 0.363 0.003
[1,1]
0.991 0.000 0.633 0.994 0.991
[1,3]
0.003 0.000 0.002 0.363 0.003
[1,4]
0.003 0.000 0.002 0.363 0.003
[3,2]
0.472 0.077 0.129 0.856 0.472
[3,1]
0.472 0.077 0.129 0.856 0.472
[3,3]
0.028 0.008 0.008 0.735 0.028
[3,4]
0.028 0.008 0.008 0.735 0.028
[4,2]
0.250 0.150 0.010 0.970 0.250
[4,1]
0.250 0.150 0.010 0.970 0.250
[4,3]
0.250 0.150 0.010 0.970 0.250
[4,4]
0.250 0.150 0.010 0.970 0.250
BKD> DISTRIBUTION RACCOLTADATI
[DUROTT,RACCOLTADATI]
Mean Var
Lower Upper Phi
Appendice D
[2,1]
[2,4]
[2,2]
[2,3]
[1,1]
[1,4]
[1,2]
[1,3]
[3,1]
[3,4]
[3,2]
[3,3]
[4,1]
[4,4]
[4,2]
[4,3]
219
0.916
0.004
0.076
0.004
0.885
0.084
0.002
0.029
0.257
0.246
0.251
0.246
0.257
0.246
0.251
0.246
0.006
0.000
0.006
0.000
0.003
0.002
0.000
0.001
0.153
0.148
0.150
0.148
0.153
0.148
0.150
0.148
0.583
0.002
0.040
0.002
0.681
0.065
0.001
0.022
0.010
0.004
0.004
0.004
0.010
0.004
0.004
0.004
0.955
0.266
0.409
0.266
0.911
0.250
0.211
0.195
0.988
0.956
0.970
0.956
0.988
0.956
0.970
0.956
0.894
0.006
0.094
0.006
0.862
0.101
0.002
0.035
0.250
0.250
0.250
0.250
0.250
0.250
0.250
0.250
BKD> DISTRIBUTION RISPOSTA
[ORARIO,RISPOSTA]
Mean Var Lower Upper Phi
[3,1]
0.905 0.002 0.869 0.909 0.907
[3,3]
0.025 0.001 0.023 0.066 0.025
[3,2]
0.070 0.001 0.066 0.108 0.069
[2,1]
0.981 0.001 0.845 0.983 0.982
[2,3]
0.010 0.001 0.008 0.147 0.009
[2,2]
0.010 0.001 0.008 0.147 0.009
[1,1]
0.310 0.160 0.048 0.833 0.333
[1,3]
0.345 0.170 0.048 0.905 0.333
[1,2]
0.345 0.170 0.048 0.905 0.333
BKD> DISTRIBUTION TELEFONATE
[CAPACITÀ,TELEFONATE]
Mean Var Lower Upper Phi
[3,1]
0.970 0.001 0.923 0.972 0.970
[3,2]
0.030 0.001 0.028 0.077 0.030
[2,1]
0.882 0.005 0.795 0.893 0.882
[2,2]
0.118 0.005 0.107 0.205 0.118
[1,1]
0.500 0.187 0.071 0.929 0.500
[1,2]
0.500 0.187 0.071 0.929 0.500
BKD> DISTRIBUTION TEMPO
[SODDDURATA,TEMPO]
Mean Var
[1,2]
0.942 0.010 0.645 0.961
[1,1]
0.019 0.004 0.013 0.329
[1,3]
0.019 0.004 0.013 0.329
[1,4]
0.019 0.004 0.013 0.329
[2,2]
0.535 0.009 0.497 0.568
[2,1]
0.383 0.009 0.356 0.426
[2,3]
0.079 0.003 0.074 0.144
[2,4]
0.003 0.000 0.003 0.074
[3,2]
0.291 0.008 0.234 0.431
[3,1]
0.702 0.008 0.563 0.761
Lower Upper Phi
0.942
0.019
0.019
0.019
0.535
0.383
0.079
0.003
0.291
0.702
Appendice D
[3,3]
[3,4]
220
0.003 0.000 0.003 0.201 0.003
0.003 0.000 0.003 0.201 0.003
BKD> DISTRIBUTION ORARIO
[ORARIO]
Mean Var Lower Upper Phi
[3]
0.782 0.003 0.743 0.792 0.782
[2]
0.213 0.003 0.202 0.251 0.213
[1]
0.006 0.000 0.005 0.055 0.006
Appendice D
221
D1.4.2 Componenti della soddisfazione: valori di
Verosimiglianza e di probabilità condizionale delle
componenti della Soddisfazione
BKD> LIKELIHOOD SODDISFAZIONE
Likelihood of dependencies to SODDISFAZIONE:
[SODDISFAZIONE | DUROTT] = -56.67743348439603
[SODDISFAZIONE | TELEFONATE] = -57.830085546912315
[SODDISFAZIONE | DUROTT TELEFONATE] = -58.159849625503135
[SODDISFAZIONE | T]
= -58.217237098705255
[SODDISFAZIONE | CONTATTO] = -58.273121863091276
[SODDISFAZIONE | DUROTT TEMPO] = -59.71898595273288
[SODDISFAZIONE | TEMPO] = -59.79128748458992
[SODDISFAZIONE | DUROTT CONTATTO] = -60.522368943526686
[SODDISFAZIONE | DUROTT RISPOSTA] = -60.9297735359671
[SODDISFAZIONE | SODDDURATA] = -61.99717774432239
[SODDISFAZIONE | CAPACITÀ] = -63.83500316251376
[SODDISFAZIONE | ORARIO] = -64.10567695405678
[SODDISFAZIONE | RISPOSTA] = -64.39589188116337
[SODDISFAZIONE | RACCOLTADATI] = -65.10883043779656
[SODDISFAZIONE | DUROTT RACCOLTADATI] = -69.28462743760674
[SODDISFAZIONE | DUROTT SODDDURATA] = -69.4892502033036
[SODDISFAZIONE | DUROTT ORARIO] = -70.74485000951996
[SODDISFAZIONE | DUROTT CAPACITÀ] = -71.92325930100453
BKD> DISTRIBUTION SODDISFAZIONE
[DUROTT,SODDISFAZIONE]
Mean Var Lower Upper Phi
[2,1]
0.007 0.001 0.004 0.287 0.008
[2,3]
0.704 0.019 0.388 0.844 0.691
[2,2]
0.290 0.018 0.152 0.607 0.301
[1,1]
0.060 0.002 0.051 0.173 0.067
[1,3]
0.300 0.007 0.231 0.463 0.291
[1,2]
0.639 0.007 0.487 0.715 0.643
[3,1]
0.323 0.175 0.009 0.949 0.333
[3,3]
0.340 0.179 0.011 0.982 0.333
[3,2]
0.337 0.179 0.009 0.977 0.333
[4,1]
0.323 0.175 0.009 0.949 0.333
[4,3]
0.340 0.179 0.011 0.982 0.333
[4,2]
0.337 0.179 0.009 0.977 0.333
Fly UP