...

Nessun titolo diapositiva - Il Sito della Medicina di Laboratorio

by user

on
Category: Documents
9

views

Report

Comments

Transcript

Nessun titolo diapositiva - Il Sito della Medicina di Laboratorio
Errori cognitivi,
probabilità e
decisioni mediche
nella diagnostica
di laboratorio
M. Besozzi - IRCCS Istituto Auxologico Italiano
L’argomento...
ª Errori cognitivi
ª Il problema gnoseologico
ª Dati, informazione e conoscenza
ª Complessità, probabilità e teorema di Bayes
ª Teorema di Bayes e informazione diagnostica
ª Teorema di Bayes e strategie diagnostiche
ª Teorema di Bayes e decisioni mediche
“Ci sono tre tipi di menzogne:
le bugie, le bugie fottute e le statistiche.
(Mark Twain)
Probabilità: il problema classico
Abbiamo un’urna contenente 500 palline
di colore bianco e 500 palline di colore rosso.
Cosa ci possiamo attendere
dall’estrazione di una pallina?
Si sa tutto sull’urna, ovvero si conosce “l’universo”,
ovvero si conosce la causa.
Si applica un ragionamento deduttivo.
Il risultato (l’effetto, l’estrazione di una pallina)
può essere calcolato.
(l’aspetto induttivo e l’aspetto deduttivo compaiono nella probabilità)
Probabilità: il problema inverso
Da un’urna contenente s palline estraiamo n palline
di cui k sono di colore rosso.
Cosa possiamo concludere circa
il contenuto dell’urna?
Si è fatto un esperimento, si conosce l’effetto.
Il problema che Bayes si pone è: esiste un qualche
ragionamento induttivo che ci consenta di “calcolare”
la causa (lo specifico contenuto dell’urna)?
(per questo il teorema di Bayes è noto anche come il teorema della
probabilità delle cause)
La probabilità delle cause
C1
C2
...
Cn
verosimiglianza
Deduzione
Induzione
E1
E2
(l’importanza della relazione di verosimiglianza)
E3
Conoscenza
La conoscenza scientifica non può essere di tipo
esclusivamente deduttivo.
Ma, seguendo le critiche all’induzione di Hume
e Popper, non può nemmeno essere di tipo
induttivo.
Questi due fondamentali concetti possono
essere riassunti seguendo l’impostazione data
da Peirce.
(Charles Sanders Peirce, 1839-1914)
Deduzione
REGOLA: tutti i fagioli in questo sacco sono bianchi
CASO: questi fagioli provengono da questo sacco
RISULTATO: questi fagioli sono bianchi (sicuramente)
La deduzione non comporta alcun accrescimento
del sapere.
(ragionamento deduttivo)
Induzione
CASO: questi fagioli provengono da questo sacco
RISULTATO: questi fagioli sono bianchi
REGOLA: tutti i fagioli di questo sacco sono bianchi
(forse/probabilmente)
La induzione ci consente di allargare
orizzontalmente la nostra conoscenza del mondo,
la sua essenza è la generalizzazione (sempre
passibile di errore).
(ragionamento induttivo)
Abduzione
RISULTATO: questi fagioli sono bianchi
REGOLA: tutti i fagioli di questo sacco sono bianchi
CASO: questi fagioli provengono da questo sacco
(forse/probabilmente)
Prima sapevamo solo che erano bianchi, ora
abbiamo formulato l’ipotesi che provengano da
questo sacco.
(ragionamento scientifico!)
Approccio scientifico ai problemi
TEORIA
CONFUTAZIONE
ESPERIMENTO
DISEGNO SPERIMENTALE
RACCOLTA
DEI DATI
ANALISI
DEI DATI
VERIFICA
CONCLUSIONI
(dall’abduzione di Peirce al falsificazionismo di Karl Popper)
4. Dati, informazione, conoscenza
Informazione fornita dall’esperienza
[indizi]
Informazione
“a priori”
[pre-giudizio]
Motore
inferenziale
bayesiano
[regole]
Informazione
“a posteriori”
[conclusioni]
Conoscenza
(aggiungono al falsificazionismo di Popper la misura del contributo
dell’esperimento in termini di aumento della verosimiglianza)
La probabilità congiunta
P(A ∩ B)
E’ la probabilità di due eventi congiunti, descrive
la situazione in cui si verificano sia A sia B,
si legge “la probabilità congiunta di A e B”
ovvero “la probabilità di A e B”
P(A)
P(A ∩ B)
P(B)
Probabilità composte (teorema)
Le relazione fra probabilità condizionata e
probabilità congiunta è la seguente:
P(A ∩ B) = P(A|B) ⋅ P(B) = P(B|A) ⋅ P(A)
Da cui si ricava il teorema di Bayes:
P(B|A) ⋅ P(A)
P(A|B) =
P(B)
(il teorema prende il nome dal reverendo inglese che lo ha scoperto
nel 1700 studiando il problema inverso...)
Chiavi di lettura
probabilità a priori
probabilità a posteriori
P(B|A) ⋅ P(A)
P(A|B) =
P(B)
(sostituendo A con M+ e B con T+ si ottiene la visione diagnostica)
Chiavi di lettura
P(B|A) ⋅ P(A)
P(A|B) =
P(B)
(la causa | dato l’effetto)
(l’effetto | data la causa)
(sostituendo A con M+ e B con T+ si ottiene la visione diagnostica)
Chiavi di lettura
probabilità a priori
probabilità a posteriori
P(B|A) ⋅ P(A)
P(A|B) =
P(B)
(la causa | dato l’effetto)
(l’effetto | data la causa)
(sostituendo A con M+ e B con T+ si ottiene la visione diagnostica)
Chiavi di lettura
probabilità a priori
probabilità a posteriori
P(B|A) ⋅ P(A)
P(A|B) =
P(B)
verosimiglianza standardizzata o fattore di Bayes
(il fattore di Bayes è la misura della verosimiglianza [likelihood] che
collega la probabilità a priori alla probabilità a posteriori)
Reinterpretazione con gli odds
Essendo:
odds = P / (1 - P) e inversamente:
probabilità = odds / (1 + odds)
Esempio
probabilità 80% cioè P = 0,8
odds = 0,8 / (1 – 0,8) = 0,8 / (0,2) = 4 cioè 4:1
odds 4:1
probabilità = 4 / (1 + 4) = 0,8
(gli odds sono la probabilità espressa dal bookmaker come rapporto
tra la vincita e la posta giocata)
Reinterpretazione con gli odds
Essendo:
LR = rapporto di verosimiglianza = likehood ratio
LR+ (LR per un test positivo) è uguale al rapporto
tra il risultato del test nei malati e nei sani:
P(T+|M+) / P(T+|M-) ovvero
sensibilità / (1 – specificità)
LR- (LR per un test positivo) è uguale al rapporto
tra il risultato del test nei malati e nei sani:
P(T-|M+) / P(T-|M-) ovvero
(1 – sensibilità) / specificità
Tutte le probabilità in gioco
sensibilità
+
1 - sensibilità
Test
+
-
P(T+|M+)
P(T-|M+)
P(T+|M-)
P(T-|M-)
Malattia
1 - specificità
P(M+) = prevalenza della malattia
P(M-) = 1 - prevalenza
specificità
Reinterpretazione con gli odds
Ricavando in base alla definizione di odds che:
P(A)
O(A) =
P(non A)
e che
P(A|B)
O(A|B) =
P(non A|B)
Reinterpretazione con gli odds
Essendo in base alla definizione di odds
Λ(A|B) =
P(B|A)
= LR+
P(B|non A)
Λ(A|B) =
P(non B|A)
= LRP(non B|non A)
Reinterpretazione con gli odds
odds post-test
odds pre-test
O(A|B) = Λ(A|B) ⋅ O(A)
rapporto di verosimiglianza o likelihood ratio (LR)
(il rapporto di verosimiglianza è la misura della verosimiglianza che collega
la probabilità a priori alla probabilità a posteriori)
Reinterpretazione con gli odds
odds post-test
odds pre-test
O(A|B) = Λ(A|B) ⋅ O(A)
rapporto di verosimiglianza o likelihood ratio (LR)
(al fine di evitare di trasformare la probabilità in odds e successivamente di
ritrasformare gli odds in probabilità si usa il nomogranna di Fagan)
Nomogramma di Fagan
Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilità = 50% = 0,5
Specificità = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test + = 0,048
(probabilità di essere ammalato se è
risultato un test positivo)
Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilità = 50% = 0,5
Specificità = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test + = 0,048
P pre-test = 0,003
LR+ = 16,67
P post-test= 0,048
(probabilità di essere ammalato se è
risultato un test positivo)
Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilità = 50% = 0,5
Specificità = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test - = 0,998
(probabilità di essere sano se è
risultato un test negativo)
Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilità = 50% = 0,5
Specificità = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test - = 0,998
P pre-test = 0,003
LR- = 0,515
P post-test = 0,002
(probabilità di essere ammalato se è
risultato un test negativo)
4. Dati, informazione, conoscenza
Informazione fornita dall’esperienza
[indizi]
Informazione
“a priori”
[pre-giudizio]
Motore
inferenziale
bayesiano
[regole]
Informazione
“a posteriori”
[conclusioni]
Conoscenza
(aggiungono al falsificazionismo di Popper la misura del contributo
dell’esperimento in termini di aumento della verosimiglianza)
Fly UP