Nessun titolo diapositiva - Il Sito della Medicina di Laboratorio
by user
Comments
Transcript
Nessun titolo diapositiva - Il Sito della Medicina di Laboratorio
Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio M. Besozzi - IRCCS Istituto Auxologico Italiano L’argomento... ª Errori cognitivi ª Il problema gnoseologico ª Dati, informazione e conoscenza ª Complessità, probabilità e teorema di Bayes ª Teorema di Bayes e informazione diagnostica ª Teorema di Bayes e strategie diagnostiche ª Teorema di Bayes e decisioni mediche “Ci sono tre tipi di menzogne: le bugie, le bugie fottute e le statistiche. (Mark Twain) Probabilità: il problema classico Abbiamo un’urna contenente 500 palline di colore bianco e 500 palline di colore rosso. Cosa ci possiamo attendere dall’estrazione di una pallina? Si sa tutto sull’urna, ovvero si conosce “l’universo”, ovvero si conosce la causa. Si applica un ragionamento deduttivo. Il risultato (l’effetto, l’estrazione di una pallina) può essere calcolato. (l’aspetto induttivo e l’aspetto deduttivo compaiono nella probabilità) Probabilità: il problema inverso Da un’urna contenente s palline estraiamo n palline di cui k sono di colore rosso. Cosa possiamo concludere circa il contenuto dell’urna? Si è fatto un esperimento, si conosce l’effetto. Il problema che Bayes si pone è: esiste un qualche ragionamento induttivo che ci consenta di “calcolare” la causa (lo specifico contenuto dell’urna)? (per questo il teorema di Bayes è noto anche come il teorema della probabilità delle cause) La probabilità delle cause C1 C2 ... Cn verosimiglianza Deduzione Induzione E1 E2 (l’importanza della relazione di verosimiglianza) E3 Conoscenza La conoscenza scientifica non può essere di tipo esclusivamente deduttivo. Ma, seguendo le critiche all’induzione di Hume e Popper, non può nemmeno essere di tipo induttivo. Questi due fondamentali concetti possono essere riassunti seguendo l’impostazione data da Peirce. (Charles Sanders Peirce, 1839-1914) Deduzione REGOLA: tutti i fagioli in questo sacco sono bianchi CASO: questi fagioli provengono da questo sacco RISULTATO: questi fagioli sono bianchi (sicuramente) La deduzione non comporta alcun accrescimento del sapere. (ragionamento deduttivo) Induzione CASO: questi fagioli provengono da questo sacco RISULTATO: questi fagioli sono bianchi REGOLA: tutti i fagioli di questo sacco sono bianchi (forse/probabilmente) La induzione ci consente di allargare orizzontalmente la nostra conoscenza del mondo, la sua essenza è la generalizzazione (sempre passibile di errore). (ragionamento induttivo) Abduzione RISULTATO: questi fagioli sono bianchi REGOLA: tutti i fagioli di questo sacco sono bianchi CASO: questi fagioli provengono da questo sacco (forse/probabilmente) Prima sapevamo solo che erano bianchi, ora abbiamo formulato l’ipotesi che provengano da questo sacco. (ragionamento scientifico!) Approccio scientifico ai problemi TEORIA CONFUTAZIONE ESPERIMENTO DISEGNO SPERIMENTALE RACCOLTA DEI DATI ANALISI DEI DATI VERIFICA CONCLUSIONI (dall’abduzione di Peirce al falsificazionismo di Karl Popper) 4. Dati, informazione, conoscenza Informazione fornita dall’esperienza [indizi] Informazione “a priori” [pre-giudizio] Motore inferenziale bayesiano [regole] Informazione “a posteriori” [conclusioni] Conoscenza (aggiungono al falsificazionismo di Popper la misura del contributo dell’esperimento in termini di aumento della verosimiglianza) La probabilità congiunta P(A ∩ B) E’ la probabilità di due eventi congiunti, descrive la situazione in cui si verificano sia A sia B, si legge “la probabilità congiunta di A e B” ovvero “la probabilità di A e B” P(A) P(A ∩ B) P(B) Probabilità composte (teorema) Le relazione fra probabilità condizionata e probabilità congiunta è la seguente: P(A ∩ B) = P(A|B) ⋅ P(B) = P(B|A) ⋅ P(A) Da cui si ricava il teorema di Bayes: P(B|A) ⋅ P(A) P(A|B) = P(B) (il teorema prende il nome dal reverendo inglese che lo ha scoperto nel 1700 studiando il problema inverso...) Chiavi di lettura probabilità a priori probabilità a posteriori P(B|A) ⋅ P(A) P(A|B) = P(B) (sostituendo A con M+ e B con T+ si ottiene la visione diagnostica) Chiavi di lettura P(B|A) ⋅ P(A) P(A|B) = P(B) (la causa | dato l’effetto) (l’effetto | data la causa) (sostituendo A con M+ e B con T+ si ottiene la visione diagnostica) Chiavi di lettura probabilità a priori probabilità a posteriori P(B|A) ⋅ P(A) P(A|B) = P(B) (la causa | dato l’effetto) (l’effetto | data la causa) (sostituendo A con M+ e B con T+ si ottiene la visione diagnostica) Chiavi di lettura probabilità a priori probabilità a posteriori P(B|A) ⋅ P(A) P(A|B) = P(B) verosimiglianza standardizzata o fattore di Bayes (il fattore di Bayes è la misura della verosimiglianza [likelihood] che collega la probabilità a priori alla probabilità a posteriori) Reinterpretazione con gli odds Essendo: odds = P / (1 - P) e inversamente: probabilità = odds / (1 + odds) Esempio probabilità 80% cioè P = 0,8 odds = 0,8 / (1 – 0,8) = 0,8 / (0,2) = 4 cioè 4:1 odds 4:1 probabilità = 4 / (1 + 4) = 0,8 (gli odds sono la probabilità espressa dal bookmaker come rapporto tra la vincita e la posta giocata) Reinterpretazione con gli odds Essendo: LR = rapporto di verosimiglianza = likehood ratio LR+ (LR per un test positivo) è uguale al rapporto tra il risultato del test nei malati e nei sani: P(T+|M+) / P(T+|M-) ovvero sensibilità / (1 – specificità) LR- (LR per un test positivo) è uguale al rapporto tra il risultato del test nei malati e nei sani: P(T-|M+) / P(T-|M-) ovvero (1 – sensibilità) / specificità Tutte le probabilità in gioco sensibilità + 1 - sensibilità Test + - P(T+|M+) P(T-|M+) P(T+|M-) P(T-|M-) Malattia 1 - specificità P(M+) = prevalenza della malattia P(M-) = 1 - prevalenza specificità Reinterpretazione con gli odds Ricavando in base alla definizione di odds che: P(A) O(A) = P(non A) e che P(A|B) O(A|B) = P(non A|B) Reinterpretazione con gli odds Essendo in base alla definizione di odds Λ(A|B) = P(B|A) = LR+ P(B|non A) Λ(A|B) = P(non B|A) = LRP(non B|non A) Reinterpretazione con gli odds odds post-test odds pre-test O(A|B) = Λ(A|B) ⋅ O(A) rapporto di verosimiglianza o likelihood ratio (LR) (il rapporto di verosimiglianza è la misura della verosimiglianza che collega la probabilità a priori alla probabilità a posteriori) Reinterpretazione con gli odds odds post-test odds pre-test O(A|B) = Λ(A|B) ⋅ O(A) rapporto di verosimiglianza o likelihood ratio (LR) (al fine di evitare di trasformare la probabilità in odds e successivamente di ritrasformare gli odds in probabilità si usa il nomogranna di Fagan) Nomogramma di Fagan Nomogramma di Fagan Sangue occulto nelle feci Sensibilità = 50% = 0,5 Specificità = 97% = 0,97 Prevalenza = 0,3% = 0,003 Valore predittivo test + = 0,048 (probabilità di essere ammalato se è risultato un test positivo) Nomogramma di Fagan Sangue occulto nelle feci Sensibilità = 50% = 0,5 Specificità = 97% = 0,97 Prevalenza = 0,3% = 0,003 Valore predittivo test + = 0,048 P pre-test = 0,003 LR+ = 16,67 P post-test= 0,048 (probabilità di essere ammalato se è risultato un test positivo) Nomogramma di Fagan Sangue occulto nelle feci Sensibilità = 50% = 0,5 Specificità = 97% = 0,97 Prevalenza = 0,3% = 0,003 Valore predittivo test - = 0,998 (probabilità di essere sano se è risultato un test negativo) Nomogramma di Fagan Sangue occulto nelle feci Sensibilità = 50% = 0,5 Specificità = 97% = 0,97 Prevalenza = 0,3% = 0,003 Valore predittivo test - = 0,998 P pre-test = 0,003 LR- = 0,515 P post-test = 0,002 (probabilità di essere ammalato se è risultato un test negativo) 4. Dati, informazione, conoscenza Informazione fornita dall’esperienza [indizi] Informazione “a priori” [pre-giudizio] Motore inferenziale bayesiano [regole] Informazione “a posteriori” [conclusioni] Conoscenza (aggiungono al falsificazionismo di Popper la misura del contributo dell’esperimento in termini di aumento della verosimiglianza)