Comments
Description
Transcript
Slides 6
La logica statistica della verifica (test) delle ipotesi Come posso confrontare diverse ipotesi? Nella statistica inferenziale classica vengono sempre confrontate due ipotesi: l’ipotesi nulla e l’ipotesi alternativa In realtà, questo confronto non è diretto. Quello che si confronta realmente sono i dati con l’ipotesi nulla In altre parole: 1. Si cerca di prevedere come potrebbero essere i dati se fosse vera l’ipotesi nulla 2. Se i dati osservati sono molto distanti da quelli si potrebbero ottenere se fosse vera l’ipotesi nulla, allora l’ipotesi nulla VIENE RIFIUTATA (e di conseguenza, si accetta l’ipotesi alternativa) 3. Se invece i dati osservati non sono troppo distanti da quelli si potrebbero ottenere se fosse vera l’ipotesi nulla, allora l’ipotesi nulla NON VIENE RIFIUTATA (ovvero, si dice che i dati osservati sono compatibili con l’ipotesi nulla) L’ipotesi nulla non viene mai accettata! Ipotesi nulla e ipotesi alternativa Ipotesi nulla, o H0 o E’ un enunciato specifico che riguarda un parametro nella popolazione (o nelle popolazioni) o E’ l'ipotesi che tutto sommato, se verificata, farebbe concludere allo sperimentatore di aver perso tempo o comunque renderebbe tutta la faccenda meno interessante o E’ l’ipotesi sulla base della quale si elabora la distribuzione nulla della statistica utilizzata per il test Ipotesi alternativa, o Ha o H1 o Rappresenta tutte le altre ipotesi riguardo al parametro non specificate dall’ipotesi nulla o E’ l’ipotesi che generalmente viene formulata prima di fare un test, l'idea cioè che ha avuto il ricercatore e che lo ha indotto a fare un esperimento o a raccogliere dei dati sul campo (e che quindi sarebbe interessante in genere poter verificare) Esempi di H0 La densità di delfini è la stessa nelle zone aree in cui la pesca viene effettuata con le e senza pesca con reti a deriva è uguale alla densità di delfini nelle aree in cui la pesca viene effettuata senza queste reti Gli effetti antidepressivi della sertralina non differiscono da quelli dell'amitriptilina Genitori con occhi marroni, ciascuno dei quali ha avuto un genitore con occhi azzurri, hanno figli con occhi marroni e figli con occhi azzurri in un rapporto 3:1 La temperatura corporea media degli esseri umani sani è 37 °C Esempi di H1 La densità di delfini differisce tra zone con e senza pesca con reti a deriva Gli effetti andidepressivi della sertralina differiscono da quelli dell'amitriptilina I genitori con gli occhi marroni, ciascuno dei quali ha avuto un genitore con occhi azzurri, hanno figli con occhi marroni e figli con occhi azzurri in un rapporto diverso da 3:1 La temperatura corporea media degli esseri umani sani non è 37 °C. Formalizzazione del test di ipotesi con un esempio molto semplice Vediamo con un esempio semplice: test sulla media per un campione con varianza nota o Supponiamo che la crescita media tra il terzo mese e il quarto mese di un bambino allattato con latte materno, in Italia, sia di 0.54 kg (µ = µ0= 0.54) o Supponiamo anche di sapere che la deviazione standard in questa variabile sia nota e pari a 0.12 kg (σ = 0.12) o Un campione di 35 bambini alimentati solo con latte artificiale viene analizzato per questa variabile, e si ottiene una media campionaria x = 0.47 o Si vuole determinare se l’accrescimento medio dei bambini allattati con latte artificiale è diverso da quello dei bambini allattati con latte materno. Si vuole verificare se la media µ nella popolazione dei bambini allattati con latte artificiale (della quale abbiamo un campione) è diversa dalla media µ0 della popolazione dei bambini allattati con latte materno (della quale conosciamo la media). La varianza si suppone nota. Formalmente, possiamo indicare le due ipotesi come Ipotesi nulla H0 : µ = µ0 (l’ipotesi nulla è molto specifica) Ipotesi alternativa H1 : µ ≠ µ0 (l’ipotesi alternativa è “tutto quello che non è l’ipotesi nulla”) Assumiamo inizialmente che sia vera l’ipotesi nulla per prevedere i risultati che dovremmo attenderci in un campione con n = 35 o il campione di 35 bambini proviene da una popolazione con media µ = µ0= 0.54, con una deviazione standard σ = 0.12, e quindi il fatto che x = 0.47 è un semplice effetto del campionamento casuale Come sarebbe distribuita la media campionaria standardizzata in tanti campioni con n = 35 se fosse vera l’ipotesi nulla? o (la media campionaria standardizzata, quando ho a disposizione σ, è lo scarto dalla media della popolazione diviso per σ x ) x − µ0 Ovvero, quale sarebbe la distribuzione di σx se fosse vera H0? Come una variabile z! α/2 of total area α/2 of total area -z α/2 0 Questa è la distribuzione nulla in questo test di ipotesi z α/2 α/2 of total area α/2 of total area -z α/2 0 z α/2 Scelto un certo valore di α (livello di significatività), nella distribuzione nulla si possono identificare due tipologie di valori di z: o valori di z compatibili con l’ipotesi nulla, perché sufficientemente vicini a quello che ci aspetta generalmente se fosse vera l’ipotesi nulla o valori di z così distanti da quello che ci aspetta se fosse vera l’ipotesi nulla da rendere tale ipotesi molto improbabile Per esempio: o α= 0.05 (in un certo senso, questo valore specifica cosa intendo per “compatibilità con l’ipotesi nulla”) o zα/2 =1.96 o valori di z compatibili con l’ipotesi nulla: valori compresi tra -1.96 e +1.96 o valori di z incompatibili con l’ipotesi nulla: valori maggiori di +1.96 o minori di -1.96 Ragionando sull’esempio della crescita di neonati: o Il 95% dei campioni con n=35 estratti da una popolazione con media pari a 0.54 kg e σ = x − 0.54 0.12 kg avranno una 0.12 / 35 non superiore a 1.96 e non inferiore a -1.96 o Se nel mio singolo campione questo valore è inferiore a -1.96 o superiore a 1.96, lo considero così improbabile se fosse vera l’ipotesi nulla, da portarmi al rifiuto di questa ipotesi o Se nel mio singolo campione questo valore è compreso tra -1.96 e 1.96, lo considero un valore non così improbabile se fosse vera l’ipotesi nulla, ovvero compatibile con l’ipotesi nulla. Quest’ultima non viene rifiutata. Questa è la logica inferenziale classica, basata sul rifiuto o il non-rifiuto dell’ipotesi nulla, dell’ipotesi cioè dalla quale partiamo e della quale siamo in grado di definire le caratteristiche in termini di probabilità. Quindi, in questo caso, il test dell’ipotesi si realizza calcolando la statistica test z zcalc = x − µ0 σx e confrontando il valore ottenuto con due regioni della distribuzione z o regione di accettazione: - zα/2 ÷ zα/2 o regione di rifiuto: per valori di z minori di - zα/2 e maggiori di zα/2 Il valore di α (livello di significatività) viene di solito fissato a 0.05, ma può anche essere pari a 0.01 o 0.001 se vogliamo essere più sicuri che il rischio di commettere un errore rifiutando un’ipotesi nulla vera (errore di primo tipo) sia inferiore QUINDI Se zcalc cade nella regione di rifiuto, ci sono evidenze forti che sia vera l’ipotesi alternativa, con una probabilità α di sbagliarsi (ovvero di compiere un errore di primo tipo) Se zcalc cade nella regione di accettazione, non possiamo respingere l’ipotesi nulla (che non viene accettata: i dati disponibili sono compatibili con l’ipotesi nulla, ma altri dati, per esempio più numerosi, potrebbero portare al rifiuto) Nel caso numerico dell’esempio, per α = 0.05 2.5% of total area 2.5% of total area -1.96 z calc = 0 1.96 0.47 − 0.54 = −3.5 0.02 Questo valore cade nella regione di rifiuto e quindi giungiamo alla conclusione che l’ipotesi alternativa è corretta, sapendo però che esiste un rischio pari al 5% che questa conclusione sia errata. ESEMPIO DEL CONSUMO DI HAMBURGER L’approccio del P-value (o p-value) nella verifica dell’ipotesi E’ un approccio alternativo a quello delle regioni di accettazione e rifiuto appena visto Importante perché fornisce un’informazione più precisa e anche perché è l’approccio utilizzato nelle analisi statistiche al calcolatore. Torniamo al nostro esempio di test sui bambini allattati con latte artificiale e materno x−µ z = calc σx E’ possibile determinare (da tabella o mediante computer) la probabilità di osservare valori uguali o più estremi di quello osservato (più estremi significa meno probabili). Questa probabilità prende il nome di P-value (o valore p) Ovviamente, minore è il P-value o maggiore è l’evidenza che il campione provenga da una popolazione con media diversa da quella ipotizzata dall’ipotesi nulla o maggiore è quindi l’evidenza in favore dell’ipotesi alternativa Con l’approccio del P-value, la logica procede come segue Se il P-value è minore di α, ho forti motivi per ritenere che la popolazione da cui proviene il campione di bambini allattati con latte in polvere abbia una crescita media diversa da µ0 (quella ipotizzata dall’ipotesi nulla) o Si conclude che è vera l’ipotesi alternativa H1 (ossia, il tipo di latte ha un effetto), perché la probabilità di avere una media così deviante o anche più deviante risulta molto bassa se fosse vera l’ipotesi nulla o Il P-value è anche pari alla probabilità di sbagliare giungendo a questa conclusione, ossia la probabilità di commettere un errore di primo tipo Se invece il P-value è maggiore di α, non ci sono forti evidenze che la popolazione da cui il campione proviene abbia una media diversa da µ0. o Si conclude che i dati sono compatibili con l’ipotesi nulla, sono cioè spiegabili con il solo effetto del campionamento. L’ipotesi che la crescita non è influenzata dal tipo di latte non può essere scartata, visto che una certa probabilità non troppo piccola, data dal Pvalue, risultati simili o più estremi di quelli osservati si possono ottenere per caso se è vera l’ipotesi nulla. L'approccio basato sui P-value non è altro che l'altra faccia dell'approccio basato sulle regioni di accettazione e rifiuto o fissato α, se un valore della statistica test cade nella regione di rifiuto, il suo P-value è sempre minore di α Utilizzando i dati nel nostro esempio, otteniamo come prima che z calc = 0.47 − 0.54 = −3.5 0.02 Cercando in tabella, o usando per esempio un applet in Internet, possiamo calcolare il P-value, P − value = P(− 3.5 ≤ z ≤ 3.5) = 0.0005 Alcuni punti molto importanti 1. Inferenza statistica e cautela verso le “novità” La verifica di ipotesi è forse lo strumento statistico più importante per il processo conoscitivo scientifico Considerando che H0 tendenzialmente definisce la situazione sperimentale "conservatrice" e H1 quella che porta ad una scoperta nella ricerca, si capisce come la logica dell’inferenza statistica abbia un carattere di cautela verso l'innovazione: consente di rifiutare l’ipotesi nulla solo se i dati sono veramente incompatibili con essa (α è in genere fissato al 5%) Possiamo pensare alla verifica di ipotesi come ad un processo o L'imputato è il parametro sotto test o L'assoluzione corrisponde a non rifiutare H0 o La sentenza di colpevolezza è in analogia all'ipotesi alternativa Il sistema legislativo consente di condannare solo nel caso di forti evidenze di colpevolezza, nel caso cioè in cui la probabilità che l'imputato (il parametro) sia innocente (assumo H0), sia molto bassa (minore di α). In questo caso ci garantiamo di non condannare quasi mai un innocente (che come abbiamo visto in statistica di chiama errore di primo tipo), errore ben più grave di assolvere un colpevole (che come vedremo si chiama errore di secondo tipo). 2. L’ipotesi nulla non viene mai accettata Un risultato non significativo indica solo che non si è in grado di rifiutare l’ipotesi nulla Potrei per esempio avere una media della popolazione campionata (quella dei bambini allattati con latte in polvere nell’esempio presentato) leggermente diversa dalla media di riferimento (quella dei bambini allattati con latte materno), ma i dati risultano ancora compatibili con l’ipotesi nulla. L’evidenza in favore dell’ipotesi alternativa non è sufficientemente forte per escludere l’ipotesi nulla. Niente esclude che in un successivo esperimento questa differenza diventi evidente. Volendo continuare con l'analogia del processo, questo corrisponde al fatto che l'imputato non viene mai assolto in modo definitivo, ma all'eventuale presenza di nuove prove di colpevolezza, il processo verrebbe riaperto (si eseguirebbe di nuovo il test con i nuovi dati raccolti). 3. Il livello di significatività non corrisponde alla dimensione dell’effetto Lo stesso effetto diventa più o meno significativo semplicemente in funzione del numero di dati disponibili: avere più dati, significa avere maggiori informazioni, per cui anche l'effetto più piccolo diventa significativo con un adeguato numero di osservazioni. Un risultato significativo non significa un risultato importante ci indica solo quanto poco probabile è che un certo effetto sia dovuto al caso Interpretare la "dimensione", e quindi l'importanza del risultato, è compito dello studioso. Per esempio, potrebbe risultare, sulla base di un campione di 10000 persone che fanno jogging regolarmente, che il loro rischio di infarto è statisticamente maggiore rispetto a chi non lo pratica (favorendo cioè l’ipotesi alternativa). Se però questo rischio aumenta, pur se in maniera statisticamente significativa, solo dello 0.01% , questo risultato potrebbe non avere una grande importanza sociale o comunque biologica. Test sulla media di un campione quando la varianza è ignota Le ipotesi nulla e alternativa sono ancora: H0 : µ = µ0 La media µ della popolazione dalla quale ho estratto il campione è uguale ad un certo valore prefissato, µ0. In altre parole, il campione proviene da una popolazione con media µ0. H1: µ ≠ µ0 La media µ è diversa dal valore prefissato µ0. La statistica test è il t di Student, calcolato come segue t calc = x − µ0 x − µ0 = sx s/ n Se la variabile in esame ha una distribuzione gaussiana, questa statistica test si distribuisce secondo la distribuzione t di Student con (n-1) gradi di libertà se è vera l’ipotesi nulla Posso seguire lo stesso approccio (regioni di accettazione/rifiuto o P-value) per testare l’ipotesi nulla, ovviamente usando la distribuzione t come distribuzione nulla: è un test t di Student Il test t è relativamente robusto a piccole deviazioni dall’assunzione di normalità o Ovvero, anche se la variabile ha una distribuzione che si discosta dalla gaussiana, il test t funziona ugualmente se tale scostamento è piccolo e/o il campione è molto numeroso Esempio Test sulla proporzione in un campione (utilizzando il test z) Un certo numero di individui n, viene assegnato a diverse categorie di una variabile qualitativa Si calcola la proporzione p di individui che possiedono una specifica caratteristica Si vuole determinare il valore π nella popolazione da cui il campione è stato prelevato differisce da un certo valore prefissato π0. Se nπ e n(1-π) sono maggiori o uguali a 5 o la variabile p ha una distribuzione binomiale Approssimabile con una distribuzione normale • La variabile p standardizzata ha una distribuzione approssimativamente normale standardizzata. Applico il test z H0 : π= π0 H1 : π ≠ π0 z calc = Verifico le ipotesi come di norma p − π0 σp = p −π0 π 0 (1 − π 0 ) n Esempio Un campione di 100 cardiopatici viene suddiviso in fumatori e non fumatori I fumatori risultano essere 21 (p = 0.21) La proporzione di fumatori nella popolazione generale è pari a 0.15 (π0) Confrontare l’ipotesi “tra i cardiopatici, i fumatori sono tanto numerosi quanto nella popolazione generale” (ipotesi nulla) con l’ipotesi “la numerosità di fumatori non differisce nella popolazione di cardiopatici rispetto alla popolazione generale” (ipotesi alternativa) z calc = p − π0 0.21 − 0.15 = = 1.68 π 0 (1 − π 0 ) 0.15(0.85) 100 n Il valore calcolato cade nella regione di accettazione o non esistono evidenze statisticamente significative, utilizzando un valore di α = 0.05, che la frazione di fumatori nei cardiopatici sia diversa dal valore riscontrato nella popolazione generale Il p-value è pari a 0.09.