Lezione 8 La verifica delle ipotesi sui parametri del modello di
by user
Comments
Transcript
Lezione 8 La verifica delle ipotesi sui parametri del modello di
Lezione 8 La verifica delle ipotesi sui parametri del modello di regressione lineare semplice Umberto Triacca Dicembre 2006 Molto spesso la teoria economica impone delle restrizioni sui coefficienti del modello di regressione. In alcuni casi, ad esempio, la teoria può suggerire che i parametri α e β assumano particolari valori o siano compresi in un dato intervallo. Risulta pertanto estremamente inportante, ai fini della validazione empirica della teoria stessa, sottoporre a verifica le ipotesi sui parametri che da essa scaturiscono. Il modello di regressione lineare semplice normale Supponiamo di disporre del seguente insieme di T coppie di osservazioni sulle variabili x ed y {(xt, yt); t = 1, 2, ..., T } ed ipotizziamo che il processo generatore dei dati che ha prodotto tali osservazioni sia adeguatamente descritto dal seguente insieme di assunzioni. 1. yt = α + βxt + εt 2. εt ∼ N (0, σ 2) 3. E(εtεs) = 0 t = 1, ..., T ∀t t 6= s, t, s = 1, ..., T 4. xt variabile non stocastica ∀t L’insieme di queste assunzioni costituisce il cosiddetto modello di regressione lineare semplice normale. E’ chiaro che tale modello comprende tutte le assunzioni del modello classico di regressione lineare semplice; in più, rispetto a quest’ultimo, si assume che gli errori seguano una distribuzione normale. In un contesto di questo tipo è possibile sottoporre a verifica le ipotesi riguardanti i parametri α e β del modello. Supponiamo, ad esempio, di voler sottoporre a verifica l’ipotesi nulla H0 : β = β0, contro l’ipotesi alternativa H1 : β 6= β0. Per sottoporre a verifica tele ipotesi possiamo adottare la seguente regola. Rifiutiamo H0 se la realizzazione della variabile casuale (detta statistica test) ∧ β − β 0 ∧ SE(β ) dove v u u ∧ SE(β ) = t P assume un valore elevato. S2 ( x t − x) La logica di questo test è la seguente. Se otteniamo un valore relativamente modesto di ∧ β − β 0 ∧ SE(β ) ∧ possiamo concludere che β non differisce a tal punto da β0 (il valore ipotizzato) da indurci a rifiutare l’ipotesi H0 : β = β0 ∧ In questo caso, la differenza osservata tra β e il valore ipotizzato β0 non è statisticamente significativa e probabilmente è dovuta semplicemente al caso. Viceversa, se ∧ β − β 0 ∧ SE(β ) assume un valore elevato rifiutiamo l’ipotesi nulla H0 : β = β0 La differenza è troppo grande per essere attribuita completamente al caso. A questo punto il problema diventa quello di stabilire quando il valore della realizzazione della statistica test deve essere considerato sufficientemente elevato da indurci a rifiurtare l’ipotesi. Bisogna cioè determinare un valore soglia, tα/2, per la statistica test oltre il quale si rifiuta H0 : β = β0 Poichè è possibile dimostrare che, sotto H0 : β = β0, si distribuisce come una t con T − 2 gradi di libertà, in simboli ∧ β − β0 ∼ tT −2 ∧ SE(β ) tale valore soglia può essere determinato fissando un livello di significatività del test pari ad α ed imponendo che b β − β 0 P > t |H α/2 0 = α ∧ SE(β) A questo punto essendo b b β − β 0 β − β0 P > t |H = 2P > t |H α/2 0 α/2 0 ∧ ∧ SE(β) SE(β) abbiamo che b α β − β0 P > t |H = α/2 0 ∧ 2 SE(β ) Da tale condizione, riccorrendo alle tavole della t, possiamo ricavarci tα/2 ovvero quel valore tale per cui la probabilità che βb − β0 ∧ SE(β) sia maggiore di tα/2 è pari ad α/2. La regola e quindi il test è completamente specificato. Se βb − β0 < −δα ∧ SE(β ) oppure se βb − β0 > δα, ∧ SE(β ) rifiutiamo l’ipotesi nulla H0 ad un livello di significatività α. Se invece βb − β0 −δα < < δα ∧ SE(β ) non rifiutiamo H0. Volendo sottoporre a verifica una data ipotesi riguardante il valore α dell’intercetta si procederà in modo analogo. In particolare, per sottoporre a verifica l’ipotesi nulla H0 : α = α0, contro l’ipotesi alternativa H1 : α 6= α0 utilizzeremo la statistica test b − α0 α ∧ SE(α ) Anche in questo caso, sotto H0, ∧ β − β0 ∼ tT −2 ∧ SE(β ) Pertanto, rifiuteremo H0 : α = α0 se α b − α0 >t α/2 ∧ SE(α ) dove tα/2 è quel valore tale che P b − α0 α α > tα/2|H0 = , ∧ 2 SE(α ) determinato ricorrendo alle tavole della t di student. E’ importante notare che fra tutte le ipotesi riguardanti i parametri α e β che possiamo sottoporre a verifica ve ne sono due di particolare importanza. Esse sono, rispettivamente, H0 : α = 0, contro l’ipotesi alternativa H1 : α 6= 0 e H0 : β = 0, contro l’ipotesi alternativa H1 : β 6= 0 Quest’ultima è senza dubbio la più importante di tutte. Sottoporre a verifica l’ipotesi nulla H0 : β = 0 significa sottoporre a verifica l’ipotesi che la variabile y non dipenda dalla variabile x. La sua importanza è quindi evidente. In questo caso, la statistica test è data semplicemente dal valore assoluto del rapporto tra ∧ lo stimatore β ed il suo errore standard ∧ β ∧ SE(β ) Per costruire una qualsiasi procedura di verifica non solo è necessario disporre di una statistica test ma dobbiamo conoscere anche la distribuzione di tale statistica, almeno sotto H0.