...

Lezione 8 La verifica delle ipotesi sui parametri del modello di

by user

on
Category: Documents
13

views

Report

Comments

Transcript

Lezione 8 La verifica delle ipotesi sui parametri del modello di
Lezione 8
La verifica delle ipotesi sui
parametri del modello di
regressione lineare semplice
Umberto Triacca
Dicembre 2006
Molto spesso la teoria economica impone delle
restrizioni sui coefficienti del modello di regressione. In alcuni casi, ad esempio, la teoria può
suggerire che i parametri α e β assumano particolari valori o siano compresi in un dato intervallo.
Risulta pertanto estremamente inportante, ai
fini della validazione empirica della teoria stessa,
sottoporre a verifica le ipotesi sui parametri che
da essa scaturiscono.
Il modello di regressione lineare semplice
normale
Supponiamo di disporre del seguente insieme
di T coppie di osservazioni sulle variabili x ed y
{(xt, yt); t = 1, 2, ..., T }
ed ipotizziamo che il processo generatore dei
dati che ha prodotto tali osservazioni sia adeguatamente descritto dal seguente insieme di assunzioni.
1. yt = α + βxt + εt
2. εt ∼ N (0, σ 2)
3. E(εtεs) = 0
t = 1, ..., T
∀t
t 6= s,
t, s = 1, ..., T
4. xt variabile non stocastica ∀t
L’insieme di queste assunzioni costituisce il cosiddetto modello di regressione lineare semplice
normale. E’ chiaro che tale modello comprende
tutte le assunzioni del modello classico di regressione lineare semplice; in più, rispetto a
quest’ultimo, si assume che gli errori seguano
una distribuzione normale.
In un contesto di questo tipo è possibile sottoporre a verifica le ipotesi riguardanti i parametri
α e β del modello.
Supponiamo, ad esempio, di voler sottoporre
a verifica l’ipotesi nulla
H0 : β = β0,
contro l’ipotesi alternativa
H1 : β 6= β0.
Per sottoporre a verifica tele ipotesi possiamo
adottare la seguente regola. Rifiutiamo H0 se
la realizzazione della variabile casuale (detta
statistica test)
∧
β − β 0
∧ SE(β ) dove
v
u
u
∧
SE(β ) = t P
assume un valore elevato.
S2
( x t − x)
La logica di questo test è la seguente. Se otteniamo un valore relativamente modesto di
∧
β − β 0
∧ SE(β ) ∧
possiamo concludere che β
non differisce a tal punto da β0 (il valore ipotizzato) da indurci a rifiutare l’ipotesi
H0 : β = β0
∧
In questo caso, la differenza osservata tra β
e il valore ipotizzato β0 non è statisticamente
significativa e probabilmente è dovuta semplicemente al caso.
Viceversa, se
∧
β − β 0
∧ SE(β ) assume un valore elevato rifiutiamo l’ipotesi
nulla
H0 : β = β0
La differenza è troppo grande per essere attribuita completamente al caso.
A questo punto il problema diventa quello di
stabilire quando il valore della realizzazione della
statistica test deve essere considerato sufficientemente elevato da indurci a rifiurtare l’ipotesi.
Bisogna cioè determinare un valore soglia, tα/2,
per la statistica test oltre il quale si rifiuta
H0 : β = β0
Poichè è possibile dimostrare che, sotto H0 :
β = β0, si distribuisce come una t con T − 2
gradi di libertà, in simboli
∧
β − β0
∼ tT −2
∧
SE(β )
tale valore soglia può essere determinato fissando un livello di significatività del test pari
ad α ed imponendo che


b
 β − β 0 
P 
>
t
|H
α/2 0  = α
∧ SE(β) A questo punto essendo




b
b
 β − β 0 

 β − β0
P 
>
t
|H
=
2P
>
t
|H


α/2 0 
α/2 0
∧ ∧
SE(β) SE(β)
abbiamo che


b
α
 β − β0

P
>
t
|H
=
α/2 0 
∧
2
SE(β )
Da tale condizione, riccorrendo alle tavole della
t, possiamo ricavarci tα/2 ovvero quel valore
tale per cui la probabilità che
βb − β0
∧
SE(β)
sia maggiore di tα/2 è pari ad α/2.
La regola e quindi il test è completamente
specificato.
Se
βb − β0
< −δα
∧
SE(β )
oppure se
βb − β0
> δα,
∧
SE(β )
rifiutiamo l’ipotesi nulla H0 ad un livello di significatività α.
Se invece
βb − β0
−δα <
< δα
∧
SE(β )
non rifiutiamo H0.
Volendo sottoporre a verifica una data ipotesi
riguardante il valore α dell’intercetta si procederà in modo analogo.
In particolare, per sottoporre a verifica l’ipotesi
nulla
H0 : α = α0,
contro l’ipotesi alternativa
H1 : α 6= α0
utilizzeremo la statistica test
b − α0
α
∧
SE(α )
Anche in questo caso, sotto H0,
∧
β − β0
∼ tT −2
∧
SE(β )
Pertanto, rifiuteremo H0 : α = α0 se
α
b − α0 >t
α/2
∧
SE(α ) dove tα/2 è quel valore tale che

P

b − α0
α
α

> tα/2|H0 = ,
∧
2
SE(α )
determinato ricorrendo alle tavole della t di student.
E’ importante notare che fra tutte le ipotesi
riguardanti i parametri α e β che possiamo sottoporre a verifica ve ne sono due di particolare
importanza. Esse sono, rispettivamente,
H0 : α = 0,
contro l’ipotesi alternativa
H1 : α 6= 0
e
H0 : β = 0,
contro l’ipotesi alternativa
H1 : β 6= 0
Quest’ultima è senza dubbio la più importante
di tutte. Sottoporre a verifica l’ipotesi nulla
H0 : β = 0 significa sottoporre a verifica l’ipotesi
che la variabile y non dipenda dalla variabile x.
La sua importanza è quindi evidente.
In questo caso, la statistica test è data semplicemente dal valore assoluto del rapporto tra
∧
lo stimatore β ed il suo errore standard
∧
β
∧
SE(β
)
Per costruire una qualsiasi procedura di verifica non solo è necessario disporre di una statistica test ma dobbiamo conoscere anche la
distribuzione di tale statistica, almeno sotto
H0.
Fly UP