...

Il Metodo Generalizzato dei Momenti (GMM)

by user

on
Category: Documents
651

views

Report

Comments

Transcript

Il Metodo Generalizzato dei Momenti (GMM)
Il Metodo Generalizzato dei Momenti (GMM)
Uno stimatore che utilizza in maniera ottimale le informazioni è il Metodo Generalizzato dei
Momenti (GMM) sviluppato da Hansen (1982).
Il metodo generalizzato dei momenti consente di ottenere stime asintoticamente efficienti in
presenza di:
1) panels con T piccolo ed N grande
2) una modello lineare
3) una variabile dipendente ritardata tra le esplicative
4) variabili esplicative che non sono strettamente esogene
5) effetti fissi individuali non osservati
6) eteroschedasticità e/o autocorrelazione degli errori relativi allo stesso individuo.
Il Metodo Generalizzato dei Momenti (GMM)
Il GMM è stato sviluppato da Hansen in un ambiente time series (i risultati asintotici assumono
T −→ ∞) e da Holtz-Eakin, Newey and Rosen (1988), Keane-Runkle (1982), Arellano e
Bond (1991) e Chamberlain (1992) in un contesto Cross-Section e Panel (i risultati asintotici
assumono N −→ ∞)
Lo stimatore GMM consiste nel combinare tutta l’informazione non-ridondante presente nel
modello in modo da ottenere stimatori efficienti.
Il Metodo dei Momenti
Lo stimatore GMM è detto Metodo dei Momenti Generalizzato, perché sfrutta i Momenti
Campionari per stimare i parametri della popolazione.
Consideriamo una cross-section di N osservazioni sulla variabile x.
La media campionaria è il Primo Momento (campionario):
c1 =
μ
1 X
xi = x
N i
La media delle osservazioni al quadrato è il Secondo Momento (campionario):
1 X 2
μd
xi
11 =
N i
Lo Varianza Campionaria è una combinazione del Primo e del Secondo Momento Campionario:
1 X
\
var(x) =
(xi − x)2
N i
OLS come Stimatore dei Momenti
Anche lo stimatore OLS, in un ambiente cross-section, può essere considerato come una combinazione dei Momenti Campionari: prendiamo una cross-section di N individui (T = 1)
e consideriamo il modello:
yi = xiβ + ui
assumiamo che ui e xi siano incorrelati:
Cov (xi, ui) = 0
ne segue che:
Cov (xi, yi − xiβ) = 0
Questa condizione può essere riscritta come
Cov (xi, yi) − V ar (xi) β = 0
Cov (xi, yi)
\
β
=
OLS
V ar (xi)
Quindi anche lo stimatore OLS è una combinazione di momenti campionari, cioè della covarianza e della varianza.
Un altro Stimatore dei Momenti
Adesso supponiamo di essere interessati proprio alla correlazione tra ui e xi. Dobbiamo trovare
una variabile strumentale, zi, incorrelata a ui e correlata a xi da usare per stimare β . In tal
caso avremo:
Cov (zi, ui)
Cov (zi, yi) − Cov (zi, xi) β
=
0
−→ Cov (zi, yi − xiβ) = 0
=
0
Cov (zi, yi)
−→ β IV =
Cov (zi, xi)
Dal punto di vista statistico tutti gli stimatori di questo tipo sono chiamati Stimatori dei
Momenti perché utilizzano funzioni dei momenti campionari per stimare i parametri della
popolazione.
Supponiamo adesso di avere un ulteriore strumento valido, wi , per stimare β :
Cov (wi, ui)
Cov (wi, yi) − Cov (wi, xi) β
=
0
−→ Cov (wi, yi − xiβ) = 0
=
0
Cov (wi, yi)
−→ β IV =
Cov (wi, xi)
da cui abbiamo che
β IV =
Cov (zi, yi)
Cov (wi, yi)
=
Cov (zi, xi)
Cov (wi, xi)
Se abbiamo più strumenti che parametri da stimare, possiamo ignorare uno strumento, ma
perdiamo informazione.
Il Metodo Generalizzato dei Momenti (GMM) è efficiente perché combina l’informazione non
ridondante, interna al modello.
Il problema di stima consiste nello scegliere i coefficienti dei regressori in modo tale che i
momenti campionari (le covarianze) tra gli strumenti e gli errori siano uguali a zero. Dobbiamo
cioè concentrarci sulle condizioni di ortogonalità tra gli strumenti e gli errori.
Considero un modello in termini di condizioni di ortogonalità:
E [Ψ (ζ i, ϑ)] = 0
Ψ (., .) = è la funzione dei momenti utilizzata che dipende dai dati ζ i e dai parametri ϑ
R×1
Nell’esempio precedente avremmo:
Ψ (ζ i, ϑ) =
³w (y − x β)´
i i
i
xi (yi − xiβ)
, R = 2, K = 1
con R numero degli strumenti e K numero dei parametri da stimare.
Se R = K il modello è esattamente identificato e stimiamo i parametri usando le medie
campionarie delle condizioni di ortogonalità :
N
1 X
bN (ϑ) =
Ψ (ζ i, ϑ) = 0
N i=1
Se R > K il modello è sovraidentificato.
Consideriamo le condizioni dei momenti come un sistema di equazioni, una per ogni strumento.
Abbiamo R equazioni. Le incognite di queste equazioni sono i parametri da stimare, uno per
ogni regressore. Ma se il numero degli strumenti è superiore al numero dei regressori avremo
più equazioni che incognite e il sistema di equazioni non può essere risolto.
Che fare ?
In realtà le condizioni dei momenti teoriche non sono mai tutte soddisfatte empiricamente (nel
campione): nei dati la correlazione tra gli strumenti e gli errori spesso non è zero. Il trucco è
allora cercare di considerare la precisione con cui le condizioni sono soddisfatte empiricamente
e "pesare" (ponderare) ciascuna condizione di ortogonalità in base alla precisione con cui è
verificata empiricamente.
In questo modo, le condizioni di ortogonalità verificate empiricamente in maniera meno precisa
avranno minore peso rispetto alle condizioni verificate in maniera più precisa.
In pratica minimizziamo la correlazione empirica tra gli strumenti e i residui in modo da minimizzare la distanza tra le restrizioni empiriche e quelle teoriche.
Lo stimatore GMM ottenuto in questo modo è efficiente perché sfrutta in maniera ottimale le
condizioni di ortogonalità: cioè utilizza i momenti campionari più vicini ai momenti teorici.
Condizioni dei Momenti in un Modello Dinamico per dati Panel
Consideriamo ancora il modello in differenze prime:
∆yit = α∆yit−1 + ∆vit
yit − yit−1 = α (yit−1 − yit−2) + (vit − vit−1)
e assumiamo che le condizioni inziali yi1 siano variabili predeterminate cioè incorrelate al
termine di errore negli istanti successivi: vi2, vi3, ..., viT .
Per il momento non facciamo alcuna assunzione sulla distribuzione degli errori vit.
Consideriamo per esempio T = 4, con t = 0, 1, 2, 3.
Per l’equazione al tempo t = 2:
∆yi2 = α∆yi1 + ∆vi2
yi2 − yi1 = α (yit1 − yi0) + (vi2 − vi1)
la condizione dei momenti (teorica) è data da:
E (yi0 (vi2 − vi1)) = 0
ed avremo uno strumento teoricamente valido: yi0.
Per l’equazione al tempo t = 3 :
∆yi3 = α∆yi2 + ∆vi3
yi3 − yi2 = α (yit2 − yi1) + (vi3 − vi2)
ci sono due condizioni dei momenti e due strumenti teoricamente validi:
E (yi0 (vi3 − vi2)) = 0
E (yi1 (vi3 − vi2)) = 0
Per l’equazione al tempo t = 4
∆yi4 = α∆yi3 + ∆vi4
yi4 − yi3 = α (yit3 − yi2) + (vi4 − vi3)
ci sono 3 condizioni dei momenti e 3 strumenti teoricamente validi:
E (yi0 (vi4 − vi3)) = 0
E (yi1 (vi4 − vi3)) = 0
E (yi2 (vi4 − vi3)) = 0
Quando T è fisso, tutte queste condizioni dei momenti possono essere sfruttate all’interno del
quadro teorico GMM. Se T non è piccolo avremo molti strumenti validi (tutti i ritardi della
dipendente precedenti t − 2).
GMM con Dati Panel
Il GMM può essere usato per stimare modelli panel dinamici (Arellano e Bond, 1991). L’idea è
sempre quella di combinare più momenti campionari per stimare i parametri della popolazione.
L’attenzione si focalizza sui momenti secondi: la struttura di covarianza tra gli strumenti validi
e l’errore.
Definiamo, il vettore dei termini di errore in differenze del nostro modello dinamico per un solo
individuo e una generica numerosità T :
⎛
⎞
vi2 − vi1
⎜
⎟
..
∆v it= ⎝
⎠
viT − viT −1
e definiamo la matrice degli strumenti validi:
⎛
⎜
Zi = ⎜
⎝
00
⎞
[yi0]
···
⎟
..
..
⎟
[yi0, yi1] h
i ⎠
00
yi0, yi1,..., yiT −2
0
ogni riga della matrice Zi contiene gli strumenti validi per un determinato istante di tempo:
yi0 è lo strumento valido per l’equazione al tempo t = 2;
yi0, yi1 sono gli strumenti validi per l’equazione al tempo t = 3;
h
i
il vettore yi0, yi1,..., yiT −2 contiene gli strumenti validi per l’equazione al tempo t = T
.
Di conseguenza l’insieme di tutte le condizioni dei momenti può essere formulato in maniera
sintetica come:
³
0
´
E Zi∆vit = 0
il numero delle condizioni dei momenti è pari a 1 + 2 + 3 + ... + T − 1
Per derivare lo stimatore GMM riscriviamo l’insieme delle condizioni dei momenti come:
³ 0
´
E Zi(∆yit − α∆yit−1) = 0
dato che il numero di condizioni dei momenti è di solito superiore a quello dei parametri da
stimare, possiamo stimare α minimizzando una forma quadratica dei corrispondenti momenti
campionari:
Consideriamo i momenti campionari:
i
1 Xh 0
b (α) =
Zi(∆yit − α∆yit−1)
N i
consideriamo una forma quadratica e calcoliamo il valore di α in corrispondenza del quale è
minimizzata la covarianza campionaria tra gli strumenti e gli errori:
⎡
⎤0
⎡
⎤
X 0
X 0
1
min ⎣
Zi(∆yit − α∆yit−1)⎦ AN ⎣ Zi(∆yit − α∆yit−1)⎦
N i
i
calcolando la condizione di primo ordine per questo problema di minimizzazione e risolvendo
rispetto ad α otteniamo:
⎤−1 ⎛
⎡⎛
⎞
⎞
³ 0
´
³ 0
´
X
X
0
0
b GMM = ⎣⎝
α
∆yit−1Zi⎠ AN Zi∆yit−1 ⎦ ⎝ ∆yit−1Zi⎠ AN Zi∆yit−1
i
i
dove AN è una matrice di ponderazione ottimale associata allo stimatore efficiente.ed è data
³ 0
´−1
0
dall’inverso della matrice di covarianza delle condizioni di ortogonalità: E Zi∆vit∆vitZi
Feasible GMM
Nella pratica usiamo uno stimatore feasible a due stadi perché la matrice di covarianza dei
momenti empirici può non essere ottimale, dal momento che l’approccio generale GMM non
impone che gli errori siano iid tra individui e periodi temporali diversi.
Tuttavia per garantire che le condizioni dei momenti siano valide bisogna assumere assenza di
autocorrelazione negli errori. Inoltre è conveniente assumere anche omoschedasticità.
La matrice di covarianza degli errori in differenze prime che ha queste proprietà (assenza di
autocorrelazione e omoschedasticità) avrà il seguente aspetto:
⎛
⎜
´
⎜
0
2
2
E ∆vit∆vit = σ v H = σ v ⎜
⎝
³
2 −1 · · · 0
..
−1 2 . . .
..
. . . −1
0 · · · −1 2
dove H è una matrice quadrata di dimensione (T − 2).
⎞
⎟
⎟
⎟
⎠
Procediamo dunque in due passi:
Step 1: in una regressione preliminare otteniamo una stima consistente ma inefficiente di α :
b 1 usando una matrice di ponderazione AN in cui è imposta la struttura di covarianza degli
α
errori desiderata:
⎤−1
´
X³ 0
1
b
AN = ⎣
ZiHZi ⎦
N i
⎡
bit.
Otteniamo i residui in differenze: ∆v
Step 2: i residui della stima precedente, ∆vbit sono poi usati per ottenere la matrice di
ponderazione ottimale
⎡
⎤−1
´
X³ 0
0
1
b
AN = ⎣
Zi∆vbi∆vbiZi ⎦
N i
b2 = α
b GMM che sarà anche efficiente.
usata per lo stimatore GMM di secondo stadio α
Se gli errori originari sono già omoschedastici e indipendenti nel tempo (non correlati serialmente), lo stimatore GMM ottimale puà essere ottenuto in un solo passo (non abbiamo bisogno
dello step 1).
Esempio
Consideriamo un modello statico panel con effetti fissi (ricordate che dal punto di vista della
stima un modello statico con una variabile predeterminata è come un modello dinamico, perché
la dipendente ritardata è una variabile predeterminata):
yit = βxit + η i + vit, i = 1, ..., N, t = 1, ..., T
Cov (xit, η i) 6= 0
con x predeterminata:
E (vis|xit) = 0, per s ≥ t
E (vis|xit) 6= 0, per s < t
e consideriamo T = 3.
Scegliamo una particolare trasformazione dei dati: le deviazioni ortogonali dalle medie future
(Arellano, Bond, 1991):
∙
¸
∙
¸
1
1
1
yi1 − (yi2 + yi3) = β xi1 − (xi2 + xi3) + vi1 − (vi2 + vi3)
2
2
2
yi2 − yi3 = β [xi2 − xi3] + [vi2 − vi3]
se la x è serialmente correlata, i dati panel offrono strumenti interni (al modello) per costruire
valide condizioni di ortogonalità.
Alcuni valori passati di xi sono correlati con le deviazioni delle xi e incorrelati con le deviazioni
di vi.
In questo caso, lo strumento valido per la prima equazione è xi1 e gli strumenti validi per
la seconda equazione sono xi1e xi2. Lo stimatore GMM di β combina in maniera ottimale
queste condizioni.
Fly UP