Comments
Transcript
Il Metodo Generalizzato dei Momenti (GMM)
Il Metodo Generalizzato dei Momenti (GMM) Uno stimatore che utilizza in maniera ottimale le informazioni è il Metodo Generalizzato dei Momenti (GMM) sviluppato da Hansen (1982). Il metodo generalizzato dei momenti consente di ottenere stime asintoticamente efficienti in presenza di: 1) panels con T piccolo ed N grande 2) una modello lineare 3) una variabile dipendente ritardata tra le esplicative 4) variabili esplicative che non sono strettamente esogene 5) effetti fissi individuali non osservati 6) eteroschedasticità e/o autocorrelazione degli errori relativi allo stesso individuo. Il Metodo Generalizzato dei Momenti (GMM) Il GMM è stato sviluppato da Hansen in un ambiente time series (i risultati asintotici assumono T −→ ∞) e da Holtz-Eakin, Newey and Rosen (1988), Keane-Runkle (1982), Arellano e Bond (1991) e Chamberlain (1992) in un contesto Cross-Section e Panel (i risultati asintotici assumono N −→ ∞) Lo stimatore GMM consiste nel combinare tutta l’informazione non-ridondante presente nel modello in modo da ottenere stimatori efficienti. Il Metodo dei Momenti Lo stimatore GMM è detto Metodo dei Momenti Generalizzato, perché sfrutta i Momenti Campionari per stimare i parametri della popolazione. Consideriamo una cross-section di N osservazioni sulla variabile x. La media campionaria è il Primo Momento (campionario): c1 = μ 1 X xi = x N i La media delle osservazioni al quadrato è il Secondo Momento (campionario): 1 X 2 μd xi 11 = N i Lo Varianza Campionaria è una combinazione del Primo e del Secondo Momento Campionario: 1 X \ var(x) = (xi − x)2 N i OLS come Stimatore dei Momenti Anche lo stimatore OLS, in un ambiente cross-section, può essere considerato come una combinazione dei Momenti Campionari: prendiamo una cross-section di N individui (T = 1) e consideriamo il modello: yi = xiβ + ui assumiamo che ui e xi siano incorrelati: Cov (xi, ui) = 0 ne segue che: Cov (xi, yi − xiβ) = 0 Questa condizione può essere riscritta come Cov (xi, yi) − V ar (xi) β = 0 Cov (xi, yi) \ β = OLS V ar (xi) Quindi anche lo stimatore OLS è una combinazione di momenti campionari, cioè della covarianza e della varianza. Un altro Stimatore dei Momenti Adesso supponiamo di essere interessati proprio alla correlazione tra ui e xi. Dobbiamo trovare una variabile strumentale, zi, incorrelata a ui e correlata a xi da usare per stimare β . In tal caso avremo: Cov (zi, ui) Cov (zi, yi) − Cov (zi, xi) β = 0 −→ Cov (zi, yi − xiβ) = 0 = 0 Cov (zi, yi) −→ β IV = Cov (zi, xi) Dal punto di vista statistico tutti gli stimatori di questo tipo sono chiamati Stimatori dei Momenti perché utilizzano funzioni dei momenti campionari per stimare i parametri della popolazione. Supponiamo adesso di avere un ulteriore strumento valido, wi , per stimare β : Cov (wi, ui) Cov (wi, yi) − Cov (wi, xi) β = 0 −→ Cov (wi, yi − xiβ) = 0 = 0 Cov (wi, yi) −→ β IV = Cov (wi, xi) da cui abbiamo che β IV = Cov (zi, yi) Cov (wi, yi) = Cov (zi, xi) Cov (wi, xi) Se abbiamo più strumenti che parametri da stimare, possiamo ignorare uno strumento, ma perdiamo informazione. Il Metodo Generalizzato dei Momenti (GMM) è efficiente perché combina l’informazione non ridondante, interna al modello. Il problema di stima consiste nello scegliere i coefficienti dei regressori in modo tale che i momenti campionari (le covarianze) tra gli strumenti e gli errori siano uguali a zero. Dobbiamo cioè concentrarci sulle condizioni di ortogonalità tra gli strumenti e gli errori. Considero un modello in termini di condizioni di ortogonalità: E [Ψ (ζ i, ϑ)] = 0 Ψ (., .) = è la funzione dei momenti utilizzata che dipende dai dati ζ i e dai parametri ϑ R×1 Nell’esempio precedente avremmo: Ψ (ζ i, ϑ) = ³w (y − x β)´ i i i xi (yi − xiβ) , R = 2, K = 1 con R numero degli strumenti e K numero dei parametri da stimare. Se R = K il modello è esattamente identificato e stimiamo i parametri usando le medie campionarie delle condizioni di ortogonalità : N 1 X bN (ϑ) = Ψ (ζ i, ϑ) = 0 N i=1 Se R > K il modello è sovraidentificato. Consideriamo le condizioni dei momenti come un sistema di equazioni, una per ogni strumento. Abbiamo R equazioni. Le incognite di queste equazioni sono i parametri da stimare, uno per ogni regressore. Ma se il numero degli strumenti è superiore al numero dei regressori avremo più equazioni che incognite e il sistema di equazioni non può essere risolto. Che fare ? In realtà le condizioni dei momenti teoriche non sono mai tutte soddisfatte empiricamente (nel campione): nei dati la correlazione tra gli strumenti e gli errori spesso non è zero. Il trucco è allora cercare di considerare la precisione con cui le condizioni sono soddisfatte empiricamente e "pesare" (ponderare) ciascuna condizione di ortogonalità in base alla precisione con cui è verificata empiricamente. In questo modo, le condizioni di ortogonalità verificate empiricamente in maniera meno precisa avranno minore peso rispetto alle condizioni verificate in maniera più precisa. In pratica minimizziamo la correlazione empirica tra gli strumenti e i residui in modo da minimizzare la distanza tra le restrizioni empiriche e quelle teoriche. Lo stimatore GMM ottenuto in questo modo è efficiente perché sfrutta in maniera ottimale le condizioni di ortogonalità: cioè utilizza i momenti campionari più vicini ai momenti teorici. Condizioni dei Momenti in un Modello Dinamico per dati Panel Consideriamo ancora il modello in differenze prime: ∆yit = α∆yit−1 + ∆vit yit − yit−1 = α (yit−1 − yit−2) + (vit − vit−1) e assumiamo che le condizioni inziali yi1 siano variabili predeterminate cioè incorrelate al termine di errore negli istanti successivi: vi2, vi3, ..., viT . Per il momento non facciamo alcuna assunzione sulla distribuzione degli errori vit. Consideriamo per esempio T = 4, con t = 0, 1, 2, 3. Per l’equazione al tempo t = 2: ∆yi2 = α∆yi1 + ∆vi2 yi2 − yi1 = α (yit1 − yi0) + (vi2 − vi1) la condizione dei momenti (teorica) è data da: E (yi0 (vi2 − vi1)) = 0 ed avremo uno strumento teoricamente valido: yi0. Per l’equazione al tempo t = 3 : ∆yi3 = α∆yi2 + ∆vi3 yi3 − yi2 = α (yit2 − yi1) + (vi3 − vi2) ci sono due condizioni dei momenti e due strumenti teoricamente validi: E (yi0 (vi3 − vi2)) = 0 E (yi1 (vi3 − vi2)) = 0 Per l’equazione al tempo t = 4 ∆yi4 = α∆yi3 + ∆vi4 yi4 − yi3 = α (yit3 − yi2) + (vi4 − vi3) ci sono 3 condizioni dei momenti e 3 strumenti teoricamente validi: E (yi0 (vi4 − vi3)) = 0 E (yi1 (vi4 − vi3)) = 0 E (yi2 (vi4 − vi3)) = 0 Quando T è fisso, tutte queste condizioni dei momenti possono essere sfruttate all’interno del quadro teorico GMM. Se T non è piccolo avremo molti strumenti validi (tutti i ritardi della dipendente precedenti t − 2). GMM con Dati Panel Il GMM può essere usato per stimare modelli panel dinamici (Arellano e Bond, 1991). L’idea è sempre quella di combinare più momenti campionari per stimare i parametri della popolazione. L’attenzione si focalizza sui momenti secondi: la struttura di covarianza tra gli strumenti validi e l’errore. Definiamo, il vettore dei termini di errore in differenze del nostro modello dinamico per un solo individuo e una generica numerosità T : ⎛ ⎞ vi2 − vi1 ⎜ ⎟ .. ∆v it= ⎝ ⎠ viT − viT −1 e definiamo la matrice degli strumenti validi: ⎛ ⎜ Zi = ⎜ ⎝ 00 ⎞ [yi0] ··· ⎟ .. .. ⎟ [yi0, yi1] h i ⎠ 00 yi0, yi1,..., yiT −2 0 ogni riga della matrice Zi contiene gli strumenti validi per un determinato istante di tempo: yi0 è lo strumento valido per l’equazione al tempo t = 2; yi0, yi1 sono gli strumenti validi per l’equazione al tempo t = 3; h i il vettore yi0, yi1,..., yiT −2 contiene gli strumenti validi per l’equazione al tempo t = T . Di conseguenza l’insieme di tutte le condizioni dei momenti può essere formulato in maniera sintetica come: ³ 0 ´ E Zi∆vit = 0 il numero delle condizioni dei momenti è pari a 1 + 2 + 3 + ... + T − 1 Per derivare lo stimatore GMM riscriviamo l’insieme delle condizioni dei momenti come: ³ 0 ´ E Zi(∆yit − α∆yit−1) = 0 dato che il numero di condizioni dei momenti è di solito superiore a quello dei parametri da stimare, possiamo stimare α minimizzando una forma quadratica dei corrispondenti momenti campionari: Consideriamo i momenti campionari: i 1 Xh 0 b (α) = Zi(∆yit − α∆yit−1) N i consideriamo una forma quadratica e calcoliamo il valore di α in corrispondenza del quale è minimizzata la covarianza campionaria tra gli strumenti e gli errori: ⎡ ⎤0 ⎡ ⎤ X 0 X 0 1 min ⎣ Zi(∆yit − α∆yit−1)⎦ AN ⎣ Zi(∆yit − α∆yit−1)⎦ N i i calcolando la condizione di primo ordine per questo problema di minimizzazione e risolvendo rispetto ad α otteniamo: ⎤−1 ⎛ ⎡⎛ ⎞ ⎞ ³ 0 ´ ³ 0 ´ X X 0 0 b GMM = ⎣⎝ α ∆yit−1Zi⎠ AN Zi∆yit−1 ⎦ ⎝ ∆yit−1Zi⎠ AN Zi∆yit−1 i i dove AN è una matrice di ponderazione ottimale associata allo stimatore efficiente.ed è data ³ 0 ´−1 0 dall’inverso della matrice di covarianza delle condizioni di ortogonalità: E Zi∆vit∆vitZi Feasible GMM Nella pratica usiamo uno stimatore feasible a due stadi perché la matrice di covarianza dei momenti empirici può non essere ottimale, dal momento che l’approccio generale GMM non impone che gli errori siano iid tra individui e periodi temporali diversi. Tuttavia per garantire che le condizioni dei momenti siano valide bisogna assumere assenza di autocorrelazione negli errori. Inoltre è conveniente assumere anche omoschedasticità. La matrice di covarianza degli errori in differenze prime che ha queste proprietà (assenza di autocorrelazione e omoschedasticità) avrà il seguente aspetto: ⎛ ⎜ ´ ⎜ 0 2 2 E ∆vit∆vit = σ v H = σ v ⎜ ⎝ ³ 2 −1 · · · 0 .. −1 2 . . . .. . . . −1 0 · · · −1 2 dove H è una matrice quadrata di dimensione (T − 2). ⎞ ⎟ ⎟ ⎟ ⎠ Procediamo dunque in due passi: Step 1: in una regressione preliminare otteniamo una stima consistente ma inefficiente di α : b 1 usando una matrice di ponderazione AN in cui è imposta la struttura di covarianza degli α errori desiderata: ⎤−1 ´ X³ 0 1 b AN = ⎣ ZiHZi ⎦ N i ⎡ bit. Otteniamo i residui in differenze: ∆v Step 2: i residui della stima precedente, ∆vbit sono poi usati per ottenere la matrice di ponderazione ottimale ⎡ ⎤−1 ´ X³ 0 0 1 b AN = ⎣ Zi∆vbi∆vbiZi ⎦ N i b2 = α b GMM che sarà anche efficiente. usata per lo stimatore GMM di secondo stadio α Se gli errori originari sono già omoschedastici e indipendenti nel tempo (non correlati serialmente), lo stimatore GMM ottimale puà essere ottenuto in un solo passo (non abbiamo bisogno dello step 1). Esempio Consideriamo un modello statico panel con effetti fissi (ricordate che dal punto di vista della stima un modello statico con una variabile predeterminata è come un modello dinamico, perché la dipendente ritardata è una variabile predeterminata): yit = βxit + η i + vit, i = 1, ..., N, t = 1, ..., T Cov (xit, η i) 6= 0 con x predeterminata: E (vis|xit) = 0, per s ≥ t E (vis|xit) 6= 0, per s < t e consideriamo T = 3. Scegliamo una particolare trasformazione dei dati: le deviazioni ortogonali dalle medie future (Arellano, Bond, 1991): ∙ ¸ ∙ ¸ 1 1 1 yi1 − (yi2 + yi3) = β xi1 − (xi2 + xi3) + vi1 − (vi2 + vi3) 2 2 2 yi2 − yi3 = β [xi2 − xi3] + [vi2 − vi3] se la x è serialmente correlata, i dati panel offrono strumenti interni (al modello) per costruire valide condizioni di ortogonalità. Alcuni valori passati di xi sono correlati con le deviazioni delle xi e incorrelati con le deviazioni di vi. In questo caso, lo strumento valido per la prima equazione è xi1 e gli strumenti validi per la seconda equazione sono xi1e xi2. Lo stimatore GMM di β combina in maniera ottimale queste condizioni.