...

Metodi quantitativi per i mercati finanziari Capitolo 6 Analisi dei

by user

on
Category: Documents
22

views

Report

Comments

Transcript

Metodi quantitativi per i mercati finanziari Capitolo 6 Analisi dei
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
MQMF
Gallo Pacini
Metodi quantitativi per i mercati
finanziari
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Capitolo 6
Le anomalie di calendario
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
Analisi dei rendimenti
• Ipotesi che i rendimenti siano realizzazioni di un
processo white noise gaussiano troppo restrittiva
• Caratteristiche empiriche delle serie osservate dei
rendimenti:
– alternanza di periodi con varianza più piccola a
periodi nei quali la variabilità è maggiore
– presenza di osservazioni le cui deviazioni dalla
media sono molto più elevate di quelle che ci si
possono attendere per un white noise gaussiano
• Necessario caratterizzare le proprietà del processo
teorico ipotizzabile come generatore delle
osservazioni dei rendimenti che sia in grado di
riprodurre le caratteristiche osservate
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
1. La distribuzione empirica
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Confronto grafico fra i rendimenti dell’indice Dow Jones
e una serie simulata white noise gaussiana con la stessa
varianza non condizionata - 29 dic. 1995 - 27 mar. 1998
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
Istogramma
• Strumento di facile costruzione e semplice da
interpretare
• Il campo di variazione dei valori osservati viene
suddiviso in classi (della stessa ampiezza o di
ampiezza diversa tra loro)
• Ad ogni classe viene associata la densità di frequenza
rilevata (calcolata come rapporto tra la frequenza e
l’ampiezza di classe)
• Stima grezza della funzione di probabilità sottostante,
sia per la sua natura di funzione a gradini sia per la
dipendenza della forma risultante dalla suddivisione
in classi scelta di volta in volta
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Indicatori sintetici: misure di posizione
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Istogramma della serie dei rendimenti dell’indice Dow
Jones con statistiche descrittive e test di Jarque-Bera per
la verifica di normalità - 29 dic. 1995 - 27 mar. 1998
MQMF
Gallo Pacini
• Rendimento medio come stima del valore atteso della
distribuzione dei rendimenti: media aritmetica
semplice dei valori della serie osservata
La distribuzione empirica
T
1X
r̄ =
rt
T t=1
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
• Buona stima del valore atteso se il processo stocastico
sottostante presenta determinate proprietà (processo
ergodico)
• Mediana: valore centrale della serie ordinata in senso
non decrescente
• Misura di tendenza centrale alternativa alla media con
caratteristiche di maggior robustezza (meno sensibile
alla presenza di rendimenti anomali)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Indicatori sintetici: la forma della distribuzione
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Indicatori sintetici: misure di dispersione
• Deviazione standard dei rendimenti:
v
u
T
u 1 X
t
(rt − r̄)2
sr =
T − 1 t=1
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Skewness
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
• Il rendimento medio osservato e il quadrato della
deviazione standard sono stimatori corretti dei
corrispondenti parametri µ e σ 2 della distribuzione di
probabilità delle variabili casuali rt
• Media e deviazione standard consentono di descrivere
completamente la distribuzione di probabilità qualora
questa sia di tipo gaussiano
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La stima
Come riconoscere la forma . . .
3
T 1 X rt − r̄
sk =
T t=1
sr
• Se la distribuzione è simmetrica lo skewness risulta
pari a zero, per un valore maggiore di zero parliamo
di asimmetria positiva (la distribuzione appare con
una coda più lunga a destra), asimmetria negativa per
un valore inferiore a zero
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Curtosi
4
T 1 X rt − r̄
ku =
T t=1
sr
• Leptocurtosi se la distribuzione è più appuntita della
normale e con code più pesanti ( ku maggiore di 3),
platicurtosi se più appiattita della normale (ku
minore di 3)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Esempio di distribuzione con asimmetria positiva
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempio di distribuzione leptocurtica (linea tratteggiata).
Confronto con la normale (linea continua)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Test di normalità
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
• Statistica test di Jarque-Bera (1980), basata sul
calcolo della differenza fra valori di skewness e
curtosi della serie osservata ed i valori che si hanno
per una distribuzione gaussiana (skewness pari a zero
e curtosi pari a 3):
1
T
2
2
JB =
sk + (ku − 3)
6
4
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
Altri test di normalità
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
• Sotto l’ipotesi nulla di normalità la statistica test si
distribuisce asintoticamente come una variabile
casuale χ22
• Se il valore osservato supera il valore teorico
corrispondente al χ22 per un preassegnato livello di
significatività, l’ipotesi di gaussianità è rifiutata
• Osservazione: la procedura non è costruttiva ed anche
in caso di mancato rifiuto si tratta di un test basato su
simmetria e curtosi e non sull’intera distribuzione
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
• Test di Kolmogorov-Smirnov: distanza tra funzione
di ripartizione empirica e funzione di ripartizione
teorica sotto l’ipotesi nulla
• Test di Shapiro e Wilks: statistica test
P
[ Tt=1 αtr[t]]2
W (r) = PT
[ t=1(rt − r̄t)2]
Previsione
Le anomalie di calendario
con r[t] la t-esima osservazione del campione ordinato
e con pesi αt opportunamente tabulati per diversi
valori di T
• In entrambi i casi distribuzione della statistica test
non standard (valori ottenibili mediante simulazione)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Grafico Quantile-Quantile
MQMF
Gallo Pacini
La distribuzione empirica
• Si riportano sull’asse delle ascisse i quantili calcolati
sulla distribuzione empirica e sull’asse delle ordinate
i quantili della distribuzione teorica da mettere a
confronto (nel caso in questione la normale)
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
Grafico Quantile-Quantile della serie dei rendimenti
dell’indice Dow Jones. Periodo 29 dic. 1995 - 27 mar.
1998
La distribuzione empirica
Stima non parametrica
• Quantili della distribuzione empirica: realizzazioni
campionarie che suddividono la serie osservata,
ordinata in senso non decrescente, in q serie parziali
contenenti ciascuna la q-esima parte della numerosità
complessiva
• Quantili della distribuzione teorica: valori della v.c.
normale che suddividono l’area sottesa alla curva in q
(usualmente 100) parti equivalenti
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Quanto più la rappresentazione si discosta dalla
bisettrice tanto maggiore è la deviazione della
distribuzione osservata dalla teorica
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
2. Stima non parametrica
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
• Metodi non parametrici di approssimazione locale:
medie locali opportunamente ponderate per stimare la
funzione di densità di probabilità dei rendimenti
• Forma più semplice: istogramma della distribuzione
empirica
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
(#{rt ≤ rt∗ + h/2}) − (#{rt ≤ rt∗ − h/2})
fˆ(rt∗ ) =
hT
rapporto tra la frequenza relativa di osservazioni che
cadono in un certo intervallo di ampiezza h e
l’ampiezza stessa dell’intervallo
• Per h elevato le stime risultano distorte, mentre per h
piccolo aumenta la variabilità delle stime
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• h (positivo) parametro di smoothing o bandwidth
Il processo ARMA(1,1)
Le generalizzazioni
dF (rt∗ )
F (rt∗ + h/2) − F (rt∗ − h/2)
f (rt∗ ) =
= lim
h→0
drt∗
h
• Generalizzazione dell’istogramma → stimatore
Kernel:
T
X
∗
r
−
r
1
t
t
fˆ(rt∗ ) =
k
T h t=1
h
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• k funzione kernel funzione di ponderazione che deve
avere le seguenti caratteristiche minimali:
• Esempio: k funzione di densità uniforme definita
sull’intervallo [−1/2, 1/2]
k(u) = 1I(|u| ≤ 1/2)
stesso peso a tutte le osservazioni interne ad un
intervallo di ampiezza h centrato su rt∗ : la stima che
otteniamo è l’istogramma
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Proprietà dello stimatore di densità
• Possibili diverse scelte di funzione di ponderazione:
MQMF
Gallo Pacini
– kernel triangolare: (1 − |u|)1I(|u| ≤ 1)
– kernel gaussiano: (2π)
−1/2
2
exp(−1/2u )
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
La distribuzione empirica
– kernel di Epanechnikov:
– kernel quartico:
15
16 (1
3
4 (1
2 2
− u2)1I(|u| ≤ 1)
− u ) 1I(|u| ≤ 1)
• Misure di errore di stima, quali l’errore quadratico
medio EQM
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Asintoticamente corretto per h → 0
MQMF
Gallo Pacini
Stima non parametrica
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
• Metodi di selezione automatica ella bandwidth
ottimale basati sull’ottimizzazione di una funzione
obiettivo
Il test Augmented Dickey-Fuller
E[(fˆ(rt∗)
−
f (rt∗))2]
Previsione
Le anomalie di calendario
Stima non parametrica della funzione di densità dei
rendimenti dell’indice Dow Jones. Kernel gaussiano (A)
e Kernel uniforme (B). Periodo 29 dic. 1995 - 27 mar.
1998
h dipende da una misura di variabilità della serie
osservata e dal numero di osservazioni
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• Regola empirica suggerita da Silverman (1986) con
riferimento ad una stima di densità con kernel
gaussiano
ĥopt = 0.9min(sr , R/1.34)T −1/5
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La distribuzione empirica
• Affinché la stima sia consistente deve essere che, per
T → ∞, h → 0 e T h → ∞
Struttura temporale dei . . .
e l’errore quadratico medio integrato EQMI (integrale
dell’EQM su tutti i possibili valori di rt), sono più
sensibili alla scelta di h che alla funzione di
ponderazione k
MQMF
Gallo Pacini
• La sua varianza si riduce al crescere di h
Confronto di bandwidth diverse nella stima di funzioni di
densità di probabilità dei rendimenti sull’indice Dow
Jones con funzione kernel uniforme. Periodo 29 dic.
1995 - 27 mar. 1998. (A) h = 13; (B) hopt = 0.349; (C)
h = 0.03
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
3.
Struttura temporale dei
rendimenti
• Caratteristiche rilevate empiricamente sulle serie dei
rensimenti: deviazione dall’ipotesi di normalità,
eccesso di curtosi e moderata asimmetria
La distribuzione empirica
• L’assunzione che i rendimenti siano generati da un
processo white noise gaussiano è messa in discussione
La stima
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
Stima non parametrica
• Processo autoregressivo del primo ordine
(Auto-Regressive of order 1 - AR(1))
Struttura temporale dei . . .
Il processo ARMA(1,1)
rt = φrt−1 + t
Le generalizzazioni
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
con t i.i.d. con media 0 e varianza costante
• per φ = 1 il processo è un random walk
Previsione
• Inoltre, non è detto che le variabili casuali che
descrivono il processo siano fra loro indipendenti e/o
identicamente distribuite
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempi di processi autoregressivi esplosivi φ = 1.01
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• per φ > 1 il processo diventa esplosivo (realizzazioni
successive vengono amplificate)
• per φ minore di uno in valore assoluto il processo è
stazionario
• Ricerca di possibili legami temporali fra osservazioni:
come modellare questa dipendenza nel tempo
all’interno della classe di processi stocastici stazionari
MQMF
Gallo Pacini
Il processo AR(1)
Esempi di processi autoregressivi stazionari
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
• Per sostituzioni successive di rt−1, rt−2, . . . etc. nella
rt = φrt−1 + t si ottiene
rt =
=
=
=
φ (φrt−2 + t−1) + t
t + φt−1 + φ2rt−2
...
t + φt−1 + φ2t−2 + . . . + φτ −1t−τ +1 + φτ rt−τ ,
La stima
Come riconoscere la forma . . .
MQMF
Gallo Pacini
che converge a
E(rt) =
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
• La varianza di una combinazione lineare di variabili
casuali indipendenti è pari alla combinazione lineare
delle varianze delle singole variabili (tutte uguali tra
loro) con coefficienti elevati al quadrato
Il test Augmented Dickey-Fuller
rt =
∞
X
Previsione
τ
φ t−τ
φτ E(t−τ ) = 0
τ =0
Come riconoscere la forma . . .
Previsione
∞
X
La distribuzione empirica
La stima
Il test Augmented Dickey-Fuller
Le anomalie di calendario
• Il valore atteso di una combinazione lineare di
variabili casuali è pari alla combinazione lineare dei
valori attesi di ciascuna variabile casuale:
Le anomalie di calendario
V ar(rt) = V ar(
∞
X
φτ t−τ ) =
= σ2
dato che limτ →∞ φτ rt−τ = 0 per |φ| < 1
∞
X
τ =0
• Sotto questa condizione il processo è stazionario in
covarianza
φ2τ
φ2τ V ar(t−τ )
τ =0
τ =0
τ =0
∞
X
σ2
=
≡ γ0
1 − φ2
• Anche la covarianza fra due termini generici del
processo rt e rt−s dipende solo dalla distanza s e non
dal tempo t di riferimento
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Dimostrazione
Dato che i valori attesi di rt e di rt−s sono uguali a zero
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Cov(rt, rt−s) = E ((rt − E(rt)) (rt−s − E(rt−s)))
= E (rt rt−s)
sostituendo all’indietro, rt può essere scritto come
Il processo ARMA(1,1)
Le generalizzazioni
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
La distribuzione empirica
Struttura temporale dei . . .
Tutti termini sono uguali a zero in valore atteso (si
riferiscono a prodotti di variabili casuali indipendenti fra
2
loro) tranne l’ultimo che è uguale a φsE(rt−s
), quindi
γs = φsγ0 =
φsσ 2
.
1 − φ2
Le generalizzazioni
La stima
che, moltiplicato per rt−s, dà un valore atteso E (rt rt−s)
pari a
2
E trt−s + φt−1rt−s + . . . + φs−1t−s+1rt−s + φsrt−s
• Come funzione di s, s = 0, 1, 2, . . ., γs prende il nome
di funzione di autocovarianza
Stima non parametrica
Il processo ARMA(1,1)
rt = t + φt−1 + . . . + φs−1t−s+1 + φsrt−s
La stima
Come riconoscere la forma . . .
Autocovarianza e autocorrelazione
MQMF
Gallo Pacini
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Dividendo tutti i termini della funzione di
autocovarianza per γ0 si ottiene la cosiddetta funzione
di autocorrelazione
γs
ρs = ,
γ0
che, per un processo AR(1), risulta uguale a φs e
decresce esponenzialmente con s
E (rt rt−s) = φsγ0 ≡ γs
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Teorema di Wold
MQMF
Gallo Pacini
• Qualunque processo stazionario xt è scomponibile in
una parte puramente deterministica ed una parte
casuale rappresentabile come un processo MA(∞)
xt = µ +
La distribuzione empirica
Stima non parametrica
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
ψτ t−τ
con ψ0 normalizzato ad 1 e
2
τ =0 ψτ
<∞
τ
• Nel caso AR(1) si ha ψτ ≡ φ , ∀ τ
• Formulazione alternativa utilizza il cosiddetto
operatore di ritardo L
xt = µ +
τ =0 ψτ L
le cui proprietà derivano dall’algebra degli operatori:
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• L2x=L(Lxt) = L(xt−1) = xt−2 e, in generale,
Lτ xt = xt−τ
• L0xt = 1xt = xt per convenzione
• L(cxt) = cLxt
• L(xt + yt) = Lxt + Lyt
ψτ Lτ t
• (a + bL)xt = axt + bxt−1
τ =0
P∞
Si tratta di un operatore lineare definito nel seguente
modo:
Lxt = xt−1
Stima non parametrica
Struttura temporale dei . . .
P∞
∞
X
MQMF
Gallo Pacini
La distribuzione empirica
τ =0
Struttura temporale dei . . .
Il processo ARMA(1,1)
∞
X
Operatore di ritardo L
• (a + bL)Lxt = (aL + bL2)xt = axt−1 + bxt−2
τ
è un polinomio infinito nell’operatore di
ritardo L e viene denotato come
ψ(L) ≡ 1 + ψ1L + ψ2L2 + . . .
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Il processo MA(1)
MQMF
Gallo Pacini
• Il processo AR(1) può essere riscritto come
MQMF
Gallo Pacini
rt = φLrt + t ⇔ (1 − φL)rt = t ⇔ φ(L)rt = t.
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
La distribuzione empirica
• Il processo AR(1) è stazionario se la soluzione
(radice) dell’espressione (detta equazione
caratteristica)
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
φ(z) = 0 ⇔ (1 − φz) = 0
Previsione
Le anomalie di calendario
• Processo detto a media mobile del primo ordine
(Moving Average of order 1, MA(1))
Il test Augmented Dickey-Fuller
Previsione
(con z appartenente in generale al campo dei numeri
complessi) risulta essere maggiore di uno in modulo
• La soluzione è z = 1/φ dalla quale deriviamo la
condizione già vista |φ| < 1
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Le anomalie di calendario
rt = t + ψt−1
il valore corrente della variabile casuale rt è
determinato dalla combinazione di due termini di
disturbo i.i.d. a media zero e varianza costante
• Deriviamo media e varianza del processo
E(rt) = E(t) + ψE(t−1) = 0
V ar(rt) = V ar(t) + ψ 2V ar(t−1) + 2ψCov(t, t−1)
= σ 2(1 + ψ 2)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Funzione di autocovarianza e autocorrelazione
Esempi di processi MA(1)
MQMF
Gallo Pacini
MQMF
Gallo Pacini
In generale abbiamo
Cov(rt, rt−s) = E(rt rt−s) = E((t+ψt−1)(t−s+ψt−s−1))
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
che, per l’indipendenza fra gli t, è sempre uguale a zero,
tranne quando s = 1
Cov(rt, rt−1) = E((t + ψt−1)(t−1 + ψt−2)) = ψσ 2
Quindi possiamo scrivere
ψσ 2 quando s = 1
γs =
0 quando s > 1

 ψ
quando s = 1
ρs =
1 + ψ2
 0
quando s > 1.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Consideriamo rt = t + ψt−1 da cui ricaviamo
MQMF
Gallo Pacini
La distribuzione empirica
• Un processo MA (anche di ordine superiore a 1) è
sempre stazionario: varianza e funzione di
autocovarianza non dipendono dal tempo
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
t = rt − ψt−1
t−1 = rt−1 − ψt−2
MQMF
Gallo Pacini
La distribuzione empirica
Sostituendo nella prima uguaglianza
Stima non parametrica
• La rappresentazione MA(∞) secondo il teorema di
Wold si ha ponendo


 1 quando s = 0
ψs = ψ quando s = 1


0 quando s > 1
• Corrispondentemente, è possibile rappresentare un
processo MA come processo autoregressivo
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
rt = t + ψ(rt−1 − ψt−2) =
= t + ψrt−1 − ψ 2t−2
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Continuando a sostituire espressioni successive per t−j
che fanno apparire corrispondenti termini rt−τ , si ha
Le anomalie di calendario
rt = t +
∞
X
τ =1
τ +1
(−1)
τ
ψ rt−τ ≡
∞
X
φτ rt−τ + t
τ =1
che è la rappresentazione autoregressiva infinita del
processo MA(1)
Condizione di invertibilità del processo: |ψ| < 1
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
4. Il processo ARMA(1,1)
MQMF
Gallo Pacini
La distribuzione empirica
• Combinazione della caratteristiche di un AR(1) e di
un MA(1)
rt = φrt−1 + t + ψt−1
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
(1 − φL)rt = (1 + ψL)t
La stima
Come riconoscere la forma . . .
Le generalizzazioni
La stima
Come riconoscere la forma . . .
• Se φ = −ψ risulta definito un processo white noise
Previsione
Le anomalie di calendario
La distribuzione empirica
Stima non parametrica
oppure, utilizzando l’operatore di ritardo L,
Il processo ARMA(1,1)
Il test Augmented Dickey-Fuller
MQMF
Gallo Pacini
Esempi di processi ARMA(1,1) con φ + ψ = −0.5 , 0,
0.5, 0.9
Il test Augmented Dickey-Fuller
Previsione
• Il processo ARMA(1,1) è stazionario se |φ| < 1 e
invertibile se |ψ| < 1
Le anomalie di calendario
• Le caratteristiche del processo sono determinate dalla
somma dei parametri φ + ψ
• Il processo può essere riscritto in forma MA(∞) o in
forma AR(∞)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La forma MA(∞) di un ARMA(1,1)
MQMF
Gallo Pacini
Riprendiamo l’espressione
MQMF
Gallo Pacini
rt = φrt−1 + t + ψt−1
La distribuzione empirica
Stima non parametrica
La distribuzione empirica
dato che
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
rt−1 = φrt−2 + t−1 + ψt−2
rt−2 = φrt−3 + t−2 + ψt−3
... ... ...
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
Il processo ARMA(1,1)
rt =
=
=
=
rt = t + (φ + ψ)t−1 + φ(φ + ψ)t−2 + . . . +
+φs−1(φ + ψ)t−s + . . .
∞
X
= t + (φ + ψ)
φτ −1t−τ
Le generalizzazioni
τ =1
La stima
∞
X
Come riconoscere la forma . . .
= t + (φ + ψ)
τ =1
Le anomalie di calendario
= t 1 + (φ + ψ)
φ(φrt−2 + t−1 + ψt−2) + t + ψt−1
φ2rt−2 + φt−1 + φψt−2 + t + ψt−1
φ2rt−2 + t + (φ + ψ)t−1 + φψt−2
φ3rt−3 + t + (φ + ψ)t−1 + φ(φ + ψ)t−2 + φ2ψt−3
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
φτ −1Lτ t
Il test Augmented Dickey-Fuller
Previsione
per sostituzione si ha
Dato che limτ →∞ φτ rt−τ = 0 e limτ →∞ φτ −1ψt−τ = 0
otteniamo per sostituzioni successive
∞
X
!
τ −1
φ
L
τ
τ =1
che può essere scritta come l’usuale
media mobile infinita
P∞
1
se τ = 0
rt = τ =0 ψτ t−τ con ψτ =
φτ −1(φ + ψ) se τ ≥ 1
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
5.
MQMF
Gallo Pacini
La forma MA(∞) mediante l’operatore ritardo L
P∞
τ
1
rt = (1+ψL)
τ =0 (φL)
(1−φL) t e dato che 1−φL =
∞
X
La distribuzione empirica
Stima non parametrica
rt = (1 + ψL)
Il processo ARMA(1,1)
Le generalizzazioni
= t
∞
X
= t
1+
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
(φL) t
τ
τ
φ L +ψ
τ =0
La stima
Come riconoscere la forma . . .
La distribuzione empirica
τ
Stima non parametrica
τ =0
Struttura temporale dei . . .
= t
= t
1+
∞
X
τ =1
∞
X
φτ Lτ + ψ
φτ Lτ + ψ
τ =1
∞
X
τ
φ L
1+φ
∞
X
τ =0
∞
X
Il processo AR(p)
La variabile casuale corrente dipende linearmente da p
ritardi temporali sulla variabile casuale che rappresenta i
rendimenti
Il processo ARMA(1,1)
τ +1
Le generalizzazioni
rt = φ1rt−1 + φ2rt−2 + . . . + φprt−p + t
La stima
!
φτ Lτ +1
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
!
Previsione
φτ −1 Lτ
Le anomalie di calendario
o, in forma più compatta,
1 − φ1L − φ2L2 − . . . − φpLp rt = t
τ =1
τ −1 τ
φ
L +ψ
1 + (φ + ψ)
∞
X
!
che può essere riscritta come
φτ −1 Lτ
τ =1
τ =1
= t
Struttura temporale dei . . .
!
τ =0
∞
X
MQMF
Gallo Pacini
Le generalizzazioni
∞
X
!
φ(L)rt = t
φτ −1 Lτ
τ =1
nella quale φ(L) denota il polinomio completo di ordine
P
p, (1 − pj=1 φj Lj )
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempio: rappresentazione MA(∞) di un AR(2)
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
• La stazionarietà del processo è assicurata se le radici
dell’equazione caratteristica (non solo reali ma anche
complesse coniugate) φ(z) = 0 sono tutte maggiori di
uno in modulo
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
rt =
rt−1 =
rt−2 =
... ...
φ1rt−1 + φ2rt−2 + t
φ1rt−2 + φ2rt−3 + t−1
φ1rt−3 + φ2rt−4 + t−2
...
Il processo ARMA(1,1)
• Sotto le condizioni di stazionarietà il Teorema di
Wold assicura che esiste una rappresentazione
MA(∞) ricavabile come inversione del polinomio
φ(L),
rt = φ(L)−1t,
ma notevolmente più complesso definire i coefficienti
ψτ a partire dai vari coefficienti φi, i = 1, . . . , p
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
Per sostituzioni successive
rt = φ1rt−1
+ φ2rt−2 +
t
(φ1rt−2 + φ2rt−3 + t−1) + (φ1rt−3 + φ2rt−4 + t−2)
(φ1rt−3 + φ2rt−4 + t−2)
e mettendo in evidenza i termini di disturbo avremo
rt = t +φ1t−1 +(φ21 +φ2)t−2 +altri termini in rt−3 e rt−4
I coefficienti ψτ sono complicate espressioni non lineari
di φ1 e φ2
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Caratteristiche del processo AR(p)
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
• A partire dalla rappresentazione MA(∞) si dimostra
che il valore atteso del processo è ancora uguale a
zero, in quanto combinazione lineare di valori attesi
di , tutti uguali a zero
• La varianza ha la seguente espressione
Le generalizzazioni
La stima
Come riconoscere la forma . . .
V ar(rt) ≡ γ0 = σ 2
∞
X
ψτ2
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
La distribuzione empirica
Le generalizzazioni
τ =0
Il test Augmented Dickey-Fuller
La funzione di autocorrelazione di un AR(p)
MQMF
Gallo Pacini
• Più semplice derivare le espressioni per le
autocorrelazioni ρ1, ρ2,. . ., ρp ed esprimere le
autocovarianze come γs ≡ ρsγ0
• Equazioni di Yule-Walker: le autocorrelazioni di
ritardo s sono esprimibili in funzione delle p
autocorrelazioni di ritardo s − 1, . . . , s − p,
s = 1, 2, . . . , p
Previsione
• Le autocovarianze sono date da
Cov(rt, rt−s) ≡ γs = σ 2
Le anomalie di calendario
∞
X
ψτ ψs+τ
ρs = φ1ρs−1 + . . . + φpρs−p,
s = 1, 2, . . .
ρ0 = 1 per definizione
τ =0
la funzione di autocorrelazione è una funzione pari
per cui ρ(s) = ρ(−s)
• Ottenere espressioni esplicite come funzione di
φ1, φ2, . . . , φp e di σ 2 non è immediato
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempio: funzione di autocorrelazione di un AR(2)
Il processo MA(q)
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
E(rt2) ≡ γ0 = φ1γ1 + φ2γ2 + σ 2 = φ1ρ1γ0 + φ2ρ2γ0 + σ 2
σ2
=
1 − φ1ρ1 − φ2ρ2
Struttura temporale dei . . .
Il processo ARMA(1,1)
Come riconoscere la forma . . .
che è funzione delle autocorrelazioni ρ1 e ρ2. Dato che
La distribuzione empirica
Stima non parametrica
Il processo ARMA(1,1)
Le generalizzazioni
ρs = φ1ρs−1 + φ2ρs−2
Il test Augmented Dickey-Fuller
Previsione
Il valore presente della variabile rt dipende dal valore
corrente e da q valori passati del termine di disturbo
rt = t + ψ1t−1 + . . . + ψq t−q
Struttura temporale dei . . .
Le generalizzazioni
La stima
MQMF
Gallo Pacini
ρ1 = φ1 + φ2ρ1 → ρ1 =
Le anomalie di calendario
ρ2 = φ1ρ1 + φ2 =
φ1
1 − φ2
φ21
1 − φ2
Per la varianza del processo otteniamo:
γ0 =
+ φ2
(1 − φ2)σ 2
(1 + φ2) ((1 − φ2)2 − φ21)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La stima
oppure, in forma compatta, utilizzando l’operatore di
ritardo L
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
rt = t(1 + ψ1L + ψ2L2 + . . . + ψq Lq ) ≡ ψ(L)t
Le anomalie di calendario
nella quale ψ(L) denota il polinomio completo di ordine
q nell’operatore di ritardo L
(1 +
q
X
ψτ Lτ )
τ =1
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Caratteristiche del processo MA(q)
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• La stazionarietà del processo è assicurata dal fatto che
il processo MA(q) può essere visto come un
troncamento di un MA(∞) associato ad un processo
stazionario
• L’invertibilità è assicurata quando le radici
dell’equazione caratteristica ψ(z) = 0 sono tutte
maggiori di uno in modulo (per q > 1 si possono
avere radici complesse coniugate)
• La rappresentazione AR(∞) può essere scritta come
MQMF
Gallo Pacini
• La media di un processo MA(q) è uguale a zero
• La varianza è pari a
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
2
V ar(rt) = σ (1 +
Il processo ARMA(1,1)
Come riconoscere la forma . . .
ψτ2)
τ =1
Le generalizzazioni
La stima
q
X
• Per l’autocovarianza si consideri il caso 1 ≤ s ≤ q
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
ψ(L)−1rt = t
con coefficienti φj funzione piuttosto complessa degli
originali ψτ
γs = E(rtrt−s)
= E(t + . . . + ψst−s + . . . + ψq t−q )
(t−s + . . . + ψq−st−q + . . . + ψq t−s−q )
Pq
2
=σ
τ =s ψτ ψτ −s
Per s > q l’autocovarianza è uguale a zero (nessuna
sovrapposizione fra termini di disturbo in rt e in rt−s)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempio: il caso MA(2)
MQMF
Gallo Pacini
La distribuzione empirica
• La varianza di un processo MA(2) è uguale a
γ0 = σ 2(1 + ψ12 + ψ22)
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
• Le autocovarianze di ordine 1 e 2 sono pari a
2
γ1 = σ (ψ1 + ψ1ψ2)
γ2 = σ 2(ψ2)
Rappresentazione più generale
Struttura temporale dei . . .
ψ1 + ψ1ψ2
ρ1 =
1 + ψ12 + ψ22
ψ2
ρ2 =
1 + ψ12 + ψ22
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
rt = φ1rt−1 +φ2rt−2 +. . .+φprt−p +t +ψ1t−1 +. . .+ψq t−q
Il processo ARMA(1,1)
Le generalizzazioni
Utilizzando l’operatore di ritardo L possiamo scrivere
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
• Le autocorrelazioni risultano rispettivamente uguali a
Il processo ARMA(p,q)
La distribuzione empirica
Stima non parametrica
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
(1 − φ1L − . . . − φpLp) rt = (1 + ψ1L + . . . + ψq Lq )t
φ(L)rt = ψ(L)t
Le anomalie di calendario
• Le condizioni di stazionarietà riguardano il polinomio
φ(L)
• Le condizioni di invertibilità il polinomio ψ(L)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La costante
MQMF
Gallo Pacini
La distribuzione empirica
• Finora abbiamo ipotizzato che il processo abbia una
media pari a zero
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
6. La stima
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
• Generalizziamo al caso con media diversa da zero
introducendo un termine costante nell’equazione, che
indichiamo con α
Come riconoscere la forma . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
• Per poter utilizzare i processi generatori dei dati come
modelli adatti a descrivere la serie storica osservata
dobbiamo poter attribuire dei valori numerici ai
parametri incogniti: questa procedura va sotto il nome
di stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
φ(L)rt = α + ψ(L)t,
Previsione
Le anomalie di calendario
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Esempio: un processo ARMA(1,1) con termine
costante è
• Le variabili casuali che definiscono il processo
stocastico hanno una funzione di densità di
probabilità congiunta
f (r1, r2, . . . , rT |θ)
rt = α + φrt−1 + t + ψt−1,
che si suppone nota nella forma a meno della
conoscenza dei parametri θ
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Ipotesi di rt indipendenti e identicamente distribuiti in
modo gaussiano:
f (r1, r2, . . . , rT |θ) = f (r1|θ)f (r2|θ) . . . f (rT |θ)
La distribuzione empirica
Stima non parametrica
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
La distribuzione empirica
per l’indipendenza tra v.c.
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Struttura temporale dei . . .
=√
1
2πσ 2
− 1 (r −µ)2
e 2σ2 1
... √
1
2πσ 2
− 1 (r −µ)2
e 2σ2 T
per l’ipotesi di normalità
T Y
1
− 12 (rt −µ)2
√
=
e 2σ
2
2πσ
t=1
Il processo ARMA(1,1)
La funzione di verosimiglianza
• La conoscenza di µ e σ 2 nella la funzione di densità
di probabilità congiunta consente di valutare la
probabilità che ciascun rt sia compreso all’interno di
un qualunque intervallo di interesse
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Ribaltiamo il ragionamento e consideriamo la stessa
funzione di densità come funzione dei parametri θ
condizionata alle realizzazioni delle variabili casuali
r1, . . . , rT nel campione osservato
2πσ 2
− T2
P
− 12 Tt=1 (rt −µ)2
2σ
e
= L(θ|r1, . . . , rT )
per l’ipotesi di identica distribuzione
= 2πσ
T
2 −2
PT
− 1
(r −µ)2
e 2σ2 t=1 t
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
che definiamo funzione di verosimiglianza
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Caso in cui rt v.c. dipendenti
La stima di massima verosimiglianza
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Ricerca dei valori dei parametri incogniti che rendono
massimo il valore della funzione di verosimiglianza
• Usuale passaggio al logaritmo naturale della funzione
della verosimiglianza (log-likelihood): in quanto
monotona crescente, la trasformata logaritmica non
altera i punti di massimo e minimo di una funzione
!
T
T
1 X
2
2
max ln L = max − ln 2πσ − 2
(rt − µ)
2
2σ t=1
µ, σ 2
µ, σ 2
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
• La funzione di densità di probabilità congiunta può
essere scomposta nel prodotto tra la funzione di
densità di rT condizionata alle realizzazioni di
rT −1, . . . , r1, e la funzione di densità di probabilità
congiunta delle stesse rT −1, . . . , r1:
Il processo ARMA(1,1)
f (r1, r2, . . . , rT |θ)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
= f (rT |rT −1, . . . , r1; θ) f (rT −1, . . . , r1|θ)
Previsione
Le anomalie di calendario
• rt − µ = t consente di sfruttare le proprietà i.i.d.
delle innovazioni
!
T
X
1
T
2
ln L = − ln 2πσ 2 − 2
2
2σ t=1 t
• Ripetiamo l’operazione condizionando rT −1 ai valori
assunti dalle v.c. nei periodi precedenti
f (rT −1, . . . , r1|θ)
= f (rT −1|rT −2, . . . , r1; θ) f (rT −2, . . . , r1|θ),
e cosı̀ via
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Prediction error decomposition
MQMF
Gallo Pacini
La distribuzione empirica
• Prodotto di funzioni di densità di probabilità di una
v.c. ad un certo istante condizionata ai valori assunti
dalle v.c. precedenti e della funzione di densità di
probabilità congiunta di un numero ridotto (es. p) di
v.c. riferite ai periodi iniziali
Stima non parametrica
Struttura temporale dei . . .
La stima
Come riconoscere la forma . . .
Le anomalie di calendario
La distribuzione empirica
Struttura temporale dei . . .
Il processo ARMA(1,1)
• Ciascuna f (rt|rt−1, . . . , r1; θ) è la funzione di densità
di probabilità di t = rt − E(rt|rt−1, . . . , r1; θ)
Il test Augmented Dickey-Fuller
Previsione
• rt = φrt−1 + t, t = 1, 2, . . . , T, 4
MQMF
Gallo Pacini
Stima non parametrica
f (r1, . . . , rT |θ) = f (rT |rT −1, . . . , r1; θ) . . . f (rp, . . . , r1|θ)
Il processo ARMA(1,1)
Le generalizzazioni
La stima dei parametri di un processo AR(1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Gli t sono i.i.d., ma non gli rt, t = 1, 2, . . . , T
• rt − φrt−1 = t, t = 2, . . . , T sono i.i.d. e
interpretabili come differenza fra rt ed il suo valore
atteso, condizionato al valore assunto dalla variabile
casuale al periodo precedente
rt − φrt−1 = rt − E(rt|rt−1; φ, σ 2) = t
Il test Augmented Dickey-Fuller
• f (rp, . . . , r1|θ) usualmente omessa nella stima in
quanto i valori iniziali possono essere considerati
costanti
• Funzione di verosimiglianza condizionata nel caso
gaussiano
T
T −p
1 X 2
2
ln Lc = −
ln 2πσ − 2
2
2σ t=p+1 t
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Previsione
Le anomalie di calendario
• La funzione di densità di rt condizionata a tutti i
valori precedenti rt−1, . . . , r1 si riduce alla funzione
di densità di rt condizionata al solo rt−1
• La funzione di densità marginale di r1 data la
stazionarietà è la densità di una generica v.c. rt con
valore atteso E(r1) = 0 (= E(rt)) e varianza
V ar(r1) = σ 2/(1 − φ2) (= V ar(rt))
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
• Possiamo esprimere la funzione di densità di
probabilità congiunta f (r1, . . . , rT |φ, σ 2) delle v.c.
che descrivono il processo come
f (rT |rT −1; φ, σ 2)f (rT −1|rT −2; φ, σ 2) . . .
La distribuzione empirica
Stima non parametrica
f (r2|r1; φ, σ 2)f (r1|φ, σ 2)
Come riconoscere la forma . . .
Il processo ARMA(1,1)
• Nell’ipotesi di t i.i.d. normali che la funzione di
densità congiunta può essere scritta come
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
=
La distribuzione empirica
√
2πσ 2
− 1 (r −φr
)2
e 2σ2 T T −1
× ... × √
La stima
Come riconoscere la forma . . .
2πσ 2
− 1 (r −φr )2
e 2σ2 2 1
Previsione
Le anomalie di calendario
2
1
×p
1
− 1−φ2 r12
2πσ 2/(1 − φ2)
e
t=2
√
1
2πσ 2
2σ
L(φ, σ 2|r2, . . . , rT ; r1) =
T −1
PT
1
− 1
(r −φr )2
= √
e 2σ2 t=2 t t−1
2
2πσ
e passando ai logaritmi
l(φ, σ 2|r2, . . . , rT ; r1) =
=−
T
1 X
T −1
ln(2πσ 2) − 2
(rt − φrt−1)2
2
2σ t=2
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La distribuzione empirica
• Massimizzando rispetto a φ e a σ 2 otteniamo
PT
rtrt−1
φ̂ = Pt=2
T
2
t=2 rt−1
(soluzione della stima dei minimi quadrati ottenibile
regredendo rt su rt−1) e
Stima non parametrica
Il processo ARMA(1,1)
Le generalizzazioni
σ̂ 2 =
1
T −1
La stima
T
X
Previsione
Le anomalie di calendario
• rt = t + ψt−1
• rt − ψt−1 = t,
MQMF
Gallo Pacini
La distribuzione empirica
Struttura temporale dei . . .
(rt − φ̂rt−1)2
t=2
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La stima dei parametri di un processo MA(1)
Stima non parametrica
Struttura temporale dei . . .
• Lo stimatore φ̂, data la stazionarietà, presenta una
distribuzione standard (normale)
• La statistica test per la verifica dell’ipotesi nulla φ = 0
φ̂
\φ̂)
s.err.(
si distribuisce come una v.c. t di Student con T − 2
gradi di libertà
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
t = 1, . . . , T
possiamo sfruttare le proprietà di i.i.d. delle
innovazioni
• Supponiamo 0 = 0: il primo termine del processo è
r1 = 1 (→ 1 è osservabile)
Il processo ARMA(1,1)
Le generalizzazioni
• Per sostituzioni successive
La stima
Come riconoscere la forma . . .
t̂ =
2σ
• Funzione di verosimiglianza (condizionata a r1)
• Escludiamo l’ultimo termine (equivalente a
considerare costante il valore assunto da r1)
MQMF
Gallo Pacini
− 12 (rt −φrt−1 )2
e
Le generalizzazioni
Il test Augmented Dickey-Fuller
1
T
Y
Struttura temporale dei . . .
Il processo ARMA(1,1)
La stima
= f (rT |rT −1; φ, σ 2) . . . f (r2|r1; φ, σ 2)
MQMF
Gallo Pacini
Stima non parametrica
Struttura temporale dei . . .
Le generalizzazioni
• Otteniamo la distribuzione di probabilità di r2, . . . , rT
condizionata a r1, f (r2, . . . , rT |r1; φ, σ 2)
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
1 = r1 − ψ0 = r1
2 = r2 − ψ1 = r2 − ψr1
3 = r3 − ψ2 = r3 − ψ(r2 − ψr1) = r3 − ψr2 + ψ 2r1
...
...
t−1
X
t = rt − ψt−1 =
(−ψ)τ rt−τ
...
...
τ =0
T = rT − ψT −1 =
T −1
X
τ =0
(−ψ)τ rT −τ
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• La funzione di verosimiglianza (per t i.i.d. gaussiani)
• Assumiamo σ 2 noto e quindi da non stimare
L(ψ, σ 2|r1, . . . , rT ; 0 = 0) = f (r1|ψ, σ 2, 0 = 0)
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
MQMF
Gallo Pacini
×f (r2|r1; ψ, σ 2, 0 = 0) × . . .
×f (rT |rT −1, . . . , r1; ψ, σ 2, 0 = 0)
T
PT 2
1
− 1
= √
e 2σ2 t=1 t
2
2πσ
T
PT Pt−1
2
1
− 1
(−ψ)τ rt−τ )
= √
e 2σ2 t=1( τ =0
2πσ 2
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
• Passando alla trasformazione logaritmica
Previsione
Le anomalie di calendario
Le anomalie di calendario
2
l(ψ, σ |r1, . . . , rT ; 0 = 0)
=−
T
t−1
1 X X
T
ln(2πσ 2) − 2
(−ψ)τ rt−τ
2
2σ t=1 τ =0
• Impossibile derivare un’espressione per lo stimatore
ψ̂ in forma chiusa
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
g(ψ) ≈ g(ψ̂0) + g 0(ψ̂0)(ψ − ψ̂0)
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
MQMF
Gallo Pacini
Stima non parametrica
Struttura temporale dei . . .
• g(ψ) deve essere uguale a zero nel punto di massimo
per l(ψ)
0
0
0
0 ≈ g(ψ̂0)+g (ψ̂0)(ψ−ψ̂0) = g(ψ̂0)+g (ψ̂0)ψ−g (ψ̂0)ψ̂0
Previsione
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La distribuzione empirica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Il test Augmented Dickey-Fuller
Le anomalie di calendario
0
• La procedura iterativa suggerisce ψ̂1 = ψ̂0 − gg(0(ψ̂ψ̂0))
0
• Se ψ̂0 è a sinistra di ψ̂, g(ψ̂0) > 0 e g 0(ψ̂0) < 0 → ψ̂0
sarà incrementato di una quantità positiva
• Se ψ̂0 è a destra di ψ̂, g(ψ̂0) < 0 e g 0(ψ̂0) < 0 → ψ̂1
sarà più vicino alla soluzione in quanto più piccolo di
ψ̂0
Come riconoscere la forma . . .
Previsione
e, quindi, ψ ≈ ψ̂0 − gg(0(ψ̂ψ̂0))
• Tecniche di soluzione numerica forniscono soluzioni,
basate su algoritmi opportunamente programmati, che
rendono le condizioni del primo ordine
approssimativamente valide
• Si tratta di procedure iterative: a partire da una
condizione iniziale suggeriscono soluzioni parziali
che diminuiscono via via il grado di approssimazione
fino a che esso non raggiunga una soglia definita
accettabile dall’utilizzatore
!2
• Si consideri la derivata prima come una generica
funzione g(ψ) ed una sua espansione in serie di
Taylor per un valore iniziale ψ̂0:
• Il problema di trovare un valore di ψ che massimizzi
la funzione di log-verosimiglianza può essere visto
come quello di trovare un valore di ψ che sia
soluzione dell’equazione che uguaglia a zero la
derivata prima
• La procedura può essere ripetuta fino a quando la
differenza fra stime successive non sia
sufficientemente piccola → si è raggiunta la
convergenza e l’ultimo valore ottenuto ψ̂n è la stima
di massima verosimiglianza
• Affinché ψ̂ sia un massimo g(·) deve essere
decrescente (condizione del secondo ordine)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Esempio di procedura iterativa per la stima di un unico
parametro
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Procedura iterativa per la stima del coefficiente ψ in un
processo MA(1) generato casualmente secondo
l’espressione rt = t − 0.3t−1 con σ 2 = 4 e 0 = 0
Iter.
0
1
2
...
7
8
...
13
14
ψ̂
g(ψ)
0.000
−29.74
−0.363
2.145
−0.337
...
...
...
−0.3442
0.0107
−0.3441
...
...
...
−0.344166 5.8E − 05
−0.344165
...
g 0 (ψ)
−g(ψ̂)/g 0 ψ̂
−81.76
−83.31
...
...
−80.05
...
...
−79.79
...
−0.363
0.025
...
...
0.000134
...
...
7.2E − 07
...
Log-ver.
−211.217
−205.972
−205.953
−205.95173
−205.95173
−205.95173
−205.95173
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
7. Come riconoscere la forma di un
processo
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
La stima dei parametri di un ARMA(p,q)
• La procedura di stima per un processo ARMA(p,q) è
una generalizzazione di quanto visto finora
• Nel caso di un AR(p) (vale a dire un ARMA(p,0)) la
procedura più semplice da adottare è una regressione
di rt su p ritardi rt−1, . . . , rt−p che utilizza il
condizionamento della funzione di
log-verosimiglianza ai primi p elementi del processo
• Le stime numeriche ottenute saranno diverse da
quelle derivanti dalla regressione, ma equivalenti dal
punto di vista delle loro proprietà statistiche
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Calcolo della funzione di autocorrelazione empirica
(empirical ACF) come controparte stimata della
funzione di autocorrelazione teorica
PT
(r −r̄)2
• Sulla base della varianza γ̂0 = t=1 T t
l’autocovarianza empirica di ordine τ è data da
PT
(rt − r̄∗)(rt−τ − r̄∗∗)
γ̂τ = t=τ +1
,
T −τ
con r̄∗ media sulle ultime T − τ osservazioni e r̄∗∗
calcolata sulle prime T − τ , da cui l’autocorrelazione
empirica
PT
(rt − r̄∗)(rt−τ − r̄∗∗)
T −τ
ρ̂τ = t=τ +1PT
2
T
t=1 (rt − r̄)
T − τ ≈ T per campioni sufficientemente grandi
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
• La funzione di autocorrelazione teorica risulta pari a
zero per alcuni ritardi dipendentemente dalle
proprietà del processo
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
Esempio di correlogramma: osservazioni simulate da un
processo AR(1) con parametro 0.8
La distribuzione empirica
• Nella controparte empirica si sottopone a verifica per
ciascun coefficiente l’ipotesi nulla
H0 : ρτ = 0, τ = 1, 2, . . .
lo √
standard error dello stimatore sotto H0 è pari a
1/ T → la regione di accettazione
√ al livello di
significatività del 5% è circa ±2/ T
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• I valori delle autocorrelazioni empiriche (calcolate
per un numero di ritardi approssimativamente pari a
T /4) possono essere riportati graficamente in
funzione di valori crescenti di τ nel correlogramma
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Esempio di correlogramma: osservazioni simulate da un
processo AR(1) con parametro −0.8
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempio di correlogramma: osservazioni simulate da un
processo MA(1) con parametro 0.8
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Esempio di correlogramma: osservazioni simulate da un
processo MA(1) con parametro −0.8
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Esempio di correlogramma: osservazioni simulate da un
processo ARMA(1,1) con parametri −0.7 e −0.1
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Esempio di correlogramma: osservazioni simulate da un
processo ARMA(1,1) con parametri 0.4 e 0.1
Esempio di correlogramma: osservazioni simulate da un
processo white noise
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Test di Ljung-Box
Interpretazione
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Lo strumento dell’autocorrelazione empirica, mediante il
confronto con la funzione di autocorrelazione teorica
tipica di determinati processi, costituisce un primo ausilio
nella scelta dell’ordine del processo:
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
• Andamento descrescente (in modo graduale) delle
autocorrelazioni empiriche (significativamente
diverse da zero) al crescere di τ → processo
generatore dei dati autoregressivo
• Per gruppi di coefficienti (ad esempio le prime s
autocorrelazioni) si sottopone a verifica l’ipotesi
H0 : ρ1 = ρ2 = . . . = ρs = 0: statistica test di
Ljung-Box
QLB (s) = T (T + 2)
Le generalizzazioni
τ =1
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Autocorrelazione empirica non significativamente
diversa da zero da un certo ordine q in poi risulta non
significativamente diversa da zero → processo
generatore dei dati a media mobile di ordine q
s
X
ρ̂2τ
.
T −τ
• La statistica test nel campione assume sempre valori
maggiori di zero (somma di valori positivi) e risulterà
più lontana da zero se esisteranno alcune
autocorrelazioni empiriche fra 1 e s di una certa
dimensione
• Sotto H0, per T sufficientemente grande, la statistica
test si distribuisce come una variabile casuale
chi-quadrato con s gradi di libertà
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
La funzione di autocorrelazione parziale
• Esempio: per un processo AR(1) avremo
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Il correlogramma dà chiare indicazioni nel caso di un
processo a media mobile, mentre i vari processi AR
sono indistinguibili quanto a comportamento
• Ulteriore strumento che, grazie ad un comportamento
speculare rispetto alla funzione di autocorrelazione,
consente di confermare e arricchire le ipotesi sulle
caratteristiche del processo generatore dei dati:
funzione di autocorrelazione parziale (partial ACF)
E(rtrt−τ |rt−1, . . . , rt−τ +1)
πτ =
γ0
• La covarianza fra due variabili casuali appartenenti al
processo, e riferite a diversi istanti temporali non
contigui, viene depurata dall’influenza delle variabili
casuali del processo a tempi intermedi
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
E(rtrt−2|rt−1)
γ0
E((φrt−1 + t)rt−2|rt−1)
=
γ0
φrt−1E(rt−2) + E(rt−2t)
=
=0
γ0
π2 =
dato che il valore atteso di rt−2 = 0 e che rt−2 e t
sono incorrelati
• L’autocorrelazione parziale di un processo AR(1) è
uguale a 0 per tutti i ritardi superiori al primo
• Il risultato si estende a qualsiasi ordine del processo:
per un AR(p) le autocorrelazioni parziali sono
identicamente uguali a zero per ritardi superiori a p
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• Nel caso di un processo MA(1), rt = t + ψt−1, per
sostituzioni successive fino al secondo ritardo, si ha
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
rt = t + ψrt−1 − ψ 2rt−2 + ψ 3t−3
MQMF
Gallo Pacini
Moltiplicando ambo i membri per rt−2 e calcolando il
valore atteso condizionato a rt−1
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
E(rtrt−2|rt−1)
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
= E (t + ψrt−1 − ψ 2rt−2 + ψ 3t−3)rt−2|rt−1
2
= E (trt−2 + ψrt−1rt−2 − ψ 2rt−2
+ ψ 3t−3rt−2)|rt−1
2
La stima
Come riconoscere la forma . . .
3
= 0 + 0 − ψ γ0 + ψ E (t−3(t−2 + ψt−3)|rt−1)
Il test Augmented Dickey-Fuller
Previsione
• Le autocorrelazioni empiriche π̂τ sono date dalle
stime dei minimi quadrati dei coefficienti di
regressione:
rt = β̂0 + β̂1rt−1 + . . . + β̂t−τ +1rt−τ +1 + π̂τ rt−τ + ˆt
• Per π3 e seguenti l’autocorrelazione parziale non è
mai zero, ma decresce esponenzialmente con
l’aumentare del ritardo τ
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Criteri informativi
Procedura da seguire
• A partire dal correlogramma (totale e parziale) della
serie originaria si osservano quali siano le
autocorrelazioni significative e si formula una ipotesi
di modello
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
• Si osserva il correlogramma dei residui di stima del
primo modello specificato
1. il correlogramma della serie dei residui è tutto
all’interno della regione di accettazione → la
procedura può essere ripetuta provando un numero
inferiore di ritardi (sulla parte AR e/o la parte MA)
2. il correlogramma presenta ancora alcune
autocorrelazioni significative: emergono
indicazioni su dove inserire ulteriori ritardi oppure
si procede incrementando entrambi i ritardi e
ripetendo la procedura
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
è, quindi, una misura della relazione lineare esistente
tra rt e rt−τ al netto dell’influenza delle variabili
intermedie rt−1, . . . , rt−τ +1
Le anomalie di calendario
e quindi π2 6= 0
La distribuzione empirica
rt = β0 + β1rt−1 + . . . + βt−τ +1rt−τ +1 + πτ rt−τ + t
Le generalizzazioni
= −ψ 2γ0 + ψ 4σ 2 = −ψ 2(σ 2(1 + ψ 2)) + ψ 4σ 2 = −ψ 2σ 2
MQMF
Gallo Pacini
• L’autocorrelazione parziale di ordine τ è data dal
coefficiente di regressione associato a rt−τ nel
modello in cui il rendimento rt è regredito su
rt−1, . . . , rt−τ più una costante:
• La minimizzazione della varianza residua deve essere
controbilanciata dal numero di parametri presenti
nella specificazione → si valuta se il guadagno in
varianza sia o meno superiore al “costo” dovuto
all’incremento di parametri stimati
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
• Akaike Information Criterion (AIC)
PT 2 !
ˆt
2(p + q)
t=1 AIC = ln
+
T
T
Previsione
Le anomalie di calendario
• Schwartz Information Criterion (SIC)
PT 2 !
ˆt
(p + q) ln T
t=1 ln
+
T
T
• I due criteri, da minimizzare, non sono confrontabili:
AIC tende a preferire una sovraparametrizzazione
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Correlogramma totale e parziale dei rendimenti
dell’indice Nikkei per il periodo 27/02/92-31/12/98
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Correlogramma dei residui di stima del modello AR(2)
sui rendimenti dell’indice Nikkei
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Risultato EVIEWS della stima di un modello alternativo
ARMA(2,1) sulla serie dei rendimenti dell’indice Nikkei
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Risultato EVIEWS della stima di un modello AR(2) sulla
serie dei rendimenti dell’indice Nikkei. Periodo
03/03/92-31/12/98
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Correlogramma dei residui di stima del modello
ARMA(2,1) sui rendimenti dell’indice Nikkei
Rendimenti incorrelati ed efficienza
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
• L’assenza di correlazione nei rendimenti caratterizza
la terza tipologia di processo random walk
• La verifica dell’ipotesi di assenza di correlazione si
basa sullo studio della correlazione tra osservazioni
della stessa serie a date diverse
• H0: i coefficienti di autocorrelazione delle differenze
prime logaritmiche dei prezzi a vari ritardi temporali
sono congiuntamente pari a zero
• Tra gli strumenti a disposizione abbiamo l’esame del
correlogramma e il calcolo della statistica Ljung-Box
• Strumento alternativo: statistica test calcolata come
rapporto fra varianze (variance-ratio test)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Variance-ratio test
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
• Rapporto tra la varianza della somma di due
rendimenti consecutivi e due volte la varianza del
rendimento rt:
V ar(rt + rt−1) 2γ0 + 2γ1
V R(2) =
=
= 1 + ρ1
2V ar(rt)
2γ0
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
MQMF
Gallo Pacini
La distribuzione empirica
V R(s) =
=
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
• Nell’ipotesi di rendimento i.i.d., dal momento che
l’autocorrelazione del primo ordine è nulla, il
rapporto risulta pari a 1
Le anomalie di calendario
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• In presenza di autocorrelazione positiva il rapporto
sarà superiore a uno e inferiore in caso di rendimenti
negativamente correlati
• Generalizziamo alla somma di s rendimenti
consecutivi
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
=
=
=
V ar(rt + rt−1 + . . . + rt−s+1 )
sV ar(rt )
V ar(rt ) + . . . + V ar(rt−s+1 )
sV ar(rt )
2Cov(rt , rt−1 ) + . . . + 2Cov(rt−s+2 , rt−s+1 )
+
sV ar(rt )
2Cov(rt , rt−2 ) + . . . + 2Cov(rt−s+3 , rt−s+1 )
+
sV ar(rt )
2Cov(rt , rt−s+1 )
+... +
sV ar(rt )
sγ0 + 2 ((s − 1)γ1 + . . . + 2γs−2 + γs−1 )
sγ0
s−1
s−2
2
1
ρ0 + 2
ρ1 +
ρ2 + . . . + ρs−2 + ρs−1
s
s
s
s
s−1 s−1 X
X
s−τ
τ
1+2
ρτ = 1 + 2
1−
ρτ
s
s
τ =1
τ =1
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
• Se i rendimenti sono incorrelati il rapporto tra
varianze osservato nel campione tende all’unità
all’aumentare del numero di osservazioni
MQMF
Gallo Pacini
• Le caratteristiche della sua distribuzione (in
particolare la varianza) dipendono dalla natura
dell’eteroschedasticità presente
• Lo e MacKinlay (1988) suggeriscono
√
d
T (V
R(s) − 1)
q P
τ 2
4 s−1
δ̂τ
τ =1 1 − s
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
La stima
(1)
δ̂τ =
d
ρ̂1 = 0.374 e V
R = 1.374
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
T
• Esempio: variazioni mensili dei Federal Funds
Le generalizzazioni
Le anomalie di calendario
dove
• Nel caso di s = 2, la statistica test diventa
√
d
d
T (V
R(2) − 1)
V
R(2) − 1
p
=r
P
2
PT 2 2
δ̂1
T
2
ˆt ˆt−1 /
ˆt
t=2 t=1 PT
ˆ2t ˆ2t−τ
t=τ +1 2
T
2
ˆ
t=1 t
P
• Per campioni di dimensione sufficientemente elevata
si distribuisce come una v.c. normale standardizzata
La statistica test standardizza la differenza (0.374)
con il valore dello standard error stimato (0.0938),
fornendo il risultato 3.986 che, avendo un p-value di
0.0003 risulta altamente significativo → per la serie
l’ipotesi del random walk viene quindi rifiutata per
tutte le caratterizzazioni possibili del processo delle
innovazioni
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
8. Il test Augmented Dickey-Fuller
• Scarsa potenza del test di Dickey-Fuller se il processo
delle innovazioni è un processo non indipendente
come, per esempio, un AR(1) o un MA(1)
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
• Il test di Dickey-Fuller può essere modificato per
prendere in considerazione l’eventualità che
pt = pt−1 + rt
con rt generato da un processo ARMA(p,q) → in tal
caso pt segue un processo ARIMA(p,1,q)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• Il test Augmented Dickey-Fuller si basa
sull’equazione modificata
Struttura temporale dei . . .
Il processo ARMA(1,1)
• Phillips e Perron suggeriscono una modifica della
statistica test che tiene conto di una generica presenza
di autocorrelazione
• La rappresentazione ARIMA(p,1,q) può essere
approssimata da un ARIMA(n,1,0) con n ordine della
componente autoregressiva
rt = γpt−1 + φ1rt−1 + . . . + φnrt−n + t
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
con H0 : γ = 0 contro un’ipotesi alternativa
H1 : γ < 1
• Lo stimatore di γ non ha una distribuzione standard
• La statistica test
γ̂
\
s.e.(γ̂)
ha gli stessi valori critici derivati per via di
simulazione per il test di Dickey-Fuller
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Augmented Dickey-Fuller Test sulla serie dei Federal
Funds Rates. Dati mensili: luglio 1954-ottobre 2001.
Fonte: FRED Database http://www.stls.frb.org/fred
MQMF
Gallo Pacini
9. Previsione
• Consideriamo il caso di un processo AR(1)
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
• Il problema della previsione può essere interpretato in
termini di valutazione del valore atteso condizionato
di rT +τ , τ > 0, ad una data successiva all’ultimo
periodo utilizzato per la stima T , disponendo di
informazioni solo fino al tempo T
E(rT +τ |IT ) = E(φ̂rT +τ −1|IT ) + E(T +τ |IT )
= φ̂E(rT +τ −1|IT )
• La previsione τ periodi in avanti dipende,
evidentemente, dalla previsione fatta in T per τ − 1
periodi in avanti
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
• Riformuliamo l’espressione come
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Previsione τ periodi in avanti per un AR(1)
MQMF
Gallo Pacini
E(rT +τ |IT ) ≡ r̂T +τ |T = φ̂ r̂T +τ −1|T
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
La distribuzione empirica
• Quattro fonti di incertezza nella previsione di rT +τ :
1. la corretta specificazione del modello
2. la stima φ̂ del parametro φ
3. la previsione r̂T +τ −1|T invece del valore osservato
rT +τ −1
4. l’uso del valore atteso di T +τ che è uguale a zero
• Definiamo errore di previsione la differenza fra valore
realizzato rT +τ e il suo valore atteso condizionato ad
un insieme informativo
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Procedura ricorsiva, a partire da una previsione un
periodo in avanti r̂T +1|T = φ̂ rT e, per sostituzioni
successive, r̂T +2|T = φ̂ r̂T +1|T = φ̂2 rT
• La previsione τ periodi in avanti in funzione di rT
sarà uguale a
r̂T +τ |T = φ̂τ rT
• Per un AR(p) la previsione al periodo T + τ sarà
funzione delle previsioni ai tempi
T + τ − 1, . . . , T + τ − p
• Esempio: p = 5 e τ = 3
r̂T +3|T = φ̂1r̂T +2|T + φ̂2r̂T +1|T + φ̂3rT + φ̂4rT −1 + φ̂5rT −2
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Previsione τ periodi in avanti per un MA(1)
• Nel caso di un MA(1) si ha
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
r̂T +τ |T = ˆT +τ |T + ψ̂ ˆT +τ −1|T ;
• Le due espressioni a destra dell’equazione sono
uguali a zero per τ > 1 in quanto qualunque futura
innovazione ha valore atteso uguale a zero
• Per τ = 1 si ha invece
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
La stima
Come riconoscere la forma . . .
r̂T +1|T = ψ̂ T ,
Previsione
Le anomalie di calendario
La distribuzione empirica
Le generalizzazioni
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
MQMF
Gallo Pacini
Il test Augmented Dickey-Fuller
Previsione
con T osservabile in funzione del rendimento rT e
dei rendimenti passati
Le anomalie di calendario
• Nel caso MA(q) le previsioni saranno funzione delle
innovazioni qualora esse siano osservabili ed espresse
in termini dei rendimenti nel periodo campionario
(τ ≤ q), mentre per orizzonti superiori le previsioni
saranno uguali a zero
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
Confronto tra serie osservata e previsione dinamica per i
rendimenti dell’indice Nikkei
– le prime decrescono esponenzialmente a partire
dal valore determinato dalle osservazioni sui
rendimenti fino al tempo T
– le seconde saranno diverse da zero fino alla
concorrenza dell’orizzonte τ con l’ordine del
processo e poi saranno uguali a zero
• Finora abbiamo parlato di previsione dinamica: si
presuppone che l’informazione a disposizione sia
disponibile su un periodo campionario fisso (da 1 a
T ) e che l’orizzonte di previsione sia ad esso
successivo (previsione ex ante) → situazione che si
riscontra nella realtà quando la disponibilità di nuova
informazione è subordinata al passaggio del tempo
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
MQMF
Gallo Pacini
La distribuzione empirica
La distribuzione empirica
Stima non parametrica
Stima non parametrica
Struttura temporale dei . . .
Struttura temporale dei . . .
Il processo ARMA(1,1)
Il processo ARMA(1,1)
Le generalizzazioni
Le generalizzazioni
La stima
La stima
Come riconoscere la forma . . .
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Il test Augmented Dickey-Fuller
Previsione
Previsione
Le anomalie di calendario
Le anomalie di calendario
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
• Differenza fra le previsioni ottenute da un processo
AR e un processo MA τ periodi in avanti (cf.
autocorrelazioni totali):
Previsione ex post
• Al fine di valutare della capacità del modello e la sua
corretta specificazione ci possiamo porre nella
situazione in cui il periodo usato per la stima non
esaurisce le informazioni a disposizione → previsione
ex post
• Consiste nel suddividere l’insieme di osservazioni in
due sottoinsiemi, uno da 1 a T (periodo campionario)
da utilizzare per la stima del modello ed un altro, da
T + 1 a T ∗ (periodo di previsione), per il quale la
disponibilità di osservazioni consente il confronto fra
le previsioni prodotte dal modello e le realizzazioni
del processo per il periodo di previsione
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Previsione statica
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
• Un diverso modo di procedere è quello di effettuare
una previsione cosiddetta one-step ahead o statica:
modello stimato sul periodo campionario da 1 a T che
viene risolto sul periodo di previsione da T + 1 a T ∗,
sostituendo nella parte destra dell’equazione di
previsione i valori osservati disponibili
• Esempio: per un modello AR(1) utilizziamo il valore
osservato un periodo prima del periodo di previsione
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Esempio di previsione statica per i rendimenti dell’indice
Nikkei
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
r̂T +τ |T +τ −1 = φ̂rT +τ −1
Le anomalie di calendario
la stima φ̂ è ottenuta sulla base del periodo
campionario e non viene aggiornato con i dati fino a
T + τ − 1 → previsione più accurata (si elimina una
fonte di incertezza)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Misure dell’errore di previsione
MQMF
Gallo Pacini
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Nell’ipotesi di modello stimato con osservazioni
r1, r2, . . . , rT e previsione dei rendimenti da T + 1 a T ∗
• l’errore assoluto medio (MAE)
1
∗
T −T
T∗
X
Le anomalie di calendario
• l’indice di Theil
q
La distribuzione empirica
|r̂s − rs|
s=T +1
media aritmetica semplice degli errori di previsione in
valore assoluto
Il test Augmented Dickey-Fuller
Previsione
MQMF
Gallo Pacini
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
• la radice dell’errore quadratico medio (RMSE)
v
u
T∗
X
u 1
t
(r̂s − rs)2
T∗ − T
s=T +1
Previsione
Le anomalie di calendario
q
1
T ∗ −T
1
T ∗ −T
PT ∗
PT ∗
− r t )2
q
PT ∗
1
s=T +1 (r̂t
2
s=T +1 r̂t
+
T ∗ −T
2
s=T +1 rt
assume valori tra zero e uno, segnalando in tal modo
le due situazioni estreme di adattamento perfetto
(valore dell’indice pari a zero) o pessimo (valore pari
a uno)
• Perplessità sulla capacità di questo indice di ordinare
correttamente, per valori intermedi, le previsioni sulla
base della distanza dai valori osservati
la radice quadrata della media aritmetica semplice
degli errori di previsione al quadrato (maggiore peso
agli errori più consistenti)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
10.
MQMF
Gallo Pacini
Le anomalie di calendario
• Rendimenti anomali associati a momenti di passaggio
dalla fine dell’anno all’inizio del nuovo, al
cambiamento di settimana o mese di contrattazione
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
MQMF
Gallo Pacini
Esempio di effetto gennaio
La distribuzione empirica
• Possibili spiegazioni: meccanismi noti come tax-loss
selling di fine anno e cash-flow di fine mese
• A fine anno le imprese chiudono i loro bilanci, gli
individui devono far fronte al pagamento di imposte,
contributi pensionistici o più in generale ad una
necessità di maggior liquidità
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Questione di immagine: alcuni gestori preferiscono
disfarsi di titoli ritenuti “imbarazzanti” per evitare che
appaiano nei rendiconti di fine anno, ricomprandoli in
una fase successiva
• Andamento al rialzo dei rendimenti all’inizio del
nuovo anno: inversione di tendenza e riacquisto titoli
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Possibili spiegazioni alternative
MQMF
Gallo Pacini
• Titoli azionari a bassa capitalizzazione (small-cap
stocks)presentano rendimenti più elevati rispetto ad
attivi ad alta capitalizzazione nel periodo da fine
dicembre a fine gennaio
La distribuzione empirica
Stima non parametrica
Struttura temporale dei . . .
Il processo ARMA(1,1)
Le generalizzazioni
• La diffusione di notizie negative durante il weekend
consente di spiegare l’effetto weekend, con riapertura
al ribasso all’inizio della settimana successiva
La stima
Come riconoscere la forma . . .
Il test Augmented Dickey-Fuller
Previsione
Le anomalie di calendario
• Anomalie di calendario connesse con punti di svolta
convenzionali nel decorrere del tempo, che non hanno
in realtà un particolare significato economico ma a
cui gli investitori attribuiscono una particolare
importanza (motivazione psicologica)
• Motivazioni del fatto che regolarità nel
comportamento dei mercati, ormai note ed accettate
dal pubblico, non siano tuttora oggetto di arbitraggio:
costi di transazione, rischi troppo elevati
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Fly UP