...

Documento PDF

by user

on
Category: Documents
50

views

Report

Comments

Transcript

Documento PDF
UNIVERSITA’ DEGLI STUDI DI PADOVA
DIPARTIMENTO DI SCIENZE ECONOMICHE ED AZIENDALI
“M.FANNO”
CORSO DI LAUREA
Economia e Management
PROVA FINALE
L’Efficienza Informativa dei Mercati Finanziari: una Questione Evergreen.
RELATORE:
CH.MO PROF. Bruno Maria Parigi
LAUREANDO/A: Alessandro Pizzigolotto
MATRICOLA N. 1022063
ANNO ACCADEMICO 2013 – 2014
Introduzione
1. Tesi: Efficienza Informativa dei Mercati Finanziari 1.1. Forme di Efficienza Informativa 1.2. Assiomi alla base dell’Efficient Market Hypothesis 1.3. Evidenze Empiriche dell’Ipotesi di Efficienza Informativa 1.4. “Falsi Positivi” dell’Inefficienza dei Mercati
2. Antitesi: Le inefficienze informative dei mercati 2.1. La Volatilità dei Mercati 2.2. I Comportamenti Irrazionali degli Investitori: la “Behavioral Economics”
3. Conclusioni
4. Riferimenti Bibliografici e Sitografici 2
Introduzione
Questo elaborato prende spunto dal conferimento del premio Nobel in Economia nel 2013 a
tre accademici contrastanti tra loro, per il contributo nella “analisi empirica dei prezzi degli
asset finanziari”. Il titolo è stato condiviso tra Eugene Fama, un personaggio famoso per aver
formulato l’importante ipotesi dell’efficienza dei mercati finanziari, Robert Shiller, famoso
per essersi ostinatamente battuto contro tale ipotesi, e Lars Peter Hansen, il terzo che ha
sviluppato l’econometria per testare tale ipotesi. Fama e Shiller, per la loro disponibilità ad
esporre il proprio lavoro al mondo accademico, sono stati il fulcro di un acceso dibattito negli
ultimi trent’anni, un dibattito che non ha mai avuto un vincitore univoco.
Per la prima volta nel 1969, l’ipotesi di Fama sui mercati efficienti è stata presentata al mondo
accademico come l’anello di congiunzione tra la finanza tradizionale, che vedeva anche la
nascita del capital asset pricing model, e la teoria classica dell’equilibrio di mercato in
condizioni d’incertezza. Proprio per questo, il lavoro di Fama diede una ventata di grande
entusiasmo al mondo accademico. Per questo motivo, alcuni anni più tardi, il lavoro di Shiller
suscitò una serie di controversie, che a tuttora perversano: forse la sua storica affermazione
(1992, p. 8) “l’Efficient Market Hypothesis fu uno dei più grandi errori nella storia del
pensiero economico” ha qualcosa a che fare con ciò. Tuttavia, nel giro di pochi anni, con
l’aiuto dei fatti del 1987 e del 2000, la critica di Shiller fu largamente accettata da buona parte
del mondo accademico.
Il Nobel ai tre pionieri degli studi sull’efficienza dei mercati ha dato nuova vita a tale
dibattito, che sarà al centro della presente discussione. Partendo dall’Efficient Market
Hypothesis di Fama, si analizzeranno i concetti più rilevanti a sostegno della tesi
dell’efficienza dei mercati, con riferimento alle evidenze empiriche derivate da questi. In
seguito, ci si focalizzerà sui principali lavori in antitesi, riguardanti l’eccesso di volatilità
all’interno degli asset finanziari, con un riferimento alle teorie pionieristiche dell’economia
comportamentale, sempre più coese con la finanza tradizionale.
3
1. Tesi: Efficienza Informativa dei Mercati Finanziari
All’interno dei mercati finanziari, è possibile isolare tre concetti di efficienza:
− efficienza tecnico-operativa, che sussiste quando i mercati funzionano con i più bassi
costi di transazione;
− efficienza allocativa, propria di un mercato in cui i prezzi guidano le risorse verso
un’allocazione efficiente nel senso di Pareto;
− efficienza informativa, definita in forma generale come la capacità dei prezzi del mercato
di riflettere correttamente e tempestivamente le informazioni a disposizione degli
operatori. In tal senso, si può intuire che i prezzi, in un mercato efficiente, sono “corretti”
da un punto di vista informativo, e che per gli investitori «tentare di “battere” il mercato è
futile».
Nella presente analisi si andrà a sviluppare quest’ultimo concetto di efficienza. Un semplice
esempio di tale concetto è fornito da Malkiel (2011, p. 270), il quale sostiene che “uno
scimpanzé bendato sarebbe in grado di costruire un portafoglio di titoli “as the experts”
semplicemente “giocando a freccette” contro il Wall Street Journal”. Più verosimilmente, è
possibile immaginare di lanciare un “panno” sopra la pagina dei titoli del WSJ, il che equivale
all’acquisto di un fondo d’investimento indicizzato al mercato, il quale compra tutte le azioni
presenti per conservarle a lungo termine con un addebito minimo di spese di gestione.
Tuttavia, la letteratura economico-finanziaria degli ultimi vent’anni ha portato i fedeli
sostenitori dell'efficienza a rivedere le proprie credenze. A tal merito, Malkiel (2003) ha
formulato una più recente definizione di efficienza informativa, che considera come mercato
finanziario efficiente «quel mercato che non consente agli investitori di ottenere rendimenti
sopra la media, se non accettando rischi anch’essi sopra la media».
Lo stesso Fama (1991), padre dell’Efficient Market Hypothesis, alla luce delle nuove
tendenze ha ampliato la sua tripartitica definizione originaria, ridefinendo rispettivamente i
test sull’efficienza in forma debole, semi-forte e forte come test sulla predicibilità dei
rendimenti, event studies, e test per le informazioni private.
1.1.
Forme di Efficienza Informativa
Originariamente, Fama (1970) distingue l’efficienza informativa secondo gli information set
riflessi nei prezzi. Si parla di efficienza informativa dei mercati finanziari:
− In forma debole, quando i prezzi riflettono solamente le serie storiche di prezzi,
rendimenti e dividendi, da cui è impossibile realizzare extra-profitti sulla base dei prezzi
passati;
4
− In forma semi-forte, quando i prezzi riflettono tutte le informazioni pubblicamente
conosciute dagli operatori del mercato (per esempio annunci di fatturato annuo,
frazionamenti azionari, etc.);
− In forma forte quando, nonostante alcuni gruppi d’investitori possiedano un certo
“monopolio” sull’accesso alle informazioni (pubbliche e private), i prezzi riflettono
comunque le informazioni disponibili all’interno del mercato.
Le tre ipotesi sono poste tra loro in forma piramidale: l’efficienza in forma forte implica
efficienza in forma semi-forte, che implica a sua volta efficienza in forma debole; di
conseguenza l’ipotesi di efficienza forte è utilizzata come benchmark per le altre due. Questa
categorizzazione è utile ai fini di determinare a quale livello informativo decadrà l’ipotesi
d’efficienza.
1.2.
Assiomi alla base dell’Efficient Market Hypothesis
Ai fini di una dimostrazione empirica della validità delle ipotesi, è necessario formulare
alcuni assiomi fondamentali.
1.2.1. Il Rendimento Atteso e i Modelli del “Fair Game”
L’efficienza dei mercati per se è un concetto generalista e non verificabile. Tuttavia, dalla
teoria di Fama (1970) è possibile individuare un modello che specifica il processo di
formazione dei prezzi in maniera più formale. A tale scopo, Fama (1970) assume che le
condizioni di equilibrio di mercato possano essere espresse in termini di rendimento atteso.
Qualunque teoria del rendimento atteso può essere sintetizzata dalla seguente equazione:
E(p̂j,t+1 |
t)
= [1 + E(r̂j,t+1 |
t )]pjt
(1)
oppure
Et p̂j,t+1 = [1 + Et r̂j,t+1 ]pjt
dove pjt indica il prezzo di una security j al tempo t, pj,t+1 il suo prezzo in t + 1, rj,t+1 il
rendimento (espresso in percentuale) del periodo, ovvero (pj,t+1 - pjt) / pjt, e Φt indica un
qualunque set di informazioni economicamente rilevanti al tempo t. Il simbolo ˆ è una
notazione per indicare che pj,t+1 e rj,t+1 sono variabili casuali in t. Tal equazione implica che,
qualsiasi modello di rendimento atteso sia assunto, il set d’informazioni disponibile in t, Φt, è
“completamente utilizzato” nella determinazione del rendimento atteso in equilibrio; con ciò
si afferma quindi che i prezzi riflettono correttamente tutte le informazioni al tempo t.
Considerato che a) l’equilibrio di mercato può essere enunciato in termini di rendimenti attesi,
e che b) i rendimenti attesi in equilibrio sono individuati sulla base di Φt, è plausibile
5
considerare l’esistenza di trading systems, insiemi di regole operative nello scambio di
securities, basati su Φt in grado di ottenere rendimenti attesi o profitti “in eccesso” rispetto
alla condizione di equilibrio. È possibile esprimere quest’affermazione come
xj,t+1 = pj,t+1
Dalla (2) è possibile affermare che
E(x̂j,t+1 |
E(pj,t+1 |
t)
t)
=0
(2)
(3)
La successione {xjt} è un "fair game" (o “gioco equo”) rispetto alla sequenza di informazioni
{Φt}, un processo stocastico il cui valore atteso, relativamente all’informazione corrente Φt, è
pari a zero. Allo stesso modo, considerando l’equazione
zj,t+1 = rj,t+1
E(r̂j,t+1 |
t)
(4)
si può affermare che la serie {zjt} sia anch’essa un “fair game” rispetto alla sequenza di
informazioni {Φt}.
E(ẑj,t+1 |
t)
=0
(5)
Dal punto di vista economico, il significato di tali funzioni è il seguente:
− xj,t+1 esprime il valore di mercato “in eccesso” della security j al tempo t + 1, la differenza
tra il prezzo osservato in t e il valore atteso del prezzo in t stimato sulla base di Φt;
− zj,t+1 esprime il rendimento “in eccesso” della security j al tempo t + 1, la differenza tra il
rendimento osservato in t e il rendimento atteso in t stimato sulla base di Φt.
Ancora, Fama (1970) definisce α(Φt) = [α1(Φt), α2(Φt), … , αn(Φt)] un qualunque trading
system basato sull’informazione Φt, dove αj(Φt) indica la quantità di fondi disponibili in t da
investire nella security j disponibile in t: l’eccesso di valore in t + 1 generato da tale sistema
sarà
Vt+1 =
n
X
↵j (
t )[rj,t+1
j=1
E(r̂j,t+1 |
t )]
Il valore atteso di Vt+1, date le proprietà del fair game individuate in (5) per zj,t+1, sarà pari a
E(Vt+1 |
t)
=
n
X
↵j (
j=1
t )E(ẑj,t+1 |
t)
=0
Si considerano ora due situazioni particolari del modello, il modello della sub-martingala e il
modello della cd. “random walk”, importanti ai fini dell’analisi empirica.
1.2.2. “Modello” della Sub-Martingala
Si assuma in (1) che, per ogni t e Φt:
6
E(p̂j,t+1 |
t )]
> pjt
o anche
E(r̂j,t+1 |
t)
=0
(6)
La precedente affermazione implica che la sequenza {pjt}, per la security j, segue una submartingala rispetto alla sequenza d’informazioni {Φt}. Il che significa affermare nulla più che
il prezzo atteso in t + 1, sulla base del set corrente Φt, è maggiore o uguale al prezzo corrente.
Se la (6) è mantenuta solo come uguaglianza (quindi rendimenti attesi e variazioni di prezzo
sono pari a zero), allora il prezzo segue una vera e propria martingala, in cui il valore atteso di
pj,t+i (con i = 1, 2, … n), condizionato all’informazione corrente Φt, è pari al suo valore
corrente; in altre parole, pjt è uno stimatore corretto di tutti i valori futuri di pj.
E(p̂j,t+i |
t)
= Et p̂j,t+i = pjt
1.2.3. Modello della “Random Walk”
Se si afferma che il prezzo corrente di una security “riflette pienamente” le informazioni
disponibili nello stesso periodo, è possibile assumere che a) due variazioni di prezzo
successive (o rendimenti a un periodo successivi) siano indipendenti e b) identicamente
distribuite: le presenti ipotesi costituiscono il modello della “random walk”. Formalmente, è
descritto come:
f (rj,t+1 |
t)
= f (rj,t+1 )
(7)
La (7) sta a indicare che la distribuzione della probabilità condizionale di una variabile
casuale indipendente è identica a quella della sua probabilità marginale. Capovolgendo
l’espressione, i rendimenti seguono una “random walk” se e solo se le loro variazioni
temporali sono indipendenti e identicamente distribuite.
La precedente espressione è un’assunzione più forte rispetto all’originale modello della (1)
che, ponendo il rendimento atteso costante nel tempo, si esprime come
E(r̂j,t+1 |
t)
= E(r̂j,t+1 )
(8)
in cui è la sola media della distribuzione di rj,t+1 ad essere indipendente dall’informazione
disponibile al tempo t e non l’intera distribuzione come previsto dalla “random walk”.
1.2.4. Condizioni Sufficienti per l’Efficienza del Mercato
Per la presenza di efficienza informativa all’interno dei mercati finanziari, si considerano
condizioni sufficienti:
− L’assenza di costi di transazione nella compravendita di securities;
− La gratuità di tutte le informazioni rese disponibili a ogni partecipante al mercato;
7
− La comune valutazione dei partecipanti al mercato che le informazioni correnti sono
implicate nei prezzi dello stesso periodo e nella distribuzione dei prezzi futuri di ogni
security.
1.3.
Evidenze Empiriche dell’Ipotesi di Efficienza Informativa
1.3.1. Test dell’Efficienza Informativa in forma Debole
In conformità a quanto assunto nei precedenti punti, Fama (1970) ha empiricamente testato la
forma debole di efficienza mediante l’utilizzo del concetto di “covarianza seriale” (di cui si
ometteranno alcuni passaggi algebrici ai fini di semplificare il concetto teorico).
Si consideri il “fair game” xt, il cui valore atteso non condizionato è pari a zero. Tutte le sue
covarianze seriali possono essere definite in forma generale come segue (dove ƒ indica una
funzione di densità).
E(x̂t+⌧ x̂t ) =
Z
xt
xt E(x̂t+⌧ |xt )f (xt )dxt
Poiché xt è un “fair game”, e poiché il valore atteso di xt+1 relativamente a un sottoinsieme
dell’informazione al tempo Φ’t è ancora pari a zero E(xt+1|Φ’t) = 0, è possibile affermare che,
considerando xt come un sottoinsieme dell’informazione al tempo t
E(x̂t+⌧ |xt ) = 0
Sostituendo il presente valore atteso alla precedente, è possibile osservare che le covarianze
seriali tra i risultati consecutivi di un “fair game” sono nulle. Perciò, le osservazioni di un
“fair game” sono linearmente indipendenti.
In altri termini, nella presente situazione, valori successivi sono indipendenti tra loro e
identicamente distribuiti. Quindi si può affermare che i rendimenti al tempo t seguono una
“random walk”, riflettendo pienamente le informazioni dello stesso periodo. Tuttavia, il
modello del “fair game” inizialmente considerato non prevede necessariamente che la
covarianza seriale dei rendimenti tra due periodi sia zero.
Nel test del modello «in forma debole», la variabile di “fair game” si può rappresentare come
zj,t = rj,t
E(r̂j,t |rj,t
1 , rj,t 2 , ...)
E(r̂j,t+1 )][r̂jt
E(r̂jt )]) =
(9)
La covarianza tra, ad esempio, due rendimenti attesi in t e t + 1 è
=
Z
E([r̂j,t+1
[rjt
rjt
E(r̂jt )][E(r̂j,t+1 |
t)
E(r̂j,t+1 )]f (rjt )drjt
8
Poiché la (9) non implica necessariamente che E(r̂ j,t+1|rj,t) = E(r̂ j,t+1), la covarianza seriale non
sarà necessariamente pari a zero. Perciò, lo scarto del rendimento per t + 1 dal suo valore
atteso condizionato è un "fair game"; ma il valore atteso condizionato in sé dipende dal
rendimento osservato in t. In una “random walk”, in cui il rendimento atteso (e l’intera
distribuzione dei rendimenti) è assunto costante nel tempo, il problema non sussiste: ciò
implica che è possibile stimare le covarianze seriali mediante il “prodotto vettoriale” degli
scarti dal rendimento medio del campione dei rendimenti osservati.
Un’approssimazione a “random walk” non sembra inficiare a livello empirico il risultato dei
test sulle covarianze, almeno per i titoli più comuni; l’esempio di Fama (1970, p. 393) ne è la
prova. Nella Tabella 1.3.1 è possibile osservare la correlazione seriale tra variazioni
successive del loge dei prezzi per i 30 titoli più comuni del Dow Jones dalla fine del 1957 al
Settembre del 1962. Le correlazioni seriali tra successivi cambiamenti nel logep sono espressi
per intervalli di uno, quattro, nove e sedici giorni.
9
Tabella 1.3.1 Coefficienti di Correlazione Seriale per Variazioni dei Prezzi al loge di Uno, Quattro, Nove e
Sedici Giorni (Fama, 1965)
Stock
Allied Chemical
Alcoa
American Can
AT&T
American Tobacco
Anaconda
Bethlehem Steel
Chrysler
Du Pont
Eastman Kodak
General Electric
General Foods
General Motors
Goodyear
International Harvester
International Nickel
International Paper
Johns Manville
Owens Illinois
Procter & Gamble
Sears
Standard Oil (Calif.)
Standard Oil (N.J.)
Swift & Co.
Texaco
Union Carbide
United Aircraft
U.S. Steel
Westinghouse
Woolworth
Uno
.017
.118*
–.087*
–.039
.111*
.067*
.013
.012
.013
.025
.011
.061*
–.004
–.123*
–.017
.096*
.046
.006
–.021
.099*
.097*
.025
.008
–.004
.094*
.107*
.014
.040
–.027
.028
Intervallo di Differenziazione (Giorni)
Quattro
Nove
.029
.095
–.124*
–.010
–.175*
–.068
–.122
.060
.069
–.006
.020
–.005
–.128*
.001
–.068
.038
.060
–.068
–.006
–.006
–.070
–.143*
–.109
–.072
–.053
.049
–.190*
–.006
–.097
–.033
–.091
–.112
–.060
–.009
.033
–.125
–.148
–.026
–.043
–.053
–.004
–.140
.009
–.037
–.244*
.124
–.004
–.002
.003
.098
–.113
–.046
–.082
.118
–.047
–.101
–.192*
–.056
–.137
–.112
Sedici
–.118
–.044
.031
–.003
.007
.202
.112
.040
–.055
–.023
.000
–.098
–.028
.033
.116
.041
–.010
.002
–.022
.076
.041
.040
–.121
–.197
–.178
.124
–.040
.236*
.067
.040
* Il coefficiente è due volte l’errore standard calcolato.
I risultati riportati in tabella, coerenti con quelli riportati da altri per test sulle covarianze
seriali, non evidenziano sostanziali dipendenze lineari tra variazioni di prezzo negli intervalli
temporali analizzati. Infatti, le correlazioni seriali individuate sono prossime allo zero.
Quando non lo sono, Fama (1965) calcola che ogni correlazione pari almeno a .06 è più del
doppio del suo standard error, il che rende la dipendenza nel cambiamento di prezzo
insignificante dal punto di vista economico. Perciò si può affermare che, a dispetto di
qualsiasi significato statistico, a livello empirico si ha effettivamente una “random walk”.
1.3.2. Test dell’Efficienza Informativa in Forma Semi-Forte: i cd. “Event
Studies”
Per “event study" s’intende un metodo di analisi statistica dell’impatto di un dato evento (e.g.
frazionamenti azionari, annunci di report finanziari da parte delle società, nuove emissioni di
10
titoli, etc.) sulla serie finanziaria di una data variabile. Come affermato da Fama (1970, p.
404), ai fini della presente analisi, ognuno di questi “event studies”, condotti su svariati eventi
con focus sulla variabile “prezzo”, è in grado di apportare una positiva evidenza empirica al
modello con l’idea che, con l’accumulo di questi risultati positivi, si possa ritenere valida
l’ipotesi di efficienza dei mercati in forma semi-forte.
Nella presente, si analizza il modello di maggior rilievo in tale ambito, l’originario studio
“stock splits” di Fama, Fisher, Jensen e Roll (FFJR, 1969), di cui studi successivi ne hanno
adattato ed esteso le tecniche sviluppate. Il modello vuole smentire la credenza per la quale il
solo apparente risultato derivante da un frazionamento azionario sarebbe l’aumento del
numero di titoli per azionista, ma non necessariamente un apporto di nuove informazioni.
Si definisce, in relazione allo split, mese 0, il mese in cui è presente l’effettiva data del
frazionamento, mese 1, 2, 3… i mesi successivi a quello dello split, e mese -1, -2, -3… i mesi
precedenti.
Ancora, si definiscono i residui medi um per tutte le securities frazionate in un mese m come
um =
N
X
ûjm
j=1
N
dove ûjm sono i residui della regressione sui campioni della security j nel mese m, e N è il
numero di frazionamenti totali, e si definiscono invece i residui medi cumulati Um come
m
X
Um =
uk
k= 29
I residui medi um possono essere considerati anche come lo scarto medio dei rendimenti del
titolo frazionato dal loro normale comportamento di mercato; e allo stesso modo, Um può
essere considerato lo scarto cumulato (da -29 a m). Si definiscono u+m, u-m, U+m e U-m come i
residui medi e cumulati per gli split seguiti da aumenti (+) e flessioni (-) nei dividendi;
un’espansione nei dividendi si verifica quando la variazione percentuale dei dividendi stessi,
nel titolo frazionato dopo lo split, è maggiore rispetto alla variazione percentuale per NYSE
nel suo complesso, e una diminuzione viceversa.
Ai fini del modello, FFJR considera i residui medi cumulati Um, U+m e U-m per -29 ≤ m ≤ 30,
in un campione formato da tutti i 940 frazionamenti azionari nel periodo 1927-1959. Per tutte
le categorie di dividendi, Um aumenta nei 29 mesi precedenti lo split, a cui corrisponde um
uniformemente positivo: questo risultato non può essere attribuito al processo di
frazionamento, ma piuttosto a una tendenza delle imprese di effettuare il frazionamento in
periodi “particolarmente buoni” in cui i prezzi delle loro azioni sono aumentati molto più di
quanto previsto da condizioni normali di mercato. Nel mese successivo allo split non vi sono
movimenti aggiuntivi nei residui cumulati. Alla luce di ciò, FFJR suggerisce che, all’annuncio
11
dello split, il mercato interpreta l’informazione come un segnale che i CEO hanno buone
previsioni sui ricavi, sufficienti per mantenere alta la distribuzione di dividendi. Perciò, grandi
aumenti di prezzo nei mesi precedenti lo split sono attribuiti a una “alterazione” nelle attese
degli investitori. Se la presente ipotesi è corretta, il comportamento dei rendimenti dopo lo
split sarà differente in relazione alla futura distribuzione di dividendi.
Analizzando il Grafico 1.3.1 di U+m (a sinistra), il lieve aumento nell’anno successivo allo
split è coerente con l’ipotesi di un aggiustamento dei prezzi all’annuncio, in anticipazione dei
futuri aumenti nei dividendi. Al momento del frazionamento effettivo non vi sarà un nuovo
aggiustamento dei prezzi. Più rilevante è il Grafico 1.3.1 di U-m (a destra): infatti, il suo livello
aumenta nei mesi precedenti allo split, ma poi scende bruscamente nei mesi successivi,
quando le attese dell’aumento nei dividendi non sono soddisfatte.
Grafico 1.3.1 Grafico dei Residui Medi Cumulati per Incrementi e Decrementi nei Dividendi (Fama, 1968)
Per concludere, se si considera il Grafico 1.3.2 di Um, indipendentemente dal comportamento
dei dividendi, dopo lo split non vi è alcuna variazione. Questo risultato è coerente con quanto
già affermato. Il mercato compie previsioni corrette in merito all’effetto dello split sui futuri
dividendi, riflettendo pienamente le informazioni pubbliche nei prezzi delle securities.
12
Grafico 1.3.2 Grafico dei Residui Medi Cumulati, considerando tutti gli splits (Fama, 1968)
1.3.3. Test dell’Efficienza Informativa in Forma Forte
A proposito della forma forte di efficienza nei mercati, sono state compiute diverse ipotesi al
fine di confutarne la validità. Tra queste, Fama (1970, p. 410) ne ha selezionato ai fini
dell’analisi un solo gruppo, quelle sulla capacità del management di fondi comuni “open-end”
(privi di vincoli sull’emissione) di realizzare extra-profitti grazie a un accesso monopolistico
alle informazioni. In particolare, si è soffermato nel commento allo studio di Jensen (1968 e
1969).
In tale studio, si determina se i fund managers hanno accesso a particolari informazioni che
consentano di generare rendimenti attesi “anomali”, e se qualche fondo sia in grado di
individuare queste informazioni in maniera più efficace rispetto ad altri. Jensen, per la
valutazione della performance dei fondi ex post, si affida al capital asset pricing model
(Sharpe 1964, Lintner 1965a, b): per il CAPM, il rendimento atteso di un singolo asset o di un
portafoglio j da t a t + 1, determinato come
E(r̂j,t+1 |
t)
= rf,t+1 [1
j(
t )]
+ E(r̂m,t+1 |
t) j (
t)
può diventare, sostituendo rendimento atteso del portafoglio di mercato con il rendimento
effettivamente realizzato, la regola di valutazione per la performance desiderata.
E(r̂j,t+1 |
t , rm,t+1 )
= rf,t+1 [1
j(
t )]
+ rm,t+1
j(
t)
Il significato di questa equazione è che il rendimento di j non è altro che una funzione lineare
del suo rischio; se βj(Φt) può essere stimato in maniera affidabile, e se j è un fondo comune, è
possibile valutare la sua performance ex post tracciando il Grafico 1.3.3 delle combinazioni
rischio-rendimento:
13
Grafico 1.3.3 Grafico di Valutazione della Performance (Fama, 1970)
se la coppia di valori cade sopra l’SML (Security Market Line, espressione grafica di quanto
espresso precedentemente nel CAPM) il fondo ha superato le aspettative in relazione al
rischio, se cade invece al di sotto le avrà deluse. Alternativamente, la market line può
evidenziare le combinazioni rischio-rendimento fornite da portafogli formati da un asset privo
di rischio e dal portafoglio di mercato: rendimenti e rischi di questi portafogli sono
rc,j+1 = ↵rf,t+1 + (1
c(
t)
=
cov(r̂c,t+1 , r̂m,t+1 |
2 (r̂
m,t+1 | t )
t)
=
cov((1
↵)rm,t+1
↵)r̂m,t+1 , r̂m,t+1 |
2 (r̂
m,t+1 | t )
t)
=1
↵
Perciò, quando 1 ≥ α ≥ 0 si ottengono combinazioni di rischio e rendimento lungo la market
line da rf,t+1 a m; mentre quando α < 0 (e sotto l’ipotesi che gli investitori possano prendere a
prestito allo stesso tasso con cui prestano denaro) otteniamo le combinazioni rischiorendimento lungo l’estensione della market line alla destra di m.
Jensen ha utilizzato questo framework per valutare la performance di 115 fondi comuni nel
periodo 1955-64, considerando come portafoglio di mercato l’S&P500, al fine di stabilire se
effettivamente i fondi comuni sono in grado di rendere abbastanza da compensare i costi
pagati dagli investitori per commissioni d’ingresso, di gestione e altri costi, che sarebbero
evitati scegliendo semplicemente una combinazione dell’asse privo di rischio f e del
portafoglio di mercato m con rischio simile a quello del fondo. L’evidenza empirica ha
portato risultati negativi: in 89 casi su 115, la combinazione rischio-rendimento del fondo, al
netto delle spese di gestione e per il periodo osservato di dieci anni, è al di sotto della market
line di periodo, e la media degli scarti dei rendimenti di tutti i fondi è del -14.6%; di
conseguenza, in media i consumatori che hanno investito in fondi comuni si sono impoveriti
del 15% rispetto a un investimento in un portafoglio lungo la market line.
Tuttavia, poiché le commissioni d’ingresso non sono reinvestite nel fondo, è possibile
analizzare i rendimenti al netto delle commissioni, in modo tale da determinare se siano in
14
grado di coprire le sole spese di gestione. L’evidenza empirica porta anche in questo caso a
risultati negativi in quanto, anche se le commissioni fossero ignorate nel calcolo dei
rendimenti, la combinazione rischio-rendimento per 72 su 115 fondi è ancora al di sotto della
market line, e lo scarto medio sarebbe dell’-8.9%.
Per terminare, a prova della forma forte d’efficienza del mercato, è opportuno ignorare tutte le
spese per verificare la capacità dei gestori dei fondi nel selezionare securities in grado di
“battere” il mercato. Sfortunatamente ciò non è possibile poiché i dati sulle commissioni non
sono pubblicati regolarmente. In relazione agli evidenti risultati, è possibile però affermare
che l’evidenza empirica sarebbe ancora una volta negativa, a prova dell’efficienza in forma
forte.
1.4.
“Falsi Positivi” dell’Inefficienza dei Mercati
Con l’affievolirsi negli ultimi anni della rilevanza dell’Efficient Market Hypothesis, molti
economisti hanno iniziato a sostenere che i prezzi all’interno dei mercati finanziari siano
“parzialmente” prevedibili sulla base di alcuni “pattern”. In questo titolo, sulla base del lavoro
di Malkiel (2003) si vuole analizzare e confutare alcune di queste ricerche, evidenziandone i
“falsi positivi” che inducono a sostenere l’ipotesi dei mercati efficienti.
1.4.1. Patterns riguardanti i Prezzi Storici
Normalmente, si può dire che il mercato “non ha memoria” (Malkiel, 2003, p. 61) in quanto,
per la teoria dei mercati efficienti, la distribuzione del prezzo passato non consente la
previsione del loro comportamento futuro. In questo caso, si vuole analizzare alcuni dei
patterns utilizzati per la previsione dei prezzi futuri sulla base del comportamento dei prezzi
storici degli asset finanziari.
Patterns nel Breve Termine
Lo e MacKinlay (1999) hanno ipotizzato che, nel breve periodo, le correlazioni seriali di
prezzi o rendimenti non siano esattamente diverse da zero e che, per un’elevata frequenza di
transazioni nella stessa direzione, che definiremo uno “slancio” dei prezzi nel breve termine, i
prezzi dei titoli non si comportino come una vera “random walk”. Questo effetto sarebbe
supportato da esponenti della “behavioral finance”, per i quali questo fenomeno è coerente
con i processi psicologici (si parla del cd. “effetto bandwagon”) e che lo slancio dei prezzi sia
dovuto ad una tendenza degli investitori a reagire in maniera “insufficiente” alle nuove
informazioni. Se il reale impatto di un’informazione viene colto solamente per un breve
periodo, il prezzo del titolo mostrerà un’auto-correlazione positiva. A tal proposito, è utile
distinguere tra significatività statistica ed economica. Infatti, le dipendenze che portano a
15
considerare il fenomeno sono fievoli e non sono tali da permettere agli investitori di realizzare
rendimenti eccessivi. Inoltre, Odean (1999) ha dimostrato che la presenza di eventuali costi di
transazione, in linea con una situazione reale di mercato, porta i rendimenti di una strategia
basata su tale fenomeno a livelli peggiori di quelli ottenuti con una strategia “buy-and-hold”.
Per sconfessare le teorie comportamentali, Fama (1998), ha individuato che una “sottoreazione” all’informazione è tanto comune quanto una “sovra-reazione”, e la persistenza di
rendimenti anomali dopo la ricezione dell’informazione è frequente tanto quanto un ripristino
del rendimento alle condizioni di equilibrio.
Patterns nel Lungo Termine
Molti studi hanno visibilmente dimostrato che esiste una correlazione seriale negativa nel
lungo periodo. Altrettanti studi hanno attribuito questo risultato a una tendenza dei mercati a
reagire in modo “eccessivo”. Per DeBondt e Thaler (1985) tale reazione deriva dalla
propensione degli investitori a “ondate” di ottimismo e pessimismo, che portano il prezzo a
variare dal suo fondamentale e nel lungo periodo a compiere un’inversione di tendenza.
Ancora, per Kahneman e Tversky (1979) essa deriva dalla troppa fiducia degli investitori
nelle proprie capacità di predire i prezzi futuri. Queste teorie sarebbero avvalorate da tecniche
d’investimento agenti con “strategia contraria”, ossia comprando titoli con rendimenti
negativi per lunghi periodi ed evitando titoli con forti rialzi negli ultimi anni.
A proposito di quest’inversione, Fama e French (1988), seppur confermino una correlazione
seriale negativa nel lungo periodo, hanno evidenziato una forte rilevanza di alcuni periodi
storici distorsivi inclusi nell’analisi; ad esempio, eliminando dai test il periodo della Grande
Depressione 1926-1940, la forte correlazione seriale individuata nei rendimenti dai 3 ai 5 anni
scompare.
Patterns Stagionali
Un gran numero di ricerche si è concentrato anche sulla previsione dei prezzi in particolari
periodi temporali. Ad esempio, per DeBondt e Thaler (1985), i grandi “perdenti” dai tre ai
cinque anni si trasformeranno nei nuovi “vincitori” dei mesi successivi raggiungendo
rendimenti molto alti, specialmente nel mese di Gennaio. Anche questo fenomeno è stato
attribuito alla reazione esagerata del mercato a notizie “estreme” sulle imprese. Si può
individuare tra questi fenomeni stagionali il ben noto “January Effect”, per il quale i
rendimenti nel mese di Gennaio sono superiori alla norma, e il “Monday Effect”, lo stesso
comportamento del precedente ma di frequenza settimanale. Questi fenomeni sono
equiparabili a quanto visto in precedenza nel breve termine: essi non si manifestano in
16
maniera costante, tendono a scomparire non appena individuati dal mercato e sono troppo
piccoli rispetto ai costi di transazione richiesti nel tentativo di individuarli.
1.4.2. Patterns riguardanti gli Indici di Valutazione
Sono state eseguite svariate ricerche empiriche per determinare se i rendimenti futuri possono
essere predetti sulla base degli indici utilizzati per la valutazione finanziaria delle imprese,
quali il tasso di dividendo (o dividend yield), multipli del rapporto prezzo-utile, book-tomarket value... con conclusioni piuttosto omogenee: per tale ragione, di seguito si andranno
ad analizzare solamente i dati riguardanti i dividend yields e il rapporto prezzo-utile.
Dividend Yields
L’utilizzo del dividend yield (inteso come rapporto tra dividendo e prezzo per azione, D/P)
per la previsione dei rendimenti futuri è stato in primis considerato da Fama e French (1988) e
Campbell e Shiller (1988). Considerando i dati del Grafico 1.4.1, ottenuto dalla rilevazione
dei dividend yields dell’intero S&P500 dal 1926 al 2001, e dividendo le osservazioni in decili
in base al livello di dividend yield, si può osservare che gli investitori hanno ottenuto
rendimenti maggiori da portafogli costruiti con titoli con un più alto dividend yield rispetto a
portafogli formati da titoli con dividend yields più bassi.
Grafico 1.4.1 Rendimenti a 10-Anni di Portafogli formati sulla base dell’attuale Dividend Yield:
1926-2001 (The Leuthold Group)
Questo fenomeno secondo molti non è da considerarsi irrazionale: infatti, i dividend yields
tendono a essere elevati per alti tassi d’interesse e viceversa, di conseguenza l’abilità di
predire i rendimenti dei tassi di dividendo attuali riflette semplicemente l’aggiustamento del
17
mercato alle condizioni economiche generali. Al più, tale effetto è stato rilevato solamente
dalla metà degli anni ’80, e dal 21esimo secolo è scomparso. Una possibile spiegazione alla
temporaneità del fenomeno può essere che le scelte di dividendi delle imprese americane
siano mutate nel tempo; ad esempio nel 21esimo secolo si preferisce il riacquisto di azioni
proprie piuttosto che la distribuzione di dividendi. Si tratta quindi di una tendenza nel lungo
periodo ma comunque temporanea, legata a effetti comportamentali variabili nel tempo, non
valida per singoli titoli ma applicabile solamente all’intero portafoglio di mercato.
Price-Earnings Ratio
Quanto individuato in relazione al dividend yield è specularmente applicabile anche al
rapporto prezzo-utile. Infatti, considerando i dati del Grafico 1.4.2, è possibile notare che gli
investitori tendono a realizzare maggiori rendimenti a lungo quando acquistano portafogli di
azioni con rapporti prezzo-utile relativamente bassi. Tuttavia, le considerazioni fatte per il
dividend yield valgono altrettanto per il presente indice.
Grafico 1.4.2 Rendimenti a 10-Anni di Portafogli formati sulla base dell’attuale Price/Earnings Ratio:
1926-2001 (Fonte: The Leuthold Group)
1.4.3. Patterns Trasversali riguardanti le Caratteristiche Aziendali
Un altro genere di pattern è individuato sulla base delle caratteristiche economiche delle
singole imprese, di cui andremo a considerare in particolare il cd. “size effect” e le c.d. “value
stocks”.
18
Effetto Dimensione
L’effetto dimensione è uno dei pattern più veritieri nella predizione dei rendimenti. Per
“effetto dimensione” s’intende la tendenza, nel medio-lungo termine, dei titoli delle società
più “piccole”, a generare rendimenti maggiori rispetto a quelli di società più “grandi”
(grandezza considerata in termini di capitalizzazione di mercato, prezzo per azioni in
circolazione). Le rilevazioni econometriche (Keim, 1988) riportano che dal 1926 si nota una
visibile differenza di almeno un punto percentuale nei rendimenti a un anno delle imprese
“piccole” rispetto a quelle più “grandi”. Inoltre, Fama e French (1993), sulla base dell’analisi
dei dati dal 1963 al 1990 suddivisi in decili secondo capitalizzazione, come illustra il Grafico
1.4.3, hanno individuato che il primo 10% dei titoli a più bassa capitalizzazione ha ottenuto
rendimenti mensili mediamente più alti rispetto ai decili con più elevata capitalizzazione.
Grafico 1.4.3 Rendimenti Medi Mensili per Portafogli costruiti sulla base delle Dimensioni:
1963-1990 (Fonte: Fama e French, 1992)
Per il capital asset pricing model, se il “beta” è considerata misura corretta del rischio
(sistematico) di un titolo (la misura della variazione del suo rendimento rispetto a una
variazione del rendimento del mercato), l’effetto dimensione identificherà un’anomalia di
mercato portando a un’inefficienza dovuta a un premio per il rischio maggiore a quanto
atteso. Tuttavia, Fama e French (1993) hanno individuato anche che la relazione tra β e
rendimenti nel periodo considerato è stata piatta, e non inclinata verso l’alto come il CAPM
prevede; oltretutto, se i titoli sono divisi in decili sul β, i dieci portafogli costruiti in base alla
capitalizzazione riportano gli stessi risultati evidenziati dalla relazione precedente. D’altro
canto, eliminando la suddivisione per capitalizzazione, la relazione tra β e rendimento torna a
19
essere piatta. Questo evidenzia che la dimensione dell’impresa potrebbe essere un proxy
migliore del rischio rispetto al beta, e in relazione a ciò l’effetto dimensione non porterebbe a
un’inefficienza del mercato.
Sempre su tale anomalia, Chan e Chen (1988) hanno dimostrato che, per portafogli formati su
base dimensionale, i β stimati di questi portafogli hanno correlazione negativa pressoché
perfetta (– 0.988) con la capitalizzazione media delle aziende in portafoglio. Per di più,
considerando anche che il β di un titolo aumenta con l’indebitamento, espresso come
leverage, allora anche il leverage potrebbe essere un proxy. In aggiunta, Chan e Chen (1991)
hanno argomentato che l’effetto dimensione è dovuto anche alla presenza di aziende “in
sofferenza” nell’analisi dei rendimenti; questo perché quando la dimensione è definita
sull’equity dell’azienda, tra i portafogli formati da titoli d’imprese “piccole”, sono inclusi
anche titoli di aziende “in sofferenza”, le cui performance dipendono fortemente dalle
condizioni commerciali al tempo d’analisi. Queste “sofferenze” sarebbero un nuovo fattore di
rischio non previsto da β.
Un’altra posizione da considerare, analoga alla precedente, è l’esistenza di un cd. “bias di
sopravvivenza” (survivorship bias), la tendenza ad escludere le imprese “fallite” dalle analisi
dei dati, in quanto non più esistenti. Ad esempio, un ricercatore che vuole esaminare la
performance delle aziende a bassa capitalizzazione nei dieci anni precedenti ad oggi misurerà
la performance delle sole aziende sopravvissute e non quella delle fallite, il che potrebbe
portare ad un bias della regressione effettuata.
Value e Growth Stocks
Per “value stocks” s’intendono azioni d’imprese aventi un basso market-to-book value (o un
basso price-earnings ratio), mentre per “growth stocks” s’intendono azioni d’imprese aventi
un alto market-to-book value (o un alto price-earnings ratio), dovuto frequentemente alla
presenza di elevati intangibili non contabilizzati e/o a una forte crescita. Per alcune ricerche,
le “value stocks” raggiungono rendimenti più alti rispetto alle “growth stocks”.
Quest’affermazione è coerente con le teorie comportamentali per le quali gli investitori
tendono a essere troppo sicuri delle loro abilità di perseguire grandi aumenti di ricavi, e quindi
sono portati a pagare troppo per le growth stocks.
Riguardo a questa classificazione delle azioni, per quanto osservato dal mercato azionario
americano e giapponese, il price-to-book ratio potrebbe essere un’altra variabile in grado di
prevedere i rendimenti futuri nel mercato azionario. A tal scopo, Fama e French (1993) hanno
ipotizzato un modello di asset pricing a tre fattori, includendo il price-to-book value e la
capitalizzazione, già vista in precedenza, come misure del rischio intese ad annullare l’effetto
20
distorsivo del mercato portato da quest’ultimi. Ad ogni modo, l’effetto del price-to-book è
ancora assoggettato a un fattore di timing: come evidenziato da Fama e French (1993)
(Grafico 1.4.4), dagli anni ’60 agli anni ’90 si ha un unico periodo in cui le value stocks
hanno prodotto un consistente rendimento in eccesso rispetto agli altri titoli.
Grafico 1.4.4 Performance di Fondi Comuni “Value” vs. Fondi Comuni “Growth”: 1937-Giugno 2002
(Lipper Analytic Services and Bogle Research Insitute, Valley Forge, Pennsylvania)
1.4.4. Una Breve Considerazione
Tirando le somme, è possibile dire che, da quanto dimostrato dalla copiosa letteratura a favore
della teoria dei mercati efficienti, i patterns analizzati non sono mai così sufficientemente
stabili o ampi da assicurare risultati più elevati di quelli garantiti dal mercato rispetto al
rischio sostenuto, ma piuttosto sono tali da auto-distruggersi una volta individuati a favore
nell’efficienza. A proposito delle evidenze empiriche di cui è fuor dubbio la correttezza (e.g.
l’effetto dimensione), non si può dire che esse portino ad inefficienze del mercato, ma al
contrario è possibile affermare che esse determinino la necessità di “espandere” gli attuali
modelli dell’asset pricing, considerando nuovi proxies per la valutazione del rischio di cui il
beta si è dimostrato uno stimatore debole.
2. Antitesi: Le inefficienze informative dei mercati
La teoria dei mercati efficienti di Fama (1970) è stata al centro dell’attenzione della teoria
economica per tutto il corso degli anni ’70, soprattutto “per la sua capacità di utilizzare le
aspettative razionali per legare la finanza e l’intera economia in un’unica elegante teoria”
(Shiller 2003, p. 83). Tuttavia, già al tempo esistevano alcune pubblicazioni sulle anomalie di
tale modello: lo stesso Fama (1970), com’è già stato affermato, notò alcune dipendenze seriali
nei rendimenti di mercato, senza approfondirne nei particolari la dimensione. Dagli anni ’80,
furono compiute una serie di analisi econometriche sulla validità del modello dei mercati
efficienti, basate sulle serie temporali di prezzi, dividendi e utili. Furono scoperte diverse
21
anomalie, alcune delle quali già in precedenza citate, ma tra queste il problema rappresentato
dall’eccesso di volatilità risultò molto più grande di quanto si potesse immaginare. Nei
seguenti paragrafi si analizzeranno le principali teorie sull’eccesso di volatilità nei mercati, e
si andrà a considerare l’attuale sviluppo del diffuso pensiero di inefficienza dei mercati in
un’ottica “comportamentale”.
2.1.
La Volatilità dei Mercati
Tra tutte le teorie in contrasto con l’ipotesi dei mercati efficienti, quelle legate all’eccesso di
volatilità dei prezzi sono le più rilevanti. La questione è stata trattata per la prima volta nei
primi anni ‘80 quando, contemporaneamente e in maniera indipendente, Shiller (1981) e
LeRoy e Porter (1981) hanno ricavato l’esistenza di alcuni “limiti” imposti sulla volatilità dei
prezzi e dei rendimenti da parte della teoria dei mercati efficienti. Da questi, le analisi
econometriche dei mercati hanno evidenziato che essi non sono rispettati.
2.1.1. Robert Shiller (1981) e l’ex post Rational Stock Price
Shiller (1981), si avvicina all’“excess volatility puzzle” assumendo il concetto di “ex post
rational stock price”, inteso come il valore attuale scontato della sommatoria dei dividendi
reali successivi al periodo corrente, utilizzando un approccio “grafico” per l’analisi empirica.
L’uguaglianza imposta dalla teoria dei mercati efficienti tra prezzo corrente e quello ex post,
fa emergere un vincolo per il quale la volatilità del prezzo corrente non può eccedere quella
del valore attuale dei dividendi reali stimato.
Il Modello Teorico
Shiller (1981), considerando il modello dei mercati efficienti, definisce il prezzo reale Pt di un
titolo azionario all’inizio del periodo corrente t come segue.
Pt =
1
X
k+1
Et Dt+k
(1)
k=0
Dove EtDt è il valore atteso del dividendo pagato alla fine del periodo t, condizionato dalle
informazioni disponibili al tempo t, mentre 0 < γ < 1 è il fattore di sconto reale assunto
costante. L’informazione in t include Pt, Dt e i loro valori temporali precedenti, oltre ad altre
variabili. Si assume il rendimento dato dall’acquisto dell’azione all’inizio di t e la sua vendita
al tempo t+1 come Ht ≡ (∆Pt+1 + Dt) / Pt. Il primo termine del numeratore è il capital gain,
ottenuto dalla variazione del prezzo di vendita in t+1, mentre il secondo termine è il dividendo
pagato al termine del periodo t. Se si assume costante nel tempo tale rendimento r, vale la
condizione Et(Ht) = r. Utilizzando r come tasso di sconto in (1), il fattore di sconto è pari a γ =
22
1/(1+r). Tale modello può essere riscritto considerando un fattore di crescita nel lungo
periodo. Si definiscono pt = Pt / λt-T e dt = Dt / λt+1-T, dove il fattore di crescita è dato da λt-T =
(1+g)t-T; g è il tasso di crescita mentre T è l’anno base. Dividendo per il fattore di crescita nel
precedente modello è possibile ottenere quanto segue.
pt =
=
1
X
k=0
1
X
)k+1 Et dt+k
(
(2)
¯
k+1
Et dt+k .
k=0
Affinché l’equazione dia un prezzo finito è necessario che g < r, quindi si assume γ ≡ λγ < 1 e
r > 0 , tasso di sconto per pt e dt, ottenuto da γ = 1/(1+ r ). Tale tasso di sconto è più
semplicemente il rapporto tra il dividendo medio e il prezzo medio. Infatti, ponendo
l’operatore di expectation per entrambi i termini del modello si ottiene quanto segue.
E(p) =
¯
1
¯
E(d)
Usando γ =1/1+r e risolvendo nell’equazione si ottiene che r = E(d)/E(p). È possibile
esprimere il modello anche in termini del valore fondamentale dell’asset p*t, espresso come il
valore attuale dei dividendi futuri scontato al tempo t.
pt = Et (p⇤t )
1
X
⇤
pt =
¯ k+1 dt+k
(3)
k=0
Ai fini dell’analisi, ponendo un valore arbitrario come “terminal value” di p*t, è possibile
determinare ricorsivamente una buona approssimazione del risultato della serie p*t, tornando
indietro dall’ultima data.
p⇤t = ¯ (p⇤t+1 + dt )
Man mano che si procede a ritroso dall’ultima data, l’importanza del “terminal value” scelto
diminuisce. Nei dati di Shiller (1981, p. 425), per un periodo di 108 anni dal 1871 al 1979,
γ è .954 e γ
108
è pari a .0063, prossimo allo zero. Perciò, all’inizio della serie temporale del
campione, il “terminal value” scelto ha un peso trascurabile nella determinazione di p*t.
Scegliendo “terminal values” differenti, il risultato consisterebbe nell’aggiungere o sottrarre
un trend esponenziale dal grafico di p*. È possibile osservare questo effetto nel Grafico 2.1.1,
che evidenzia l’incertezza in p*, nel quale esso è calcolato da “terminal values” alternativi (la
curva centrale è quella utilizzata per p* nell’analisi grafica).
23
Grafico 2.1.1 misure alternative di p*t, ottenute da diversi “terminal value”: 1871-1979 (Shiller, 1981)
Dall’equazione (3) possiamo dire che, nel modello dei mercati efficienti, il prezzo pt di un
asset al tempo t (o di un portafoglio azionario rappresentato da un indice) è il valore atteso di
p*t, il prezzo ex post dell’asset (o valore fondamentale), condizionato dall’informazione
disponibile al tempo t. Ciò significa che pt è una stima del fondamentale p*t, perciò ogni
movimento dei prezzi correnti è originato da nuove informazioni riguardo al valore
fondamentale dell’asset p*t.
Dal modello dei mercati efficienti indicato deriva la relazione p*t = pt + ut, dove ut è l’errore
derivante dalla stima del prezzo ex post, definibile dalla precedente relazione come ut = p*t –
pt. Per una stima ottimale, è necessario che l’errore ut sia indipendente da ogni variabile
informativa disponibile al tempo t; se questo fosse sensibilmente correlato anche solo a una di
queste informazioni, vi sarebbe la possibilità di migliorare l’accuratezza della stima, che
quindi non sarebbe ottimale. Tuttavia, per l’assunzione iniziale in (1) anche il prezzo corrente
pt è da considerarsi un’informazione al tempo t. Quindi è necessario che anche pt sia
indipendente dall’errore. Poiché pt e ut non sono correlati, per il principio per il quale la
varianza della somma di due variabili indipendenti è la somma della varianza dei singoli
addendi, dalla precedente equazione è possibile affermare che VAR(p*t) = VAR(pt) +
VAR(ut).
Da questa equazione, poiché la varianza dell’errore dev’essere non negativa, VAR(ut) ≥ 0,
otteniamo il vincolo della volatilità dei prezzi di mercato in un modello di mercati efficienti,
per il quale VAR(p*t) ≥ VAR(pt). Nel caso in cui il vincolo sia violato, il prezzo dell’azione
sovrastimerà sistematicamente il valore del fondamentale.
24
Analisi Empirica Originaria
Per l’analisi empirica, Shiller (1981) ha considerato come indice del prezzo di mercato lo
Standard and Poor’s Composite Stock Price Index e il Dow Jones Industrial Average (scontati
per il fattore proporzionale al percorso di crescita esponenziale nel lungo periodo) negli anni
1871-1979, da cui ha ricavato p*t come il valore attuale dei dividendi successivi all’anno
d’analisi t, calcolato come indicato in precedenza. È possibile osservare che il valore di p*t,
tracciato in un grafico temporale, si orienta in un trend stabile; al contrario, l’indice oscilla
attorno a questo trend. Per questo, la stabilità del valore attuale dei dividendi futuri suggerisce
la presenza di un eccesso di volatilità degli indici di mercato rispetto al valore attuale ottenuto
dal modello dei mercati efficienti.
Grafico 2.1.2 Real S&P500 e Real Dow Jones (linea scura) rapportati a p*t (linea tratteggiata),
rispettivamente per i periodi 1871-1979 e 1928-1979 (Shiller, 1981)
Analisi Empirica Rivisitata
L’analisi di Shiller (1981) ha acceso una serie di critiche sulla sua validità di cui si andrà a
osservarne una breve successione temporale. Il primo problema evidenziato riguarda
l’assunzione di stazionarietà di dividendi e prezzi dei titoli. Per Marsh e Merton (1986), i
dividendi non hanno bisogno di “seguire” un trend, neanche se i relativi utili lo fanno, poiché
l’emissione e il riacquisto di azioni allontanano i dividendi dal trend in modo casuale. Inoltre,
se i manager aziendali utilizzano i dividendi per fornire un payout più basso dalle attività
dell’azienda, ci si aspetterà che i prezzi del titolo varino più velocemente rispetto ai dividendi;
questo fenomeno di “dividend smoothing”, mantenendo la distribuzione dei dividendi pari
agli utili per azione, creerebbe instabilità nei prezzi con una maggiore volatilità rispetto ai
valori attuali.
Un'altra critica è portata dal fatto che la teoria dei mercati efficienti suggerisce relazioni ben
più complesse rispetto a un modello del valore atteso in cui il fattore di sconto è assunto
25
costante nel tempo. Ad esempio, è possibile far corrispondere il tasso di sconto con i tassi
d’interesse, scontando il valore attuale dei dividendi reali dell’indice di mercato per i tassi
d’interesse a un anno, sommati a un premio per il rischio pari alla media geometrica dei tassi
d’interesse totali a un anno.
⇤
Pr,t
=
1 Y
⌧
X
1
(1 + rt+j + )
⌧ =t j=0
D⌧
Tuttavia, dall’analisi empirica, tassi variabili d’interesse nella formula del valore attuale non
sono in grado di favorire il modello dei mercati efficienti, giacché il prezzo corrente rimane
comunque più volatile del valore attuale, specialmente per la seconda metà del 20esimo
secolo. Oltretutto, tali cambiamenti nel tempo assunti nel valore attuale sembrano avere una
certa somiglianza con le variazioni dei prezzi. Un approccio alternativo per rendere variabile
il fattore di sconto è formulato utilizzando il saggio marginale di sostituzione intertemporale
per il consumo, in considerazione di alcuni modelli dei mercati finanziari degli anni ’70.
Grossman e Shiller (1981) hanno tracciato tale modello in un grafico in cui il saggio assunto è
quello di un individuo rappresentativo ed è relativo al consumo di beni non durevoli e servizi
pro capite, presi dall’US National Income and Product Accounts, con un coefficiente di
avversione al rischio pari a 3.
⇤
Pc,t
1 ⇣
X
C t ⌘3
=
D⌧
C
⌧
⌧ =t+1
Anche in questo caso, il modello presenta solamente flebili relazioni con i prezzi correnti, che
non appaiono abbastanza volatili da giustificare i movimenti nei prezzi, a meno di un
coefficiente d’avversione esageratamente alto, molto più del coefficiente 3 utilizzato da
Grossman e Shiller. Inoltre, forzando una certa somiglianza tra prezzo corrente e valore
attuale, è possibile notare che quest’ultimo ha un picco nel 1929 e una caduta nel 1933,
coerentemente con i prezzi correnti. Questa tendenza è legata all’andamento dei consumi, che
ha raggiunto un picco nel 1929 per poi cadere nel 1933, come se le persone avessero una
lungimiranza perfetta rispetto alla depressione incombente. Tuttavia, quest’ultima realtà è
alquanto improbabile, poiché in tal caso il prezzo corrente dovrebbe seguire esattamente
l’andamento del valore attuale. Il fattore di sconto appena considerato, nonostante presenti
alcuni movimenti in comune con i prezzi correnti, non giustifica la volatilità dei prezzi.
Infatti, Shiller (1982) ha dimostrato che il modello teorico implica un limite inferiore sulla
volatilità del saggio marginale di sostituzione che è, sulla base dei dati americani, molto più
alto di quanto osservato, a meno di un’avversione al rischio troppo elevata per essere reale.
26
Grafico 2.1.3 S&P500: Prezzi e Valori Attuali dei Dividendi (in termini reali) (Shiller, 2003)
Il presente grafico temporale è un’estensione del modello originario di Shiller (1981) per il
solo indice S&P500, con dati aggiornati al 2003, in cui sono stati inseriti i discussi present
value dei dividendi. La linea più scura rappresenta lo S&P500 per il Gennaio dell’anno
osservato, mentre la linea meno scura (PDV, Constant Discount Rate) rappresenta il valore
attuale dei dividendi reali, scontati per un valore costante pari alla media geometrica dei
rendimenti reali dell’intero campione, pari al 6.61%. I dividendi successivi al 2002 sono
assunti pari ai dividendi dell’anno 2002 moltiplicati per 1.25 (al fine di correggerne il payout
più basso) con un fattore di crescita pari alla media geometrica dei tassi di crescita storici per i
dividendi, del 1.11%. La linea più sottile (PDV, Interest Rates) rappresenta il valore attuale
scontato per i tassi di interesse, da cui risultano le precedenti conclusioni. La stessa cosa vale
per la linea tratteggiata, pari al grafico di Grossman e Shiller (1981) del valore attuale dei
dividendi reali scontato per il saggio marginale di sostituzione nei consumi. I valori reali sono
ottenuti dai valori nominali divisi per l’indice dei prezzi al consumo dei mesi precedenti al
Gennaio del periodo considerato.
2.1.2. LeRoy e Porter (1981) e la Present-Value Relation
Leroy e Porter (1981), al contrario di Shiller, analizzano la volatilità dei mercati finanziari
seguendo una procedura basata su un modello analitico. Essi specificano che dividendi,
prezzi, e qualunque altra variabile ausiliaria che sia utilizzabile come stimatore dei dividendi
futuri sono generate da un modello lineare auto-regressivo.
27
Il modello teorico
LeRoy e Porter (1981), ai fini dell’analisi, considerano la “Present—Value Relation”, definita
come segue.
yt =
n
X
j e
xt (j)
(1)
j=0
Dove {xt} è la serie temporale degli utili di un’impresa (o del mercato rappresentato da un
indice), generata congiuntamente a una serie temporale {ẕt} rappresentante ogni altra variabile
oltre agli utili passati utilizzata per la stima degli utili futuri, {yt} è la serie temporale dei
prezzi dell’azione (o dell’indice), e β è il fattore di sconto. Questa relazione significa che il
prezzo corrente del titolo azionario è pari all’attuale valore atteso scontato degli utili aziendali
futuri, in cui il valore atteso è condizionale all’informazione correntemente disponibile. Di
seguito, si vogliono considerare tre teoremi determinati da LeRoy e Porter (1981) che fissano
dei vincoli sulla varianza dei prezzi correnti, al fine di testare la validità della precedente
uguaglianza all’interno della teoria dei mercati efficienti. Si descrivono i teoremi a partire dal
secondo, ai fini della dimostrazione.
Secondo Teorema – Il coefficiente di dispersione (inteso come il rapporto di σ sulla media)
di {yt} è maggiore rispetto a quello di {ŷt} e minore rispetto a quello di {y*t}. Questo teorema
fissa i limiti superiori e inferiori per la varianza dei prezzi correnti, calcolabili dalla sola
distribuzione di {xt}. Per la dimostrazione, si considerano due serie temporali {ŷt} e {y*t},
generate alterando l’ammontare d’informazioni sulle future “innovazioni” in {xt} (s’intende
l’informazione ottenuta tra, ad esempio, t-1 e t in grado di generare una variazione nelle
aspettative della variabile in oggetto, le “novità” del mercato). Rispettivamente, assumendo
che non vi sia informazione sulle future innovazioni di {xt}, la serie temporale dei prezzi sarà
definita come {ŷt}, mentre se le future innovazioni in {xt} sono conosciute, la presente serie
temporale sarà definita come {y*t}. La serie temporale {yt} si può quindi collocare in una
situazione intermedia tra le due.
Per definizione, la serie temporale y*t si esprime in questo modo.
yt⇤ = xt + xt+1 +
2
xt+2 + . . .
Si definisce πt il valore scontato dell’errore della stima di xet(j).
⇡t =
1
X
j
(xt+j
xet (j))
(2)
j=1
Conoscendo πt, è possibile affermare che il valore del prezzo corrente in y*t è pari al valore
determinato da yt sommato all’errore della stima: y*t = yt + πt.
28
Poiché yt dipende solamente dall’innovazione in xt fino al periodo t, mentre πt solamente dalle
innovazioni rilevate dopo il periodo t, si può affermare che yt e πt siano statisticamente
indipendenti. Perciò, è possibile affermare quanto segue.
2
yt⇤
=
2
yt
+
2
⇡t
(3)
Per questa equazione, maggiore è la varianza della sommatoria degli errori della stima,
minore è la varianza di {yt}. Di conseguenza, la varianza di {y*t} fornisce un limite superiore
alla varianza di {yt}. Assumendo che il set d’informazioni contenga sempre almeno i valori
passati di {xt}, la varianza di {ŷt} fornisce un limite inferiore alla varianza di {yt}. Quindi,
esprimendo la presente relazione in termini di coefficienti di dispersione, è possibile
affermare che CD(ŷt) ≤ CD(yt) < CD(y*t).
La disuguaglianza stretta deriva dal fatto che l’incertezza non può essere interamente
eliminata nel modello.
Primo Teorema – Il coefficiente di dispersione di {yt} è minore rispetto al coefficiente di
{xt}. In virtù del secondo teorema, è sufficiente osservare che il coefficiente di dispersione di
{y*t}, limite superiore rispetto a {yt}, è inferiore al coefficiente di {xt}. Sviluppando tale
relazione, dall’equazione di y*t è possibile individuare la sua varianza.
2
yt⇤
=
1
1
2
[ x (0) + 2
x (1)
+2
2
x (1)
+ ...]
(4)
Nell’equazione, γx(i) ≡ covarianza(xt, xt-i) per ogni t. Dalla disuguaglianza di CauchySchwarz, γx(i) < γx(0) per ogni i > 0, perciò ne segue che
2
yt⇤
<
1
x (0)
2
(5)
Da cui si può inoltre determinare che CD(y*t) < CD(xt).
Terzo Teorema – La varianza {y*t} è pari alla somma tra la varianza di {yt} e quella di {πt},
il valore scontato dell’errore di stima. Inoltre, tali valori sono stimabili direttamente
utilizzando di {xt} e {yt}. Il significato di questo teorema è che l’equazione (3) può essere
utilizzata per la costruzione di un test puntuale del modello dei mercati efficienti, trascurando
le variabili {ẕt} considerate nella definizione della “Present–Value Relation”, da cui si origina
congiuntamente la distribuzione di {yt}. Tale affermazione non è ovvia, poiché xet(j),
utilizzato per ottenere πt, non è direttamente osservabile e non può essere calcolato senza
prima conoscere la distribuzione congiunta di ẕt con {xt}. Infatti, nonostante πt non sia
direttamente osservabile, la sua varianza può essere calcolata dalle distribuzioni di {xt} e {yt}.
Trascurando a fini descrittivi il modello matematico, la varianza dell’errore sarà direttamente
misurabile e pari alla seguente:
29
2
2
⇡t
=
yt+1 +xt yt
2
1
(5)
Definiti i limiti della varianza, si può esprimere la teoria dei mercati efficienti come il vincolo
per il quale il rendimento reale dell’azione è una serie temporale {rt} che rispetta
l’uguaglianza E(rt | It) = ρ, dove ρ è una costante positiva e It l’informazione disponibile al
tempo t. Se tutti gli utili reali xt dell’azione sono pagati in dividendi, e il pagamento è
effettuato all’inizio del periodo, il tasso di rendimento sarà definito come segue.
rt =
yt+1
yt x t
1
(6)
Prendendo le aspettative condizionate su It, e utilizzando la relazione E(rt | It) = ρ, la
precedente equazione può essere espressa come segue.
rt = x t +
yte (1)
1+⇢
(7)
Ripetendo tale procedura e assumendone la convergenza è possibile ottenere la “PresentValue Relation” espressa nell’equazione (1), valida in una situazione di mercato efficiente.
Perciò, i teoremi individuati in precedenza sulla base della “Present-Value Relation” sono
conseguenze dell’efficienza di mercato, come espresso nell’equazione (5). È quindi possibile
testare la validità dell’efficienza dei mercati sulla base dei vincoli forniti dai teoremi,
assumendo il rispetto di questi come ipotesi nulla. Si riformulano i vincoli in maniera
conveniente ai test:
− il primo teorema suggerisce l’ipotesi ƒ1 > 0, in cui ƒ1 stima la differenza tra i coefficienti
di dispersione di xt e yt;
− il terzo teorema suggerisce l’ipotesi ƒ3 = 0, in cui ƒ3 stima la differenza tra γ*y(0) – γy(0) –
γπ(0) per γ definito come nel primo teorema;
− il limiti imposti dal secondo teorema suggeriscono le ipotesi ƒu2 > 0 e ƒl2 > 0, dove ƒu2
stima la differenza tra i coefficienti di dispersione di y*t e yt, mentre fl2 per quelli di yt e
ŷt.
Analisi Empirica
I test sono stati condotti sulla base dell’indice di mercato S&P500, e di tre imprese individuali
quali AT&T (T), General Electric (GE) e General Motors (GM). Si considerano non
significativi i trend negativi sui titoli, indotti dall’inflazione e dalla ritenzione degli utili. Nella
seguente tabella sono presenti, nella parte sinistra, le stime delle statistiche ƒ1, ƒu2, ƒl2, ƒ3 e
delle statistiche z, risultato della standardizzazione asintotica a normale delle statistiche ƒ, e
30
nella parte destra le stime della varianza e dei coefficienti di dispersione rispettivamente di yt,
ŷt, y*t e πt.
Tabella 2.1.1 Valori dei Test Statistici effettuati (LeRoy e Porter, 1981)
Indice o Impresa
ƒ u2
ƒ1
ƒ l2
ƒ3
Standard & Poor (S&P500)
z
- .280
.396
- .348
- 8.63
- .193
–
- .242
- .254
AT&T (T)
z
- .281
.42
- .314
- 828.7
- 1.096
–
- 1.223
- 2.006
General Electric (GE)
z
- 6.84 · E-05
.288
- .264
- 1,478.4
- .006
–
- 2.57
- 4.41
General Motors (GM)
z
.103
.375
- .314
- 1,773.9
.596
–
- 1.84
- 2.76
Tabella 2.1.2 Varianze e Coefficienti di Dispersione (LeRoy e Porter, 1981)
Varianze
Indice o Impresa
γy(0)
γŷ(0)
Coefficienti di Dispersione
γ*y(0)
γπ(0)
CD(x)
CD(ŷ)
CD(y)
CD(y*)
S&P500
4.89
1.64 · E-01
.255
3.99
.172
8.28 · E-02
.452
.052
AT&T
385.7
9.57 · E-07
24.6
467.6
.139
6.68 · E-06
.420
.106
General Electric
165.9
3.81 · E-05
1.12
1,313.6
.287
4.36 · E-05
.288
.024
General Motors
690.5
3.37 · E-03
19.9
1,103.3
.481
2.64 · E-04
.378
.064
In relazione al primo teorema, per GM il coefficiente di dispersione degli utili eccede quello
dei prezzi, come richiesto dal vincolo, mentre per GE le due statistiche sono pressoché
identiche e per AT&T e S&P500 il coefficiente di dispersione di y è molto più alto di quello
degli utili. Tuttavia, nessuna delle statistiche z per il test associato H0: ƒ1 = 0 è
sufficientemente rilevante, quindi si accetta l’ipotesi nulla al livello di significatività del 5%.
Continuando, l’ipotesi H0: ƒl2 > 0 per la quale la varianza dei prezzi supera il limite inferiore
formulato dal secondo teorema è accettata. Sulla base delle stime, H0: ƒu2 > 0 è largamente
violata da tutti i campioni considerati, ma ancora una volta le statistiche z sono molto alte, e
solo per GE si può rigettare l’ipotesi nulla, mentre per GM si è al limite a un livello di
significatività del 5% e per AT&T e S&P500 è indicata l’accettazione di H0. Per concludere,
l’assunzione più restrittiva, costituita dal terzo teorema, H0: ƒ3 = 0, indica un chiaro rigetto
dell’efficienza dei mercati per i titoli delle imprese individuali, mentre per l’indice di mercato
la z non è significativamente lontana dallo zero.
Riassumendo, i test fissati sulla base dei teoremi costruiti all’interno di un modello di mercato
efficiente sono fortemente violati a livello empirico, nonostante gli intervalli di confidenza
31
siano tanto ampi da non considerare le conclusioni ottenute sempre statisticamente
significative. Questa conclusione differisce nettamente con altri test di dispersione, tra cui
quello di Fama (1970), che indicano l’accettazione dell’ipotesi nulla. Dagli strumenti utilizzati
da LeRoy e Porter (1981), tuttavia, non si è in grado di risolvere la differenza tra i test che
accettano l’ipotesi di efficienza e quelli che la rigettano; una soluzione può essere quella che i
presenti test hanno una potenza maggiore rispetto ai precedenti.
2.2.
I Comportamenti Irrazionali degli Investitori: la “Behavioral
Economics”
Shiller (2003, p. 83) definisce la “Behavioral Finance" come «la finanza con una più ampia
prospettiva sociale, che include la psicologia e la sociologia». Essa fornisce brillanti spunti
per identificare alcuni dei comportamenti irrazionali adottati dagli investitori. Questa si
colloca all’interno di una realtà più ampia del mondo economico, rappresentata dalla
“Behavioral Economics”. L’idea di inserire concetti provenienti dalla psicologia all’interno
dei modelli economici non è per niente recente; essa risale al 1898, quando Thortsein Veblen
criticò la teoria economica per l’abuso del concetto di “razionalità”. A evidenza di ciò, più
recentemente sono stati assegnati, implicitamente, come nel caso di Shiller o Akerlof
(premiato per la sua ricerca su “modelli di agenti economici razionali in mercati dove i
venditori hanno una maggiore informazione sulla qualità dei prodotti rispetto agli acquirenti”)
o esplicitamente, come quello di Daniel Kahnerman e Vernon Smith, Premi Nobel per
l’Economia per lavori legati alla “Behavioral Economics” sempre molto datati rispetto
all’assegnazione. Per un’impressione di cosa sia realmente la “Behavioral Economics” ci si
può riferire a George Akerlof (2001) che nella sua Nobel Lecture ha fornito una lista di quegli
argomenti che si possono considerare “comportamentali”: reciprocità, equità, identità,
illusione monetaria, avversione al rischio, “herding” (comportamento di massa), e
“procrastination” (dilazione). Ancora, DellaVigna (2009) ha fornito un buon profilo dei
problemi esaminati dalla “Behavioral Economics”, con alcune evidenze empiriche. Questi
sono le preferenze atipiche (non-standard preferences), tra cui è possibile distinguere tra
preferenze temporali, preferenze nel rischio e preferenze sociali, le false credenze (incorrect
beliefs), e i disturbi sistematici nel processo decisionale (systematic biases in decision
making). Di seguito si analizzeranno brevemente alcuni di questi concetti, allo scopo di
fornire uno spunto di come questi possano influenzare il processo decisionale degli individui
anche in ambito finanziario.
32
2.2.1. I Disturbi (Sistematici) del Processo Decisionale: Framing
Uno dei paradossi chiave della Behavioral Economics è quello che viene chiamato “effetto
framing”, che DellaVigna (2009) considera un importante disturbo sistematico all’interno dei
processi decisionali. Ciò può essere riassunto come il fenomeno per il quale la risposta a una
certa richiesta dipende da come questa viene formulata. Un pratico esempio è il seguente
(Levine 2003, p. 89): richiedendo di esprimere la propria preferenza tra un candidato che ha
mollato Harvard e un altro candidato che invece ha fondato Microsoft, probabilmente il
candidato più votato sarà il secondo, quando in realtà entrambi i candidati si riferiscono a Bill
Gates.
Una variazione al tema del framing è apportata dal cd. “endowment effect” (effetto
donazione). Per tal effetto, il modo in cui è valutato un dato oggetto dipende dalla posizione
assunta dal soggetto che lo valuta, a seconda che questo sia l’acquirente o il venditore
dell’oggetto. Precisamente, è necessario determinare quella che viene chiamata disponibilità a
pagare per il dato oggetto (willingness-to-pay) e quella che viene chiamata disponibilità ad
accettare per un dato oggetto (willingness-to-accept), che rappresenta l’esatto contrario. Ad
esempio, chiedendo a un certo numero d’individui la loro disponibilità a pagare per una tazza
di caffè, questa sarà relativamente bassa, mentre se è data loro una tazza di caffè ed è richiesta
la loro disponibilità a venderla per un certo compenso, quest’ultimo sarà relativamente alto.
Un altro punto a favore è dato dal c.d. “effetto anchoring”. Per tale fenomeno, è possibile
guidare le persone a fare offerte su oggetti di valore pressoché nullo comunicando loro un
numero irrilevante prima che essi presentino la loro offerta. Questo è stato documentato da un
esperimento di Ariely, Loewenstein e Prelec (2003). È stato richiesto a un gruppo americano
d’individui di prendere nota del numero finale del loro SSN, e poi della loro disponibilità a
pagare per alcuni oggetti. È stato rilevato che le persone aventi un numero più alto nel SSN
sono quelle che hanno compiuto offerte più alte per gli oggetti offerti, e viceversa. Tuttavia,
questo esperimento sembra essere un “artificio” che non può essere replicato.
2.2.2. Le “False Credenze”
DellaVigna (2009) individua alcuni atteggiamenti per i quali le persone possiedono
continuamente credenze sbagliate. Una di queste è quella per cui le persone sono
sistematicamente troppo fiduciose, tendendo a considerare i piccoli campioni in maniera
troppo affidabile, e sottovalutando la propria capacità di adattarsi alle circostanze future.
In quest’ambito si colloca il concetto di “Illusione Monetaria” di Akerlof. Si tratta di un errore
di valutazione compiuto da chi ragiona in termini di valore nominale della moneta, tenendo
conto in modo inadeguato della variazione del rischio e del suo valore reale. Ad esempio un
33
aumento dei salari del 10%, accompagnato da un aumento del 10% nei prezzi, nel breve
periodo farà sentire le persone più ricche di quanto sono, nonostante non ci si possa
permettere più di quanto originariamente previsto.
Akerlof e altri evidenziano quella che viene chiamata “vischiosità nei prezzi” (price
stickiness), che consiste nella tendenza di mantenere inalterati i prezzi nel breve periodo
nonostante una caduta nella domanda. Un esempio pratico di tale concetto è quello del
ristorante: se i prezzi sono elencati all’interno del menù, e questo ha un certo (seppur piccolo)
costo di stampa, in caso di una variazione dei prezzi di listino non verrà stampato un nuovo
menù immediatamente.
Tuttavia, non è semplice determinare se le persone sono seriamente troppo fiduciose o se esse
vogliono che siano gli altri ad avere questa credenza. Vi sono molti vantaggi nell’essere
ritenuti esperti; per questo, è possibile che gli individui perdano fiducia nei confronti delle
persone che non agiscono in maniera “sicura”. Shefrin (2000) afferma che le persone
vogliono essere “sopra la media”. Tuttavia, circa la loro metà si collocherà sotto la media. Si
utilizza l’esempio della bravura alla guida dell’auto; in un questionario, alla richiesta di
quanto si pensa di essere abili alla guida, tra il 65% e l’80% delle persone ha dichiarato di
avere un’abilità sopra la media. Ancora, Barber e Odean (2001) osservano che gli investitori
nei mercati finanziari compiono un numero eccessivo di scambi per essere razionali, e
l’intenso trading deriva dalla troppa fiducia delle persone nel possedere informazioni o abilità
sopra la media. Inoltre, vi è una differenza di fiducia di genere: gli uomini tendono a compiere
più scambi rispetto alle donne, subendo maggiori perdite per l’eccessiva fiducia.
Un altro fenomeno che genera false credenze è dato dal fatto che le persone non conoscono
perfettamente le leggi della probabilità applicate alle piccole quantità. Ad esempio, se una
moneta è lanciata più volte con risultato testa, le persone diranno che il risultato al prossimo
lancio sarà ancora testa, affermazione incongruente dal punto di vista probabilistico.
DellaVigna (2009) afferma che le persone sottovalutano sistematicamente le loro abilità di
adattamento. In particolare, le persone tendono a reagire in maniera eccessiva alle crisi
economiche, il che le porta a cambiare il loro modo di vivere. Un pratico esempio è dato dagli
accademici a cui non è rinnovato l’ incarico; si accorgeranno che questo li renderà molto
meno infelici di quanto si aspettassero. Inoltre, DellaVigna afferma inoltre che le persone
hanno un’attenzione limitata; esse sono circondate da molti fatti, che possono difficilmente
incorporare per intero nelle proprio credenze.
Infine, DellaVigna afferma che le decisioni dipendono anche dalle emozioni. Le persone sono
più propense a comprare un’auto costosa rilassandosi in una poltrona confortevole e
sorseggiando caffè piuttosto che stando in piedi sotto la pioggia.
34
2.2.3. L’Identità: il cd. “Herding Behavior”
DellaVigna (2009) suggerisce che il fenomeno per il quale le persone rispondono alle
pressioni sociali crea una distorsione sistematica nelle decisioni; esse sono molto più propense
a rispondere come pensano che “gli altri” rispondano. Akerlof (2002), a proposito
dell’identità, ha affermato essa ha un ruolo di rinforzo nella povertà e nelle disuguaglianze
sociali. Per Akerlof, la teoria classica non è in grado di spiegare, ad esempio, il
comportamento auto-distruttivo degli afro-americani che, oltre a un tasso di povertà del
23.6% nel 2000 rispetto a quello del 7.7% dei bianchi, possiedono più alti tassi di criminalità,
tossicodipendenza, alcolismo, dipendenza dallo Stato… Akerlof e Kranton hanno sviluppato a
tal scopo una teoria in grado di determinare il ruolo dell’identità e delle decisioni che i singoli
sono in grado di compiere su chi vogliono essere. Secondo questa teoria le etnie più in
difficoltà affrontano una “scelta obbligata”, adeguandosi alla cultura dominante per non
sopportare costi psicologici e non rimanere isolati. Tale fenomeno è una versione del c.d.
“herding model”, per il quale le persone seguono semplicemente l’andamento della folla.
2.2.4. Preferenze Temporali: il cd. “Present Bias”
Nel 1956, il lavoro di Richard Strotz ha prodotto un particolare modello, l’hyperbolic
discounting model, non considerato fino all’avvento della “Behavioral Economics”.
Considerando il comportamento degli individui nel consumo, dati due beni identici la
maggioranza delle persone assegna un valore più basso a quello che otterrà in un futuro più
lontano, quindi la funzione di decadimento del valore di un bene ottenuto al tempo t sarà una
funzione decrescente di t. Per la teoria classica, tale funzione è esponenziale, con decadimento
a tasso costante. Tale modello, invece, afferma che il decadimento è più rapido nel breve
periodo, mentre è più lento nel lungo periodo, da cui si ottiene una funzione iperbolica.
Laibson (1997), nella formulazione di un’approssimazione di questo (che prende il nome di
quasi-hyperbolic o beta-delta discounting model) ha portato all’attenzione il fenomeno che ne
emerge, conosciuto come “present bias”, per il quale le preferenze dell’individuo variano in
maniera intertemporale, in modo tale che ciò che è preferito in un certo momento non sia
coerente rispetto a quanto preferito in un altro istante. Sulla base dei dati di Keren e
Roelosfma (1995), è possibile apportare un’illustrazione di tale bias. Se a un gruppo è
richiesto di scegliere tra $175 oggi e $192 tra quattro settimane questi sceglieranno il
pagamento immediato di $175, mentre se è presentata la scelta tra $175 in 26 settimane e
$192 in 30 settimane, la maggior parte delle persone sceglierà la soluzione a più lungo
termine.
35
Tabella 2.2.1 Scelte di Rendimento in due Scenari Temporali (Keren e Roelosfma, 1995)
Scenario
1
2
Alternative
Percentuale di Scelta
$175 oggi
0.82
$192 in 4 settimane
0.18
$175 in 26 settimane
0.37
$192 in 30 settimane
0.63
Considerando le due scelte a livello individuale, il fenomeno è solo “apparentemente”
incoerente con la teoria classica. Infatti, se le persone oggi hanno una migliore conoscenza dei
loro immediati bisogni rispetto ai bisogni futuri, alcune di esse potrebbero avere la razionale
necessità di possedere più denaro oggi rispetto ad un futuro. Ancora, solamente pochi
individui sapranno già se tra 26 settimane avranno un disperato bisogno di liquidità, quindi è
razionale investire sulla cifra più alta. Il problema si verifica quando, considerando
all’unisono i due eventi, tra 26 settimane gli individui che in precedenza hanno scelto i $192
in 30 settimane ora sceglieranno i $175. In tal caso, è lecito affermare che vi sia un conflitto
nella stabilità delle preferenze degli individui, in contrasto con la teoria classica.
36
3. Conclusioni
Nei lavori analizzati, sono state osservate le principali teorie a favore e contro l’ipotesi di
efficienza informativa dei mercati finanziari. In alcuni casi, vi sono evidenze per dire che gli
attori di mercato non sembrano sempre identificarsi con l’homo oeconomicus perfettamente
razionale prospettato dalla teoria classica. L’economia comportamentale, e con essa la finanza
comportamentale qui trattata, rappresenta sicuramente un approccio più “reale” alla teoria dei
mercati efficienti, contrapposto alla tradizione dei modelli economici. La frase di Kenneth
Boulding “Mathematics brought rigor to Economics. Unfortunately, it also brought mortis”
risulta esemplare per esprimere tale concetto. L’economia comportamentale ha sicuramente
portato una nuova ondata di fervore, con l’utilizzo di scienze non originariamente
convenzionali, al fine di spiegare i comportamenti economici nei mercati (ad esempio il
recente utilizzo delle “neuroscienze”). Tuttavia, questa non è in grado per se di “sviluppare”
l’economia, correggendone le debolezze e i difetti; piuttosto, essa si pone come una
“antagonista” rispetto all’approccio metodologico classico, in maniera complementare per
meglio comprendere i meccanismi di funzionamento dei mercati finanziari. Il successo
dell’antitesi, in particolare nella figura di Bob Shiller, definito come un “guru” da alcuni
segmenti della comunità finanziaria (Schwert, 1991), è stato aiutato dal personale interesse
dei professionisti del settore e dal grande impatto che queste ricerche hanno avuto su una
grande varietà di problemi del mondo reale. In particolare, il mondo macroeconomico ha
accolto queste teorie a braccia aperte in quanto, dichiarando l’irrazionalità dei mercati
azionari e obbligazionari, è possibile trarre una base razionale per un management attivo delle
politiche monetarie e fiscali.
Nel frattempo, il lungo dibattito continua a imperversare. Le evidenze empiriche di Shiller e
altri non hanno modificato la ratio del pensiero di Fama, il quale continua a sostenere la
superficialità intellettuale di chi afferma l’esistenza di “bolle speculative”. Tuttavia, come si è
osservato, con French (1993) ha rivisto il capital asset pricing model integrandolo in un
modello a più fattori di rischio. Ancora, in occasione della cerimonia del Nobel, Shiller ha
rilasciato un’intervista per un’emittente svedese a proposito della condivisione del titolo. Egli
ha specificato che Fama “potrebbe soffrire di una sorta di dissonanza cognitiva, poiché le sue
stesse scoperte sono in contrasto con la Scuola di Chicago”. Shiller sostiene che gli
accademici a favore della tesi si comportano “come un prete che ha appena scoperto che Dio
non esiste: egli non può e non è in grado di affrontare la questione, quindi ha bisogno di
trovare un modo per razionalizzarla”.
37
Per terminare, si vuole considerare la visione complessiva di Malkiel (2003). Da ogni punto di
vista, i partecipanti ai mercati finanziari, trattandosi d’individui che compiono giudizi
collettivi, possono commettere degli errori. La teoria economica stessa prevede comunque
l’esistenza di un modello che, essendo tale, sarà per forza di cose un’approssimazione del
mondo reale. Tuttavia, è possibile considerare il mercato in maniera “complessivamente”
efficiente, in cui fenomeni come le bolle speculative sono “eccezioni che confermano la
regola”, mentre l’efficienza perfetta è da escludere, altrimenti non vi sarebbe incentivo per i
professionisti nell’acquisire quelle informazioni rapidamente riflesse nei prezzi di mercato,
come afferma giustamente il paradosso di Grossman-Stiglitz.
4. Riferimenti Bibliografici e Sitografici
− AKERLOF, GEORGE A., 2001. Behavioral Macroeconomics and Macroeconomic
Behavior. Nobel Lecture. In: LEVINE, DAVID K., 2012. Is Behavioral Economics
Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers.
− ALLEN, KATIE, 2013. Nobel prize-winning economists take disagreement to whole new
level.
The
Guardian
[online],
10
Dicembre.
Disponibile
su
<http://www.theguardian.com/business/2013/dec/10/nobel-prize-economists-robertshiller-eugene-fama> [Data di accesso: 02/07/2014]
− ARIELY, D., LOEWESTEIN, G., PRELEC, D., 2003. Coherent Arbitrariness: Stable
Demand Curves Without Stable Preferences. Quaterly Journal of Economics 118, 73105. In: LEVINE, D. K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus
The Extraordinary. Cambridge: Open Book Publishers.
− BARBER, B. M., ODEAN, T., 2001. Boys Will Be Boys: Gender, Overconfidence, and
Common Stock Investment. Quarterly Journal of Economics 116, 261-292.
− CAMPBELL, J., SHILLER, R. J., 1988. Stock Prices, Earnings, and Expected Dividends.
Journal of Finance 43 (3), 661-76. In: MALKIEL, B. G., 2003. The Efficient Market
Hypothesis and Its Critics. Journal of Economic Perspectives 17 (1), 59-82.
− CHAN, K. C., CHEN, NAI-FU, 1988. An unconditional asset-pricing test and the role of
firm size as an instrumental variable for risk. Journal of Finance 43 (2), 309-325. In:
FAMA, E., 1991. Efficient Capital Markets: II. Journal of Finance 46 (5), 1575-1617.
− CHAN, K. C., CHEN, NAI-FU, 1991. Structural and return characteristics of small and
large firms. Journal of Finance 46 (4), 1467-1484. In: FAMA, E., 1991. Efficient Capital
Markets: II. Journal of Finance 46 (5), 1575-1617.
38
− DEBONDT, W. F. M.,THALER, R., 1985. Does the Stock Market Overreact? Journal of
Finance 40, 793–805. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and
Its Critics. Journal of Economic Perspectives, 17 (1), 59-82.
− DELLAVIGNA, STEFANO, 2009. Psychology and Economics: Evidence from the
Field. Journal of Economic Literature 47, 315-372. In: LEVINE, D. K., 2012. Is
Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge:
Open Book Publishers.
− FAMA, E., 1970. Efficient Capital Markets: A Review of Theory and Empirical Work.
Journal of Finance 25 (2), 383-417.
− FAMA, E., FISHER, L., JENSEN, M., ROLL, R., 1969. The adjustment of Stock Prices
to New Information. International Economic Review 10, 1-21. In: FAMA, E., 1970.
Efficient Capital Markets: A Review of Theory and Empirical Work. Journal of Finance
25 (2), 383-417.
− FAMA, E., FRENCH, K., 1988. Permanent and Temporary Components of Stock
Prices.” Journal of Political Economy 96 (2), 246-73. In: MALKIEL, B. G., 2003. The
Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1),
59-82.
− FAMA, E., FRENCH, K., 1993. Common Risk Factors in the Returns on Stocks and
Bonds. Journal of Finance. 33 (1), 3-56. In: MALKIEL, B. G., 2003. The Efficient
Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82.
− FAMA, EUGENE, 1965. The Behavior of Stock Market Prices. Journal of Business 38,
34-105. In: FAMA, EUGENE, 1970. Efficient Capital Markets: A Review of Theory and
Empirical Work. Journal of Finance 25 (2), 383-417.
− FAMA, EUGENE, 1991. Efficient Capital Markets: II. Journal of Finance 46 (5), 15751617.
− FAMA, EUGENE, 1998. Market Efficiency, Long-Term Returns, and Behavioral
Finance. Journal of Financial Economics 49 (3), 283-306.
− FOX, JUSTIN, 2013. What the Great Fama-Shiller Debate Has Taught Us. Harward
Business Review [online], 14 Ottobre. Disponibile su <http://blogs.hbr.org/2013/10/whatthe-great-fama-shiller-debate-has-taught-us/> [Data di accesso: 02/07/2014]
− GROSSMAN, S. J., SHILLER, R. J., 1981. The Determinants of the Variability of Stock
Market Prices. American Economic Review 71 (2), 222-227.
− JENSEN, MICHAEL, 1968. The Performance of Mutual Funds in the Period 1945-64.
Journal of Finance 23, 389-416. In: FAMA, E., 1970. Efficient Capital Markets: A
Review of Theory and Empirical Work. Journal of Finance 25 (2), 383-417.
39
− JENSEN, MICHAEL, 1969. Risk, the Pricing of Capital Assets, and the Evaluation of
Investment Portfolios. Journal of Business 42, 167-247. In: FAMA, E., 1970. Efficient
Capital Markets: A Review of Theory and Empirical Work. Journal of Finance 25 (2),
383-417.
− KAHNEMAN, D., TVERSKY, A., 1979. Prospect Theory: An Analysis of Decision
Under Risk. Econometrica 47 (2), 263–91. In: MALKIEL, B. G., 2003. The Efficient
Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82.
− KEREN, G., ROELSOFSMA, P., 1995. Immediacy and Certainty in Intertemporal
Choice. Organizational Behavior and Human Decision Making 63, 297-297. In:
LEVINE, DAVID K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus
The Extraordinary. Cambridge: Open Book Publishers.
− LAIBSON, DAVID, 1997. Golden Eggs and Hyperbolic Discounting. Quarterly Journal
of Economics 112 (2), 443-477. In: LEVINE, DAVID K., 2012. Is Behavioral Economics
Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers.
− LEROY,
STEPHEN
F.,
2005.
Excess
Volatility.
Disponibile
su:
<http://www.econ.ucsb.edu/~sleroy/webpage/recent.html> [Data di accesso: 07/08/2014]
− LEVINE, DAVID K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus
The Extraordinary. Cambridge: Open Book Publishers.
− LO, A., MACKINLAY, A. C., 1999. A Non-Random Walk Down Wall Street. Princeton:
Princeton University Press. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis
and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82.
− MALKIEL, BURTON GORDON, 2003. The Efficient Market Hypothesis and Its Critics.
Journal of Economic Perspectives, 17 (1), 59-82.
− MALKIEL, BURTON GORDON, 2011. 10° ed. A Random Walk Down Wall Street: The
Time-Tested Strategy for Successful Investing. New York: W. W. Norton & Co. Inc, p.
270
− MARSH, T. A., MERTON, R., 1986. Dividend Variability and Variance Bounds Tests or
the Rationality Of Stock Market Prices. American Economic Review 76 (3), 483-488. In:
SHILLER, R. J., 2003. From Efficient Markets Theory to Behavioral Finance. Journal of
Economic Perspectives 17 (1), 83-104.
− ODEAN, TERRANCE, 1999. Do Investors Trade Too Much?. American Economic
Review 89 (5), 1279-1298. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis
and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82.
− SCHWERT, WILLIAM G., 1991. Review of Market Volatility by Robert J. Shiller:
Much ado about… very little. Journal of Portfolio Management 17, 74-78.
40
− SHEFRIN, HERSH, 2013. What Eugene Fama Could Learn From His Fellow Nobel
Winner
Robert
Shiller.
Forbes
[online],
17
Ottobre.
Disponibile
su
<http://www.forbes.com/sites/hershshefrin/2013/10/17/my-behavioral-take-on-the-2013economics-nobel/> [Data di accesso: 02/07/2014]
− SHILLER, ROBERT J., 1981. Do Stock Prices Move Too Much to be Justified by
Subsequent Changes in Dividends?. American Economic Review 71 (3), 421-436.
− SHILLER, ROBERT J., 1990. Market Volatility. Cambridge: MIT Press, p. 8.
− SHILLER, ROBERT J., 2003. From Efficient Markets Theory to Behavioral Finance.
Journal of Economic Perspectives 17 (1), 83-104.
41
Fly UP