Comments
Description
Transcript
Documento PDF
UNIVERSITA’ DEGLI STUDI DI PADOVA DIPARTIMENTO DI SCIENZE ECONOMICHE ED AZIENDALI “M.FANNO” CORSO DI LAUREA Economia e Management PROVA FINALE L’Efficienza Informativa dei Mercati Finanziari: una Questione Evergreen. RELATORE: CH.MO PROF. Bruno Maria Parigi LAUREANDO/A: Alessandro Pizzigolotto MATRICOLA N. 1022063 ANNO ACCADEMICO 2013 – 2014 Introduzione 1. Tesi: Efficienza Informativa dei Mercati Finanziari 1.1. Forme di Efficienza Informativa 1.2. Assiomi alla base dell’Efficient Market Hypothesis 1.3. Evidenze Empiriche dell’Ipotesi di Efficienza Informativa 1.4. “Falsi Positivi” dell’Inefficienza dei Mercati 2. Antitesi: Le inefficienze informative dei mercati 2.1. La Volatilità dei Mercati 2.2. I Comportamenti Irrazionali degli Investitori: la “Behavioral Economics” 3. Conclusioni 4. Riferimenti Bibliografici e Sitografici 2 Introduzione Questo elaborato prende spunto dal conferimento del premio Nobel in Economia nel 2013 a tre accademici contrastanti tra loro, per il contributo nella “analisi empirica dei prezzi degli asset finanziari”. Il titolo è stato condiviso tra Eugene Fama, un personaggio famoso per aver formulato l’importante ipotesi dell’efficienza dei mercati finanziari, Robert Shiller, famoso per essersi ostinatamente battuto contro tale ipotesi, e Lars Peter Hansen, il terzo che ha sviluppato l’econometria per testare tale ipotesi. Fama e Shiller, per la loro disponibilità ad esporre il proprio lavoro al mondo accademico, sono stati il fulcro di un acceso dibattito negli ultimi trent’anni, un dibattito che non ha mai avuto un vincitore univoco. Per la prima volta nel 1969, l’ipotesi di Fama sui mercati efficienti è stata presentata al mondo accademico come l’anello di congiunzione tra la finanza tradizionale, che vedeva anche la nascita del capital asset pricing model, e la teoria classica dell’equilibrio di mercato in condizioni d’incertezza. Proprio per questo, il lavoro di Fama diede una ventata di grande entusiasmo al mondo accademico. Per questo motivo, alcuni anni più tardi, il lavoro di Shiller suscitò una serie di controversie, che a tuttora perversano: forse la sua storica affermazione (1992, p. 8) “l’Efficient Market Hypothesis fu uno dei più grandi errori nella storia del pensiero economico” ha qualcosa a che fare con ciò. Tuttavia, nel giro di pochi anni, con l’aiuto dei fatti del 1987 e del 2000, la critica di Shiller fu largamente accettata da buona parte del mondo accademico. Il Nobel ai tre pionieri degli studi sull’efficienza dei mercati ha dato nuova vita a tale dibattito, che sarà al centro della presente discussione. Partendo dall’Efficient Market Hypothesis di Fama, si analizzeranno i concetti più rilevanti a sostegno della tesi dell’efficienza dei mercati, con riferimento alle evidenze empiriche derivate da questi. In seguito, ci si focalizzerà sui principali lavori in antitesi, riguardanti l’eccesso di volatilità all’interno degli asset finanziari, con un riferimento alle teorie pionieristiche dell’economia comportamentale, sempre più coese con la finanza tradizionale. 3 1. Tesi: Efficienza Informativa dei Mercati Finanziari All’interno dei mercati finanziari, è possibile isolare tre concetti di efficienza: − efficienza tecnico-operativa, che sussiste quando i mercati funzionano con i più bassi costi di transazione; − efficienza allocativa, propria di un mercato in cui i prezzi guidano le risorse verso un’allocazione efficiente nel senso di Pareto; − efficienza informativa, definita in forma generale come la capacità dei prezzi del mercato di riflettere correttamente e tempestivamente le informazioni a disposizione degli operatori. In tal senso, si può intuire che i prezzi, in un mercato efficiente, sono “corretti” da un punto di vista informativo, e che per gli investitori «tentare di “battere” il mercato è futile». Nella presente analisi si andrà a sviluppare quest’ultimo concetto di efficienza. Un semplice esempio di tale concetto è fornito da Malkiel (2011, p. 270), il quale sostiene che “uno scimpanzé bendato sarebbe in grado di costruire un portafoglio di titoli “as the experts” semplicemente “giocando a freccette” contro il Wall Street Journal”. Più verosimilmente, è possibile immaginare di lanciare un “panno” sopra la pagina dei titoli del WSJ, il che equivale all’acquisto di un fondo d’investimento indicizzato al mercato, il quale compra tutte le azioni presenti per conservarle a lungo termine con un addebito minimo di spese di gestione. Tuttavia, la letteratura economico-finanziaria degli ultimi vent’anni ha portato i fedeli sostenitori dell'efficienza a rivedere le proprie credenze. A tal merito, Malkiel (2003) ha formulato una più recente definizione di efficienza informativa, che considera come mercato finanziario efficiente «quel mercato che non consente agli investitori di ottenere rendimenti sopra la media, se non accettando rischi anch’essi sopra la media». Lo stesso Fama (1991), padre dell’Efficient Market Hypothesis, alla luce delle nuove tendenze ha ampliato la sua tripartitica definizione originaria, ridefinendo rispettivamente i test sull’efficienza in forma debole, semi-forte e forte come test sulla predicibilità dei rendimenti, event studies, e test per le informazioni private. 1.1. Forme di Efficienza Informativa Originariamente, Fama (1970) distingue l’efficienza informativa secondo gli information set riflessi nei prezzi. Si parla di efficienza informativa dei mercati finanziari: − In forma debole, quando i prezzi riflettono solamente le serie storiche di prezzi, rendimenti e dividendi, da cui è impossibile realizzare extra-profitti sulla base dei prezzi passati; 4 − In forma semi-forte, quando i prezzi riflettono tutte le informazioni pubblicamente conosciute dagli operatori del mercato (per esempio annunci di fatturato annuo, frazionamenti azionari, etc.); − In forma forte quando, nonostante alcuni gruppi d’investitori possiedano un certo “monopolio” sull’accesso alle informazioni (pubbliche e private), i prezzi riflettono comunque le informazioni disponibili all’interno del mercato. Le tre ipotesi sono poste tra loro in forma piramidale: l’efficienza in forma forte implica efficienza in forma semi-forte, che implica a sua volta efficienza in forma debole; di conseguenza l’ipotesi di efficienza forte è utilizzata come benchmark per le altre due. Questa categorizzazione è utile ai fini di determinare a quale livello informativo decadrà l’ipotesi d’efficienza. 1.2. Assiomi alla base dell’Efficient Market Hypothesis Ai fini di una dimostrazione empirica della validità delle ipotesi, è necessario formulare alcuni assiomi fondamentali. 1.2.1. Il Rendimento Atteso e i Modelli del “Fair Game” L’efficienza dei mercati per se è un concetto generalista e non verificabile. Tuttavia, dalla teoria di Fama (1970) è possibile individuare un modello che specifica il processo di formazione dei prezzi in maniera più formale. A tale scopo, Fama (1970) assume che le condizioni di equilibrio di mercato possano essere espresse in termini di rendimento atteso. Qualunque teoria del rendimento atteso può essere sintetizzata dalla seguente equazione: E(p̂j,t+1 | t) = [1 + E(r̂j,t+1 | t )]pjt (1) oppure Et p̂j,t+1 = [1 + Et r̂j,t+1 ]pjt dove pjt indica il prezzo di una security j al tempo t, pj,t+1 il suo prezzo in t + 1, rj,t+1 il rendimento (espresso in percentuale) del periodo, ovvero (pj,t+1 - pjt) / pjt, e Φt indica un qualunque set di informazioni economicamente rilevanti al tempo t. Il simbolo ˆ è una notazione per indicare che pj,t+1 e rj,t+1 sono variabili casuali in t. Tal equazione implica che, qualsiasi modello di rendimento atteso sia assunto, il set d’informazioni disponibile in t, Φt, è “completamente utilizzato” nella determinazione del rendimento atteso in equilibrio; con ciò si afferma quindi che i prezzi riflettono correttamente tutte le informazioni al tempo t. Considerato che a) l’equilibrio di mercato può essere enunciato in termini di rendimenti attesi, e che b) i rendimenti attesi in equilibrio sono individuati sulla base di Φt, è plausibile 5 considerare l’esistenza di trading systems, insiemi di regole operative nello scambio di securities, basati su Φt in grado di ottenere rendimenti attesi o profitti “in eccesso” rispetto alla condizione di equilibrio. È possibile esprimere quest’affermazione come xj,t+1 = pj,t+1 Dalla (2) è possibile affermare che E(x̂j,t+1 | E(pj,t+1 | t) t) =0 (2) (3) La successione {xjt} è un "fair game" (o “gioco equo”) rispetto alla sequenza di informazioni {Φt}, un processo stocastico il cui valore atteso, relativamente all’informazione corrente Φt, è pari a zero. Allo stesso modo, considerando l’equazione zj,t+1 = rj,t+1 E(r̂j,t+1 | t) (4) si può affermare che la serie {zjt} sia anch’essa un “fair game” rispetto alla sequenza di informazioni {Φt}. E(ẑj,t+1 | t) =0 (5) Dal punto di vista economico, il significato di tali funzioni è il seguente: − xj,t+1 esprime il valore di mercato “in eccesso” della security j al tempo t + 1, la differenza tra il prezzo osservato in t e il valore atteso del prezzo in t stimato sulla base di Φt; − zj,t+1 esprime il rendimento “in eccesso” della security j al tempo t + 1, la differenza tra il rendimento osservato in t e il rendimento atteso in t stimato sulla base di Φt. Ancora, Fama (1970) definisce α(Φt) = [α1(Φt), α2(Φt), … , αn(Φt)] un qualunque trading system basato sull’informazione Φt, dove αj(Φt) indica la quantità di fondi disponibili in t da investire nella security j disponibile in t: l’eccesso di valore in t + 1 generato da tale sistema sarà Vt+1 = n X ↵j ( t )[rj,t+1 j=1 E(r̂j,t+1 | t )] Il valore atteso di Vt+1, date le proprietà del fair game individuate in (5) per zj,t+1, sarà pari a E(Vt+1 | t) = n X ↵j ( j=1 t )E(ẑj,t+1 | t) =0 Si considerano ora due situazioni particolari del modello, il modello della sub-martingala e il modello della cd. “random walk”, importanti ai fini dell’analisi empirica. 1.2.2. “Modello” della Sub-Martingala Si assuma in (1) che, per ogni t e Φt: 6 E(p̂j,t+1 | t )] > pjt o anche E(r̂j,t+1 | t) =0 (6) La precedente affermazione implica che la sequenza {pjt}, per la security j, segue una submartingala rispetto alla sequenza d’informazioni {Φt}. Il che significa affermare nulla più che il prezzo atteso in t + 1, sulla base del set corrente Φt, è maggiore o uguale al prezzo corrente. Se la (6) è mantenuta solo come uguaglianza (quindi rendimenti attesi e variazioni di prezzo sono pari a zero), allora il prezzo segue una vera e propria martingala, in cui il valore atteso di pj,t+i (con i = 1, 2, … n), condizionato all’informazione corrente Φt, è pari al suo valore corrente; in altre parole, pjt è uno stimatore corretto di tutti i valori futuri di pj. E(p̂j,t+i | t) = Et p̂j,t+i = pjt 1.2.3. Modello della “Random Walk” Se si afferma che il prezzo corrente di una security “riflette pienamente” le informazioni disponibili nello stesso periodo, è possibile assumere che a) due variazioni di prezzo successive (o rendimenti a un periodo successivi) siano indipendenti e b) identicamente distribuite: le presenti ipotesi costituiscono il modello della “random walk”. Formalmente, è descritto come: f (rj,t+1 | t) = f (rj,t+1 ) (7) La (7) sta a indicare che la distribuzione della probabilità condizionale di una variabile casuale indipendente è identica a quella della sua probabilità marginale. Capovolgendo l’espressione, i rendimenti seguono una “random walk” se e solo se le loro variazioni temporali sono indipendenti e identicamente distribuite. La precedente espressione è un’assunzione più forte rispetto all’originale modello della (1) che, ponendo il rendimento atteso costante nel tempo, si esprime come E(r̂j,t+1 | t) = E(r̂j,t+1 ) (8) in cui è la sola media della distribuzione di rj,t+1 ad essere indipendente dall’informazione disponibile al tempo t e non l’intera distribuzione come previsto dalla “random walk”. 1.2.4. Condizioni Sufficienti per l’Efficienza del Mercato Per la presenza di efficienza informativa all’interno dei mercati finanziari, si considerano condizioni sufficienti: − L’assenza di costi di transazione nella compravendita di securities; − La gratuità di tutte le informazioni rese disponibili a ogni partecipante al mercato; 7 − La comune valutazione dei partecipanti al mercato che le informazioni correnti sono implicate nei prezzi dello stesso periodo e nella distribuzione dei prezzi futuri di ogni security. 1.3. Evidenze Empiriche dell’Ipotesi di Efficienza Informativa 1.3.1. Test dell’Efficienza Informativa in forma Debole In conformità a quanto assunto nei precedenti punti, Fama (1970) ha empiricamente testato la forma debole di efficienza mediante l’utilizzo del concetto di “covarianza seriale” (di cui si ometteranno alcuni passaggi algebrici ai fini di semplificare il concetto teorico). Si consideri il “fair game” xt, il cui valore atteso non condizionato è pari a zero. Tutte le sue covarianze seriali possono essere definite in forma generale come segue (dove ƒ indica una funzione di densità). E(x̂t+⌧ x̂t ) = Z xt xt E(x̂t+⌧ |xt )f (xt )dxt Poiché xt è un “fair game”, e poiché il valore atteso di xt+1 relativamente a un sottoinsieme dell’informazione al tempo Φ’t è ancora pari a zero E(xt+1|Φ’t) = 0, è possibile affermare che, considerando xt come un sottoinsieme dell’informazione al tempo t E(x̂t+⌧ |xt ) = 0 Sostituendo il presente valore atteso alla precedente, è possibile osservare che le covarianze seriali tra i risultati consecutivi di un “fair game” sono nulle. Perciò, le osservazioni di un “fair game” sono linearmente indipendenti. In altri termini, nella presente situazione, valori successivi sono indipendenti tra loro e identicamente distribuiti. Quindi si può affermare che i rendimenti al tempo t seguono una “random walk”, riflettendo pienamente le informazioni dello stesso periodo. Tuttavia, il modello del “fair game” inizialmente considerato non prevede necessariamente che la covarianza seriale dei rendimenti tra due periodi sia zero. Nel test del modello «in forma debole», la variabile di “fair game” si può rappresentare come zj,t = rj,t E(r̂j,t |rj,t 1 , rj,t 2 , ...) E(r̂j,t+1 )][r̂jt E(r̂jt )]) = (9) La covarianza tra, ad esempio, due rendimenti attesi in t e t + 1 è = Z E([r̂j,t+1 [rjt rjt E(r̂jt )][E(r̂j,t+1 | t) E(r̂j,t+1 )]f (rjt )drjt 8 Poiché la (9) non implica necessariamente che E(r̂ j,t+1|rj,t) = E(r̂ j,t+1), la covarianza seriale non sarà necessariamente pari a zero. Perciò, lo scarto del rendimento per t + 1 dal suo valore atteso condizionato è un "fair game"; ma il valore atteso condizionato in sé dipende dal rendimento osservato in t. In una “random walk”, in cui il rendimento atteso (e l’intera distribuzione dei rendimenti) è assunto costante nel tempo, il problema non sussiste: ciò implica che è possibile stimare le covarianze seriali mediante il “prodotto vettoriale” degli scarti dal rendimento medio del campione dei rendimenti osservati. Un’approssimazione a “random walk” non sembra inficiare a livello empirico il risultato dei test sulle covarianze, almeno per i titoli più comuni; l’esempio di Fama (1970, p. 393) ne è la prova. Nella Tabella 1.3.1 è possibile osservare la correlazione seriale tra variazioni successive del loge dei prezzi per i 30 titoli più comuni del Dow Jones dalla fine del 1957 al Settembre del 1962. Le correlazioni seriali tra successivi cambiamenti nel logep sono espressi per intervalli di uno, quattro, nove e sedici giorni. 9 Tabella 1.3.1 Coefficienti di Correlazione Seriale per Variazioni dei Prezzi al loge di Uno, Quattro, Nove e Sedici Giorni (Fama, 1965) Stock Allied Chemical Alcoa American Can AT&T American Tobacco Anaconda Bethlehem Steel Chrysler Du Pont Eastman Kodak General Electric General Foods General Motors Goodyear International Harvester International Nickel International Paper Johns Manville Owens Illinois Procter & Gamble Sears Standard Oil (Calif.) Standard Oil (N.J.) Swift & Co. Texaco Union Carbide United Aircraft U.S. Steel Westinghouse Woolworth Uno .017 .118* –.087* –.039 .111* .067* .013 .012 .013 .025 .011 .061* –.004 –.123* –.017 .096* .046 .006 –.021 .099* .097* .025 .008 –.004 .094* .107* .014 .040 –.027 .028 Intervallo di Differenziazione (Giorni) Quattro Nove .029 .095 –.124* –.010 –.175* –.068 –.122 .060 .069 –.006 .020 –.005 –.128* .001 –.068 .038 .060 –.068 –.006 –.006 –.070 –.143* –.109 –.072 –.053 .049 –.190* –.006 –.097 –.033 –.091 –.112 –.060 –.009 .033 –.125 –.148 –.026 –.043 –.053 –.004 –.140 .009 –.037 –.244* .124 –.004 –.002 .003 .098 –.113 –.046 –.082 .118 –.047 –.101 –.192* –.056 –.137 –.112 Sedici –.118 –.044 .031 –.003 .007 .202 .112 .040 –.055 –.023 .000 –.098 –.028 .033 .116 .041 –.010 .002 –.022 .076 .041 .040 –.121 –.197 –.178 .124 –.040 .236* .067 .040 * Il coefficiente è due volte l’errore standard calcolato. I risultati riportati in tabella, coerenti con quelli riportati da altri per test sulle covarianze seriali, non evidenziano sostanziali dipendenze lineari tra variazioni di prezzo negli intervalli temporali analizzati. Infatti, le correlazioni seriali individuate sono prossime allo zero. Quando non lo sono, Fama (1965) calcola che ogni correlazione pari almeno a .06 è più del doppio del suo standard error, il che rende la dipendenza nel cambiamento di prezzo insignificante dal punto di vista economico. Perciò si può affermare che, a dispetto di qualsiasi significato statistico, a livello empirico si ha effettivamente una “random walk”. 1.3.2. Test dell’Efficienza Informativa in Forma Semi-Forte: i cd. “Event Studies” Per “event study" s’intende un metodo di analisi statistica dell’impatto di un dato evento (e.g. frazionamenti azionari, annunci di report finanziari da parte delle società, nuove emissioni di 10 titoli, etc.) sulla serie finanziaria di una data variabile. Come affermato da Fama (1970, p. 404), ai fini della presente analisi, ognuno di questi “event studies”, condotti su svariati eventi con focus sulla variabile “prezzo”, è in grado di apportare una positiva evidenza empirica al modello con l’idea che, con l’accumulo di questi risultati positivi, si possa ritenere valida l’ipotesi di efficienza dei mercati in forma semi-forte. Nella presente, si analizza il modello di maggior rilievo in tale ambito, l’originario studio “stock splits” di Fama, Fisher, Jensen e Roll (FFJR, 1969), di cui studi successivi ne hanno adattato ed esteso le tecniche sviluppate. Il modello vuole smentire la credenza per la quale il solo apparente risultato derivante da un frazionamento azionario sarebbe l’aumento del numero di titoli per azionista, ma non necessariamente un apporto di nuove informazioni. Si definisce, in relazione allo split, mese 0, il mese in cui è presente l’effettiva data del frazionamento, mese 1, 2, 3… i mesi successivi a quello dello split, e mese -1, -2, -3… i mesi precedenti. Ancora, si definiscono i residui medi um per tutte le securities frazionate in un mese m come um = N X ûjm j=1 N dove ûjm sono i residui della regressione sui campioni della security j nel mese m, e N è il numero di frazionamenti totali, e si definiscono invece i residui medi cumulati Um come m X Um = uk k= 29 I residui medi um possono essere considerati anche come lo scarto medio dei rendimenti del titolo frazionato dal loro normale comportamento di mercato; e allo stesso modo, Um può essere considerato lo scarto cumulato (da -29 a m). Si definiscono u+m, u-m, U+m e U-m come i residui medi e cumulati per gli split seguiti da aumenti (+) e flessioni (-) nei dividendi; un’espansione nei dividendi si verifica quando la variazione percentuale dei dividendi stessi, nel titolo frazionato dopo lo split, è maggiore rispetto alla variazione percentuale per NYSE nel suo complesso, e una diminuzione viceversa. Ai fini del modello, FFJR considera i residui medi cumulati Um, U+m e U-m per -29 ≤ m ≤ 30, in un campione formato da tutti i 940 frazionamenti azionari nel periodo 1927-1959. Per tutte le categorie di dividendi, Um aumenta nei 29 mesi precedenti lo split, a cui corrisponde um uniformemente positivo: questo risultato non può essere attribuito al processo di frazionamento, ma piuttosto a una tendenza delle imprese di effettuare il frazionamento in periodi “particolarmente buoni” in cui i prezzi delle loro azioni sono aumentati molto più di quanto previsto da condizioni normali di mercato. Nel mese successivo allo split non vi sono movimenti aggiuntivi nei residui cumulati. Alla luce di ciò, FFJR suggerisce che, all’annuncio 11 dello split, il mercato interpreta l’informazione come un segnale che i CEO hanno buone previsioni sui ricavi, sufficienti per mantenere alta la distribuzione di dividendi. Perciò, grandi aumenti di prezzo nei mesi precedenti lo split sono attribuiti a una “alterazione” nelle attese degli investitori. Se la presente ipotesi è corretta, il comportamento dei rendimenti dopo lo split sarà differente in relazione alla futura distribuzione di dividendi. Analizzando il Grafico 1.3.1 di U+m (a sinistra), il lieve aumento nell’anno successivo allo split è coerente con l’ipotesi di un aggiustamento dei prezzi all’annuncio, in anticipazione dei futuri aumenti nei dividendi. Al momento del frazionamento effettivo non vi sarà un nuovo aggiustamento dei prezzi. Più rilevante è il Grafico 1.3.1 di U-m (a destra): infatti, il suo livello aumenta nei mesi precedenti allo split, ma poi scende bruscamente nei mesi successivi, quando le attese dell’aumento nei dividendi non sono soddisfatte. Grafico 1.3.1 Grafico dei Residui Medi Cumulati per Incrementi e Decrementi nei Dividendi (Fama, 1968) Per concludere, se si considera il Grafico 1.3.2 di Um, indipendentemente dal comportamento dei dividendi, dopo lo split non vi è alcuna variazione. Questo risultato è coerente con quanto già affermato. Il mercato compie previsioni corrette in merito all’effetto dello split sui futuri dividendi, riflettendo pienamente le informazioni pubbliche nei prezzi delle securities. 12 Grafico 1.3.2 Grafico dei Residui Medi Cumulati, considerando tutti gli splits (Fama, 1968) 1.3.3. Test dell’Efficienza Informativa in Forma Forte A proposito della forma forte di efficienza nei mercati, sono state compiute diverse ipotesi al fine di confutarne la validità. Tra queste, Fama (1970, p. 410) ne ha selezionato ai fini dell’analisi un solo gruppo, quelle sulla capacità del management di fondi comuni “open-end” (privi di vincoli sull’emissione) di realizzare extra-profitti grazie a un accesso monopolistico alle informazioni. In particolare, si è soffermato nel commento allo studio di Jensen (1968 e 1969). In tale studio, si determina se i fund managers hanno accesso a particolari informazioni che consentano di generare rendimenti attesi “anomali”, e se qualche fondo sia in grado di individuare queste informazioni in maniera più efficace rispetto ad altri. Jensen, per la valutazione della performance dei fondi ex post, si affida al capital asset pricing model (Sharpe 1964, Lintner 1965a, b): per il CAPM, il rendimento atteso di un singolo asset o di un portafoglio j da t a t + 1, determinato come E(r̂j,t+1 | t) = rf,t+1 [1 j( t )] + E(r̂m,t+1 | t) j ( t) può diventare, sostituendo rendimento atteso del portafoglio di mercato con il rendimento effettivamente realizzato, la regola di valutazione per la performance desiderata. E(r̂j,t+1 | t , rm,t+1 ) = rf,t+1 [1 j( t )] + rm,t+1 j( t) Il significato di questa equazione è che il rendimento di j non è altro che una funzione lineare del suo rischio; se βj(Φt) può essere stimato in maniera affidabile, e se j è un fondo comune, è possibile valutare la sua performance ex post tracciando il Grafico 1.3.3 delle combinazioni rischio-rendimento: 13 Grafico 1.3.3 Grafico di Valutazione della Performance (Fama, 1970) se la coppia di valori cade sopra l’SML (Security Market Line, espressione grafica di quanto espresso precedentemente nel CAPM) il fondo ha superato le aspettative in relazione al rischio, se cade invece al di sotto le avrà deluse. Alternativamente, la market line può evidenziare le combinazioni rischio-rendimento fornite da portafogli formati da un asset privo di rischio e dal portafoglio di mercato: rendimenti e rischi di questi portafogli sono rc,j+1 = ↵rf,t+1 + (1 c( t) = cov(r̂c,t+1 , r̂m,t+1 | 2 (r̂ m,t+1 | t ) t) = cov((1 ↵)rm,t+1 ↵)r̂m,t+1 , r̂m,t+1 | 2 (r̂ m,t+1 | t ) t) =1 ↵ Perciò, quando 1 ≥ α ≥ 0 si ottengono combinazioni di rischio e rendimento lungo la market line da rf,t+1 a m; mentre quando α < 0 (e sotto l’ipotesi che gli investitori possano prendere a prestito allo stesso tasso con cui prestano denaro) otteniamo le combinazioni rischiorendimento lungo l’estensione della market line alla destra di m. Jensen ha utilizzato questo framework per valutare la performance di 115 fondi comuni nel periodo 1955-64, considerando come portafoglio di mercato l’S&P500, al fine di stabilire se effettivamente i fondi comuni sono in grado di rendere abbastanza da compensare i costi pagati dagli investitori per commissioni d’ingresso, di gestione e altri costi, che sarebbero evitati scegliendo semplicemente una combinazione dell’asse privo di rischio f e del portafoglio di mercato m con rischio simile a quello del fondo. L’evidenza empirica ha portato risultati negativi: in 89 casi su 115, la combinazione rischio-rendimento del fondo, al netto delle spese di gestione e per il periodo osservato di dieci anni, è al di sotto della market line di periodo, e la media degli scarti dei rendimenti di tutti i fondi è del -14.6%; di conseguenza, in media i consumatori che hanno investito in fondi comuni si sono impoveriti del 15% rispetto a un investimento in un portafoglio lungo la market line. Tuttavia, poiché le commissioni d’ingresso non sono reinvestite nel fondo, è possibile analizzare i rendimenti al netto delle commissioni, in modo tale da determinare se siano in 14 grado di coprire le sole spese di gestione. L’evidenza empirica porta anche in questo caso a risultati negativi in quanto, anche se le commissioni fossero ignorate nel calcolo dei rendimenti, la combinazione rischio-rendimento per 72 su 115 fondi è ancora al di sotto della market line, e lo scarto medio sarebbe dell’-8.9%. Per terminare, a prova della forma forte d’efficienza del mercato, è opportuno ignorare tutte le spese per verificare la capacità dei gestori dei fondi nel selezionare securities in grado di “battere” il mercato. Sfortunatamente ciò non è possibile poiché i dati sulle commissioni non sono pubblicati regolarmente. In relazione agli evidenti risultati, è possibile però affermare che l’evidenza empirica sarebbe ancora una volta negativa, a prova dell’efficienza in forma forte. 1.4. “Falsi Positivi” dell’Inefficienza dei Mercati Con l’affievolirsi negli ultimi anni della rilevanza dell’Efficient Market Hypothesis, molti economisti hanno iniziato a sostenere che i prezzi all’interno dei mercati finanziari siano “parzialmente” prevedibili sulla base di alcuni “pattern”. In questo titolo, sulla base del lavoro di Malkiel (2003) si vuole analizzare e confutare alcune di queste ricerche, evidenziandone i “falsi positivi” che inducono a sostenere l’ipotesi dei mercati efficienti. 1.4.1. Patterns riguardanti i Prezzi Storici Normalmente, si può dire che il mercato “non ha memoria” (Malkiel, 2003, p. 61) in quanto, per la teoria dei mercati efficienti, la distribuzione del prezzo passato non consente la previsione del loro comportamento futuro. In questo caso, si vuole analizzare alcuni dei patterns utilizzati per la previsione dei prezzi futuri sulla base del comportamento dei prezzi storici degli asset finanziari. Patterns nel Breve Termine Lo e MacKinlay (1999) hanno ipotizzato che, nel breve periodo, le correlazioni seriali di prezzi o rendimenti non siano esattamente diverse da zero e che, per un’elevata frequenza di transazioni nella stessa direzione, che definiremo uno “slancio” dei prezzi nel breve termine, i prezzi dei titoli non si comportino come una vera “random walk”. Questo effetto sarebbe supportato da esponenti della “behavioral finance”, per i quali questo fenomeno è coerente con i processi psicologici (si parla del cd. “effetto bandwagon”) e che lo slancio dei prezzi sia dovuto ad una tendenza degli investitori a reagire in maniera “insufficiente” alle nuove informazioni. Se il reale impatto di un’informazione viene colto solamente per un breve periodo, il prezzo del titolo mostrerà un’auto-correlazione positiva. A tal proposito, è utile distinguere tra significatività statistica ed economica. Infatti, le dipendenze che portano a 15 considerare il fenomeno sono fievoli e non sono tali da permettere agli investitori di realizzare rendimenti eccessivi. Inoltre, Odean (1999) ha dimostrato che la presenza di eventuali costi di transazione, in linea con una situazione reale di mercato, porta i rendimenti di una strategia basata su tale fenomeno a livelli peggiori di quelli ottenuti con una strategia “buy-and-hold”. Per sconfessare le teorie comportamentali, Fama (1998), ha individuato che una “sottoreazione” all’informazione è tanto comune quanto una “sovra-reazione”, e la persistenza di rendimenti anomali dopo la ricezione dell’informazione è frequente tanto quanto un ripristino del rendimento alle condizioni di equilibrio. Patterns nel Lungo Termine Molti studi hanno visibilmente dimostrato che esiste una correlazione seriale negativa nel lungo periodo. Altrettanti studi hanno attribuito questo risultato a una tendenza dei mercati a reagire in modo “eccessivo”. Per DeBondt e Thaler (1985) tale reazione deriva dalla propensione degli investitori a “ondate” di ottimismo e pessimismo, che portano il prezzo a variare dal suo fondamentale e nel lungo periodo a compiere un’inversione di tendenza. Ancora, per Kahneman e Tversky (1979) essa deriva dalla troppa fiducia degli investitori nelle proprie capacità di predire i prezzi futuri. Queste teorie sarebbero avvalorate da tecniche d’investimento agenti con “strategia contraria”, ossia comprando titoli con rendimenti negativi per lunghi periodi ed evitando titoli con forti rialzi negli ultimi anni. A proposito di quest’inversione, Fama e French (1988), seppur confermino una correlazione seriale negativa nel lungo periodo, hanno evidenziato una forte rilevanza di alcuni periodi storici distorsivi inclusi nell’analisi; ad esempio, eliminando dai test il periodo della Grande Depressione 1926-1940, la forte correlazione seriale individuata nei rendimenti dai 3 ai 5 anni scompare. Patterns Stagionali Un gran numero di ricerche si è concentrato anche sulla previsione dei prezzi in particolari periodi temporali. Ad esempio, per DeBondt e Thaler (1985), i grandi “perdenti” dai tre ai cinque anni si trasformeranno nei nuovi “vincitori” dei mesi successivi raggiungendo rendimenti molto alti, specialmente nel mese di Gennaio. Anche questo fenomeno è stato attribuito alla reazione esagerata del mercato a notizie “estreme” sulle imprese. Si può individuare tra questi fenomeni stagionali il ben noto “January Effect”, per il quale i rendimenti nel mese di Gennaio sono superiori alla norma, e il “Monday Effect”, lo stesso comportamento del precedente ma di frequenza settimanale. Questi fenomeni sono equiparabili a quanto visto in precedenza nel breve termine: essi non si manifestano in 16 maniera costante, tendono a scomparire non appena individuati dal mercato e sono troppo piccoli rispetto ai costi di transazione richiesti nel tentativo di individuarli. 1.4.2. Patterns riguardanti gli Indici di Valutazione Sono state eseguite svariate ricerche empiriche per determinare se i rendimenti futuri possono essere predetti sulla base degli indici utilizzati per la valutazione finanziaria delle imprese, quali il tasso di dividendo (o dividend yield), multipli del rapporto prezzo-utile, book-tomarket value... con conclusioni piuttosto omogenee: per tale ragione, di seguito si andranno ad analizzare solamente i dati riguardanti i dividend yields e il rapporto prezzo-utile. Dividend Yields L’utilizzo del dividend yield (inteso come rapporto tra dividendo e prezzo per azione, D/P) per la previsione dei rendimenti futuri è stato in primis considerato da Fama e French (1988) e Campbell e Shiller (1988). Considerando i dati del Grafico 1.4.1, ottenuto dalla rilevazione dei dividend yields dell’intero S&P500 dal 1926 al 2001, e dividendo le osservazioni in decili in base al livello di dividend yield, si può osservare che gli investitori hanno ottenuto rendimenti maggiori da portafogli costruiti con titoli con un più alto dividend yield rispetto a portafogli formati da titoli con dividend yields più bassi. Grafico 1.4.1 Rendimenti a 10-Anni di Portafogli formati sulla base dell’attuale Dividend Yield: 1926-2001 (The Leuthold Group) Questo fenomeno secondo molti non è da considerarsi irrazionale: infatti, i dividend yields tendono a essere elevati per alti tassi d’interesse e viceversa, di conseguenza l’abilità di predire i rendimenti dei tassi di dividendo attuali riflette semplicemente l’aggiustamento del 17 mercato alle condizioni economiche generali. Al più, tale effetto è stato rilevato solamente dalla metà degli anni ’80, e dal 21esimo secolo è scomparso. Una possibile spiegazione alla temporaneità del fenomeno può essere che le scelte di dividendi delle imprese americane siano mutate nel tempo; ad esempio nel 21esimo secolo si preferisce il riacquisto di azioni proprie piuttosto che la distribuzione di dividendi. Si tratta quindi di una tendenza nel lungo periodo ma comunque temporanea, legata a effetti comportamentali variabili nel tempo, non valida per singoli titoli ma applicabile solamente all’intero portafoglio di mercato. Price-Earnings Ratio Quanto individuato in relazione al dividend yield è specularmente applicabile anche al rapporto prezzo-utile. Infatti, considerando i dati del Grafico 1.4.2, è possibile notare che gli investitori tendono a realizzare maggiori rendimenti a lungo quando acquistano portafogli di azioni con rapporti prezzo-utile relativamente bassi. Tuttavia, le considerazioni fatte per il dividend yield valgono altrettanto per il presente indice. Grafico 1.4.2 Rendimenti a 10-Anni di Portafogli formati sulla base dell’attuale Price/Earnings Ratio: 1926-2001 (Fonte: The Leuthold Group) 1.4.3. Patterns Trasversali riguardanti le Caratteristiche Aziendali Un altro genere di pattern è individuato sulla base delle caratteristiche economiche delle singole imprese, di cui andremo a considerare in particolare il cd. “size effect” e le c.d. “value stocks”. 18 Effetto Dimensione L’effetto dimensione è uno dei pattern più veritieri nella predizione dei rendimenti. Per “effetto dimensione” s’intende la tendenza, nel medio-lungo termine, dei titoli delle società più “piccole”, a generare rendimenti maggiori rispetto a quelli di società più “grandi” (grandezza considerata in termini di capitalizzazione di mercato, prezzo per azioni in circolazione). Le rilevazioni econometriche (Keim, 1988) riportano che dal 1926 si nota una visibile differenza di almeno un punto percentuale nei rendimenti a un anno delle imprese “piccole” rispetto a quelle più “grandi”. Inoltre, Fama e French (1993), sulla base dell’analisi dei dati dal 1963 al 1990 suddivisi in decili secondo capitalizzazione, come illustra il Grafico 1.4.3, hanno individuato che il primo 10% dei titoli a più bassa capitalizzazione ha ottenuto rendimenti mensili mediamente più alti rispetto ai decili con più elevata capitalizzazione. Grafico 1.4.3 Rendimenti Medi Mensili per Portafogli costruiti sulla base delle Dimensioni: 1963-1990 (Fonte: Fama e French, 1992) Per il capital asset pricing model, se il “beta” è considerata misura corretta del rischio (sistematico) di un titolo (la misura della variazione del suo rendimento rispetto a una variazione del rendimento del mercato), l’effetto dimensione identificherà un’anomalia di mercato portando a un’inefficienza dovuta a un premio per il rischio maggiore a quanto atteso. Tuttavia, Fama e French (1993) hanno individuato anche che la relazione tra β e rendimenti nel periodo considerato è stata piatta, e non inclinata verso l’alto come il CAPM prevede; oltretutto, se i titoli sono divisi in decili sul β, i dieci portafogli costruiti in base alla capitalizzazione riportano gli stessi risultati evidenziati dalla relazione precedente. D’altro canto, eliminando la suddivisione per capitalizzazione, la relazione tra β e rendimento torna a 19 essere piatta. Questo evidenzia che la dimensione dell’impresa potrebbe essere un proxy migliore del rischio rispetto al beta, e in relazione a ciò l’effetto dimensione non porterebbe a un’inefficienza del mercato. Sempre su tale anomalia, Chan e Chen (1988) hanno dimostrato che, per portafogli formati su base dimensionale, i β stimati di questi portafogli hanno correlazione negativa pressoché perfetta (– 0.988) con la capitalizzazione media delle aziende in portafoglio. Per di più, considerando anche che il β di un titolo aumenta con l’indebitamento, espresso come leverage, allora anche il leverage potrebbe essere un proxy. In aggiunta, Chan e Chen (1991) hanno argomentato che l’effetto dimensione è dovuto anche alla presenza di aziende “in sofferenza” nell’analisi dei rendimenti; questo perché quando la dimensione è definita sull’equity dell’azienda, tra i portafogli formati da titoli d’imprese “piccole”, sono inclusi anche titoli di aziende “in sofferenza”, le cui performance dipendono fortemente dalle condizioni commerciali al tempo d’analisi. Queste “sofferenze” sarebbero un nuovo fattore di rischio non previsto da β. Un’altra posizione da considerare, analoga alla precedente, è l’esistenza di un cd. “bias di sopravvivenza” (survivorship bias), la tendenza ad escludere le imprese “fallite” dalle analisi dei dati, in quanto non più esistenti. Ad esempio, un ricercatore che vuole esaminare la performance delle aziende a bassa capitalizzazione nei dieci anni precedenti ad oggi misurerà la performance delle sole aziende sopravvissute e non quella delle fallite, il che potrebbe portare ad un bias della regressione effettuata. Value e Growth Stocks Per “value stocks” s’intendono azioni d’imprese aventi un basso market-to-book value (o un basso price-earnings ratio), mentre per “growth stocks” s’intendono azioni d’imprese aventi un alto market-to-book value (o un alto price-earnings ratio), dovuto frequentemente alla presenza di elevati intangibili non contabilizzati e/o a una forte crescita. Per alcune ricerche, le “value stocks” raggiungono rendimenti più alti rispetto alle “growth stocks”. Quest’affermazione è coerente con le teorie comportamentali per le quali gli investitori tendono a essere troppo sicuri delle loro abilità di perseguire grandi aumenti di ricavi, e quindi sono portati a pagare troppo per le growth stocks. Riguardo a questa classificazione delle azioni, per quanto osservato dal mercato azionario americano e giapponese, il price-to-book ratio potrebbe essere un’altra variabile in grado di prevedere i rendimenti futuri nel mercato azionario. A tal scopo, Fama e French (1993) hanno ipotizzato un modello di asset pricing a tre fattori, includendo il price-to-book value e la capitalizzazione, già vista in precedenza, come misure del rischio intese ad annullare l’effetto 20 distorsivo del mercato portato da quest’ultimi. Ad ogni modo, l’effetto del price-to-book è ancora assoggettato a un fattore di timing: come evidenziato da Fama e French (1993) (Grafico 1.4.4), dagli anni ’60 agli anni ’90 si ha un unico periodo in cui le value stocks hanno prodotto un consistente rendimento in eccesso rispetto agli altri titoli. Grafico 1.4.4 Performance di Fondi Comuni “Value” vs. Fondi Comuni “Growth”: 1937-Giugno 2002 (Lipper Analytic Services and Bogle Research Insitute, Valley Forge, Pennsylvania) 1.4.4. Una Breve Considerazione Tirando le somme, è possibile dire che, da quanto dimostrato dalla copiosa letteratura a favore della teoria dei mercati efficienti, i patterns analizzati non sono mai così sufficientemente stabili o ampi da assicurare risultati più elevati di quelli garantiti dal mercato rispetto al rischio sostenuto, ma piuttosto sono tali da auto-distruggersi una volta individuati a favore nell’efficienza. A proposito delle evidenze empiriche di cui è fuor dubbio la correttezza (e.g. l’effetto dimensione), non si può dire che esse portino ad inefficienze del mercato, ma al contrario è possibile affermare che esse determinino la necessità di “espandere” gli attuali modelli dell’asset pricing, considerando nuovi proxies per la valutazione del rischio di cui il beta si è dimostrato uno stimatore debole. 2. Antitesi: Le inefficienze informative dei mercati La teoria dei mercati efficienti di Fama (1970) è stata al centro dell’attenzione della teoria economica per tutto il corso degli anni ’70, soprattutto “per la sua capacità di utilizzare le aspettative razionali per legare la finanza e l’intera economia in un’unica elegante teoria” (Shiller 2003, p. 83). Tuttavia, già al tempo esistevano alcune pubblicazioni sulle anomalie di tale modello: lo stesso Fama (1970), com’è già stato affermato, notò alcune dipendenze seriali nei rendimenti di mercato, senza approfondirne nei particolari la dimensione. Dagli anni ’80, furono compiute una serie di analisi econometriche sulla validità del modello dei mercati efficienti, basate sulle serie temporali di prezzi, dividendi e utili. Furono scoperte diverse 21 anomalie, alcune delle quali già in precedenza citate, ma tra queste il problema rappresentato dall’eccesso di volatilità risultò molto più grande di quanto si potesse immaginare. Nei seguenti paragrafi si analizzeranno le principali teorie sull’eccesso di volatilità nei mercati, e si andrà a considerare l’attuale sviluppo del diffuso pensiero di inefficienza dei mercati in un’ottica “comportamentale”. 2.1. La Volatilità dei Mercati Tra tutte le teorie in contrasto con l’ipotesi dei mercati efficienti, quelle legate all’eccesso di volatilità dei prezzi sono le più rilevanti. La questione è stata trattata per la prima volta nei primi anni ‘80 quando, contemporaneamente e in maniera indipendente, Shiller (1981) e LeRoy e Porter (1981) hanno ricavato l’esistenza di alcuni “limiti” imposti sulla volatilità dei prezzi e dei rendimenti da parte della teoria dei mercati efficienti. Da questi, le analisi econometriche dei mercati hanno evidenziato che essi non sono rispettati. 2.1.1. Robert Shiller (1981) e l’ex post Rational Stock Price Shiller (1981), si avvicina all’“excess volatility puzzle” assumendo il concetto di “ex post rational stock price”, inteso come il valore attuale scontato della sommatoria dei dividendi reali successivi al periodo corrente, utilizzando un approccio “grafico” per l’analisi empirica. L’uguaglianza imposta dalla teoria dei mercati efficienti tra prezzo corrente e quello ex post, fa emergere un vincolo per il quale la volatilità del prezzo corrente non può eccedere quella del valore attuale dei dividendi reali stimato. Il Modello Teorico Shiller (1981), considerando il modello dei mercati efficienti, definisce il prezzo reale Pt di un titolo azionario all’inizio del periodo corrente t come segue. Pt = 1 X k+1 Et Dt+k (1) k=0 Dove EtDt è il valore atteso del dividendo pagato alla fine del periodo t, condizionato dalle informazioni disponibili al tempo t, mentre 0 < γ < 1 è il fattore di sconto reale assunto costante. L’informazione in t include Pt, Dt e i loro valori temporali precedenti, oltre ad altre variabili. Si assume il rendimento dato dall’acquisto dell’azione all’inizio di t e la sua vendita al tempo t+1 come Ht ≡ (∆Pt+1 + Dt) / Pt. Il primo termine del numeratore è il capital gain, ottenuto dalla variazione del prezzo di vendita in t+1, mentre il secondo termine è il dividendo pagato al termine del periodo t. Se si assume costante nel tempo tale rendimento r, vale la condizione Et(Ht) = r. Utilizzando r come tasso di sconto in (1), il fattore di sconto è pari a γ = 22 1/(1+r). Tale modello può essere riscritto considerando un fattore di crescita nel lungo periodo. Si definiscono pt = Pt / λt-T e dt = Dt / λt+1-T, dove il fattore di crescita è dato da λt-T = (1+g)t-T; g è il tasso di crescita mentre T è l’anno base. Dividendo per il fattore di crescita nel precedente modello è possibile ottenere quanto segue. pt = = 1 X k=0 1 X )k+1 Et dt+k ( (2) ¯ k+1 Et dt+k . k=0 Affinché l’equazione dia un prezzo finito è necessario che g < r, quindi si assume γ ≡ λγ < 1 e r > 0 , tasso di sconto per pt e dt, ottenuto da γ = 1/(1+ r ). Tale tasso di sconto è più semplicemente il rapporto tra il dividendo medio e il prezzo medio. Infatti, ponendo l’operatore di expectation per entrambi i termini del modello si ottiene quanto segue. E(p) = ¯ 1 ¯ E(d) Usando γ =1/1+r e risolvendo nell’equazione si ottiene che r = E(d)/E(p). È possibile esprimere il modello anche in termini del valore fondamentale dell’asset p*t, espresso come il valore attuale dei dividendi futuri scontato al tempo t. pt = Et (p⇤t ) 1 X ⇤ pt = ¯ k+1 dt+k (3) k=0 Ai fini dell’analisi, ponendo un valore arbitrario come “terminal value” di p*t, è possibile determinare ricorsivamente una buona approssimazione del risultato della serie p*t, tornando indietro dall’ultima data. p⇤t = ¯ (p⇤t+1 + dt ) Man mano che si procede a ritroso dall’ultima data, l’importanza del “terminal value” scelto diminuisce. Nei dati di Shiller (1981, p. 425), per un periodo di 108 anni dal 1871 al 1979, γ è .954 e γ 108 è pari a .0063, prossimo allo zero. Perciò, all’inizio della serie temporale del campione, il “terminal value” scelto ha un peso trascurabile nella determinazione di p*t. Scegliendo “terminal values” differenti, il risultato consisterebbe nell’aggiungere o sottrarre un trend esponenziale dal grafico di p*. È possibile osservare questo effetto nel Grafico 2.1.1, che evidenzia l’incertezza in p*, nel quale esso è calcolato da “terminal values” alternativi (la curva centrale è quella utilizzata per p* nell’analisi grafica). 23 Grafico 2.1.1 misure alternative di p*t, ottenute da diversi “terminal value”: 1871-1979 (Shiller, 1981) Dall’equazione (3) possiamo dire che, nel modello dei mercati efficienti, il prezzo pt di un asset al tempo t (o di un portafoglio azionario rappresentato da un indice) è il valore atteso di p*t, il prezzo ex post dell’asset (o valore fondamentale), condizionato dall’informazione disponibile al tempo t. Ciò significa che pt è una stima del fondamentale p*t, perciò ogni movimento dei prezzi correnti è originato da nuove informazioni riguardo al valore fondamentale dell’asset p*t. Dal modello dei mercati efficienti indicato deriva la relazione p*t = pt + ut, dove ut è l’errore derivante dalla stima del prezzo ex post, definibile dalla precedente relazione come ut = p*t – pt. Per una stima ottimale, è necessario che l’errore ut sia indipendente da ogni variabile informativa disponibile al tempo t; se questo fosse sensibilmente correlato anche solo a una di queste informazioni, vi sarebbe la possibilità di migliorare l’accuratezza della stima, che quindi non sarebbe ottimale. Tuttavia, per l’assunzione iniziale in (1) anche il prezzo corrente pt è da considerarsi un’informazione al tempo t. Quindi è necessario che anche pt sia indipendente dall’errore. Poiché pt e ut non sono correlati, per il principio per il quale la varianza della somma di due variabili indipendenti è la somma della varianza dei singoli addendi, dalla precedente equazione è possibile affermare che VAR(p*t) = VAR(pt) + VAR(ut). Da questa equazione, poiché la varianza dell’errore dev’essere non negativa, VAR(ut) ≥ 0, otteniamo il vincolo della volatilità dei prezzi di mercato in un modello di mercati efficienti, per il quale VAR(p*t) ≥ VAR(pt). Nel caso in cui il vincolo sia violato, il prezzo dell’azione sovrastimerà sistematicamente il valore del fondamentale. 24 Analisi Empirica Originaria Per l’analisi empirica, Shiller (1981) ha considerato come indice del prezzo di mercato lo Standard and Poor’s Composite Stock Price Index e il Dow Jones Industrial Average (scontati per il fattore proporzionale al percorso di crescita esponenziale nel lungo periodo) negli anni 1871-1979, da cui ha ricavato p*t come il valore attuale dei dividendi successivi all’anno d’analisi t, calcolato come indicato in precedenza. È possibile osservare che il valore di p*t, tracciato in un grafico temporale, si orienta in un trend stabile; al contrario, l’indice oscilla attorno a questo trend. Per questo, la stabilità del valore attuale dei dividendi futuri suggerisce la presenza di un eccesso di volatilità degli indici di mercato rispetto al valore attuale ottenuto dal modello dei mercati efficienti. Grafico 2.1.2 Real S&P500 e Real Dow Jones (linea scura) rapportati a p*t (linea tratteggiata), rispettivamente per i periodi 1871-1979 e 1928-1979 (Shiller, 1981) Analisi Empirica Rivisitata L’analisi di Shiller (1981) ha acceso una serie di critiche sulla sua validità di cui si andrà a osservarne una breve successione temporale. Il primo problema evidenziato riguarda l’assunzione di stazionarietà di dividendi e prezzi dei titoli. Per Marsh e Merton (1986), i dividendi non hanno bisogno di “seguire” un trend, neanche se i relativi utili lo fanno, poiché l’emissione e il riacquisto di azioni allontanano i dividendi dal trend in modo casuale. Inoltre, se i manager aziendali utilizzano i dividendi per fornire un payout più basso dalle attività dell’azienda, ci si aspetterà che i prezzi del titolo varino più velocemente rispetto ai dividendi; questo fenomeno di “dividend smoothing”, mantenendo la distribuzione dei dividendi pari agli utili per azione, creerebbe instabilità nei prezzi con una maggiore volatilità rispetto ai valori attuali. Un'altra critica è portata dal fatto che la teoria dei mercati efficienti suggerisce relazioni ben più complesse rispetto a un modello del valore atteso in cui il fattore di sconto è assunto 25 costante nel tempo. Ad esempio, è possibile far corrispondere il tasso di sconto con i tassi d’interesse, scontando il valore attuale dei dividendi reali dell’indice di mercato per i tassi d’interesse a un anno, sommati a un premio per il rischio pari alla media geometrica dei tassi d’interesse totali a un anno. ⇤ Pr,t = 1 Y ⌧ X 1 (1 + rt+j + ) ⌧ =t j=0 D⌧ Tuttavia, dall’analisi empirica, tassi variabili d’interesse nella formula del valore attuale non sono in grado di favorire il modello dei mercati efficienti, giacché il prezzo corrente rimane comunque più volatile del valore attuale, specialmente per la seconda metà del 20esimo secolo. Oltretutto, tali cambiamenti nel tempo assunti nel valore attuale sembrano avere una certa somiglianza con le variazioni dei prezzi. Un approccio alternativo per rendere variabile il fattore di sconto è formulato utilizzando il saggio marginale di sostituzione intertemporale per il consumo, in considerazione di alcuni modelli dei mercati finanziari degli anni ’70. Grossman e Shiller (1981) hanno tracciato tale modello in un grafico in cui il saggio assunto è quello di un individuo rappresentativo ed è relativo al consumo di beni non durevoli e servizi pro capite, presi dall’US National Income and Product Accounts, con un coefficiente di avversione al rischio pari a 3. ⇤ Pc,t 1 ⇣ X C t ⌘3 = D⌧ C ⌧ ⌧ =t+1 Anche in questo caso, il modello presenta solamente flebili relazioni con i prezzi correnti, che non appaiono abbastanza volatili da giustificare i movimenti nei prezzi, a meno di un coefficiente d’avversione esageratamente alto, molto più del coefficiente 3 utilizzato da Grossman e Shiller. Inoltre, forzando una certa somiglianza tra prezzo corrente e valore attuale, è possibile notare che quest’ultimo ha un picco nel 1929 e una caduta nel 1933, coerentemente con i prezzi correnti. Questa tendenza è legata all’andamento dei consumi, che ha raggiunto un picco nel 1929 per poi cadere nel 1933, come se le persone avessero una lungimiranza perfetta rispetto alla depressione incombente. Tuttavia, quest’ultima realtà è alquanto improbabile, poiché in tal caso il prezzo corrente dovrebbe seguire esattamente l’andamento del valore attuale. Il fattore di sconto appena considerato, nonostante presenti alcuni movimenti in comune con i prezzi correnti, non giustifica la volatilità dei prezzi. Infatti, Shiller (1982) ha dimostrato che il modello teorico implica un limite inferiore sulla volatilità del saggio marginale di sostituzione che è, sulla base dei dati americani, molto più alto di quanto osservato, a meno di un’avversione al rischio troppo elevata per essere reale. 26 Grafico 2.1.3 S&P500: Prezzi e Valori Attuali dei Dividendi (in termini reali) (Shiller, 2003) Il presente grafico temporale è un’estensione del modello originario di Shiller (1981) per il solo indice S&P500, con dati aggiornati al 2003, in cui sono stati inseriti i discussi present value dei dividendi. La linea più scura rappresenta lo S&P500 per il Gennaio dell’anno osservato, mentre la linea meno scura (PDV, Constant Discount Rate) rappresenta il valore attuale dei dividendi reali, scontati per un valore costante pari alla media geometrica dei rendimenti reali dell’intero campione, pari al 6.61%. I dividendi successivi al 2002 sono assunti pari ai dividendi dell’anno 2002 moltiplicati per 1.25 (al fine di correggerne il payout più basso) con un fattore di crescita pari alla media geometrica dei tassi di crescita storici per i dividendi, del 1.11%. La linea più sottile (PDV, Interest Rates) rappresenta il valore attuale scontato per i tassi di interesse, da cui risultano le precedenti conclusioni. La stessa cosa vale per la linea tratteggiata, pari al grafico di Grossman e Shiller (1981) del valore attuale dei dividendi reali scontato per il saggio marginale di sostituzione nei consumi. I valori reali sono ottenuti dai valori nominali divisi per l’indice dei prezzi al consumo dei mesi precedenti al Gennaio del periodo considerato. 2.1.2. LeRoy e Porter (1981) e la Present-Value Relation Leroy e Porter (1981), al contrario di Shiller, analizzano la volatilità dei mercati finanziari seguendo una procedura basata su un modello analitico. Essi specificano che dividendi, prezzi, e qualunque altra variabile ausiliaria che sia utilizzabile come stimatore dei dividendi futuri sono generate da un modello lineare auto-regressivo. 27 Il modello teorico LeRoy e Porter (1981), ai fini dell’analisi, considerano la “Present—Value Relation”, definita come segue. yt = n X j e xt (j) (1) j=0 Dove {xt} è la serie temporale degli utili di un’impresa (o del mercato rappresentato da un indice), generata congiuntamente a una serie temporale {ẕt} rappresentante ogni altra variabile oltre agli utili passati utilizzata per la stima degli utili futuri, {yt} è la serie temporale dei prezzi dell’azione (o dell’indice), e β è il fattore di sconto. Questa relazione significa che il prezzo corrente del titolo azionario è pari all’attuale valore atteso scontato degli utili aziendali futuri, in cui il valore atteso è condizionale all’informazione correntemente disponibile. Di seguito, si vogliono considerare tre teoremi determinati da LeRoy e Porter (1981) che fissano dei vincoli sulla varianza dei prezzi correnti, al fine di testare la validità della precedente uguaglianza all’interno della teoria dei mercati efficienti. Si descrivono i teoremi a partire dal secondo, ai fini della dimostrazione. Secondo Teorema – Il coefficiente di dispersione (inteso come il rapporto di σ sulla media) di {yt} è maggiore rispetto a quello di {ŷt} e minore rispetto a quello di {y*t}. Questo teorema fissa i limiti superiori e inferiori per la varianza dei prezzi correnti, calcolabili dalla sola distribuzione di {xt}. Per la dimostrazione, si considerano due serie temporali {ŷt} e {y*t}, generate alterando l’ammontare d’informazioni sulle future “innovazioni” in {xt} (s’intende l’informazione ottenuta tra, ad esempio, t-1 e t in grado di generare una variazione nelle aspettative della variabile in oggetto, le “novità” del mercato). Rispettivamente, assumendo che non vi sia informazione sulle future innovazioni di {xt}, la serie temporale dei prezzi sarà definita come {ŷt}, mentre se le future innovazioni in {xt} sono conosciute, la presente serie temporale sarà definita come {y*t}. La serie temporale {yt} si può quindi collocare in una situazione intermedia tra le due. Per definizione, la serie temporale y*t si esprime in questo modo. yt⇤ = xt + xt+1 + 2 xt+2 + . . . Si definisce πt il valore scontato dell’errore della stima di xet(j). ⇡t = 1 X j (xt+j xet (j)) (2) j=1 Conoscendo πt, è possibile affermare che il valore del prezzo corrente in y*t è pari al valore determinato da yt sommato all’errore della stima: y*t = yt + πt. 28 Poiché yt dipende solamente dall’innovazione in xt fino al periodo t, mentre πt solamente dalle innovazioni rilevate dopo il periodo t, si può affermare che yt e πt siano statisticamente indipendenti. Perciò, è possibile affermare quanto segue. 2 yt⇤ = 2 yt + 2 ⇡t (3) Per questa equazione, maggiore è la varianza della sommatoria degli errori della stima, minore è la varianza di {yt}. Di conseguenza, la varianza di {y*t} fornisce un limite superiore alla varianza di {yt}. Assumendo che il set d’informazioni contenga sempre almeno i valori passati di {xt}, la varianza di {ŷt} fornisce un limite inferiore alla varianza di {yt}. Quindi, esprimendo la presente relazione in termini di coefficienti di dispersione, è possibile affermare che CD(ŷt) ≤ CD(yt) < CD(y*t). La disuguaglianza stretta deriva dal fatto che l’incertezza non può essere interamente eliminata nel modello. Primo Teorema – Il coefficiente di dispersione di {yt} è minore rispetto al coefficiente di {xt}. In virtù del secondo teorema, è sufficiente osservare che il coefficiente di dispersione di {y*t}, limite superiore rispetto a {yt}, è inferiore al coefficiente di {xt}. Sviluppando tale relazione, dall’equazione di y*t è possibile individuare la sua varianza. 2 yt⇤ = 1 1 2 [ x (0) + 2 x (1) +2 2 x (1) + ...] (4) Nell’equazione, γx(i) ≡ covarianza(xt, xt-i) per ogni t. Dalla disuguaglianza di CauchySchwarz, γx(i) < γx(0) per ogni i > 0, perciò ne segue che 2 yt⇤ < 1 x (0) 2 (5) Da cui si può inoltre determinare che CD(y*t) < CD(xt). Terzo Teorema – La varianza {y*t} è pari alla somma tra la varianza di {yt} e quella di {πt}, il valore scontato dell’errore di stima. Inoltre, tali valori sono stimabili direttamente utilizzando di {xt} e {yt}. Il significato di questo teorema è che l’equazione (3) può essere utilizzata per la costruzione di un test puntuale del modello dei mercati efficienti, trascurando le variabili {ẕt} considerate nella definizione della “Present–Value Relation”, da cui si origina congiuntamente la distribuzione di {yt}. Tale affermazione non è ovvia, poiché xet(j), utilizzato per ottenere πt, non è direttamente osservabile e non può essere calcolato senza prima conoscere la distribuzione congiunta di ẕt con {xt}. Infatti, nonostante πt non sia direttamente osservabile, la sua varianza può essere calcolata dalle distribuzioni di {xt} e {yt}. Trascurando a fini descrittivi il modello matematico, la varianza dell’errore sarà direttamente misurabile e pari alla seguente: 29 2 2 ⇡t = yt+1 +xt yt 2 1 (5) Definiti i limiti della varianza, si può esprimere la teoria dei mercati efficienti come il vincolo per il quale il rendimento reale dell’azione è una serie temporale {rt} che rispetta l’uguaglianza E(rt | It) = ρ, dove ρ è una costante positiva e It l’informazione disponibile al tempo t. Se tutti gli utili reali xt dell’azione sono pagati in dividendi, e il pagamento è effettuato all’inizio del periodo, il tasso di rendimento sarà definito come segue. rt = yt+1 yt x t 1 (6) Prendendo le aspettative condizionate su It, e utilizzando la relazione E(rt | It) = ρ, la precedente equazione può essere espressa come segue. rt = x t + yte (1) 1+⇢ (7) Ripetendo tale procedura e assumendone la convergenza è possibile ottenere la “PresentValue Relation” espressa nell’equazione (1), valida in una situazione di mercato efficiente. Perciò, i teoremi individuati in precedenza sulla base della “Present-Value Relation” sono conseguenze dell’efficienza di mercato, come espresso nell’equazione (5). È quindi possibile testare la validità dell’efficienza dei mercati sulla base dei vincoli forniti dai teoremi, assumendo il rispetto di questi come ipotesi nulla. Si riformulano i vincoli in maniera conveniente ai test: − il primo teorema suggerisce l’ipotesi ƒ1 > 0, in cui ƒ1 stima la differenza tra i coefficienti di dispersione di xt e yt; − il terzo teorema suggerisce l’ipotesi ƒ3 = 0, in cui ƒ3 stima la differenza tra γ*y(0) – γy(0) – γπ(0) per γ definito come nel primo teorema; − il limiti imposti dal secondo teorema suggeriscono le ipotesi ƒu2 > 0 e ƒl2 > 0, dove ƒu2 stima la differenza tra i coefficienti di dispersione di y*t e yt, mentre fl2 per quelli di yt e ŷt. Analisi Empirica I test sono stati condotti sulla base dell’indice di mercato S&P500, e di tre imprese individuali quali AT&T (T), General Electric (GE) e General Motors (GM). Si considerano non significativi i trend negativi sui titoli, indotti dall’inflazione e dalla ritenzione degli utili. Nella seguente tabella sono presenti, nella parte sinistra, le stime delle statistiche ƒ1, ƒu2, ƒl2, ƒ3 e delle statistiche z, risultato della standardizzazione asintotica a normale delle statistiche ƒ, e 30 nella parte destra le stime della varianza e dei coefficienti di dispersione rispettivamente di yt, ŷt, y*t e πt. Tabella 2.1.1 Valori dei Test Statistici effettuati (LeRoy e Porter, 1981) Indice o Impresa ƒ u2 ƒ1 ƒ l2 ƒ3 Standard & Poor (S&P500) z - .280 .396 - .348 - 8.63 - .193 – - .242 - .254 AT&T (T) z - .281 .42 - .314 - 828.7 - 1.096 – - 1.223 - 2.006 General Electric (GE) z - 6.84 · E-05 .288 - .264 - 1,478.4 - .006 – - 2.57 - 4.41 General Motors (GM) z .103 .375 - .314 - 1,773.9 .596 – - 1.84 - 2.76 Tabella 2.1.2 Varianze e Coefficienti di Dispersione (LeRoy e Porter, 1981) Varianze Indice o Impresa γy(0) γŷ(0) Coefficienti di Dispersione γ*y(0) γπ(0) CD(x) CD(ŷ) CD(y) CD(y*) S&P500 4.89 1.64 · E-01 .255 3.99 .172 8.28 · E-02 .452 .052 AT&T 385.7 9.57 · E-07 24.6 467.6 .139 6.68 · E-06 .420 .106 General Electric 165.9 3.81 · E-05 1.12 1,313.6 .287 4.36 · E-05 .288 .024 General Motors 690.5 3.37 · E-03 19.9 1,103.3 .481 2.64 · E-04 .378 .064 In relazione al primo teorema, per GM il coefficiente di dispersione degli utili eccede quello dei prezzi, come richiesto dal vincolo, mentre per GE le due statistiche sono pressoché identiche e per AT&T e S&P500 il coefficiente di dispersione di y è molto più alto di quello degli utili. Tuttavia, nessuna delle statistiche z per il test associato H0: ƒ1 = 0 è sufficientemente rilevante, quindi si accetta l’ipotesi nulla al livello di significatività del 5%. Continuando, l’ipotesi H0: ƒl2 > 0 per la quale la varianza dei prezzi supera il limite inferiore formulato dal secondo teorema è accettata. Sulla base delle stime, H0: ƒu2 > 0 è largamente violata da tutti i campioni considerati, ma ancora una volta le statistiche z sono molto alte, e solo per GE si può rigettare l’ipotesi nulla, mentre per GM si è al limite a un livello di significatività del 5% e per AT&T e S&P500 è indicata l’accettazione di H0. Per concludere, l’assunzione più restrittiva, costituita dal terzo teorema, H0: ƒ3 = 0, indica un chiaro rigetto dell’efficienza dei mercati per i titoli delle imprese individuali, mentre per l’indice di mercato la z non è significativamente lontana dallo zero. Riassumendo, i test fissati sulla base dei teoremi costruiti all’interno di un modello di mercato efficiente sono fortemente violati a livello empirico, nonostante gli intervalli di confidenza 31 siano tanto ampi da non considerare le conclusioni ottenute sempre statisticamente significative. Questa conclusione differisce nettamente con altri test di dispersione, tra cui quello di Fama (1970), che indicano l’accettazione dell’ipotesi nulla. Dagli strumenti utilizzati da LeRoy e Porter (1981), tuttavia, non si è in grado di risolvere la differenza tra i test che accettano l’ipotesi di efficienza e quelli che la rigettano; una soluzione può essere quella che i presenti test hanno una potenza maggiore rispetto ai precedenti. 2.2. I Comportamenti Irrazionali degli Investitori: la “Behavioral Economics” Shiller (2003, p. 83) definisce la “Behavioral Finance" come «la finanza con una più ampia prospettiva sociale, che include la psicologia e la sociologia». Essa fornisce brillanti spunti per identificare alcuni dei comportamenti irrazionali adottati dagli investitori. Questa si colloca all’interno di una realtà più ampia del mondo economico, rappresentata dalla “Behavioral Economics”. L’idea di inserire concetti provenienti dalla psicologia all’interno dei modelli economici non è per niente recente; essa risale al 1898, quando Thortsein Veblen criticò la teoria economica per l’abuso del concetto di “razionalità”. A evidenza di ciò, più recentemente sono stati assegnati, implicitamente, come nel caso di Shiller o Akerlof (premiato per la sua ricerca su “modelli di agenti economici razionali in mercati dove i venditori hanno una maggiore informazione sulla qualità dei prodotti rispetto agli acquirenti”) o esplicitamente, come quello di Daniel Kahnerman e Vernon Smith, Premi Nobel per l’Economia per lavori legati alla “Behavioral Economics” sempre molto datati rispetto all’assegnazione. Per un’impressione di cosa sia realmente la “Behavioral Economics” ci si può riferire a George Akerlof (2001) che nella sua Nobel Lecture ha fornito una lista di quegli argomenti che si possono considerare “comportamentali”: reciprocità, equità, identità, illusione monetaria, avversione al rischio, “herding” (comportamento di massa), e “procrastination” (dilazione). Ancora, DellaVigna (2009) ha fornito un buon profilo dei problemi esaminati dalla “Behavioral Economics”, con alcune evidenze empiriche. Questi sono le preferenze atipiche (non-standard preferences), tra cui è possibile distinguere tra preferenze temporali, preferenze nel rischio e preferenze sociali, le false credenze (incorrect beliefs), e i disturbi sistematici nel processo decisionale (systematic biases in decision making). Di seguito si analizzeranno brevemente alcuni di questi concetti, allo scopo di fornire uno spunto di come questi possano influenzare il processo decisionale degli individui anche in ambito finanziario. 32 2.2.1. I Disturbi (Sistematici) del Processo Decisionale: Framing Uno dei paradossi chiave della Behavioral Economics è quello che viene chiamato “effetto framing”, che DellaVigna (2009) considera un importante disturbo sistematico all’interno dei processi decisionali. Ciò può essere riassunto come il fenomeno per il quale la risposta a una certa richiesta dipende da come questa viene formulata. Un pratico esempio è il seguente (Levine 2003, p. 89): richiedendo di esprimere la propria preferenza tra un candidato che ha mollato Harvard e un altro candidato che invece ha fondato Microsoft, probabilmente il candidato più votato sarà il secondo, quando in realtà entrambi i candidati si riferiscono a Bill Gates. Una variazione al tema del framing è apportata dal cd. “endowment effect” (effetto donazione). Per tal effetto, il modo in cui è valutato un dato oggetto dipende dalla posizione assunta dal soggetto che lo valuta, a seconda che questo sia l’acquirente o il venditore dell’oggetto. Precisamente, è necessario determinare quella che viene chiamata disponibilità a pagare per il dato oggetto (willingness-to-pay) e quella che viene chiamata disponibilità ad accettare per un dato oggetto (willingness-to-accept), che rappresenta l’esatto contrario. Ad esempio, chiedendo a un certo numero d’individui la loro disponibilità a pagare per una tazza di caffè, questa sarà relativamente bassa, mentre se è data loro una tazza di caffè ed è richiesta la loro disponibilità a venderla per un certo compenso, quest’ultimo sarà relativamente alto. Un altro punto a favore è dato dal c.d. “effetto anchoring”. Per tale fenomeno, è possibile guidare le persone a fare offerte su oggetti di valore pressoché nullo comunicando loro un numero irrilevante prima che essi presentino la loro offerta. Questo è stato documentato da un esperimento di Ariely, Loewenstein e Prelec (2003). È stato richiesto a un gruppo americano d’individui di prendere nota del numero finale del loro SSN, e poi della loro disponibilità a pagare per alcuni oggetti. È stato rilevato che le persone aventi un numero più alto nel SSN sono quelle che hanno compiuto offerte più alte per gli oggetti offerti, e viceversa. Tuttavia, questo esperimento sembra essere un “artificio” che non può essere replicato. 2.2.2. Le “False Credenze” DellaVigna (2009) individua alcuni atteggiamenti per i quali le persone possiedono continuamente credenze sbagliate. Una di queste è quella per cui le persone sono sistematicamente troppo fiduciose, tendendo a considerare i piccoli campioni in maniera troppo affidabile, e sottovalutando la propria capacità di adattarsi alle circostanze future. In quest’ambito si colloca il concetto di “Illusione Monetaria” di Akerlof. Si tratta di un errore di valutazione compiuto da chi ragiona in termini di valore nominale della moneta, tenendo conto in modo inadeguato della variazione del rischio e del suo valore reale. Ad esempio un 33 aumento dei salari del 10%, accompagnato da un aumento del 10% nei prezzi, nel breve periodo farà sentire le persone più ricche di quanto sono, nonostante non ci si possa permettere più di quanto originariamente previsto. Akerlof e altri evidenziano quella che viene chiamata “vischiosità nei prezzi” (price stickiness), che consiste nella tendenza di mantenere inalterati i prezzi nel breve periodo nonostante una caduta nella domanda. Un esempio pratico di tale concetto è quello del ristorante: se i prezzi sono elencati all’interno del menù, e questo ha un certo (seppur piccolo) costo di stampa, in caso di una variazione dei prezzi di listino non verrà stampato un nuovo menù immediatamente. Tuttavia, non è semplice determinare se le persone sono seriamente troppo fiduciose o se esse vogliono che siano gli altri ad avere questa credenza. Vi sono molti vantaggi nell’essere ritenuti esperti; per questo, è possibile che gli individui perdano fiducia nei confronti delle persone che non agiscono in maniera “sicura”. Shefrin (2000) afferma che le persone vogliono essere “sopra la media”. Tuttavia, circa la loro metà si collocherà sotto la media. Si utilizza l’esempio della bravura alla guida dell’auto; in un questionario, alla richiesta di quanto si pensa di essere abili alla guida, tra il 65% e l’80% delle persone ha dichiarato di avere un’abilità sopra la media. Ancora, Barber e Odean (2001) osservano che gli investitori nei mercati finanziari compiono un numero eccessivo di scambi per essere razionali, e l’intenso trading deriva dalla troppa fiducia delle persone nel possedere informazioni o abilità sopra la media. Inoltre, vi è una differenza di fiducia di genere: gli uomini tendono a compiere più scambi rispetto alle donne, subendo maggiori perdite per l’eccessiva fiducia. Un altro fenomeno che genera false credenze è dato dal fatto che le persone non conoscono perfettamente le leggi della probabilità applicate alle piccole quantità. Ad esempio, se una moneta è lanciata più volte con risultato testa, le persone diranno che il risultato al prossimo lancio sarà ancora testa, affermazione incongruente dal punto di vista probabilistico. DellaVigna (2009) afferma che le persone sottovalutano sistematicamente le loro abilità di adattamento. In particolare, le persone tendono a reagire in maniera eccessiva alle crisi economiche, il che le porta a cambiare il loro modo di vivere. Un pratico esempio è dato dagli accademici a cui non è rinnovato l’ incarico; si accorgeranno che questo li renderà molto meno infelici di quanto si aspettassero. Inoltre, DellaVigna afferma inoltre che le persone hanno un’attenzione limitata; esse sono circondate da molti fatti, che possono difficilmente incorporare per intero nelle proprio credenze. Infine, DellaVigna afferma che le decisioni dipendono anche dalle emozioni. Le persone sono più propense a comprare un’auto costosa rilassandosi in una poltrona confortevole e sorseggiando caffè piuttosto che stando in piedi sotto la pioggia. 34 2.2.3. L’Identità: il cd. “Herding Behavior” DellaVigna (2009) suggerisce che il fenomeno per il quale le persone rispondono alle pressioni sociali crea una distorsione sistematica nelle decisioni; esse sono molto più propense a rispondere come pensano che “gli altri” rispondano. Akerlof (2002), a proposito dell’identità, ha affermato essa ha un ruolo di rinforzo nella povertà e nelle disuguaglianze sociali. Per Akerlof, la teoria classica non è in grado di spiegare, ad esempio, il comportamento auto-distruttivo degli afro-americani che, oltre a un tasso di povertà del 23.6% nel 2000 rispetto a quello del 7.7% dei bianchi, possiedono più alti tassi di criminalità, tossicodipendenza, alcolismo, dipendenza dallo Stato… Akerlof e Kranton hanno sviluppato a tal scopo una teoria in grado di determinare il ruolo dell’identità e delle decisioni che i singoli sono in grado di compiere su chi vogliono essere. Secondo questa teoria le etnie più in difficoltà affrontano una “scelta obbligata”, adeguandosi alla cultura dominante per non sopportare costi psicologici e non rimanere isolati. Tale fenomeno è una versione del c.d. “herding model”, per il quale le persone seguono semplicemente l’andamento della folla. 2.2.4. Preferenze Temporali: il cd. “Present Bias” Nel 1956, il lavoro di Richard Strotz ha prodotto un particolare modello, l’hyperbolic discounting model, non considerato fino all’avvento della “Behavioral Economics”. Considerando il comportamento degli individui nel consumo, dati due beni identici la maggioranza delle persone assegna un valore più basso a quello che otterrà in un futuro più lontano, quindi la funzione di decadimento del valore di un bene ottenuto al tempo t sarà una funzione decrescente di t. Per la teoria classica, tale funzione è esponenziale, con decadimento a tasso costante. Tale modello, invece, afferma che il decadimento è più rapido nel breve periodo, mentre è più lento nel lungo periodo, da cui si ottiene una funzione iperbolica. Laibson (1997), nella formulazione di un’approssimazione di questo (che prende il nome di quasi-hyperbolic o beta-delta discounting model) ha portato all’attenzione il fenomeno che ne emerge, conosciuto come “present bias”, per il quale le preferenze dell’individuo variano in maniera intertemporale, in modo tale che ciò che è preferito in un certo momento non sia coerente rispetto a quanto preferito in un altro istante. Sulla base dei dati di Keren e Roelosfma (1995), è possibile apportare un’illustrazione di tale bias. Se a un gruppo è richiesto di scegliere tra $175 oggi e $192 tra quattro settimane questi sceglieranno il pagamento immediato di $175, mentre se è presentata la scelta tra $175 in 26 settimane e $192 in 30 settimane, la maggior parte delle persone sceglierà la soluzione a più lungo termine. 35 Tabella 2.2.1 Scelte di Rendimento in due Scenari Temporali (Keren e Roelosfma, 1995) Scenario 1 2 Alternative Percentuale di Scelta $175 oggi 0.82 $192 in 4 settimane 0.18 $175 in 26 settimane 0.37 $192 in 30 settimane 0.63 Considerando le due scelte a livello individuale, il fenomeno è solo “apparentemente” incoerente con la teoria classica. Infatti, se le persone oggi hanno una migliore conoscenza dei loro immediati bisogni rispetto ai bisogni futuri, alcune di esse potrebbero avere la razionale necessità di possedere più denaro oggi rispetto ad un futuro. Ancora, solamente pochi individui sapranno già se tra 26 settimane avranno un disperato bisogno di liquidità, quindi è razionale investire sulla cifra più alta. Il problema si verifica quando, considerando all’unisono i due eventi, tra 26 settimane gli individui che in precedenza hanno scelto i $192 in 30 settimane ora sceglieranno i $175. In tal caso, è lecito affermare che vi sia un conflitto nella stabilità delle preferenze degli individui, in contrasto con la teoria classica. 36 3. Conclusioni Nei lavori analizzati, sono state osservate le principali teorie a favore e contro l’ipotesi di efficienza informativa dei mercati finanziari. In alcuni casi, vi sono evidenze per dire che gli attori di mercato non sembrano sempre identificarsi con l’homo oeconomicus perfettamente razionale prospettato dalla teoria classica. L’economia comportamentale, e con essa la finanza comportamentale qui trattata, rappresenta sicuramente un approccio più “reale” alla teoria dei mercati efficienti, contrapposto alla tradizione dei modelli economici. La frase di Kenneth Boulding “Mathematics brought rigor to Economics. Unfortunately, it also brought mortis” risulta esemplare per esprimere tale concetto. L’economia comportamentale ha sicuramente portato una nuova ondata di fervore, con l’utilizzo di scienze non originariamente convenzionali, al fine di spiegare i comportamenti economici nei mercati (ad esempio il recente utilizzo delle “neuroscienze”). Tuttavia, questa non è in grado per se di “sviluppare” l’economia, correggendone le debolezze e i difetti; piuttosto, essa si pone come una “antagonista” rispetto all’approccio metodologico classico, in maniera complementare per meglio comprendere i meccanismi di funzionamento dei mercati finanziari. Il successo dell’antitesi, in particolare nella figura di Bob Shiller, definito come un “guru” da alcuni segmenti della comunità finanziaria (Schwert, 1991), è stato aiutato dal personale interesse dei professionisti del settore e dal grande impatto che queste ricerche hanno avuto su una grande varietà di problemi del mondo reale. In particolare, il mondo macroeconomico ha accolto queste teorie a braccia aperte in quanto, dichiarando l’irrazionalità dei mercati azionari e obbligazionari, è possibile trarre una base razionale per un management attivo delle politiche monetarie e fiscali. Nel frattempo, il lungo dibattito continua a imperversare. Le evidenze empiriche di Shiller e altri non hanno modificato la ratio del pensiero di Fama, il quale continua a sostenere la superficialità intellettuale di chi afferma l’esistenza di “bolle speculative”. Tuttavia, come si è osservato, con French (1993) ha rivisto il capital asset pricing model integrandolo in un modello a più fattori di rischio. Ancora, in occasione della cerimonia del Nobel, Shiller ha rilasciato un’intervista per un’emittente svedese a proposito della condivisione del titolo. Egli ha specificato che Fama “potrebbe soffrire di una sorta di dissonanza cognitiva, poiché le sue stesse scoperte sono in contrasto con la Scuola di Chicago”. Shiller sostiene che gli accademici a favore della tesi si comportano “come un prete che ha appena scoperto che Dio non esiste: egli non può e non è in grado di affrontare la questione, quindi ha bisogno di trovare un modo per razionalizzarla”. 37 Per terminare, si vuole considerare la visione complessiva di Malkiel (2003). Da ogni punto di vista, i partecipanti ai mercati finanziari, trattandosi d’individui che compiono giudizi collettivi, possono commettere degli errori. La teoria economica stessa prevede comunque l’esistenza di un modello che, essendo tale, sarà per forza di cose un’approssimazione del mondo reale. Tuttavia, è possibile considerare il mercato in maniera “complessivamente” efficiente, in cui fenomeni come le bolle speculative sono “eccezioni che confermano la regola”, mentre l’efficienza perfetta è da escludere, altrimenti non vi sarebbe incentivo per i professionisti nell’acquisire quelle informazioni rapidamente riflesse nei prezzi di mercato, come afferma giustamente il paradosso di Grossman-Stiglitz. 4. Riferimenti Bibliografici e Sitografici − AKERLOF, GEORGE A., 2001. Behavioral Macroeconomics and Macroeconomic Behavior. Nobel Lecture. In: LEVINE, DAVID K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers. − ALLEN, KATIE, 2013. Nobel prize-winning economists take disagreement to whole new level. The Guardian [online], 10 Dicembre. Disponibile su <http://www.theguardian.com/business/2013/dec/10/nobel-prize-economists-robertshiller-eugene-fama> [Data di accesso: 02/07/2014] − ARIELY, D., LOEWESTEIN, G., PRELEC, D., 2003. Coherent Arbitrariness: Stable Demand Curves Without Stable Preferences. Quaterly Journal of Economics 118, 73105. In: LEVINE, D. K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers. − BARBER, B. M., ODEAN, T., 2001. Boys Will Be Boys: Gender, Overconfidence, and Common Stock Investment. Quarterly Journal of Economics 116, 261-292. − CAMPBELL, J., SHILLER, R. J., 1988. Stock Prices, Earnings, and Expected Dividends. Journal of Finance 43 (3), 661-76. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives 17 (1), 59-82. − CHAN, K. C., CHEN, NAI-FU, 1988. An unconditional asset-pricing test and the role of firm size as an instrumental variable for risk. Journal of Finance 43 (2), 309-325. In: FAMA, E., 1991. Efficient Capital Markets: II. Journal of Finance 46 (5), 1575-1617. − CHAN, K. C., CHEN, NAI-FU, 1991. Structural and return characteristics of small and large firms. Journal of Finance 46 (4), 1467-1484. In: FAMA, E., 1991. Efficient Capital Markets: II. Journal of Finance 46 (5), 1575-1617. 38 − DEBONDT, W. F. M.,THALER, R., 1985. Does the Stock Market Overreact? Journal of Finance 40, 793–805. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − DELLAVIGNA, STEFANO, 2009. Psychology and Economics: Evidence from the Field. Journal of Economic Literature 47, 315-372. In: LEVINE, D. K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers. − FAMA, E., 1970. Efficient Capital Markets: A Review of Theory and Empirical Work. Journal of Finance 25 (2), 383-417. − FAMA, E., FISHER, L., JENSEN, M., ROLL, R., 1969. The adjustment of Stock Prices to New Information. International Economic Review 10, 1-21. In: FAMA, E., 1970. Efficient Capital Markets: A Review of Theory and Empirical Work. Journal of Finance 25 (2), 383-417. − FAMA, E., FRENCH, K., 1988. Permanent and Temporary Components of Stock Prices.” Journal of Political Economy 96 (2), 246-73. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − FAMA, E., FRENCH, K., 1993. Common Risk Factors in the Returns on Stocks and Bonds. Journal of Finance. 33 (1), 3-56. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − FAMA, EUGENE, 1965. The Behavior of Stock Market Prices. Journal of Business 38, 34-105. In: FAMA, EUGENE, 1970. Efficient Capital Markets: A Review of Theory and Empirical Work. Journal of Finance 25 (2), 383-417. − FAMA, EUGENE, 1991. Efficient Capital Markets: II. Journal of Finance 46 (5), 15751617. − FAMA, EUGENE, 1998. Market Efficiency, Long-Term Returns, and Behavioral Finance. Journal of Financial Economics 49 (3), 283-306. − FOX, JUSTIN, 2013. What the Great Fama-Shiller Debate Has Taught Us. Harward Business Review [online], 14 Ottobre. Disponibile su <http://blogs.hbr.org/2013/10/whatthe-great-fama-shiller-debate-has-taught-us/> [Data di accesso: 02/07/2014] − GROSSMAN, S. J., SHILLER, R. J., 1981. The Determinants of the Variability of Stock Market Prices. American Economic Review 71 (2), 222-227. − JENSEN, MICHAEL, 1968. The Performance of Mutual Funds in the Period 1945-64. Journal of Finance 23, 389-416. In: FAMA, E., 1970. Efficient Capital Markets: A Review of Theory and Empirical Work. Journal of Finance 25 (2), 383-417. 39 − JENSEN, MICHAEL, 1969. Risk, the Pricing of Capital Assets, and the Evaluation of Investment Portfolios. Journal of Business 42, 167-247. In: FAMA, E., 1970. Efficient Capital Markets: A Review of Theory and Empirical Work. Journal of Finance 25 (2), 383-417. − KAHNEMAN, D., TVERSKY, A., 1979. Prospect Theory: An Analysis of Decision Under Risk. Econometrica 47 (2), 263–91. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − KEREN, G., ROELSOFSMA, P., 1995. Immediacy and Certainty in Intertemporal Choice. Organizational Behavior and Human Decision Making 63, 297-297. In: LEVINE, DAVID K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers. − LAIBSON, DAVID, 1997. Golden Eggs and Hyperbolic Discounting. Quarterly Journal of Economics 112 (2), 443-477. In: LEVINE, DAVID K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers. − LEROY, STEPHEN F., 2005. Excess Volatility. Disponibile su: <http://www.econ.ucsb.edu/~sleroy/webpage/recent.html> [Data di accesso: 07/08/2014] − LEVINE, DAVID K., 2012. Is Behavioral Economics Doomed?: The Ordinary versus The Extraordinary. Cambridge: Open Book Publishers. − LO, A., MACKINLAY, A. C., 1999. A Non-Random Walk Down Wall Street. Princeton: Princeton University Press. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − MALKIEL, BURTON GORDON, 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − MALKIEL, BURTON GORDON, 2011. 10° ed. A Random Walk Down Wall Street: The Time-Tested Strategy for Successful Investing. New York: W. W. Norton & Co. Inc, p. 270 − MARSH, T. A., MERTON, R., 1986. Dividend Variability and Variance Bounds Tests or the Rationality Of Stock Market Prices. American Economic Review 76 (3), 483-488. In: SHILLER, R. J., 2003. From Efficient Markets Theory to Behavioral Finance. Journal of Economic Perspectives 17 (1), 83-104. − ODEAN, TERRANCE, 1999. Do Investors Trade Too Much?. American Economic Review 89 (5), 1279-1298. In: MALKIEL, B. G., 2003. The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17 (1), 59-82. − SCHWERT, WILLIAM G., 1991. Review of Market Volatility by Robert J. Shiller: Much ado about… very little. Journal of Portfolio Management 17, 74-78. 40 − SHEFRIN, HERSH, 2013. What Eugene Fama Could Learn From His Fellow Nobel Winner Robert Shiller. Forbes [online], 17 Ottobre. Disponibile su <http://www.forbes.com/sites/hershshefrin/2013/10/17/my-behavioral-take-on-the-2013economics-nobel/> [Data di accesso: 02/07/2014] − SHILLER, ROBERT J., 1981. Do Stock Prices Move Too Much to be Justified by Subsequent Changes in Dividends?. American Economic Review 71 (3), 421-436. − SHILLER, ROBERT J., 1990. Market Volatility. Cambridge: MIT Press, p. 8. − SHILLER, ROBERT J., 2003. From Efficient Markets Theory to Behavioral Finance. Journal of Economic Perspectives 17 (1), 83-104. 41