MOMENTI MISTI 1. Momenti di vettori di variabili aleatorie Siano X1
by user
Comments
Transcript
MOMENTI MISTI 1. Momenti di vettori di variabili aleatorie Siano X1
MOMENTI MISTI E. DI NARDO 1. Momenti di vettori di variabili aleatorie Siano X1 , X2 , . . . , Xn v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). I momenti dei vettori aleatori vengono in genere chiamati momenti misti. Definizione 1.1. Fissato j ∈ {1, 2, . . . , n} e k1 , k2 , . . . , kj ∈ {1, 2, . . . , n} se esiste finito l’integrale Z Z r r r E[Xkr11 Xkr22 · · · Xkjj ] = dx1 · · · dxn xkj1 xrk22 · · · xkjj dFX (x1 , x2 , . . . , xn ) R R dove r1 , r2 , . . . , rj ∈ N, esso prende il nome di momento prodotto di ordine r1 , r2 , . . . , rj delle variabili aleatorie Xk1 Xk2 · · · Xkj . Più in generale se h : Rj → R misurabile allora Z Z E[h(Xk1 , . . . , Xkj )] = dx1 · · · dxn h(xk1 , . . . , xkj )dFX (x1 , . . . , xn ). R R In particolare è immediato dimostrare che E[X1 + X2 + · · · + Xn ] = E[X1 ] + E[X2 ] + · · · + E[Xn ]. Basta infatti provare tale uguaglianza per due v.a. perché sia vera per n v.a., applicando iterativamente la proprietà associativa. Allora risulta Z Z E[X + Y ] = (x + y)dFX,Y (x, y) ZR ZR Z Z = xdFX,Y (x, y) + ydFX,Y (x, y) R R ZR R Z = xdFX (x) + ydFY (y) = E[X] + E[Y ]. R R Allo stesso modo si può dimostrare che E[a1 X1 + a2 X2 + · · · + an Xn ] = a1 E[X1 ] + a2 E[X2 ] + · · · + an E[Xn ] dove ai ∈ R per i = 1, 2, . . . , n ragion per cui si dice che l’operatore E è lineare. È possibile definire anche il momento prodotto centrale di ordine k1 , k2 , . . . , kj delle v.a. Xk1 Xk2 · · · Xkj quando esiste finito l’integrale (1.1) Z Z j Y E{[Xk1 −µ1 ]r1 · · · [Xkj −µk ]rj } = dx1 · · · dxn [xkt −µt ]rt dFX (x1 , x2 , . . . , xn ) R R t=1 e ovviamente le v.a. sono dotate di media. Particolare rilievo riveste la (1.1) quando j = 2 e r1 = r2 = 1. Ad integrazione della Lezione 12 - Calcolo delle Probabilità e Statistica Matematica II. 1 2 E. DI NARDO Definizione 1.2. La quantità cov(Xk1 , Xk2 ) = E[(Xk1 − µk1 )(Xk2 − µk2 )] viene detta covarianza delle v.a. Xk1 e Xk2 . Scegliendo k1 = k2 , se E[Xk21 ] < ∞, si ha cov(Xk1 , Xk1 ) = E[Xk21 ] − µ2k1 = Var[Xk1 ]. Definizione 1.3. Se Xk1 e Xk2 sono v.a. dotate di momento secondo, la quantità ρk1 ,k2 = cov(Xk1 , Xk2 ) D(Xk1 )D(Xk2 ) viene detta coefficiente di correlazione. Risulta ρk1 ,k1 = 1. Si chiama matrice di covarianza del vettore X la matrice simmetrica cov(X1 , X1 ) cov(X1 , X2 ) · · · cov(X1 , Xn ) cov(X2 , X1 ) cov(X2 , X2 ) · · · cov(X2 , Xn ) Σ= . .. .. .. . . ··· . cov(Xn , X1 ) cov(Xn , X2 ) · · · cov(Xn , Xn ) Gli elementi sulla diagonale principale sono le varianze delle variabili aleatorie componenti il vettore. Si chiama matrice di correlazione del vettore X la matrice simmetrica 1 ρ1,2 · · · ρ1,n ρ2,1 1 · · · ρ2,n R= . . .. . . . . . ··· . ρn,1 ρn,2 · · · 1 1.1. Indipendenza. Se le componenti del vettore X sono indipendenti, i momenti misti si possono calcolare senza far ricorso a integrali multipli. Vale infatti il seguente teorema. Teorema 1.4. Siano X1 , X2 , · · · , Xn v.a. indipendenti. Allora comunque fissato j ∈ {1, 2, . . . , n} e k1 , k2 , . . . , kj ∈ {1, 2, . . . , n} si ha r r E[Xkr11 Xkr22 · · · Xkjj ] = E[Xkr11 ]E[Xkr22 ] · · · E[Xkjj ] dove r1 , r2 , . . . , rj ∈ N. Inoltre siano h1 , . . . , hj funzioni misurabili da R a R si ha E[h1 (Xk1 )h2 (Xk2 ) · · · hj (Xkj )] = E[h1 (Xk1 )]E[h2 (Xk2 )] · · · E[hj (Xkj )]. Proof. I due risultati Qn seguono osservando che, nell’ipotesi le v.a. siano indipendenti, risulta FX (x) = i=1 FXi (xi ). 2. Covarianza e correlazione Per la linearità dell’operatore E è possibile formulare la covarianza di due v.a. al seguente modo: cov(X, Y ) = E[XY ] − µX µY . Esercizio Mostrare che (2.1) Var(aX ± bY ) = a2 Var(X) + b2 Var(Y ) ± 2 a b cov(X, Y ). MOMENTI MISTI 3 La covarianza di due variabili aleatorie indipendenti è nulla, cosı̀ come il corrispettivo coefficiente di correlazione. Però la covarianza di due v.a. si può annullare anche se le v.a. non sono indipendenti: in tal caso si dirà che le v.a. sono incorrelate. Esercizio Calcolare la covarianza delle v.a. X e X 2 , dove X assume valori −1, 0, 1 con eguale probabilità. Conseguenza immediata della (2.1) è che quando le v.a. sono incorrelate (ed in particolare quando sono indipendenti) si ha Var(aX ± bY ) = a2 Var(X) + b2 Var(Y ). Se le componenti del vettore X sono incorrelate, la matrice di covarianza diventa una matrice diagonale e la matrice di correlazione diventa la matrice identià. Teorema 2.1. Risulta |ρX,Y | ≤ 1. Proof. Consideriamo le v.a. standardizzate di X e di Y. Y − µY X − µX e ZY = ZX = σX σY dove σX = D(X), σY = D(Y ), µX = E[X], µY = E[Y ]. Si ha X − µX Y − µY ρZX ,ZY = cov(ZX , ZY ) = E = ρX,Y . σX σY Mostriamo che ρZX ,ZY ≥ −1. Infatti Var(ZX + ZY ) = 1 + 1 + 2 cov(ZX , ZY ) ≥ 0 ⇒ cov(ZX , ZY ) ≥ −1. Allo stesso modo Var(ZX − ZY ) = 1 + 1 − 2 cov(ZX , ZY ) ≥ 0 ⇒ cov(ZX , ZY ) ≤ 1. Si noti che il coefficiente di correlazione è sempre adimensionale. Corollario 2.2. Risulta cov(X, Y ) ≤ p p Var(X) Var(Y ). Esercizio Mostrare che il coefficiente di correlazione è invariante per traslazione lineare. Teorema 2.3. q.c. ρX,Y = ±1 ⇔ Y = ±aX + b dove a ∈ R+ e b ∈ R. Proof. Se ρX,Y = 1 allora cov(ZX , ZY ) = 1 dove ZX e ZY sono le v.a. standardizzate delle v.a. X e Y. Pertanto Var(ZX − ZY ) = 0 e quindi P (ZX = ZY ) = 1 ossia X − µX q.c. Y − µY = . σX σY Il risultato segue ponendo σY a= e b = µY − aµY . σX Analogamente il risultato segue quando ρX,Y = −1 mostrando che Var(ZX +ZY ) = 0. 4 E. DI NARDO Una notevole applicazione di questo ultimo teorema si ha nell’analisi della regressione lineare.