...

MOMENTI MISTI 1. Momenti di vettori di variabili aleatorie Siano X1

by user

on
Category: Documents
37

views

Report

Comments

Transcript

MOMENTI MISTI 1. Momenti di vettori di variabili aleatorie Siano X1
MOMENTI MISTI
E. DI NARDO
1. Momenti di vettori di variabili aleatorie
Siano X1 , X2 , . . . , Xn v.a. definite su uno stesso spazio di probabilità (Ω, F, P ).
I momenti dei vettori aleatori vengono in genere chiamati momenti misti.
Definizione 1.1. Fissato j ∈ {1, 2, . . . , n} e k1 , k2 , . . . , kj ∈ {1, 2, . . . , n} se esiste
finito l’integrale
Z
Z
r
r
r
E[Xkr11 Xkr22 · · · Xkjj ] =
dx1 · · · dxn xkj1 xrk22 · · · xkjj dFX (x1 , x2 , . . . , xn )
R
R
dove r1 , r2 , . . . , rj ∈ N, esso prende il nome di momento prodotto di ordine r1 , r2 , . . . , rj
delle variabili aleatorie Xk1 Xk2 · · · Xkj .
Più in generale se h : Rj → R misurabile allora
Z
Z
E[h(Xk1 , . . . , Xkj )] =
dx1 · · · dxn h(xk1 , . . . , xkj )dFX (x1 , . . . , xn ).
R
R
In particolare è immediato dimostrare che
E[X1 + X2 + · · · + Xn ] = E[X1 ] + E[X2 ] + · · · + E[Xn ].
Basta infatti provare tale uguaglianza per due v.a. perché sia vera per n v.a.,
applicando iterativamente la proprietà associativa. Allora risulta
Z Z
E[X + Y ] =
(x + y)dFX,Y (x, y)
ZR ZR
Z Z
=
xdFX,Y (x, y) +
ydFX,Y (x, y)
R R
ZR R
Z
=
xdFX (x) + ydFY (y) = E[X] + E[Y ].
R
R
Allo stesso modo si può dimostrare che
E[a1 X1 + a2 X2 + · · · + an Xn ] = a1 E[X1 ] + a2 E[X2 ] + · · · + an E[Xn ]
dove ai ∈ R per i = 1, 2, . . . , n ragion per cui si dice che l’operatore E è lineare. È
possibile definire anche il momento prodotto centrale di ordine k1 , k2 , . . . , kj delle
v.a. Xk1 Xk2 · · · Xkj quando esiste finito l’integrale
(1.1)
Z
Z
j
Y
E{[Xk1 −µ1 ]r1 · · · [Xkj −µk ]rj } =
dx1 · · · dxn
[xkt −µt ]rt dFX (x1 , x2 , . . . , xn )
R
R
t=1
e ovviamente le v.a. sono dotate di media. Particolare rilievo riveste la (1.1) quando
j = 2 e r1 = r2 = 1.
Ad integrazione della Lezione 12 - Calcolo delle Probabilità e Statistica Matematica II.
1
2
E. DI NARDO
Definizione 1.2. La quantità
cov(Xk1 , Xk2 ) = E[(Xk1 − µk1 )(Xk2 − µk2 )]
viene detta covarianza delle v.a. Xk1 e Xk2 .
Scegliendo k1 = k2 , se E[Xk21 ] < ∞, si ha
cov(Xk1 , Xk1 ) = E[Xk21 ] − µ2k1 = Var[Xk1 ].
Definizione 1.3. Se Xk1 e Xk2 sono v.a. dotate di momento secondo, la quantità
ρk1 ,k2 =
cov(Xk1 , Xk2 )
D(Xk1 )D(Xk2 )
viene detta coefficiente di correlazione.
Risulta ρk1 ,k1 = 1. Si chiama matrice di covarianza del vettore X la matrice
simmetrica


cov(X1 , X1 ) cov(X1 , X2 ) · · · cov(X1 , Xn )
 cov(X2 , X1 ) cov(X2 , X2 ) · · · cov(X2 , Xn ) 


Σ=
.
..
..
..


.
.
···
.
cov(Xn , X1 ) cov(Xn , X2 ) · · · cov(Xn , Xn )
Gli elementi sulla diagonale principale sono le varianze delle variabili aleatorie componenti il vettore. Si chiama matrice di correlazione del vettore X la matrice simmetrica


1
ρ1,2 · · · ρ1,n
 ρ2,1
1
· · · ρ2,n 


R= .
.
..  .
.
.
 .
.
···
. 
ρn,1 ρn,2 · · ·
1
1.1. Indipendenza. Se le componenti del vettore X sono indipendenti, i momenti
misti si possono calcolare senza far ricorso a integrali multipli. Vale infatti il
seguente teorema.
Teorema 1.4. Siano X1 , X2 , · · · , Xn v.a. indipendenti. Allora comunque fissato
j ∈ {1, 2, . . . , n} e k1 , k2 , . . . , kj ∈ {1, 2, . . . , n} si ha
r
r
E[Xkr11 Xkr22 · · · Xkjj ] = E[Xkr11 ]E[Xkr22 ] · · · E[Xkjj ]
dove r1 , r2 , . . . , rj ∈ N. Inoltre siano h1 , . . . , hj funzioni misurabili da R a R si ha
E[h1 (Xk1 )h2 (Xk2 ) · · · hj (Xkj )] = E[h1 (Xk1 )]E[h2 (Xk2 )] · · · E[hj (Xkj )].
Proof. I due risultati
Qn seguono osservando che, nell’ipotesi le v.a. siano indipendenti,
risulta FX (x) = i=1 FXi (xi ).
2. Covarianza e correlazione
Per la linearità dell’operatore E è possibile formulare la covarianza di due v.a.
al seguente modo:
cov(X, Y ) = E[XY ] − µX µY .
Esercizio Mostrare che
(2.1)
Var(aX ± bY ) = a2 Var(X) + b2 Var(Y ) ± 2 a b cov(X, Y ).
MOMENTI MISTI
3
La covarianza di due variabili aleatorie indipendenti è nulla, cosı̀ come il corrispettivo coefficiente di correlazione. Però la covarianza di due v.a. si può annullare
anche se le v.a. non sono indipendenti: in tal caso si dirà che le v.a. sono incorrelate.
Esercizio Calcolare la covarianza delle v.a. X e X 2 , dove X assume valori
−1, 0, 1 con eguale probabilità.
Conseguenza immediata della (2.1) è che quando le v.a. sono incorrelate (ed in
particolare quando sono indipendenti) si ha
Var(aX ± bY ) = a2 Var(X) + b2 Var(Y ).
Se le componenti del vettore X sono incorrelate, la matrice di covarianza diventa
una matrice diagonale e la matrice di correlazione diventa la matrice identià.
Teorema 2.1. Risulta |ρX,Y | ≤ 1.
Proof. Consideriamo le v.a. standardizzate di X e di Y.
Y − µY
X − µX
e ZY =
ZX =
σX
σY
dove σX = D(X), σY = D(Y ), µX = E[X], µY = E[Y ]. Si ha
X − µX Y − µY
ρZX ,ZY = cov(ZX , ZY ) = E
= ρX,Y .
σX
σY
Mostriamo che ρZX ,ZY ≥ −1. Infatti
Var(ZX + ZY ) = 1 + 1 + 2 cov(ZX , ZY ) ≥ 0 ⇒ cov(ZX , ZY ) ≥ −1.
Allo stesso modo
Var(ZX − ZY ) = 1 + 1 − 2 cov(ZX , ZY ) ≥ 0 ⇒ cov(ZX , ZY ) ≤ 1.
Si noti che il coefficiente di correlazione è sempre adimensionale.
Corollario 2.2. Risulta
cov(X, Y ) ≤
p
p
Var(X) Var(Y ).
Esercizio Mostrare che il coefficiente di correlazione è invariante per traslazione
lineare.
Teorema 2.3.
q.c.
ρX,Y = ±1 ⇔ Y = ±aX + b
dove a ∈ R+ e b ∈ R.
Proof. Se ρX,Y = 1 allora cov(ZX , ZY ) = 1 dove ZX e ZY sono le v.a. standardizzate delle v.a. X e Y. Pertanto Var(ZX − ZY ) = 0 e quindi P (ZX = ZY ) = 1
ossia
X − µX q.c. Y − µY
=
.
σX
σY
Il risultato segue ponendo
σY
a=
e b = µY − aµY .
σX
Analogamente il risultato segue quando ρX,Y = −1 mostrando che Var(ZX +ZY ) =
0.
4
E. DI NARDO
Una notevole applicazione di questo ultimo teorema si ha nell’analisi della regressione lineare.
Fly UP