...

Vettori Aleatori

by user

on
Category: Documents
55

views

Report

Comments

Transcript

Vettori Aleatori
CAPITOLO 9
Vettori Aleatori
129
9.1 Vettori Aleatori
130
9.1. Vettori Aleatori
In molti esperimenti aleatori, indicando con Ω l’insieme dei possibili risultati, al generico risultato dell’esperimento, ω ∈ Ω, sono associati n numeri
reali x1 , . . . , xn , con n ≥ 2, che costituiscono i valori di n numeri aleatori X1 , . . . , Xn . Tali n. a. sono le componenti di un vettore aleatorio
X = (X1 , . . . , Xn ), che può essere visto come una funzione definita su Ω a
valori in Rn , cioè
X : Ω −→ Rn
ω −→ x = X(ω) .
Due casi importanti da considerare sono i v. a. discreti e v.a. continui.
Vettori aleatori discreti. Un vettore aleatorio X = (X1 , X2 , . . . , Xn ) si
dice discreto se esiste un insieme finito o numerabile C ⊂ Rn tale che
• P (X = x) > 0 , ∀x ∈ C,
• P (X = x) = 0 , ∀x ∈
/ C,
dove, ponendo x = (x1 , . . . , xn ), l’evento (X = x) rappresenta l’evento
(X1 = x1 , X2 = x2 , . . . , Xn = xn ) .
Analizziamo in dettaglio il caso discreto, con n = 2. Per semplicità di
notazione, indichiamo con (X, Y ) il v.a. (X1 , X2 ). Va osservato che tale
notazione può essere utilizzata anche nel caso in cui n > 2, indicando con
X e Y due sottovettori del vettore aleatorio (X1 , . . . , Xn ).
Distribuzioni marginali. Sia
X ∈ Cx , Y ∈ Cy , (X, Y ) ∈ C ⊆ Cx × Cy .
Ricordiamo che C è l’insieme (al più numerabile) dei punti di R2 che hanno
probabilità positiva. Quindi per ogni coppia (xh , yk ) ∈ C si ha
P (X = xh , Y = yk ) = pxh ,yk > 0 .
Fissato un punto xh ∈ Cx , osservando che
_
Ω=
(Y = yk ) ,
yk ∈Cy
possiamo decomporre l’evento (X = xh ) nel seguente modo
(X = xh ) = (X = xh ) ∧ Ω =
= (X = xh ) ∧ [
=
W
yk ∈Cy (X
W
yk ∈Cy (Y
= yk )] =
= xh , Y = yk ) .
Quindi, ∀ xh ∈ Cx , si ha
P (X = xh ) = pxh =
=
G.Sanfilippo
P
yk
P
yk ∈Cy
P (X = xh , Y = yk ) =
pxh ,yk ; (distribuzione marginale di X).
9.1 Vettori Aleatori
131
In modo analogo si ottiene
P (Y = yk ) = pyk =
=
P
xh
P
xh ∈Cx
P (X = xh , Y = yk ) =
pxh ,yk ; (distribuzione marginale di Y ).
Distribuzioni marginali condizionate.
pxh |yk = P (X = xh |Y = yk ) =
congiunta
z }| {
p
P (X=xh ,Y =yk )
= P (Y =yk ) = xphy,yk .
k
|{z}
marginale
La distribuzione {pxh |yk , xh ∈ CX } si chiama distribuzione marginale di
X condizionata al valore fissato yk di Y .
In maniera analoga, la distribuzione {pyk |xh , yk ∈ CY } si chiama distribuzione marginale di Y condizionata al valore fissato xh di X, ovvero
pyk |xh = P (Y = yk |X = xh ) =
congiunta
z }| {
p
P (X=xh ,Y =yk )
= P (X=xh ) = pxhx,yk .
h
|{z}
marginale
Dalle ultime relazioni, per il teorema delle probabilità composte, si ottiene:
P (X = xh , Y = yk ) = P (Y = yk |X = xh )P (X = xh ) =
= P (X = xh |Y = yk )P (Y = yk ) .
ovvero
pxh ,yk = pxh |yk · pyk = pyk |xh pxh .
Osserviamo che, in generale, risulta
pxh ,yk 6= pxh · pyk .
Indipendenza stocastica. I numeri aleatori X, Y si dicono stocasticamente
indipendenti (in breve, indipendenti) se, ∀ (xh , yk ) , vale
P (X = xh , Y = yk ) = P (X = xh ) · P (Y = yk ) ,
ovvero la distribuzione congiunta è data dal prodotto delle marginali
pxh ,yk = pxh · pyk , ∀ (xh , yk ).
Quindi, se X, Y sono indipendenti, le distribuzioni condizionate coincidono
con le marginali
pxh |yk = pxh , pyk |xh = pyk .
E SEMPIO 9.1. Si lancia due volte un dado, definendo
X = risultato del primo lancio;
Y = risultato del secondo lancio.
G.Sanfilippo
9.1 Vettori Aleatori
132
Ovviamente, X, Y sono indipendenti e quindi, per ogni coppia (m, n) ∈
{1, 2, . . . , 6} × {1, 2, . . . , 6}, si ha
P (X = m, Y = n) = P (X = m)P (Y = n) =
1 1
1
· = .
6 6
36
Y \X
1
2
3
4
5
6
P (Y = n)
1
1
36
1
36
1
36
1
36
1
36
1
36
1
6
2
1
36
1
36
1
36
1
36
1
36
1
36
1
6
3
1
36
1
36
1
36
1
36
1
36
1
36
1
6
4
1
36
1
36
1
36
1
36
1
36
1
36
1
6
5
1
36
1
36
1
36
1
36
1
36
1
36
1
6
6
1
36
1
36
1
36
1
36
1
36
1
36
1
6
P (X = m)
1
6
1
6
1
6
1
6
1
6
1
6
O SSERVAZIONE 9.1. In generale, quando non vi è indipendenza stocastica tra due numeri aleatori, alle stesse distribuzioni di probabilità marginali
possono corrispondere infinite distribuzioni congiunte. Vedi la seguente
tabella
Y \X
1
2
3
4
5
6
P (Y = n)
1
1
18
0
1
18
0
1
18
0
1
6
2
0
1
18
0
1
18
0
1
18
1
6
3
1
18
0
1
18
0
1
18
0
1
6
4
0
1
18
0
1
18
0
1
18
1
6
5
1
18
0
1
18
0
1
18
0
1
6
6
0
1
18
0
1
18
0
1
18
1
6
P (X = m)
1
6
1
6
1
6
1
6
1
6
1
6
E SEMPIO 9.2. Due estrazioni senza restituzione da un’urna contenente cinque palline numerate da 1 a 5. I numeri aleatori
X = risultato della prima estrazione,
Y = risultato della seconda estrazione,
G.Sanfilippo
9.1 Vettori Aleatori
133
non sono indipendenti. Infatti, ad esempio
1
20
,
P (X = 2)P (Y = 1) =
1
5
P (X = 2, Y = 1) =
·
1
5
=
1
25
6=
1
20
.
E SEMPIO 9.3. Siano X, Y due n. a. indipendenti con distribuzione di
Poisson, rispettivamente di parametri λ1 e λ2 , ovvero
X ∼ P(λ1 ), Y ∼ P(λ2 ).
Calcoliamo la distribuzione di probabilità del n. a. Z = X +Y . Osserviamo
che, fissato n ∈ N0 , si ha
W
P (Z = n) = P [ ni=0 (X = i, Y = n − i)] =
=
Pn
P (X = i, Y = n − i) =
=
Pn
e−λ1
i=0
i=0
λi1
i!
λn−i
2
· e−λ2 (n−i)!
= ··· =
n
2)
= e−(λ1 +λ2 ) (λ1 +λ
·
n!
Pertanto: Z ∼ P(λ1 + λ2 ).
Inoltre, si può verificare che
1
),
X|(Z = n) ∼ B(n, λ1λ+λ
2
2
Y |(Z = n) ∼ B(n, λ1λ+λ
).
2
Infatti, per ogni h ∈ {0, 1, . . . , n} si ha
P (X = h|Z = n) =
=
=
P (X=h,Z=n)
P (Z=n)
=
P (X=h,Y =n−h)
P (Z=n)
P (X=h)P (Y =n−h)
P (Z=n)
n
h
λ1
λ1 +λ2
h =
λh
e−λ1 1 e−λ2 λn−h
2
h!
·
(n−h)!
(λ1 +λ2 )n
−(λ
+λ
)
1
2
e
n!
λ2
λ1 +λ2
n−h
=
.
Teorema. Se X ed Y sono indipendenti, si ha: Cov(X, Y ) = 0.
Dim.: Supponiamo che, ∀ (xh , yk ) ∈ C, sia
P (X = xh , Y = yk ) = P (X = xh )P (Y = yk ) .
Allora, segue
P(XY ) =
P
xh
P
yk
xh yk pxh ,yk =
P
xh
P
yk
x h y k p xh p yk =
P
P
= ( xh xh pxh )( yk yk pyk ) = P(X)P(Y ) ,
e quindi: Cov(X, Y ) = 0.
Osserviamo che il viceversa non vale, come mostra il seguente controesempio.
G.Sanfilippo
9.1 Vettori Aleatori
134
Esempio. Si consideri il seguente vettore aleatorio (X, Y ), con la distribuzione congiunta riportata nella tabella:
Y \ X -1 0 1
-1
a / a
0
/ b /
1
a / a
Si ha
C = {(−1, −1), (−1, 1), (0, 0), (1, −1), (1, 1)} ,
con P (X = 0, Y = 0) = b e P (X = x, Y = y) = a negli altri casi.
Ovviamente, deve essere:
4a + b = 1 , a ≥ 0 , b ≥ 0 .
Come si può verificare, si ha
X ∈ {−1, 0, 1} , Y ∈ {−1, 0, 1} , XY ∈ {−1, 0, 1} ,
con
P (X = −1) = P (Y = −1) = P (XY = −1) = 2a ,
P (X = 0) = P (Y = 0) = P (XY = 0) = b ,
P (X = 1) = P (Y = 1) = P (XY = 1) = 2a .
Pertanto X, Y ed XY hanno la stessa distribuzione di probabilità. Inoltre
P(X) = P(Y ) = P(XY ) = 0 ,
e quindi Cov(X, Y ) = 0, ovvero X, Y sono incorrelati. Però X ed Y non
sono indipendenti, in quanto risulta
P (X = x, Y = y) 6= P (X = x)P (Y = y) ,
ad esempio:
P (X = 0, Y = 0) = b 6= P (X = 0)P (Y = 0) = b · b = b2 .
G.Sanfilippo
9.2 Distribuzione multinomiale
135
9.2. Distribuzione multinomiale
Si considerino n ripetizioni di un esperimento aleatorio, con m + 1 possibili
risultati in ciascuna ripetizione. Ad esempio, si consideri un’urna contenente N palline, delle quali p0 N sono segnate con il numero 0, p1 N sono
segnate con il numero 1, ..., pm N sono segnate con il numero m, dove
p 0 + p1 + · · · + pm = 1 ,
pk ≥ 0 , ∀ k ∈ {0, 1, . . . , m} .
Supposto di effettuare n estrazioni con restituzione da tale urna, definiamo
i seguenti eventi e numeri aleatori:
(i)
Ek = nell’i-ma prova viene estratta una pallina se- gnata con il numero
k, i = 1, . . . , n,
(1)
(n)
Xk = |Ek | + · · · + |Ek | , k = 0, 1, . . . , m .
Ovviamente: X0 = n − (X1 + · · · + Xm ). Inoltre, per ogni i = 1, . . . , n, la
(i)
(i)
famiglia {E0 , . . . , Em } forma una partizione di Ω e si ha:
(i)
1. P (Ek ) = pk , ∀ k ∈ {0, 1, . . . , m};
2. gli eventi relativi a partizioni distinte, cioè associati a prove distinte,
sono stocasticamente indipendenti.
Proponiamoci di calcolare la distribuzione di probabilità del vettore aleatorio discreto (X1 , . . . , Xm ). Come si può verificare, l’evento (X1 = x1 , . . . , Xm =
xm ) è possibile se e solo se x1 , . . . , xm sono dei valori interi non negativi
tali che: x1 + · · · + xm ≤ n . Posto x0 = n − (x1 + · · · + xm ), si può
verificare che:
a)
il
numero
di
costituenti
favorevoli
all’evento
(X1 = x1 , . . . , Xm = xm ) è pari al coefficiente multinomiale x0 !x1n!!···xm ! ;
b) ognuno di tali costituenti ha probabilità px0 0 px1 1 · · · px0 m ; pertanto:
n!
px0 0 px1 1 · · · pxmm .
P (X1 = x1 , . . . , Xm = xm ) =
x0 !x1 ! · · · xm !
La distribuzione di (X1 , . . . , Xm ) si dice multinomiale di parametri n, p1 , . . . , pm .
Per m = 1 si ottiene in particolare la distribuzione binomiale di parametri
n, p1 .
G.Sanfilippo
9.3 Vettori aleatori continui.
136
9.3. Vettori aleatori continui.
Un vettore aleatorio X = (X1 , X2 , . . . , Xn ) si dice continuo se
• P (X = x) = 0 , ∀x ∈ Rn ,
• ∃f : Rn → R tale che
(i) f (x) ≥ 0, ∀x ∈ Rn ;
(ii) ∀ A ⊆ Rn , misurabile secondo Peano - Jordan, si ha
P (X ∈ A) = P (A) =
R
A
f (x)dx =
R
R
= · · · A f (x1 , . . . , xn )dx1 · · · dxn .
La funzione f (x) si chiama densità di probabilità congiunta del v. a. X.
Proprietà di normalizzazione:
R
f (x)dx =
Rn
=
R +∞
−∞
···
R +∞
−∞
f (x1 , . . . , xn )dx1 · · · dxn = 1 .
La funzione di ripartizione congiunta di X = (X1 , . . . , Xn ) è definita nel
seguente modo:
F (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn ) .
Nel caso continuo si ha:
Z
x1
Z
xn
f (t1 , . . . , tn )dt1 · · · dtn .
···
F (x1 , . . . , xn ) =
−∞
−∞
Vettori aleatori continui: distribuzioni marginali e condizionate.
Dato un vettore aleatorio continuo (X1 , . . . , Xn ), sia f (x1 , . . . , xn ) la sua
densità congiunta. Le densità marginali f1 (x1 ), . . . , fn (xn ) dei n. a. X1 , . . . , Xn
sono date dalle seguenti formule:
fi (xi ) =
=
R +∞
−∞
···
R +∞
−∞
f (x1 , . . . , xn )dx1 · · · dxi−1 dxi+1 · · · dxn ,
i = 1, . . . , n .
Ovvero, per calcolare fi (xi ) si integra f (x1 , . . . , xn ) rispetto alle variabili
x1 , . . . , xi−1 , xi+1 , . . . , xn .
Consideriamo in particolare il caso n = 2, indicando con (X, Y ) il v. a.
(X1 , X2 ) e con f (x, y) la densità congiunta. Si ha
Z +∞
Z +∞
f1 (x) =
f (x, y)dy , f2 (y) =
f (x, y)dx .
−∞
G.Sanfilippo
−∞
9.3 Vettori aleatori continui.
137
Le densità condizionate (di Y |x ed X|y), per fissati valori x, y ed assumendo f1 (x) > 0, f2 (y) > 0, sono definite nel seguente modo
f2 (y|x) =
f (x, y)
,
f1 (x)
f1 (x|y) =
f (x, y)
.
f2 (y)
Pertanto
f (x, y) = f1 (x)f2 (y|x) = f2 (y)f1 (x|y) .
Se risulta
f (x, y) = f1 (x)f2 (y) , ∀ (x, y)
i n. a. si dicono stocasticamente indipendenti e in questo caso si ha
f2 (y|x) = f2 (y) , ∀ y ; f1 (x|y) = f1 (x) , ∀ x ,
cioè le densità condizionate coincidono con le densità marginali.
Osserviamo che la relazione di indipendenza tra X e Y può essere definita
anche richiedendo che valga
F (x, y) = F1 (x)F2 (y) , ∀ (x, y) ,
cioè
P (X ≤ x, Y ≤ y) = P (X ≤ x)P (Y ≤ y) , ∀ (x, y) .
Come già visto nel caso discreto, si può dimostrare che, se X e Y sono indipendenti, segue che sono incorrelati, mentre il viceversa non vale. Infatti,
assumendo f (x, y) = f1 (x)f2 (y) , ∀ (x, y), si ottiene
R +∞ R +∞
P(XY ) = −∞ −∞ xyf (x, y)dxdy = · · ·
R +∞
R +∞
= ( −∞ xf1 (x)dx)( −∞ yf2 (y)dy) = P(X)P(Y ) ,
e quindi Cov(X, Y ) = 0. Per mostrare attraverso un controesempio che il
viceversa non vale, introduciamo la distribuzione uniforme su un insieme
A ⊂ R2 , limitato e misurabile.
Distribuzione uniforme
Si dice che (X, Y ) ha distribuzione uniforme su A ⊂ R2 , limitato e misurabile, in simboli
(X, Y ) ∼ U (A) ,
se la densità congiunta assume un valore costante k > 0 su A ed è nulla
altrove. Imponendo la condizione
Z +∞ Z +∞
f (x, y)dxdy = 1 ,
−∞
ovvero
−∞
Z Z
f (x, y)dxdy = 1 ,
A
si ottiene k =
G.Sanfilippo
1
,
µ(A)
dove µ(A) è l’area di A.
9.3 Vettori aleatori continui.
138
E SEMPIO 9.4. Sia (X, Y ) un vettore aleatorio con distribuzione uniforme
sul cerchio C di centro l’origine e raggio r = 3. Calcolare la densità marginale fY (y) di Y e, per ogni fissato valore di y ∈] − 3, 3[, calcolare la
densità marginale condizionata fX|y (x) . Infine, stabilire se X e Y sono
stocasticamente indipendenti.




Si
fY (y) =
fX|y (x) =
X, Y indipendenti?
;
No


Il vettore (X, Y ) ha la seguente densità di probabilità
1
, x2 + y 2 ≤ 9
9π
f (x, y) =
0, altrove.
R +∞
R +∞
Per y ∈
/ [−3, 3] si ha fY (y) = −∞ f (x, y)dx = −∞ 0dx = 0; per y ∈
[−3, 3] si ha
p
Z +∞
Z √9−y2
2 9 − y2
1
fY (y) =
f (x, y)dx = √
dx =
;
9π
−∞
− 9−y 2 9π
quindi
( √
2
fY (y) =
0,
9−y 2
,
9π
y ∈ [−3, 3];
altrove.
Procedendo in maniera analoga a quanto fatto per fY (y) si ha
√ 2
2 9−x
, x ∈ [−3, 3];
9π
fX (x) =
0,
altrove.
Osserviamo che fY (y) 6= 0 se e solo se y ∈] − 3, 3[. Pertanto, per ogni
fissato valore di y ∈] − 3, 3[ si ottiene
(
p
p
√ 1 , x ∈ [− 9 − y 2 , 9 − y 2 ];
f (x, y)
2 9−y 2
fX|y (x) =
=
fY (y)
0,
altrove.
p
p
Ovvero, X|y ha distribuzione uniforme in [− 9 − y 2 , 9 − y 2 ].
Infine, si verifica facilmente che X, Y non sono stocasticamente indipendenti (ad esempio osservando che fX (0)fY (0) 6= f (0, 0)).
E SEMPIO 9.5. Supponiamo che (X, Y ) ∼ U (C) , dove C è il cerchio di
raggio 1 e centro nell’origine. Allora
1
, (x, y) ∈ C ,
π
con f (x, y) = 0 altrove. Si dimostra che
2√
f1 (x) =
1 − x2 , x ∈ [−1, 1] ,
π
f (x, y) =
G.Sanfilippo
9.3 Vettori aleatori continui.
139
con f1 (x) = 0 altrove. Inoltre
2p
1 − y 2 , y ∈ [−1, 1] ,
π
con f2 (y) = 0 altrove. Allora P(X) = P(Y ) = 0. Inoltre
Z Z
P(XY ) =
xyf (x, y)dxdy = · · · = 0 ,
f2 (y) =
C
pertanto X e Y sono incorrelati. D’altra parte f (x, y) 6= f1 (x)f2 (y), pertanto X e Y non sono indipendenti.
E SEMPIO 9.6. Un vettore aleatorio (X, Y ) ha distribuzione uniforme sul
quadrato Q = [0, 2] × [0, 2]. Calcolare la probabilità dell’evento condizionato E|H, con E = (Y > 2X), H = (X < 1/3) .
P (E|H) =
Si ricava facilmente che X ha distribuzione uniforme nell’intervallo [0, 2].
Poichè (X, Y ) ha distribuzione uniforme su un insieme limitato di R2 le
probabilità di P (EH), P (H) si possono calcolare come rapporto tra aree.
Dalla Figura 2 si osserva che P (H) = 2 · 31 /4 = 32 · 41 e P (EH) = [ 13 (2 −
2
) + 13 · 32 · 12 ]/4 = 95 · 14 . Pertanto
3
P (EH)
P (E|H) =
=
P (H)
5
9
2
3
5
= .
6
y ..............
. .....
..
....
..
...
...
...
...
...
.......... ...
...
.......... ...
...
...
.......... ...
..
.
.............. ...
..
.......... ...
..
.......... ...
...
............. ...
...
..
.......... ...
.
.......... ...
...
.............. ... ....
.......... ... ....
............. ... ...
.......... ... ...
.......... .......
..................
................
........... ...
........... ...
......... ...
...
.......
..
.......
.
...............................................................................................................................................................................
.
2
E
EH
y = 2x
2
3
0
x=
H
1
3
1
3
1
2
x
F IGURA 9.1.
E SERCIZIO 9.1. Dato un vettore aleatorio continuo (X, Y ), con distribuzione uniforme sul semicerchio C = {(x, y) : x2 + y 2 ≤ 1, x ≥ 0}, si
considerino gli eventi A = (X + Y > 1), B = (X − Y ≤ 0). Calcolare la
G.Sanfilippo
9.3 Vettori aleatori continui.
140
probabilità condizionata α = P (A|B), la densità marginale f1 (x) per ogni
x ∈ [0, 1], e la previsione µ di Y |x.
α=
; f1 (x) =
; µ=
E SEMPIO 9.7. Dato un cerchio di raggio r e centro nell’origine degli assi, si
indichi con D la parte contenuta nel primo quadrante. Un vettore aleatorio
continuo (X, Y ) ha una distribuzione uniforme su D. Calcolare le probabilità α = P (X + Y ≤ r), β = P [(Y ≤ X)|(X + Y ≤ r)].
α=
;β =
.
2
L’area dell’insieme D è πr4 . Il vettore (X, Y ) ha distribuzione uniforme su
1
D, quindi si ha f (x, y) = µ(D)
= πr4 2 , per (x, y) ∈ D, con f (x, y) = 0
altrove. Inoltre, si ha (X + Y ≤ r) = [(X, Y ) ∈ T ], dove T è il triangolo
di vertici (0, 0), (r, 0), (0, r); pertanto
area(T )
α=
=
area(D)
r2
2
πr2
4
=
2
.
π
Infine, osservando che (Y ≤ X) ∧ (X + Y ≤ r) = [(X, Y ) ∈ Γ], dove Γ è
il triangolo di vertici (0, 0), (r, 0), ( 2r , 2r ), si ha
P [(Y ≤ X) ∧ (X + Y ≤ r)]
area(Γ)
β=
==
=
P (X + Y ≤ r)
area(T )
r2
4
r2
2
=
1
.
2
E SEMPIO 9.8. Un sistema è costituito da tre dispositivi in serie A, B e C,
di durata aleatoria sino al guasto rispettivamente X, Y e Z. Assumendo i
numeri aleatori X, Y e Z stocasticamente indipendenti e con distribuzione
esponenziale di parametri λX = 1, λY = 2, λZ = 3, calcolare, per ogni
t > 0, la funzione di sopravvivenza ST (t) e la funzione di rischio h(t) del
tempo aleatorio T sino al guasto del sistema. (nota: T = min(X, Y, Z)).
S(t) = P (T > t) = P (min(X, Y, Z) > t) = P (X > t, Y > t, Z > t) =
SX (t)SY (t)SZ (t) = e−(λX +λY +λZ )t = e−6t .
0 (t)
h(t) = − SS(t)
= 6.
Ovvero T ∼ Exp(6).
E SEMPIO 9.9. La densità congiunta di un vettore aleatorio continuo (X, Y )
è f (x, y) = (y −x), per (x, y) ∈ [0, 1]×[1, 2], con f (x, y) = 0 altrove. Calcolare: (i) il valore y0 ∈ (1, 2) tale che P (Y ≤ y0 ) = 21 ; (ii) la probabilità
p dell’evento X + Y > 2
y0 =
G.Sanfilippo
;
p=
;
9.3 Vettori aleatori continui.
141
Fissato y0 ∈ (1, 2) si ha
R 1 R y0
P (Y ≤ y0 ) = 0 dx
(y i− x)dy = y0
R 1 h y2 1
R 1 y2
= 0 2 − xy dx = 0 20 − xy0 − 12 x +
=
Quindi,
y02 −y0
2
1
x2
2
dx =
.
√
1+ 5
1
.
P (Y ≤ y0 ) = ⇒ y0 =
2
2
Infine
Z
p = P (X + Y > 2) =
Z
2
Z
(y − x)dy =
dx
0
G.Sanfilippo
1
2−x
0
1
1
3 2
2x − x dx = .
2
2
9.4 Rette di regressione
142
9.4. Rette di regressione
Dato un vettore aleatorio (X, Y ), cerchiamo una retta di equazione y =
a + bx che meglio si adatti alla distribuzione di probabilità congiunta di
(X, Y ), ovvero che risulti più vicina possibile a tale distribuzione. Da un
certo punto di vista, si potrebbe pensare di voler stimare Y mediante una
funzione lineare a + bX, con i coefficienti a, b da determinare sulla base
di un opportuno criterio. Un criterio ben noto in statistica è il metodo dei
minimi quadrati che consiste nel cercare i valori a, b che rendono minima
la previsione del numero aleatorio (Y − a − bX)2 . La retta che si ottiene
si chiama retta di regressione di Y su X. Considerando il caso continuo e
ponendo P[(Y − a − bX)2 ] = g(a, b), se la densità congiunta è f (x, y), si
ha (applicando la linearità della previsione)
RR
g(a, b) =
(y − a − bx)2 f (x, y)dxdy =
R2
P(Y 2 ) + a2 + b2 P(X 2 ) − 2aP(Y ) − 2bP(XY ) + 2abP(X).
Uguagliando a zero le derivate parziali di g(a, b) rispetto ad a, b (indicando
con m1 , m2 , σ1 , σ2 le previsioni e gli scarti standard di X e Y , e con ρ il
coefficiente di correlazione) si ha
 ∂g
 ∂a = 2a − 2m2 + 2bm1 = 0 ,
∂g
∂b
= 2b(m21 + σ12 ) − 2(m1 m2 + ρσ1 σ2 ) + 2am1 = 0 .
Ricavando a dalla prima equazione (a = m2 − bm1 ) e risolvendo rispetto a
b la seconda, si ottiene
σ2
σ2
a = m2 − ρ m1 , b = ρ .
σ1
σ1
Pertanto, l’equazione della retta di regressione di Y su X è data da
σ2
y = m2 + ρ (x − m1 ) .
σ1
Simmetricamente, l’equazione della retta di regressione di X su Y è
σ1
x = m1 + ρ (y − m2 ) ,
σ2
che si può scrivere
1 σ2
y = m2 + · (x − m1 ) .
ρ σ1
Le due rette si incontrano nel punto di coordinate (m1 , m2 ) e, nel caso ρ =
0, sono perpendicolari e di equazioni: y = m2 , x = m1 .
Se |ρ| = 1, le due rette coincidono ed hanno equazione (a seconda che sia
ρ = 1 oppure ρ = −1)
σ2
y = m2 ± (x − m1 ) .
σ1

G.Sanfilippo
9.5 Integrale di convoluzione*
143
9.5. Integrale di convoluzione*
Somme di numeri aleatori.
Dato un vettore aleatorio continuo (X, Y ), con densità f (x, y), sia
G(z) = P (Z ≤ z) , z ∈ R .
Z =X +Y ,
Si ha:
+∞
Z
(96)
G(z) = P (X + Y ≤ z) =
Z
z−x
f (x, y)dy.
dx
−∞
−∞
Posto t = x + y, si ha dt = dy,
lim t = lim (x + y) = −∞
y→−∞
y→−∞
e
lim t = lim (x + y) = z − x + z = z.
y→z−x
y→z−x
Sostituendo y = t − x nella Formula (96) si ha
Z +∞ Z z
G(z) =
dx
f (x, t − x)dt =
−∞
Z
z
Z
−∞
+∞
Z
z
f (x, t − x)dx dt =
=
−∞
g(t)dt ,
−∞
−∞
dove g è la densità di Z data da:
R +∞
g(z) = G0 (z) = −∞ f (x, z − x)dx .
Scambiando, nella dimostrazione precedente il ruolo di x, con quello di y
si ottiene
Z +∞
f (z − y, y)dy .
(97)
g(z) =
−∞
Caso notevole: se X e Y sono indipendenti, ovvero f (x, y) = f1 (x)f2 (y),
si ottiene
Z +∞
(98)
g(z) =
f1 (x)f2 (z − x)dx ;
−∞
La Formula (98) dicesi integrale di convoluzione di f1 , f2 e si denota con
g = f1 ∗ f2 .
Nota: dalla (97) segue
Z +∞
Z
f1 (x)f2 (z − x)dx =
−∞
ovvero : f1 ∗ f2 = f2 ∗ f1 .
G.Sanfilippo
+∞
−∞
f1 (z − y)f2 (y)dy ,
9.5 Integrale di convoluzione*
144
E SEMPIO 9.10. (a) X ∼ U ([0, a]) , Y ∼ U ([0, a]); X, Y indipendenti;
T = X + Y ha la seguente densità
g = U ([0, a]) ∗ U ([0, a]) ,
dove
g(z) =






z
,
a2
0 ≤ z ≤ a,
2a−z
2
a




 0,
, a < z ≤ 2a,
altrove.
Analizziamo per semplicità il caso a = 1. Siano f1 (x), f2 (y) rispettivamente le densità di X e di Y , cosı̀ definite:
1, se 0 ≤ x ≤ 1
f1 (x) =
0, altrove,
1, se 0 ≤ y ≤ 1
f2 (y) =
0, altrove.
Inoltre si ha
1, se z − 1 ≤ x ≤ z
f2 (z − x) =
0, altrove.
Osserviamo che per z ∈ [0, 2] si ha
f1 (x)f2 (z − x) 6= 0 con max{0, z − 1} ≤ x ≤ min{1, z}.
Si ottiene
Z
+∞
Z
min{1,z}
f1 (x)f2 (z − x)dx =
g(z) =
1dx.
−∞
max{0,z−1}
Distinguiamo 2 casi, z ∈ [0, 1] e z ∈ [1, 2].
(1) Se z ∈ [0, 1], si ha
Z
Z min{1,z}
g(z) =
1dx =
max{0,z−1}
(2) Se z ∈ [1, 2], si ha
Z min{1,z}
Z
g(z) =
1dx =
max{0,z−1}
z
1dx = z.
0
1
1dx = 1 − z + 1 = 2 − z.
z−1
Infine, per z ∈
/ [0, 2] si ha g(z) = 0.
La distribuzione di T dicesi distribuzione triangolare. In Figura 9.2 è rappresentata la densità di X (oppure di Y ) per a = 1. Mentre quella di T è
rappresentata in Figura 9.3 .
Inoltre considerato Z = X + T , che equivale a considerare la somma di
3 numeri aleatori indipendenti ed ugualmente distribuiti con distribuzione
uniforme in [0, 1], si ha (indicando con f la densità di X)
h(z) = f ∗ g.
G.Sanfilippo
9.5 Integrale di convoluzione*
145
2
1.5
1
0.5
0
0.2
0.4
0.6
0.8
1
F IGURA 9.2. Distribuzione Uniforme in [0, 1]
1
0.8
0.6
0.4
0.2
0
0.2 0.4 0.6 0.8
1
1.2 1.4 1.6 1.8
F IGURA 9.3. Distribuzione triangolare
Svolgendo i calcoli si ottiene.

0


2


 z2
3z − 23 − z 2
h(z) =

2
9


− 3z + z2

 2
0
G.Sanfilippo
z<0
0≤z≤1
1≤z≤2
2≤z≤3
z>3
2
9.5 Integrale di convoluzione*
146
Ovvero h(z) è un raccordo di parabole come rappresentata in Figura 9.4.
Infine X + Z ha densità rappresentata in Figura 9.5. Nota: al crescere
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0.5
1
1.5
t
2
2.5
3
F IGURA 9.4. Somma di 3 n.a. iid U ([0, 1])
degli addendi la densità ottenuta assume una forma a campana, tipica della
distribuzione normale.
E SEMPIO 9.11. Siano X ∼ U ([0, 2]) e Y ∼ U [1, 4], X, Y indipendenti.
0.5
0.4
0.3
0.2
0.1
0
1
2
3
F IGURA 9.5. Somma di 4 n.a. iid. U ([0, 1])
G.Sanfilippo
4
9.5 Integrale di convoluzione*
147
Calcolare la distribuzione di Z = X + Y . Si ha per z ∈ [1, 6]
Z min{2,z−1}
1
g(z) =
dx.
max{0,z−4} 6
Distinguiamo 3 casi.
(1) Per z ∈ [1, 3] si ha
Z min{2,z−1}
Z z−1
1
1
z−1
g(z) =
dx =
dx =
.
6
6
max{0,z−4} 6
0
(2) Per z ∈ [3, 4] si ha
Z min{2,z−1}
Z 2
1
1
2
g(z) =
dx =
dx = .
6
max{0,z−4} 6
0 6
(3) Per z ∈ [4, 6] si ha
Z min{2,z−1}
Z 2
1
1
6−z
g(z) =
dx =
dx =
.
6
max{0,z−4} 6
z−4 6
In sintesi abbiamo

0
z<1



z−1

 6 1≤z≤3
2
3≤z≤4
g(z) =
6

6−z

4≤z≤6


 06 z > 6
ed in Figura 9.6 osserviamo che g(z) descrive un trapezio.
0.3
0.25
0.2
0.15
0.1
0.05
0
1
2
3
z
4
5
F IGURA 9.6. U ([0, 2]) ∗ U ([1, 4])
G.Sanfilippo
6
9.5 Integrale di convoluzione*
148
E SEMPIO 9.12. Siano f1 = Nm1 ,σ1 = N1 , f2 = Nm2 ,σ2 = N2 ; si ha
Z +∞
N1 (x)N2 (z − x)dx = · · · = N3 (z) ,
g(z) =
−∞
con: N3 = Nm3 ,σ3 , m3 = m1 + m2 , σ32 = σ12 + σ22 .
Pertanto, dalla convoluzione di due distribuzioni normali si ottiene una distribuzione ancora normale.
Nota: volendo dimostrare tale risultato è sufficiente verificare che
N0,σ1 ∗ N0,σ2 = N0,√σ2 +σ2 ;
1
2
utilizzando poi la seguente proprietà della distribuzione normale:
Z ∼ N0,σ =⇒ Z + m ∼ Nm,σ ,
segue
(X − m1 ) + (Y − m2 ) + m1 + m2 ∼ Nm1 +m2 ,√σ2 +σ2 .
1
2
E SEMPIO 9.13. Siano f1 = Gc1 ,λ , f2 = Gc2 ,λ ; si ha
(99)
g = Gc1 ,λ ∗ Gc2 ,λ = Gc1 +c2 ,λ .
In particolare:
Exp(λ) ∗ Exp(λ) = G1,λ ∗ G1,λ = G2,λ .
Ricordiamo che la funzione Γ(α) è definita come
Z +∞
xα−1 e−x dx
Γ(α) =
0
in particolare se α = n ∈ N si ha
Γ(n) = (n − 1)!
Inoltre un n.a. X ha distribuzione Gα,λ se la sua densità è
Gα,λ (x) =
λα α−1 −λx
x e , x > 0.
Γ(α)
Se α = 1 si ottiene Gα,λ = Exp(λ). Il grafico, per λ = 1, è rappresentato in
Figura 9.7. Nelle Figure 9.8, 9.9, 9.10 sono rappresentate, rispettivamente,
le distribuzioni G2,1 , G4,1 , G8,1 .
E SEMPIO 9.14 (01/06/08). Sia (X, Y ) un vettore aleatorio con distribuzione uniforme sul quadrato Q = [0, 1] × [0, 1]. Calcolare il coefficiente di
correlazione lineare ρ(X, Y ). Determinare inoltre la funzione di ripartizione di Z = X + Y .
G.Sanfilippo
9.5 Integrale di convoluzione*
149
1
0.8
0.6
0.4
0.2
0
2
4
x
6
8
10
F IGURA 9.7. Exp(λ), λ = 1
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
2
4
x
6
8
10
F IGURA 9.8. Gα,λ , α = 2, λ = 1
Indicando con fX (x), fY (y) le densità di probabilità marginali, rispettivamente, di X e di Y , è facile verificare che si ha
1, se 0 ≤ x ≤ 1;
fX (x) =
0, altrove,
1, se 0 ≤ y ≤ 1;
fY (y) =
0, altrove.
G.Sanfilippo
9.5 Integrale di convoluzione*
150
0.2
0.15
0.1
0.05
0
2
4
x
6
8
10
F IGURA 9.9. Gα,λ , α = 4, λ = 1
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
2
4
6
8
10
x
12
14
16
18
20
F IGURA 9.10. Gα,λ , α = 8, λ = 1
Osserviamo che X, Y sono stocasticamente indipendenti, pertanto ρ(X, Y ) =
0.
Infine, poichè X, Y indipendenti allora la densità di probabilità di Z si
ottiene tramite l’operatore di convoluzione, ovvero
Z +∞
fZ (z) =
fX (x)fY (z − x)dx.
−∞
G.Sanfilippo
9.5 Integrale di convoluzione*
Si ha
fY (z − x) =
151
1, se z − 1 ≤ x ≤ z;
0, altrove.
Pertanto, se z ∈ [0, 2] si ha
fX (x)fY (z − x) 6= 0 ⇔ max{0, z − 1} ≤ x ≤ min{1, z}.
Quindi, per z ∈ [0, 2]
Z
fZ (z) =
+∞
Z
min{1,z}
fX (x)fY (z − x)dx =
−∞
1dx.
max{0,z−1}
Distinguiamo 3 casi, z ∈ [0, 1] , z ∈ [1, 2] e z ∈
/ [0, 2].
(1) Se z ∈ [0, 1], si ha
Z min{1,z}
Z z
fZ (z) =
1dx =
1dx = z.
max{0,z−1}
(2) Se z ∈ [1, 2], si ha
Z min{1,z}
Z
fZ (z) =
1dx =
max{0,z−1}
0
1
1dx = 1 − z + 1 = 2 − z.
z−1
(3) Se z ∈
/ [0, 2] si ha fZ (z) = 0.
In definitiva poichè


z,
0 ≤ z ≤ 1,




2 − z, 1 < z ≤ 2,
fZ (z) =




 0,
altrove,
si ha

0,


 z2
z < 0,
,
0 ≤ z < 1,
2
FZ (z) =
(2−z)2

1 − 2 , 1 ≤ z < 2,


1,
z ≥ 2.
G.Sanfilippo
Fly UP