Comments
Description
Transcript
Vettori Aleatori
CAPITOLO 9 Vettori Aleatori 129 9.1 Vettori Aleatori 130 9.1. Vettori Aleatori In molti esperimenti aleatori, indicando con Ω l’insieme dei possibili risultati, al generico risultato dell’esperimento, ω ∈ Ω, sono associati n numeri reali x1 , . . . , xn , con n ≥ 2, che costituiscono i valori di n numeri aleatori X1 , . . . , Xn . Tali n. a. sono le componenti di un vettore aleatorio X = (X1 , . . . , Xn ), che può essere visto come una funzione definita su Ω a valori in Rn , cioè X : Ω −→ Rn ω −→ x = X(ω) . Due casi importanti da considerare sono i v. a. discreti e v.a. continui. Vettori aleatori discreti. Un vettore aleatorio X = (X1 , X2 , . . . , Xn ) si dice discreto se esiste un insieme finito o numerabile C ⊂ Rn tale che • P (X = x) > 0 , ∀x ∈ C, • P (X = x) = 0 , ∀x ∈ / C, dove, ponendo x = (x1 , . . . , xn ), l’evento (X = x) rappresenta l’evento (X1 = x1 , X2 = x2 , . . . , Xn = xn ) . Analizziamo in dettaglio il caso discreto, con n = 2. Per semplicità di notazione, indichiamo con (X, Y ) il v.a. (X1 , X2 ). Va osservato che tale notazione può essere utilizzata anche nel caso in cui n > 2, indicando con X e Y due sottovettori del vettore aleatorio (X1 , . . . , Xn ). Distribuzioni marginali. Sia X ∈ Cx , Y ∈ Cy , (X, Y ) ∈ C ⊆ Cx × Cy . Ricordiamo che C è l’insieme (al più numerabile) dei punti di R2 che hanno probabilità positiva. Quindi per ogni coppia (xh , yk ) ∈ C si ha P (X = xh , Y = yk ) = pxh ,yk > 0 . Fissato un punto xh ∈ Cx , osservando che _ Ω= (Y = yk ) , yk ∈Cy possiamo decomporre l’evento (X = xh ) nel seguente modo (X = xh ) = (X = xh ) ∧ Ω = = (X = xh ) ∧ [ = W yk ∈Cy (X W yk ∈Cy (Y = yk )] = = xh , Y = yk ) . Quindi, ∀ xh ∈ Cx , si ha P (X = xh ) = pxh = = G.Sanfilippo P yk P yk ∈Cy P (X = xh , Y = yk ) = pxh ,yk ; (distribuzione marginale di X). 9.1 Vettori Aleatori 131 In modo analogo si ottiene P (Y = yk ) = pyk = = P xh P xh ∈Cx P (X = xh , Y = yk ) = pxh ,yk ; (distribuzione marginale di Y ). Distribuzioni marginali condizionate. pxh |yk = P (X = xh |Y = yk ) = congiunta z }| { p P (X=xh ,Y =yk ) = P (Y =yk ) = xphy,yk . k |{z} marginale La distribuzione {pxh |yk , xh ∈ CX } si chiama distribuzione marginale di X condizionata al valore fissato yk di Y . In maniera analoga, la distribuzione {pyk |xh , yk ∈ CY } si chiama distribuzione marginale di Y condizionata al valore fissato xh di X, ovvero pyk |xh = P (Y = yk |X = xh ) = congiunta z }| { p P (X=xh ,Y =yk ) = P (X=xh ) = pxhx,yk . h |{z} marginale Dalle ultime relazioni, per il teorema delle probabilità composte, si ottiene: P (X = xh , Y = yk ) = P (Y = yk |X = xh )P (X = xh ) = = P (X = xh |Y = yk )P (Y = yk ) . ovvero pxh ,yk = pxh |yk · pyk = pyk |xh pxh . Osserviamo che, in generale, risulta pxh ,yk 6= pxh · pyk . Indipendenza stocastica. I numeri aleatori X, Y si dicono stocasticamente indipendenti (in breve, indipendenti) se, ∀ (xh , yk ) , vale P (X = xh , Y = yk ) = P (X = xh ) · P (Y = yk ) , ovvero la distribuzione congiunta è data dal prodotto delle marginali pxh ,yk = pxh · pyk , ∀ (xh , yk ). Quindi, se X, Y sono indipendenti, le distribuzioni condizionate coincidono con le marginali pxh |yk = pxh , pyk |xh = pyk . E SEMPIO 9.1. Si lancia due volte un dado, definendo X = risultato del primo lancio; Y = risultato del secondo lancio. G.Sanfilippo 9.1 Vettori Aleatori 132 Ovviamente, X, Y sono indipendenti e quindi, per ogni coppia (m, n) ∈ {1, 2, . . . , 6} × {1, 2, . . . , 6}, si ha P (X = m, Y = n) = P (X = m)P (Y = n) = 1 1 1 · = . 6 6 36 Y \X 1 2 3 4 5 6 P (Y = n) 1 1 36 1 36 1 36 1 36 1 36 1 36 1 6 2 1 36 1 36 1 36 1 36 1 36 1 36 1 6 3 1 36 1 36 1 36 1 36 1 36 1 36 1 6 4 1 36 1 36 1 36 1 36 1 36 1 36 1 6 5 1 36 1 36 1 36 1 36 1 36 1 36 1 6 6 1 36 1 36 1 36 1 36 1 36 1 36 1 6 P (X = m) 1 6 1 6 1 6 1 6 1 6 1 6 O SSERVAZIONE 9.1. In generale, quando non vi è indipendenza stocastica tra due numeri aleatori, alle stesse distribuzioni di probabilità marginali possono corrispondere infinite distribuzioni congiunte. Vedi la seguente tabella Y \X 1 2 3 4 5 6 P (Y = n) 1 1 18 0 1 18 0 1 18 0 1 6 2 0 1 18 0 1 18 0 1 18 1 6 3 1 18 0 1 18 0 1 18 0 1 6 4 0 1 18 0 1 18 0 1 18 1 6 5 1 18 0 1 18 0 1 18 0 1 6 6 0 1 18 0 1 18 0 1 18 1 6 P (X = m) 1 6 1 6 1 6 1 6 1 6 1 6 E SEMPIO 9.2. Due estrazioni senza restituzione da un’urna contenente cinque palline numerate da 1 a 5. I numeri aleatori X = risultato della prima estrazione, Y = risultato della seconda estrazione, G.Sanfilippo 9.1 Vettori Aleatori 133 non sono indipendenti. Infatti, ad esempio 1 20 , P (X = 2)P (Y = 1) = 1 5 P (X = 2, Y = 1) = · 1 5 = 1 25 6= 1 20 . E SEMPIO 9.3. Siano X, Y due n. a. indipendenti con distribuzione di Poisson, rispettivamente di parametri λ1 e λ2 , ovvero X ∼ P(λ1 ), Y ∼ P(λ2 ). Calcoliamo la distribuzione di probabilità del n. a. Z = X +Y . Osserviamo che, fissato n ∈ N0 , si ha W P (Z = n) = P [ ni=0 (X = i, Y = n − i)] = = Pn P (X = i, Y = n − i) = = Pn e−λ1 i=0 i=0 λi1 i! λn−i 2 · e−λ2 (n−i)! = ··· = n 2) = e−(λ1 +λ2 ) (λ1 +λ · n! Pertanto: Z ∼ P(λ1 + λ2 ). Inoltre, si può verificare che 1 ), X|(Z = n) ∼ B(n, λ1λ+λ 2 2 Y |(Z = n) ∼ B(n, λ1λ+λ ). 2 Infatti, per ogni h ∈ {0, 1, . . . , n} si ha P (X = h|Z = n) = = = P (X=h,Z=n) P (Z=n) = P (X=h,Y =n−h) P (Z=n) P (X=h)P (Y =n−h) P (Z=n) n h λ1 λ1 +λ2 h = λh e−λ1 1 e−λ2 λn−h 2 h! · (n−h)! (λ1 +λ2 )n −(λ +λ ) 1 2 e n! λ2 λ1 +λ2 n−h = . Teorema. Se X ed Y sono indipendenti, si ha: Cov(X, Y ) = 0. Dim.: Supponiamo che, ∀ (xh , yk ) ∈ C, sia P (X = xh , Y = yk ) = P (X = xh )P (Y = yk ) . Allora, segue P(XY ) = P xh P yk xh yk pxh ,yk = P xh P yk x h y k p xh p yk = P P = ( xh xh pxh )( yk yk pyk ) = P(X)P(Y ) , e quindi: Cov(X, Y ) = 0. Osserviamo che il viceversa non vale, come mostra il seguente controesempio. G.Sanfilippo 9.1 Vettori Aleatori 134 Esempio. Si consideri il seguente vettore aleatorio (X, Y ), con la distribuzione congiunta riportata nella tabella: Y \ X -1 0 1 -1 a / a 0 / b / 1 a / a Si ha C = {(−1, −1), (−1, 1), (0, 0), (1, −1), (1, 1)} , con P (X = 0, Y = 0) = b e P (X = x, Y = y) = a negli altri casi. Ovviamente, deve essere: 4a + b = 1 , a ≥ 0 , b ≥ 0 . Come si può verificare, si ha X ∈ {−1, 0, 1} , Y ∈ {−1, 0, 1} , XY ∈ {−1, 0, 1} , con P (X = −1) = P (Y = −1) = P (XY = −1) = 2a , P (X = 0) = P (Y = 0) = P (XY = 0) = b , P (X = 1) = P (Y = 1) = P (XY = 1) = 2a . Pertanto X, Y ed XY hanno la stessa distribuzione di probabilità. Inoltre P(X) = P(Y ) = P(XY ) = 0 , e quindi Cov(X, Y ) = 0, ovvero X, Y sono incorrelati. Però X ed Y non sono indipendenti, in quanto risulta P (X = x, Y = y) 6= P (X = x)P (Y = y) , ad esempio: P (X = 0, Y = 0) = b 6= P (X = 0)P (Y = 0) = b · b = b2 . G.Sanfilippo 9.2 Distribuzione multinomiale 135 9.2. Distribuzione multinomiale Si considerino n ripetizioni di un esperimento aleatorio, con m + 1 possibili risultati in ciascuna ripetizione. Ad esempio, si consideri un’urna contenente N palline, delle quali p0 N sono segnate con il numero 0, p1 N sono segnate con il numero 1, ..., pm N sono segnate con il numero m, dove p 0 + p1 + · · · + pm = 1 , pk ≥ 0 , ∀ k ∈ {0, 1, . . . , m} . Supposto di effettuare n estrazioni con restituzione da tale urna, definiamo i seguenti eventi e numeri aleatori: (i) Ek = nell’i-ma prova viene estratta una pallina se- gnata con il numero k, i = 1, . . . , n, (1) (n) Xk = |Ek | + · · · + |Ek | , k = 0, 1, . . . , m . Ovviamente: X0 = n − (X1 + · · · + Xm ). Inoltre, per ogni i = 1, . . . , n, la (i) (i) famiglia {E0 , . . . , Em } forma una partizione di Ω e si ha: (i) 1. P (Ek ) = pk , ∀ k ∈ {0, 1, . . . , m}; 2. gli eventi relativi a partizioni distinte, cioè associati a prove distinte, sono stocasticamente indipendenti. Proponiamoci di calcolare la distribuzione di probabilità del vettore aleatorio discreto (X1 , . . . , Xm ). Come si può verificare, l’evento (X1 = x1 , . . . , Xm = xm ) è possibile se e solo se x1 , . . . , xm sono dei valori interi non negativi tali che: x1 + · · · + xm ≤ n . Posto x0 = n − (x1 + · · · + xm ), si può verificare che: a) il numero di costituenti favorevoli all’evento (X1 = x1 , . . . , Xm = xm ) è pari al coefficiente multinomiale x0 !x1n!!···xm ! ; b) ognuno di tali costituenti ha probabilità px0 0 px1 1 · · · px0 m ; pertanto: n! px0 0 px1 1 · · · pxmm . P (X1 = x1 , . . . , Xm = xm ) = x0 !x1 ! · · · xm ! La distribuzione di (X1 , . . . , Xm ) si dice multinomiale di parametri n, p1 , . . . , pm . Per m = 1 si ottiene in particolare la distribuzione binomiale di parametri n, p1 . G.Sanfilippo 9.3 Vettori aleatori continui. 136 9.3. Vettori aleatori continui. Un vettore aleatorio X = (X1 , X2 , . . . , Xn ) si dice continuo se • P (X = x) = 0 , ∀x ∈ Rn , • ∃f : Rn → R tale che (i) f (x) ≥ 0, ∀x ∈ Rn ; (ii) ∀ A ⊆ Rn , misurabile secondo Peano - Jordan, si ha P (X ∈ A) = P (A) = R A f (x)dx = R R = · · · A f (x1 , . . . , xn )dx1 · · · dxn . La funzione f (x) si chiama densità di probabilità congiunta del v. a. X. Proprietà di normalizzazione: R f (x)dx = Rn = R +∞ −∞ ··· R +∞ −∞ f (x1 , . . . , xn )dx1 · · · dxn = 1 . La funzione di ripartizione congiunta di X = (X1 , . . . , Xn ) è definita nel seguente modo: F (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn ) . Nel caso continuo si ha: Z x1 Z xn f (t1 , . . . , tn )dt1 · · · dtn . ··· F (x1 , . . . , xn ) = −∞ −∞ Vettori aleatori continui: distribuzioni marginali e condizionate. Dato un vettore aleatorio continuo (X1 , . . . , Xn ), sia f (x1 , . . . , xn ) la sua densità congiunta. Le densità marginali f1 (x1 ), . . . , fn (xn ) dei n. a. X1 , . . . , Xn sono date dalle seguenti formule: fi (xi ) = = R +∞ −∞ ··· R +∞ −∞ f (x1 , . . . , xn )dx1 · · · dxi−1 dxi+1 · · · dxn , i = 1, . . . , n . Ovvero, per calcolare fi (xi ) si integra f (x1 , . . . , xn ) rispetto alle variabili x1 , . . . , xi−1 , xi+1 , . . . , xn . Consideriamo in particolare il caso n = 2, indicando con (X, Y ) il v. a. (X1 , X2 ) e con f (x, y) la densità congiunta. Si ha Z +∞ Z +∞ f1 (x) = f (x, y)dy , f2 (y) = f (x, y)dx . −∞ G.Sanfilippo −∞ 9.3 Vettori aleatori continui. 137 Le densità condizionate (di Y |x ed X|y), per fissati valori x, y ed assumendo f1 (x) > 0, f2 (y) > 0, sono definite nel seguente modo f2 (y|x) = f (x, y) , f1 (x) f1 (x|y) = f (x, y) . f2 (y) Pertanto f (x, y) = f1 (x)f2 (y|x) = f2 (y)f1 (x|y) . Se risulta f (x, y) = f1 (x)f2 (y) , ∀ (x, y) i n. a. si dicono stocasticamente indipendenti e in questo caso si ha f2 (y|x) = f2 (y) , ∀ y ; f1 (x|y) = f1 (x) , ∀ x , cioè le densità condizionate coincidono con le densità marginali. Osserviamo che la relazione di indipendenza tra X e Y può essere definita anche richiedendo che valga F (x, y) = F1 (x)F2 (y) , ∀ (x, y) , cioè P (X ≤ x, Y ≤ y) = P (X ≤ x)P (Y ≤ y) , ∀ (x, y) . Come già visto nel caso discreto, si può dimostrare che, se X e Y sono indipendenti, segue che sono incorrelati, mentre il viceversa non vale. Infatti, assumendo f (x, y) = f1 (x)f2 (y) , ∀ (x, y), si ottiene R +∞ R +∞ P(XY ) = −∞ −∞ xyf (x, y)dxdy = · · · R +∞ R +∞ = ( −∞ xf1 (x)dx)( −∞ yf2 (y)dy) = P(X)P(Y ) , e quindi Cov(X, Y ) = 0. Per mostrare attraverso un controesempio che il viceversa non vale, introduciamo la distribuzione uniforme su un insieme A ⊂ R2 , limitato e misurabile. Distribuzione uniforme Si dice che (X, Y ) ha distribuzione uniforme su A ⊂ R2 , limitato e misurabile, in simboli (X, Y ) ∼ U (A) , se la densità congiunta assume un valore costante k > 0 su A ed è nulla altrove. Imponendo la condizione Z +∞ Z +∞ f (x, y)dxdy = 1 , −∞ ovvero −∞ Z Z f (x, y)dxdy = 1 , A si ottiene k = G.Sanfilippo 1 , µ(A) dove µ(A) è l’area di A. 9.3 Vettori aleatori continui. 138 E SEMPIO 9.4. Sia (X, Y ) un vettore aleatorio con distribuzione uniforme sul cerchio C di centro l’origine e raggio r = 3. Calcolare la densità marginale fY (y) di Y e, per ogni fissato valore di y ∈] − 3, 3[, calcolare la densità marginale condizionata fX|y (x) . Infine, stabilire se X e Y sono stocasticamente indipendenti. Si fY (y) = fX|y (x) = X, Y indipendenti? ; No Il vettore (X, Y ) ha la seguente densità di probabilità 1 , x2 + y 2 ≤ 9 9π f (x, y) = 0, altrove. R +∞ R +∞ Per y ∈ / [−3, 3] si ha fY (y) = −∞ f (x, y)dx = −∞ 0dx = 0; per y ∈ [−3, 3] si ha p Z +∞ Z √9−y2 2 9 − y2 1 fY (y) = f (x, y)dx = √ dx = ; 9π −∞ − 9−y 2 9π quindi ( √ 2 fY (y) = 0, 9−y 2 , 9π y ∈ [−3, 3]; altrove. Procedendo in maniera analoga a quanto fatto per fY (y) si ha √ 2 2 9−x , x ∈ [−3, 3]; 9π fX (x) = 0, altrove. Osserviamo che fY (y) 6= 0 se e solo se y ∈] − 3, 3[. Pertanto, per ogni fissato valore di y ∈] − 3, 3[ si ottiene ( p p √ 1 , x ∈ [− 9 − y 2 , 9 − y 2 ]; f (x, y) 2 9−y 2 fX|y (x) = = fY (y) 0, altrove. p p Ovvero, X|y ha distribuzione uniforme in [− 9 − y 2 , 9 − y 2 ]. Infine, si verifica facilmente che X, Y non sono stocasticamente indipendenti (ad esempio osservando che fX (0)fY (0) 6= f (0, 0)). E SEMPIO 9.5. Supponiamo che (X, Y ) ∼ U (C) , dove C è il cerchio di raggio 1 e centro nell’origine. Allora 1 , (x, y) ∈ C , π con f (x, y) = 0 altrove. Si dimostra che 2√ f1 (x) = 1 − x2 , x ∈ [−1, 1] , π f (x, y) = G.Sanfilippo 9.3 Vettori aleatori continui. 139 con f1 (x) = 0 altrove. Inoltre 2p 1 − y 2 , y ∈ [−1, 1] , π con f2 (y) = 0 altrove. Allora P(X) = P(Y ) = 0. Inoltre Z Z P(XY ) = xyf (x, y)dxdy = · · · = 0 , f2 (y) = C pertanto X e Y sono incorrelati. D’altra parte f (x, y) 6= f1 (x)f2 (y), pertanto X e Y non sono indipendenti. E SEMPIO 9.6. Un vettore aleatorio (X, Y ) ha distribuzione uniforme sul quadrato Q = [0, 2] × [0, 2]. Calcolare la probabilità dell’evento condizionato E|H, con E = (Y > 2X), H = (X < 1/3) . P (E|H) = Si ricava facilmente che X ha distribuzione uniforme nell’intervallo [0, 2]. Poichè (X, Y ) ha distribuzione uniforme su un insieme limitato di R2 le probabilità di P (EH), P (H) si possono calcolare come rapporto tra aree. Dalla Figura 2 si osserva che P (H) = 2 · 31 /4 = 32 · 41 e P (EH) = [ 13 (2 − 2 ) + 13 · 32 · 12 ]/4 = 95 · 14 . Pertanto 3 P (EH) P (E|H) = = P (H) 5 9 2 3 5 = . 6 y .............. . ..... .. .... .. ... ... ... ... ... .......... ... ... .......... ... ... ... .......... ... .. . .............. ... .. .......... ... .. .......... ... ... ............. ... ... .. .......... ... . .......... ... ... .............. ... .... .......... ... .... ............. ... ... .......... ... ... .......... ....... .................. ................ ........... ... ........... ... ......... ... ... ....... .. ....... . ............................................................................................................................................................................... . 2 E EH y = 2x 2 3 0 x= H 1 3 1 3 1 2 x F IGURA 9.1. E SERCIZIO 9.1. Dato un vettore aleatorio continuo (X, Y ), con distribuzione uniforme sul semicerchio C = {(x, y) : x2 + y 2 ≤ 1, x ≥ 0}, si considerino gli eventi A = (X + Y > 1), B = (X − Y ≤ 0). Calcolare la G.Sanfilippo 9.3 Vettori aleatori continui. 140 probabilità condizionata α = P (A|B), la densità marginale f1 (x) per ogni x ∈ [0, 1], e la previsione µ di Y |x. α= ; f1 (x) = ; µ= E SEMPIO 9.7. Dato un cerchio di raggio r e centro nell’origine degli assi, si indichi con D la parte contenuta nel primo quadrante. Un vettore aleatorio continuo (X, Y ) ha una distribuzione uniforme su D. Calcolare le probabilità α = P (X + Y ≤ r), β = P [(Y ≤ X)|(X + Y ≤ r)]. α= ;β = . 2 L’area dell’insieme D è πr4 . Il vettore (X, Y ) ha distribuzione uniforme su 1 D, quindi si ha f (x, y) = µ(D) = πr4 2 , per (x, y) ∈ D, con f (x, y) = 0 altrove. Inoltre, si ha (X + Y ≤ r) = [(X, Y ) ∈ T ], dove T è il triangolo di vertici (0, 0), (r, 0), (0, r); pertanto area(T ) α= = area(D) r2 2 πr2 4 = 2 . π Infine, osservando che (Y ≤ X) ∧ (X + Y ≤ r) = [(X, Y ) ∈ Γ], dove Γ è il triangolo di vertici (0, 0), (r, 0), ( 2r , 2r ), si ha P [(Y ≤ X) ∧ (X + Y ≤ r)] area(Γ) β= == = P (X + Y ≤ r) area(T ) r2 4 r2 2 = 1 . 2 E SEMPIO 9.8. Un sistema è costituito da tre dispositivi in serie A, B e C, di durata aleatoria sino al guasto rispettivamente X, Y e Z. Assumendo i numeri aleatori X, Y e Z stocasticamente indipendenti e con distribuzione esponenziale di parametri λX = 1, λY = 2, λZ = 3, calcolare, per ogni t > 0, la funzione di sopravvivenza ST (t) e la funzione di rischio h(t) del tempo aleatorio T sino al guasto del sistema. (nota: T = min(X, Y, Z)). S(t) = P (T > t) = P (min(X, Y, Z) > t) = P (X > t, Y > t, Z > t) = SX (t)SY (t)SZ (t) = e−(λX +λY +λZ )t = e−6t . 0 (t) h(t) = − SS(t) = 6. Ovvero T ∼ Exp(6). E SEMPIO 9.9. La densità congiunta di un vettore aleatorio continuo (X, Y ) è f (x, y) = (y −x), per (x, y) ∈ [0, 1]×[1, 2], con f (x, y) = 0 altrove. Calcolare: (i) il valore y0 ∈ (1, 2) tale che P (Y ≤ y0 ) = 21 ; (ii) la probabilità p dell’evento X + Y > 2 y0 = G.Sanfilippo ; p= ; 9.3 Vettori aleatori continui. 141 Fissato y0 ∈ (1, 2) si ha R 1 R y0 P (Y ≤ y0 ) = 0 dx (y i− x)dy = y0 R 1 h y2 1 R 1 y2 = 0 2 − xy dx = 0 20 − xy0 − 12 x + = Quindi, y02 −y0 2 1 x2 2 dx = . √ 1+ 5 1 . P (Y ≤ y0 ) = ⇒ y0 = 2 2 Infine Z p = P (X + Y > 2) = Z 2 Z (y − x)dy = dx 0 G.Sanfilippo 1 2−x 0 1 1 3 2 2x − x dx = . 2 2 9.4 Rette di regressione 142 9.4. Rette di regressione Dato un vettore aleatorio (X, Y ), cerchiamo una retta di equazione y = a + bx che meglio si adatti alla distribuzione di probabilità congiunta di (X, Y ), ovvero che risulti più vicina possibile a tale distribuzione. Da un certo punto di vista, si potrebbe pensare di voler stimare Y mediante una funzione lineare a + bX, con i coefficienti a, b da determinare sulla base di un opportuno criterio. Un criterio ben noto in statistica è il metodo dei minimi quadrati che consiste nel cercare i valori a, b che rendono minima la previsione del numero aleatorio (Y − a − bX)2 . La retta che si ottiene si chiama retta di regressione di Y su X. Considerando il caso continuo e ponendo P[(Y − a − bX)2 ] = g(a, b), se la densità congiunta è f (x, y), si ha (applicando la linearità della previsione) RR g(a, b) = (y − a − bx)2 f (x, y)dxdy = R2 P(Y 2 ) + a2 + b2 P(X 2 ) − 2aP(Y ) − 2bP(XY ) + 2abP(X). Uguagliando a zero le derivate parziali di g(a, b) rispetto ad a, b (indicando con m1 , m2 , σ1 , σ2 le previsioni e gli scarti standard di X e Y , e con ρ il coefficiente di correlazione) si ha ∂g ∂a = 2a − 2m2 + 2bm1 = 0 , ∂g ∂b = 2b(m21 + σ12 ) − 2(m1 m2 + ρσ1 σ2 ) + 2am1 = 0 . Ricavando a dalla prima equazione (a = m2 − bm1 ) e risolvendo rispetto a b la seconda, si ottiene σ2 σ2 a = m2 − ρ m1 , b = ρ . σ1 σ1 Pertanto, l’equazione della retta di regressione di Y su X è data da σ2 y = m2 + ρ (x − m1 ) . σ1 Simmetricamente, l’equazione della retta di regressione di X su Y è σ1 x = m1 + ρ (y − m2 ) , σ2 che si può scrivere 1 σ2 y = m2 + · (x − m1 ) . ρ σ1 Le due rette si incontrano nel punto di coordinate (m1 , m2 ) e, nel caso ρ = 0, sono perpendicolari e di equazioni: y = m2 , x = m1 . Se |ρ| = 1, le due rette coincidono ed hanno equazione (a seconda che sia ρ = 1 oppure ρ = −1) σ2 y = m2 ± (x − m1 ) . σ1 G.Sanfilippo 9.5 Integrale di convoluzione* 143 9.5. Integrale di convoluzione* Somme di numeri aleatori. Dato un vettore aleatorio continuo (X, Y ), con densità f (x, y), sia G(z) = P (Z ≤ z) , z ∈ R . Z =X +Y , Si ha: +∞ Z (96) G(z) = P (X + Y ≤ z) = Z z−x f (x, y)dy. dx −∞ −∞ Posto t = x + y, si ha dt = dy, lim t = lim (x + y) = −∞ y→−∞ y→−∞ e lim t = lim (x + y) = z − x + z = z. y→z−x y→z−x Sostituendo y = t − x nella Formula (96) si ha Z +∞ Z z G(z) = dx f (x, t − x)dt = −∞ Z z Z −∞ +∞ Z z f (x, t − x)dx dt = = −∞ g(t)dt , −∞ −∞ dove g è la densità di Z data da: R +∞ g(z) = G0 (z) = −∞ f (x, z − x)dx . Scambiando, nella dimostrazione precedente il ruolo di x, con quello di y si ottiene Z +∞ f (z − y, y)dy . (97) g(z) = −∞ Caso notevole: se X e Y sono indipendenti, ovvero f (x, y) = f1 (x)f2 (y), si ottiene Z +∞ (98) g(z) = f1 (x)f2 (z − x)dx ; −∞ La Formula (98) dicesi integrale di convoluzione di f1 , f2 e si denota con g = f1 ∗ f2 . Nota: dalla (97) segue Z +∞ Z f1 (x)f2 (z − x)dx = −∞ ovvero : f1 ∗ f2 = f2 ∗ f1 . G.Sanfilippo +∞ −∞ f1 (z − y)f2 (y)dy , 9.5 Integrale di convoluzione* 144 E SEMPIO 9.10. (a) X ∼ U ([0, a]) , Y ∼ U ([0, a]); X, Y indipendenti; T = X + Y ha la seguente densità g = U ([0, a]) ∗ U ([0, a]) , dove g(z) = z , a2 0 ≤ z ≤ a, 2a−z 2 a 0, , a < z ≤ 2a, altrove. Analizziamo per semplicità il caso a = 1. Siano f1 (x), f2 (y) rispettivamente le densità di X e di Y , cosı̀ definite: 1, se 0 ≤ x ≤ 1 f1 (x) = 0, altrove, 1, se 0 ≤ y ≤ 1 f2 (y) = 0, altrove. Inoltre si ha 1, se z − 1 ≤ x ≤ z f2 (z − x) = 0, altrove. Osserviamo che per z ∈ [0, 2] si ha f1 (x)f2 (z − x) 6= 0 con max{0, z − 1} ≤ x ≤ min{1, z}. Si ottiene Z +∞ Z min{1,z} f1 (x)f2 (z − x)dx = g(z) = 1dx. −∞ max{0,z−1} Distinguiamo 2 casi, z ∈ [0, 1] e z ∈ [1, 2]. (1) Se z ∈ [0, 1], si ha Z Z min{1,z} g(z) = 1dx = max{0,z−1} (2) Se z ∈ [1, 2], si ha Z min{1,z} Z g(z) = 1dx = max{0,z−1} z 1dx = z. 0 1 1dx = 1 − z + 1 = 2 − z. z−1 Infine, per z ∈ / [0, 2] si ha g(z) = 0. La distribuzione di T dicesi distribuzione triangolare. In Figura 9.2 è rappresentata la densità di X (oppure di Y ) per a = 1. Mentre quella di T è rappresentata in Figura 9.3 . Inoltre considerato Z = X + T , che equivale a considerare la somma di 3 numeri aleatori indipendenti ed ugualmente distribuiti con distribuzione uniforme in [0, 1], si ha (indicando con f la densità di X) h(z) = f ∗ g. G.Sanfilippo 9.5 Integrale di convoluzione* 145 2 1.5 1 0.5 0 0.2 0.4 0.6 0.8 1 F IGURA 9.2. Distribuzione Uniforme in [0, 1] 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 F IGURA 9.3. Distribuzione triangolare Svolgendo i calcoli si ottiene. 0 2 z2 3z − 23 − z 2 h(z) = 2 9 − 3z + z2 2 0 G.Sanfilippo z<0 0≤z≤1 1≤z≤2 2≤z≤3 z>3 2 9.5 Integrale di convoluzione* 146 Ovvero h(z) è un raccordo di parabole come rappresentata in Figura 9.4. Infine X + Z ha densità rappresentata in Figura 9.5. Nota: al crescere 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0.5 1 1.5 t 2 2.5 3 F IGURA 9.4. Somma di 3 n.a. iid U ([0, 1]) degli addendi la densità ottenuta assume una forma a campana, tipica della distribuzione normale. E SEMPIO 9.11. Siano X ∼ U ([0, 2]) e Y ∼ U [1, 4], X, Y indipendenti. 0.5 0.4 0.3 0.2 0.1 0 1 2 3 F IGURA 9.5. Somma di 4 n.a. iid. U ([0, 1]) G.Sanfilippo 4 9.5 Integrale di convoluzione* 147 Calcolare la distribuzione di Z = X + Y . Si ha per z ∈ [1, 6] Z min{2,z−1} 1 g(z) = dx. max{0,z−4} 6 Distinguiamo 3 casi. (1) Per z ∈ [1, 3] si ha Z min{2,z−1} Z z−1 1 1 z−1 g(z) = dx = dx = . 6 6 max{0,z−4} 6 0 (2) Per z ∈ [3, 4] si ha Z min{2,z−1} Z 2 1 1 2 g(z) = dx = dx = . 6 max{0,z−4} 6 0 6 (3) Per z ∈ [4, 6] si ha Z min{2,z−1} Z 2 1 1 6−z g(z) = dx = dx = . 6 max{0,z−4} 6 z−4 6 In sintesi abbiamo 0 z<1 z−1 6 1≤z≤3 2 3≤z≤4 g(z) = 6 6−z 4≤z≤6 06 z > 6 ed in Figura 9.6 osserviamo che g(z) descrive un trapezio. 0.3 0.25 0.2 0.15 0.1 0.05 0 1 2 3 z 4 5 F IGURA 9.6. U ([0, 2]) ∗ U ([1, 4]) G.Sanfilippo 6 9.5 Integrale di convoluzione* 148 E SEMPIO 9.12. Siano f1 = Nm1 ,σ1 = N1 , f2 = Nm2 ,σ2 = N2 ; si ha Z +∞ N1 (x)N2 (z − x)dx = · · · = N3 (z) , g(z) = −∞ con: N3 = Nm3 ,σ3 , m3 = m1 + m2 , σ32 = σ12 + σ22 . Pertanto, dalla convoluzione di due distribuzioni normali si ottiene una distribuzione ancora normale. Nota: volendo dimostrare tale risultato è sufficiente verificare che N0,σ1 ∗ N0,σ2 = N0,√σ2 +σ2 ; 1 2 utilizzando poi la seguente proprietà della distribuzione normale: Z ∼ N0,σ =⇒ Z + m ∼ Nm,σ , segue (X − m1 ) + (Y − m2 ) + m1 + m2 ∼ Nm1 +m2 ,√σ2 +σ2 . 1 2 E SEMPIO 9.13. Siano f1 = Gc1 ,λ , f2 = Gc2 ,λ ; si ha (99) g = Gc1 ,λ ∗ Gc2 ,λ = Gc1 +c2 ,λ . In particolare: Exp(λ) ∗ Exp(λ) = G1,λ ∗ G1,λ = G2,λ . Ricordiamo che la funzione Γ(α) è definita come Z +∞ xα−1 e−x dx Γ(α) = 0 in particolare se α = n ∈ N si ha Γ(n) = (n − 1)! Inoltre un n.a. X ha distribuzione Gα,λ se la sua densità è Gα,λ (x) = λα α−1 −λx x e , x > 0. Γ(α) Se α = 1 si ottiene Gα,λ = Exp(λ). Il grafico, per λ = 1, è rappresentato in Figura 9.7. Nelle Figure 9.8, 9.9, 9.10 sono rappresentate, rispettivamente, le distribuzioni G2,1 , G4,1 , G8,1 . E SEMPIO 9.14 (01/06/08). Sia (X, Y ) un vettore aleatorio con distribuzione uniforme sul quadrato Q = [0, 1] × [0, 1]. Calcolare il coefficiente di correlazione lineare ρ(X, Y ). Determinare inoltre la funzione di ripartizione di Z = X + Y . G.Sanfilippo 9.5 Integrale di convoluzione* 149 1 0.8 0.6 0.4 0.2 0 2 4 x 6 8 10 F IGURA 9.7. Exp(λ), λ = 1 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 2 4 x 6 8 10 F IGURA 9.8. Gα,λ , α = 2, λ = 1 Indicando con fX (x), fY (y) le densità di probabilità marginali, rispettivamente, di X e di Y , è facile verificare che si ha 1, se 0 ≤ x ≤ 1; fX (x) = 0, altrove, 1, se 0 ≤ y ≤ 1; fY (y) = 0, altrove. G.Sanfilippo 9.5 Integrale di convoluzione* 150 0.2 0.15 0.1 0.05 0 2 4 x 6 8 10 F IGURA 9.9. Gα,λ , α = 4, λ = 1 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 2 4 6 8 10 x 12 14 16 18 20 F IGURA 9.10. Gα,λ , α = 8, λ = 1 Osserviamo che X, Y sono stocasticamente indipendenti, pertanto ρ(X, Y ) = 0. Infine, poichè X, Y indipendenti allora la densità di probabilità di Z si ottiene tramite l’operatore di convoluzione, ovvero Z +∞ fZ (z) = fX (x)fY (z − x)dx. −∞ G.Sanfilippo 9.5 Integrale di convoluzione* Si ha fY (z − x) = 151 1, se z − 1 ≤ x ≤ z; 0, altrove. Pertanto, se z ∈ [0, 2] si ha fX (x)fY (z − x) 6= 0 ⇔ max{0, z − 1} ≤ x ≤ min{1, z}. Quindi, per z ∈ [0, 2] Z fZ (z) = +∞ Z min{1,z} fX (x)fY (z − x)dx = −∞ 1dx. max{0,z−1} Distinguiamo 3 casi, z ∈ [0, 1] , z ∈ [1, 2] e z ∈ / [0, 2]. (1) Se z ∈ [0, 1], si ha Z min{1,z} Z z fZ (z) = 1dx = 1dx = z. max{0,z−1} (2) Se z ∈ [1, 2], si ha Z min{1,z} Z fZ (z) = 1dx = max{0,z−1} 0 1 1dx = 1 − z + 1 = 2 − z. z−1 (3) Se z ∈ / [0, 2] si ha fZ (z) = 0. In definitiva poichè z, 0 ≤ z ≤ 1, 2 − z, 1 < z ≤ 2, fZ (z) = 0, altrove, si ha 0, z2 z < 0, , 0 ≤ z < 1, 2 FZ (z) = (2−z)2 1 − 2 , 1 ≤ z < 2, 1, z ≥ 2. G.Sanfilippo