...

Document

by user

on
Category: Documents
19

views

Report

Comments

Description

Transcript

Document
Elementi di
Calcolo delle probabilità
PERCHÉ SI STUDIA IL CALCOLO DELLE PROBABILITÀ?
Calcolo delle probabilità
Stato di incertezza
In cui si formano le decisioni
Esperimento casuale - prova
Un esperimento casuale è un
fenomeno del mondo reale per
il quale vi è più di un risultato
possibile.
Evento elementare
L’evento elementare è uno dei
possibili
risultati
dell’esperimento casuale
L’esito è incerto
•
•
•
•
•
Lancio di una moneta
Sondaggio di opinione
Esame universitario
Partita di calcio
Controllo di qualità di un
prodotto
• PIL
• Analisi del sangue
• etc
Elementi di Calcolo delle probabilità
Spazio campione
L’insieme di tutti i possibili
esiti di un esperimento definisce lo spazio campione
• Deve necessariamente verificarsi un evento elementare
• Si può verificare un solo
evento elementare
Slide 2
Descrizione dell’esperimento
promosso
Esame universitario bocciato
vittoria
pareggio
sconfitta
Partita di calcio
molto favorevole
favorevole
indifferente
contrario
fortemente contrario
Sondaggio
di opinione
E2
E3
A={esce
E4
E5
E1
E3
E6
E5
E2
E6
Esempio lancio di un dado
E1
Evento
Un evento è un insieme di eventi elementari.
Eventi elementari: E1, E2,...,
En
A={E2, E3, E4}
L’evento A si verifica quando
l’esito dell’esperimento è uno
degli eventi elementari che lo
costituiscono.
S
E7
E4
Evento impossibile
∅, l’evento impossibile, è
l’evento che non si verifica
mai
}= E3
B={numero di puntini pari}=
={E2, E4, E6}=
E1
E2
E3
E4
E5
E6
Evento certo
S, l’evento certo, è l’evento
che si verifica sempre
C={numero di puntini > 3}=
={E4, E5, E6}=
E1
E2
E3
E4
E5
E6
Elementi di Calcolo delle probabilità
Slide 3
Altre operazioni sugli eventi
Diagrammi di Venn
• Unione
• Intersezione
• Negazione
S
A
B
Unione di eventi
A∪B
Dati due eventi A e B appartenenti ad S, l’unione A∪B è
l’evento costituito da tutti gli
eventi elementari che appartengono o ad A o a B o ad entrambi.
L’evento A∪B si verifica
quando:
• Si verifica A ma non si verifica B
• Si verifica B ma non si verifica A
• Si verificano sia A che B
A
Esempio: Unione
Lancio di un dado
S={E1, E2, E3, E4, E5, E6}
Spazio
campione
A={numero di puntini pari} =
{E2, E4, E6}
B={numero di puntini > 3} =
{E4, E5, E6}
A∪B = {E2, E4, E5, E6}
S
B
A∪B
Elementi di Calcolo delle probabilità
Slide 4
Intersezione di eventi
Dati due eventi A e B appartenenti ad S, l’intersezione A∩B
è l’evento costituito da tutti gli
eventi elementari che appartengono sia ad A che a B.
L’intersezione A∩B si verifica quando si verificano sia A
che B.
A
S
A∩B
B
Lancio di un dado
S={E1, E2, E3, E4, E5, E6}
A={numero di puntini pari} =
{E2, E4, E6}
B={numero di puntini > 3} =
{E4, E5, E6}
A∩B = { E4, E6}
Esempio: Negazione
Negazione di un evento
Ā
Dato un evento A appartenente ad S l’insieme di tutti gli
eventi elementari che appartengono ad S ma non appartengono ad A costituiscono la
negazione di A.
La negazione di A si verifica
quando A non si verifica
S
A
Esempio: Intersezione
Partita di calcio
S={E1, E2, E3}
E1: vittoria
E2: pareggio
E3: sconfitta
A={vittoria}= E1
Ā={pareggio, sconfitta} =
={E2, E3}
S
E1=A
E2
Ā
E3
Elementi di Calcolo delle probabilità
Ā
Slide 5
Relazioni tra eventi
• Inclusione
• Incompatibilità
• Necessarietà
Inclusione
Dati due eventi A e B appartenenti ad S, A è incluso in B se
il verificarsi di A implica, necessariamente, il verificarsi di
B.
A⊆B
S
A
N.B.
A⊆B e A⊇B
Incompatibilità
Due eventi A e B appartenenti
ad S si dicono incompatibili
quando non hanno eventi elementari in comune
B
A=B
Necessarietà
Gli eventi A1, A2, ..., An
Appartenenti ad S si dicono
necessari se
A1∪A2∪... ∪An = S
A∩B=∅
S
A
B
N.B.
Due eventi incompatibili non
possono verificarsi contemporaneamente.
Elementi di Calcolo delle probabilità
Slide 6
Partizione
Leggi del De Morgan
Gli eventi
A∪B= A∩B
A1, A2, ..., An
Costituiscono una partizione se
S
A
• A1∪A2∪... ∪An = S
• Ai∩Aj=∅ ∀ i≠j
S
A1
A3
A∩B= A∪B
A5
A2
A6
B
A7
A4
Probabilità
• Definizione classica
• Definizione frequentista
• Definizione soggettivista
Impostazione assiomatica
A
S
B
Definizione classica di Probabilità
Dato un esperimento in cui
• Vi è un numero finito di risultati possibili
• Gli eventi elementari sono
equiprobabili
La probabilità è definita come
# casi favorevoli
# casi totali
Pascal (1623-1662)
Bernoulli (1713), De Moivre (1718), Laplace
(1812)
Elementi di Calcolo delle probabilità
Slide 7
Definizione frequentista di
Probabilità
Dato un esperimento perfettamente ripetibile ed un evento
possibile E, la probabilità di E
è data dal limite della frequenza relativa con cui si verifica E
al divergere del numero di ripetizioni dell’esperimento.
af
fr a E f
af
n→∞
af
nE
n→∞ n
P E = lim fr E = lim
Definizione soggettivista di
Probabilità
Dato un esperimento ed un
evento possibile E, la probabilità di E è il grado di fiducia
che un soggetto ha nel verificarsi dell'evento E.
È la somma che un individuo
è pronto a scommettere per ricevere una somma unitaria se
l’evento E si verifica 0 altrimenti.
Bernoulli (1713)
Anni 20: Ramsey, De Finetti, Savage
Laplace, Venn, Von Mises
(prima metà del XIX secolo)
Impostazione assiomatica
Kolmogorov 1930-40
La probabilità è una funzione
che soddisfa i postulati
Teoremi
1. P(Ā)=1-P(A)
2. P(∅)=0
3. P(A)≤1
4. P(A∪B)=P(A)+P(B)-P(A∩B)
Postulati
1. P(A)≥0
2. P(S)=1
3. A∩B=∅ ⇒ P(A∪B)=P(A)+P(B)
Elementi di Calcolo delle probabilità
A
S
B
Slide 8
Misura della Probabilità
E1, E2, ..., En
• Ei∩ Ej=∅ (incompatibili)
n
• ∪ Ei = S (necessarietà)
i =1
• P(Ei)=costante (equiprobabilità)
A={E1, E2, ..., Ek}
# casi favorevoli
PA =
# casi totali
af
af
PA =
a
k
n
f
P A∩B
Dati due eventi A e B, dalla
definizione di probabilità condizionata (dato P B > 0):
P A∩B
P AB =
PB
si ha:
P A∩B = P AB ⋅P B
o in alternativa (dato P A > 0 )
essendo:
P A∩B
P BA =
PA
si ha:
P A ∩ B = P BA ⋅ P A
af
b g aaff
a f b g af
af
a
f
b g af
a f b g af
Elementi di Calcolo delle probabilità
Probabilità condizionata
Dati due eventi A e B la probabilità condizionata di A dato
B è:
P A∩B
P AB =
PB
posto P B > 0
NB la probabilità condizionata
soddisfa i postulati:
Infatti posto P C > 0 risulta:
1. P A C ≥ 0
2. P S C = 1
3. A∩B=∅ ⇒
P A ∪ BC = P A C + P BC
e valgono quindi tutti i teoremi
b g aaff
af
b g
b g
b
af
g b g b g
Esempio: Probabilità condizionata
3
P( ) =
8
5
P( ) =
8
Estrazione senza rimessa:
2
P(II= | I = )=
7
P(II= | I = )=
5
7
Slide 9
Esempio:
Probabilità condizionata 2
Estrazione di
due palline
senza rimessa
2 3
)=P(II= | I = )·P(I= )= ⋅
7 8
4 5
P( )=P(II= | I = )·P(I= )= ⋅
7 8
P( )=
=P[(I= ∩II= )∪(I= ∩II= )]=
=P(I= ∩II= )+P(I= ∩II= )=
5 3 3 5
= ⋅ + ⋅
8 7 8 7
P(
Eventi indipendenti
Due eventi A e B sono indipendenti se (posto P B > 0)
P AB = P A
l’indipendenza è una relazione
simmetrica (posti P B , P A > 0 ):
P A B = P A ⇔ P BA = P B
af
b g af
af af
b g af b g af
Se (e solo se) due eventi sono
indipendenti si ha:
P A∩B = P A ⋅P B
a
f af af
Elementi di Calcolo delle probabilità
Esempio:
Probabilità condizionata 3
3
P( ) =
8
5
P( ) =
8
Estrazione senza rimessa
2
P(II= | I = )=
7
3
P(II= | I = )=
7
P(II= )=
=P[(I= ∩II= )∪(I= ∩II= )]=
=P(I= ∩II= )+P(I= ∩II= )=
=P(II= | I = )·P(I= )+
+P(II= | I = )·P(I= )+=
2 3 3 5 21 3
= ⋅ + ⋅ =
=
7 8 7 8 56 8
Esempio: eventi indipendenti
Estrazione
con rimessa
P( )=P(I= )·P(II=
P( )=P(I= )·P(II=
P( )=
=P[(I= ∩II= )∪(I=
=P(I= ∩II= )+P(I=
5 3 3 5
= ⋅ + ⋅
8 8 8 8
)=3/8⋅3/8
)=5/8⋅5/8
∩II= )]=
∩II= )=
Slide 10
Teorema
Dati due eventi A e B si ha:
A e B indipendenti
A e B indipendenti
A e B indipendenti
A e B indipendenti
Domanda
Eventi incompatibili (con probabilità non nulla) possono essere indipendenti? NO
P(A∩B)=P(∅)=0
Incompatibilità
a
f
b g af
P A∩B
=0
PB
Che può essere uguale a P(A)
solo se P(A)=0
P AB =
Teorema di Bayes
Problema
Diretto
Teorema di Bayes
???
H0
Problema
inverso
H1
C
• H0∩H1=∅ (incompatibili)
• H0∪H1=S (necessari)
H0
P(H0)
P( |H0)
P(H0| )=?
???
H1
P(H1)
P( |H1)
P(H1| )=?
Elementi di Calcolo delle probabilità
Probabilità note:
P(H0) e P(H1)
← a priori
P(C|H0) e P(C|H1) ← probative
Probabilità da determinare:
P(H0|C) e P(H1|C) ← a posteriori
Slide 11
Formula di Bayes
P H0 C =
b
Rapporto di probabilità a
posteriori
g
a f b g
Pb H Cg Pa H f Pb C H g
a f b g a f b g P b H Cg = P a H f ⋅ P b C H g
P b H Cg =
Rapporto di
verosimiglianza
Pa H f ⋅ Pb C H g
=
Pa H f ⋅ Pb C H g + Pa H f ⋅ Pb C H g
N.B.: Pb H Cg + Pb H Cg = 1
=
P H0 ⋅ P C H0
P H 0 ⋅ P C H 0 + P H1 ⋅ P C H1
0
0
0
1
1
1
1
1
0
0
0
1
1
1
1
Variabili casuali
Una variabile casuale è una
funzione definita sullo spazio
campione che assume valori in
R:
E1
E3
E2
E4
x1 x2 x3
Esempio: lancio di un dado
E1
E2
E3
E4
E5
E6
R
X(E)=numero di puntini
R
X(E): S→R
• X(E) non è necessariamente
una funzione biunivoca
• Variabili casuali bivariate
Elementi di Calcolo delle probabilità
E1
E2
E3
E4
E5
E6
0
1
R
0: numero di puntini dispari
R
a f ST1: numero di puntini pari
X E =
Slide 12
Tipi di variabili casuali
Discrete
Una variabile casuale X è discreta se assume valori in un
insieme discreto (finito o infinito numerabile).
Es. Numero di goal, numero di
incidenti, numero di promossi
etc..
Continue
Una variabile casuale è continua
se assume valori in un insieme
continuo (con la potenza del continuo).
Variabili casuali discrete
X: x1, x2, .. .., xk.
p(x1), p(x2), ..,p(xk).
p(xi)=P(X=xi) i=1,2,...,k
1)
2)
a f
∑ pa x f = 1
p xi ≥ 0
∀i
k
i =1
i
X P(X=xi)
x1 p(x1)
x2 p(x2)
P(X=xi)
p(x2)
Es. Durata, peso, altezza, reddito,
etc..
p(x1)
xk
p(xk)
Es. Lancio del dado
X={1,2,3,4,5,6}
x1 x2
Variabili casuali continue
P(X=x)=1/6
funzione
densità di
probabilità
x=1,2,3,4,5,6
P(X=x)
xk
f(x)
x x+dx
P(x≤X≤ x+dx)=f(x)⋅dx
1/6
123456
x
Proprietà:
1)
2)
Elementi di Calcolo delle probabilità
af
f x ≥0
∀x
∞
−∞ f x ⋅ dx = 1
z af
Slide 13
x
Funzione densità di probabilità
Funzione di ripartizione
F(x)= P(X≤ x)
Variabili casuali discrete
f(x)
af
a f
F x = ∑ p xi
a
Variabili casuali continue
x
b
xi ≤ x
P(a≤X≤ b)=Area tratteggiata =
= ab f x ⋅ dx
z af
a f z f auf ⋅ du
x
F x =
−∞
f(x)
N.B. P(X=x) = 0
x
x
Funzione di ripartizione
per v.c. continue
Funzione di ripartizione
per v.c. discrete
1
F(x)
F(x)
1
F(xj+2)
F(xj)
0
0 xj xj+1 xj+2
x
x
F a x f = z f auf ⋅ du
af a f
F a x f = pa x f
d F a xf
da
cui:
f
x
=
a
f
F a x f = pa x f + pa x f
dx
F a x f = pa x f + pa x f+...+ pa x f = 1
x
F x = ∑ p xi
−∞
xi ≤ x
1
1
2
1
2
k
1
2
k
Elementi di Calcolo delle probabilità
Slide 14
Proprietà
della Funzione di ripartizione
af
lim F a x f = 0
F a x f è non decrescente
F a x f è continua a destra
RS lim F a xf − F a x − hf = pa xfUV
T
W
lim F x = 1
x→∞
x→−∞
v.c. identicamente distribuite
Due v.c. X ed Y, che hanno la stessa
distribuzione si dicono identicamente distribuite.
af
af
X e Y i.d. ⇔ FX u = FY u
Come si confrontano v.c. non identicamente distribuite?
Momenti
h→ 0+
Operatore valore atteso
Valore atteso di v.c.
k
Il valore atteso di una v.c. X si indi∑ g xi ⋅ p xi v.c.discrete
ca con E(X) ed è dato da:
i =1
E g x =
a f
R| a f a f
af S
|T z ga xf ⋅ f a xf ⋅ dx v.c.continue
∞
a f
E X = ∑ik=1 xi ⋅ p xi
per v.c. discrete
a f z
−∞
• uguale notazione per v.c. discrete e continue
• operatore lineare
E a⋅ X +b = a⋅E X +b
af
∞
E X = −∞
x ⋅ f x ⋅ dx
per v.c. continue
a
f
a f
f(x)
E(X)
x
Elementi di Calcolo delle probabilità
Slide 15
Momenti di una v.c.
Momento r-esimo della v.c. X:
µr = E X r
d i
R| ∑ x ⋅ pa x f v.c.discrete
=S
|T z x ⋅ f a xf ⋅ dx v.c.continue
k
µr
r
i
i =1
∞
r
Momenti di una X-µ
Variabile casuale scarto X-µ
• E X − µ = E X − µ =0
a
f a f
i
fX(u)
fX-µ(u)
−∞
a f
d i
0
µ1 = E X
µ2 = E X 2
momento r-esimo di X-µ
r
µr = E X − µ
0.5
0.5
Mediana
•
me: F(me)=1/2
Moda
moda
2
i =1
∞
−∞
2
2
i
2
3
Proprietà della varianza
• Var X = µ 2 − µ 2
• Var a ⋅ X + b = a 2 ⋅ Var X
• Disuguaglianza di Chebyshev
a f
a f
a f =σ
a
f
R| ∑ a x − µ f ⋅ pa x f v.c.dis.
=S
|T z a x − µ f ⋅ f a xf ⋅ dx v.c.cont. Pb X − µ ≤ ε g ≥ 1 − σε
k
2
µ3
a f
= Ea X − µf = 0
= E a X − µf = σ
= E a X − µf
x
Varianza
Var X = µ 2 = E X − µ
σ
µ1
µ2
x
me
•
E(X)= u
i
2
2
f(x)
x
E(X)
Scarto quadratico medio:
σ = Var X
a f
Elementi di Calcolo delle probabilità
a f
2
2
f(x)
µ-ε µ µ+ε
x
Slide 16
v.c. standardizzata
Z=
X −µ
σ
Momenti della v.c. standardizzata
r
X −µ
r
µr = E Z = E
a f FH X σ− µ IK = σ1 ⋅ E a X − µ f =
•
1
= ⋅ Ea X f − µ = 0
•
σ
E Z =E
LF X − µ I OP =
Var Z = E M
NH σ K Q
σ
1
=
⋅ E a X − µf =
=1
σ
σ
2
2
2
•
µ1
µ2
µ3
O
L
F
I
d i MNH σ K PQ
= E aZ f = 0
= E d Z i = Var a Z f = 1
L
X − µI O
F
= EM
HN σ K PQ=β
2
3
1
asimmetria
2
2
µ3 < 0
µ3 = 0
µ3 > 0
γ 2 = µ 4 − 3 → curtosi
Elementi di Calcolo delle probabilità
Slide 17
v.c. doppie
Una variabile casuale doppia è una
funzione (...) definita sullo spazio
campione che associa ad ogni evento
una coppia di valori reali (X, Y)
y
x1
x2
x
xk
Pk 1 Pk 2 ⋅⋅⋅ Pkh
P•1 P•2 ⋅⋅⋅ P• h
P11 P12 ⋅⋅⋅ P1h
P21 P22 ⋅⋅⋅ P2 h
P1•
P2•
xk
Pk 1 Pk 2 ⋅⋅⋅ Pkh
P•1 P•2 ⋅⋅⋅ P• h
Pk •
a
f c
Pij = P X = xi ∩ Y = y j
h
h
2) ∑ ∑ Pij = 1
i =1 j =1
Distribuzioni condizionate
d
i
P a X = x f ∩ cY = y h
P
=
=
P
PcY = y h
P X = xi Y = y j =
P1•
P2•
i
j
Pk •
i
ij
•j
j
a f c h
P = Pa X = x f =
= ∑ P a X = x f ∩ cY = y h = ∑ P
c
h
P cY = y h ∩ a X = x f
P
=
=
Pa X = x f
P
P Y = y j X = xi =
j
i
i
ij
i•
h
h
j =1
y1 y2 ⋅⋅⋅ yh
x1
x2
k
Pij = P X = xi ∩ Y = y j
i•
Y: y1, y2,..., yh
1) Pij ≥ 0
y1 y2 ⋅⋅⋅ yh
P11 P12 ⋅⋅⋅ P1h
P21 P22 ⋅⋅⋅ P2 h
Y
X
• Distribuzione congiunta
• Distribuzione marginale
• Distribuzione condizionata
→Discrete/continue
Distribuzioni marginali
X
X: x1, x2, .., xk
altezza
peso
Y
v.c. doppie discrete
Distribuzioni marginali
i
j
j =1
Elementi di Calcolo delle probabilità
ij
Slide 18
Indipendenza stocastica
Variabili casuali doppie continue
i a
h c
d
c
f
h
P X = xi Y = y j = P X = xi = Pi • Funzione
densità di
P Y = y j X = xi = P Y = y j = P• j probabilità
congiunta.
a
f c h
= Pa X = x f ⋅ PcY = y h
P X = xi ∩ Y = y j =
i
j
Pij = Pi• ⋅ P• j
∀ i=1,2,..., k
j=1,2, ...,h
Indipendenza stocastica
v.c. doppie
f(x,y)
1) f(x,y)≥0
2)
z z f a x, yf ⋅ dx ⋅ dy = 1
+∞ +∞
−∞ −∞
a f z f a x, yf ⋅ dy
f a y f = z f a x , y f ⋅ dx
Funzioni
densità di
probabilità
marginali
fX x =
Y
Momenti
v.c. doppie
−∞
+∞
−∞
µr,s momento misto
di ordine r+s
d
µ r ,s = E X r ⋅ Y s
X ed Y
indipendenti
+∞
i
v.c. discrete
k
h
µ r , s = ∑ ∑ xir ⋅ y sj ⋅ Pij
i = 1 j =1
v.c. continue
µ r ,s =
f(x,y)= fX(x) fY(y)
z z x ⋅ y ⋅ f a x, yf ⋅ dx ⋅ dy
+∞ +∞
r
s
−∞ −∞
Momenti marginali
µ r ,0 = E X r ⋅ Y 0 = E X r = µ r •
µ 0,s
Elementi di Calcolo delle probabilità
d
= Ed X
0
i d i
⋅ Y i = E dY i = µ
s
s
•s
Slide 19
Valore atteso→Operatore Lineare
Momenti in caso di indipendenza
d
i
a
µ r , s = E X r ⋅ Y s = ∑ ∑ xir ⋅ y sj ⋅ Pij =
k
af
Dimostrazione
= ∑ ∑ xir ⋅ y sj ⋅ Pi • ⋅ P• j =
=
a f
i = 1 j =1
h
i = 1 j =1
h
k
r
s
∑ xi ⋅ Pi • ∑ y j
i =1
j =1
r
s
f
= E a ⋅ X + b ⋅Y = a ⋅ E X + b ⋅ E Y
h
k
a
f
E a ⋅ X + b ⋅Y =
⋅ P• j =
k
h
c
h
= ∑ ∑ a ⋅ xi + b ⋅ y j ⋅ Pij =
d i ⋅ E dY i =
i =1 j =1
=E X
= µ r• ⋅ µ•s
k
h
k
h
= ∑ ∑ a ⋅ xi ⋅ Pij + ∑ ∑ b ⋅ y j ⋅ Pij =
i =1 j =1
i =1 j =1
k
h
h
k
i =1
j =1
j =1
i =1
= a ⋅ ∑ xi ∑ Pij ⋅ +b ⋅ ∑ y j ∑ Pij =
k
h
i =1
j =1
= a ⋅ ∑ xi Pi • ⋅ +b ⋅ ∑ y j P• j =
a f
af
= a⋅ E X +b⋅ E Y
Covarianza
Cov X , Y = E X − µ X ⋅ Y − µ Y
a f
a
fa
Coefficiente di correlazione
=
X − µX
Y − µY
f
a f LMFGH
N
ρ X ,Y = E
= σ XY
a
µ XY = E X ⋅ Y
σ XY = µ XY − µ X ⋅ µ Y
f
X ed Y ind. ⇒σ XY = 0
a
σY
σ XY
σ X ⋅σ Y
IJ OP =
KQ
a f
ρ X , Y è un indice che misura
l’intensità del legame lineare
f
Cov a ⋅ X + b, c ⋅ Y + d = a ⋅ c ⋅ σ X Y
Diseguaglianza di Cauchy-Schwaz:
σ XY ≤ σ X ⋅ σ Y
σ 2X = Var X
2
σ XY rivela se esiste σ Y
il segno del legame
lineare
=
σX
IJ ⋅ FG
KH
a f
= Var aY f
ρ=0,7
ρ=1
ρ=0
ρ=-0,8
È un indice di prevedibilità
Elementi di Calcolo delle probabilità
Slide 20
Varianza di a⋅X+b⋅Y
Proprietà ρ(X,Y)
a f
a f
a f a f
a
f a f
a f
1) ρ X , Y ≤ 1
2) ρ X , Y = ±1 ⇒ Y = a ⋅ X + b
3) ρ X , Y = ρ Y , X
4) ρ a ⋅ X + b, c ⋅ Y + d = ρ X , Y
5) X ed Y ind. ⇒ ρ X , Y = 0
a
a f
⋅ Var aY f + 2 ⋅ a ⋅ b ⋅ Cova X , Y f
f
Var a ⋅ X + b ⋅ Y = a 2 ⋅ Var X +
+b 2
X ed Y ind
⇓
Var a ⋅ X + b ⋅ Y = a 2 ⋅ Var X +
a
f
+b 2
a f
⋅ Var aY f
Combinazioni lineari
Combinazioni lineari
a⋅X+b⋅Y
W=a1⋅X1+a2⋅X2+...+anXn
a
a
f
E a ⋅ X + b ⋅ Y = a ⋅ µ X + b ⋅ µY
f
Var a ⋅ X + b ⋅ Y = a
2
⋅ σ 2X
+b
2
⋅ σ Y2
+
a f
+2 ⋅ a ⋅ b ⋅ σ XY
X+Y
a
f
E X + Y = µ X + µY
a
f
Var X + Y = σ 2X + σ Y2 +
+2 ⋅ σ XY
X-Y
a
f
E X − Y = µ X − µY
a
f
Var X − Y =
σ 2X
+ σ Y2
a f
n
n
E W = ∑ ai ⋅ E X i = ∑ ai ⋅ µ X i
a f
i =1
F
H
i =1
I
K
n
a f
µ Xi = E Xi
Var W = Var ∑ ai ⋅ X i =
n
i =1
n
= ∑ ai2 ⋅ σ 2X i + ∑ ∑ ai ⋅ a j ⋅ σ X i X j
i =1
+
−2 ⋅ σ XY
i =1 j ≠ i
a f
= Covc X , X h
σ 2X i = Var X i
σ Xi X j
i
j
Se le Xi sono indipendenti
Var aW f = Var F ∑ a ⋅ X I = ∑ a
H
K
n
i =1
Elementi di Calcolo delle probabilità
n
i
i
i =1
2
i
⋅ σ 2X i
Slide 21
Variabile casuale Normale
X ~ N µ ,σ 2
d i
1
f d x; µ , σ i =
e
2 ⋅π ⋅σ
2
F
H
v.c. Normale
I
K
1 x−µ 2
−
2 σ
µ−3σ
µ+3σ
99.7%
µ−2σ
µ+2σ
95.46%
µ−σ 68.26% µ+σ
−∞ < X < +∞
µ = E X , − ∞ < µ < +∞
σ 2 = Var X , 0 < σ 2 < +∞
Simmetrica
µ3 = 0
Unimodale
a f
a f
µ
µ=mediana
µ=moda
x
µ 4 = 3 ⇒ curtosi µ 4 − 3 = 0
v.c. Normale Standard
Z ~ N 0,1
a f
af
Aree Z~N(0,1)
a
f af
a
f
a
f bg
P Z≤z =Φ z
1
− z2
1
φ z =
e 2
2 ⋅π
af z af
z
z
af
P Z > z = 1− Φ z
Φ z = φ x ⋅ dx
z
−∞
af a
f
Φ z = P Z ≤ z ⇒ Tavole
P Z>z =Φ z
z2
af
−
1
φ z =
e 2
2 ⋅π
z
Z<0
a
f
bg
P Z ≤ z = 1− Φ z
z
Z<0
0
z
Elementi di Calcolo delle probabilità
a
f
P z1 < Z ≤ z2 =
a f af
= Φ z2 − Φ z1
z1
z2
Slide 22
Teorema
Uso tavole
Sia X ~ N µ X ,σ 2X
X ~ N µ X ,σ 2X
una v.c. Y trasformazione lineare di X:
P X ≤x
Y = a⋅ X +b
è ancora una v.c. Normale di parametri
µ Y = a ⋅ µ X + b; σ Y2 = a 2 ⋅ σ 2X
Y ~ N a ⋅ µ X + b, a 2 ⋅ σ 2X
0
x
Nota
P X ≤ x = P X −µ≤ x−µ =
X −µ 1
µ
= X−
X −µ x−µ
x−µ
d
i
d
d
Z=
σ
σ
d
X ~ N µ X ,σ 2X
X −µ
σ
a f
a f=?
i
a
σ
i
Fµ
~ NG
Hσ
⇓
X
f a
F ≤
H σ
F x − µI
=Φ
H σ K
=P
i
IJ
K
µ X σ 2X
−
,
=
σ σ 2X
f
I = PF Z ≤
K H
σ
σ
I ==
K
= N 0,1
Proprietà riproduttiva della
Normale
⇒ X ~ N µ X ,σ 2X
d
i
⇒Y ~ N d µ , σ i
Y
2
Y
X ed Y indipendenti
W=a⋅X+b⋅Y
2
⇒W ~ N µ W ,σ W
d
i
µW = a ⋅ µ X + b ⋅ µ Y
σ W2 = a 2 ⋅ σ 2X + b2 ⋅ σ Y2
Esempio: Proprietà riproduttiva
⇒ X ~ N µ X ,σ 2X
d
i
⇒Y ~ N d µ , σ i
X ed Y indipendenti
d
X + Y ~ N µ X + µ Y ,σ 2X + σ Y2
Generalizzazione
Date le v.c. X1, X2,⋅⋅⋅⋅⋅,Xn dove
X i ~ N µ , σ 2 ∀i
se tali v.c. sono indipendenti
d
n
i
d
2
∑ Xi ~ N n ⋅ µ X , n ⋅ σ X
i =1
Elementi di Calcolo delle probabilità
2
Y
Y
i
Slide 23
i
v.c. Indicatore/Bernulliana
Esperimento con
risultato
dicotomico
v.c. Indicatore/Bernulliana
a f
X
0
1
X ~ B 1, p
F(x)
P(X)
1-p=q
p
1
a f RST10 ↔↔ SI
v.c. Bernoulliana
X ~ Ba1, pf
1-p
X=I S =
X
0
1
P(X)
1-p=q
p
p=P(S)
q=P(I)
0
1
x
a f a f
E d X i = 0 ⋅ a1 − pf + 1 ⋅ p = p
Var a X f = E d X i − E a X f =
= p − p = p ⋅ a1 − pf
µ = E X = 0 ⋅ 1 − p + 1⋅ p = p
2
2
2
2
2
2
v.c. Binomiale
1)
2)
3)
v.c. Binomiale B(n,p)
X=0,1,....,n
n x
P X=x =
p ⋅ 1− p
x
Y1 , Y2 ,....., Yn indipendenti
n prove indipendenti
risultato dicotomico
probabilità p costante
X: numero di successi (in n prove)
X ~ B n, p
a xf
SSSSS
px
n− x
IIIIIIII
a1 − pf
F nI
Pa X = x f = G J p ⋅ a1 − pf
H xK
n− x
x
f FGH IJK a f
a
n− x
X = ∑Y
a f
E a X f = E aY + Y +.....+Y f =
= E aY f + E aY f+...+ E aY f = n ⋅ p
n
Yi = B 1, p
i =1
1
1
a f
2
2
i
n
n
a
f
= Var aY f+...+Var aY f =
= n ⋅ p ⋅ a1 − pf
Var X = Var Y1 + Y2 +.....+Yn =
n− x
Elementi di Calcolo delle probabilità
1
n
Slide 24
v.c. Poisson
X ~ P(µ )
X intero
0 ≤ X < +∞
X=0,1,2,3...
P( X ) =
µx
x!
e− µ
µ=0,5
µ=1
0 1 2 3 4
0 1 2 3 4
µ=4
0 1 2 3 4 5 6 7 8
E ( X ) = Var ( X ) = µ
v.c. Esponenziale Negativa
X ~ Exp λ
• X ≥0
• f x; λ = λ ⋅ e − λ ⋅ x λ > 0
af
a f
f a x; λ f
λ
x
af
af λ
1
⇒Var a x f =
λ
• F x = 1 − e− λ ⋅x
1
• E x =
2
Elementi di Calcolo delle probabilità
Processo di Poisson
Processo di conteggio
• Le v.c. che contano il numero di
eventi in intervalli disgiunti sono
indipendenti
• La probabilità che si verifichi un
evento in un intervallo piccolo è
proporzionale all’ampiezza
dell’intervallo
• La probabilità che si verifichi più
di un evento in un intervallo piccolo è trascurabile
X →numero di eventi in (0,t)
X ~ P ( µ ) con µ=λ⋅t
µ= numero medio di eventi in (0,t)
λ= numero medio di eventi in un ∆t
unitario
Momenti della media
X1, X2,⋅⋅⋅⋅⋅,Xn
Indipendenti
• E Xi = µ
• Var X i = σ 2 < +∞
a f
a f
Xn =
1 n
∑ Xi
n i =1
⇒E( Xn ) = µ
⇒Var ( X n ) =
σ2
n
Slide 25
Momenti della media
1 n
X n = ∑ Xi =
n i =1
1
1
1
= X 1 + X 2 +.....+ X n
n
n
n
a f
b g
Teorema del limite centrale
X1, X2,⋅⋅⋅⋅ ,Xn
• Indipendenti
• E X i = µ ∀i
• Var X i = σ 2 < +∞ ∀i
a f
a f
a f
1
1
E X 1 +.....+ E X n =
n
n
1
1
1
= µ +.....+ µ = ⋅ n ⋅ µ = µ
n
n
n
E Xn =
a f
b g
a f
1
1
Var X 1 +.....+ 2 Var X n =
2
n
n
σ2
1 2
1 2 1
2
= 2 σ +.....+ 2 σ = 2 ⋅ n ⋅ σ =
n
n
n
n
Var X n =
1 n
def. X n = ∑ X i
n i =1
b g
σ
Var b X g =
n
E Xn = µ
2
n
Xn − µ
Zn =
σ n
⇓
Zn
~ N ( 0,1)
n→∞
Teorema di De Moivre Laplace
X ~ B ( n, p )
a f
Var a X f = n ⋅ p ⋅ a1 − pf
E X = n⋅ p
Zn =
X − n⋅ p
n ⋅ p ⋅ (1 − p )
⇓
~ a f
Zn n→∞N 0,1
Elementi di Calcolo delle probabilità
Slide 26
Fly UP