...

Certo anzi probabile - power point

by user

on
Category: Documents
16

views

Report

Comments

Transcript

Certo anzi probabile - power point
certo…anzi probabile
Atto di nascita: 1733
0.14
fu introdotta nella teoria
della probabilità da
Abraham De Moivre
come approssimazione
della distribuzione
binomiale
curva di Gauss
0.12
0.1
0.08
0.06
y
0.04
0.02
-10
-9.25
-8.5
-7.75
-7
-6.25
-5.5
-4.75
-4
-3.25
-2.5
-1.75
-1
-0.25
0.5
1.25
2
2.75
3.5
4.25
5
5.75
6.5
7.25
8
8.75
9.5
0
media µ
Distribuzione binomiale
Sia dato un evento E di probabilità p(E)=0,47 si fanno 10 prove e si calcola la
probabilità che l’evento E si verifiche 0 volte, 1 volta, 2 volte, ….10 volte
n. successi
probabilità
0.3
0
0,001748875
0.25
1
0,015508889
2
0,061889245
3
0,146354442
0.15
4
0,227125525
0.1
5
0,241695842
6
0,178611707
7
0,090509436
8
0,030098657
9
0,005931392
10
0,000525991
0.2
Series1
0.05
0
1
2
3
4
5
6
7
8
9
10
11
P(E) = 0,47
n= numero delle prove = 20
0.2
n. successi
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
probabilità
3,05856E-06
5,42462E-05
0,000456999
0,002431578
0,009164296
0,026005852
0,057654484
0,102255123
0,147353491
0,174229284
0,169955736
0,137014058
0,091127275
0,049729833
0,02205002
0,007821517
0,002167519
0,000452268
6,68447E-05
6,23972E-06
2,76667E-07
0.18
0.16
0.14
0.12
0.1
Series1
0.08
0.06
0.04
0.02
0
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20 21
n. successi
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
probabilità
1,63604E-14
7,25413E-13
1,57606E-11
2,23623E-10
2,3301E-09
1,90101E-08
1,26435E-07
7,04766E-07
3,35927E-06
1,39019E-05
5,05452E-05
0,000162993
0,000469759
0,001217691
0,00285386
0,006073876
0,01178246
0,020897193
0,033974367
0,050742252
0,069746662
0,088358305
0,103286766
0,111505648
0,111242663
0,10259512
26
0,087481325
27
0,068958026
28
0,050231554
29
0,03379273
30
0,020976997
31
0,012001447
32
0,006319158
33
0,003056608
34
0,001355289
35
0,000549422
36
0,00020301
37
6,81184E-05
38
2,06655E-05
39
5,63878E-06
40
1,37512E-06
41
2,97425E-07
42
5,65188E-08
43
9,32474E-09
44
1,31554E-09
45
1,55548E-10
46
1,49934E-11
47
1,13157E-12
48
6,2717E-14
49
2,27008E-15
50
4,02618E-17
0.12
0.1
0.08
0.06
Series1
0.04
0.02
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51
La curva fu poi ripresa in un
ambito matematico diverso da
Carl Friedrich Gauss (17771855) tanto che oggi è ricordata
come curva di Gauss o curva
degli errori. Gauss la descrisse
come distribuzione delle misure
atte a determinare la posizione
degli astri.
0.14
0.12
Riportiamo sull’asse
orizzontale le misure di
una certa grandezza fatte
con uno strumento di
precisione e sull’asse
verticale la frequenza con
cui si sono verificate
queste misure.
0.1
0.08
Series1
0.06
0.04
0.02
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79
Media = valore della misura
Quello che è eccezionale è che la
curva gi Gauss caratterizza anche la
distribuzione delle principali
grandezze antropometriche di una
popolazione di individui, come il
peso, l’altezza ecc…
In questo grafico ad esempio in ascissa sono riportati i pesi di 4.017.264
bambini nati da gravidanze singole nel 1991 negli Stati Uniti e in ordinate
il numero dei neonati aventi un determinato peso. Le informazioni sono
state raccolte utilizzando i certificati di nascita. Il valore del peso centrale
che è la moda è anche la media dei pesi.
Uno dei primi che nei suoi lavori fece grande uso della curva di
Gauss fu Adolphe Quételet che è ritenuto uno dei padri della statistica
sociale.
La statistica nasce attorno alla seconda metà del Seicento con il nome
di ARITMETICA SOCIALE o CALCOLO SOCIALE o SCIENZA
NUMERICA DELLA SOCIETA’ e DEGLI STATI. Si studiavano mediante
indagini statistiche eventi naturali come le nascite , le morti, ma anche
gli atti volontari come i matrimoni, i crimini e i suicidi. Tutto ciò per la
promozione di una politica statale più informata e quindi più efficace. Di
qui probabilmente il nome di Statistica, i suoi praticanti furono chiamati
“statisti” e verso la fine del XIX secolo “statistici”.
La Statistica si sviluppa poi in modo particolare nel corso dell’Ottocento
appunto con Quételet.
Ma le basi della statistica matematica moderna furono poste tra il 1890
e il 1930. Fra i fondatori della moderna statistica matematica
ricordiamo Pearson, Spearman, Yule, Gosset, Fisher.
Adolphe Quételet (Gand 1796- Bruxelles 1874)
Astronomo, matematico interlocutore di
matematici illustri come Fourier, Poisson,
Laplace, è indubbiamente la figura più
importante nello sviluppo della statistica
scientifica.
Cerca di portare in Statistica il rigore dei
metodi usati in astronomia e l’impiego
sistematico della matematica. Nel 1834
fonda la Statistical Society di Londra.
Per Quételet la matematica avrebbe dato
un ordine all’apparente caos sociale, nel
senso che – pensava - in campo sociale
esistono delle leggi come nel mondo
naturale che possono essere scoperte con
la statistica. Per lui la statistica divenne
una Physique sociale.
Ad esempio Quételet si occupò di eventi come il
crimine e il suicidio e scoprì che l’attività criminale
variava di poco di anno in anno. E a proposito di tale
regolarità Quételet osservava: “ essa ci insegna che l’azione
dell’uomo è limitata in tale ambito e che le grandi leggi della
natura sono per sempre al di fuori della sua influenza; essa
dimostra inoltre che nel mondo morale possono esistere delle
leggi di conservazione allo stesso modo in cui si trovano nel
mondo fisico”.
Sulla base delle leggi sociali scoperte la società era vista
come un’entità a se stante, indipendente dai capricci e dalle
idiosincrasie degli individui che la costituiscono. Ci sono delle
leggi sociali ineluttabili per quanto possa sembrare diverso
ed irrazionale il comportamento dei singoli uomini. C’è una
regolarità collettiva.
Questa visione della ineluttabilità delle leggi sociali
diventa visione filosofica e in campo politico
costituisce anche il fondamento della politica liberale
del laissez faire: dato che la società era governata da leggi
statistiche il suo governo si doveva limitare ad un ruolo
ancillare, lo Stato doveva solo favorire e assecondare la
naturale evoluzione sociale.
“L’uomo può essere considerato un enigma solo come
individuo, come massa è un problema matematico”.
L’ homme moyen
Nell’ultimo periodo del suo lavoro Quételet elabora il concetto di homme
moyen. Questo essere astratto definito nei termini della media di tutte le
sue qualità umane in un determinato paese costituiva il “tipo” nazionale
rappresentativo della società nella scienza sociale analogo al baricentro
in fisica. I calcoli relativi a l’homme moyen physique non poneva
particolari problemi in quanto si trattava di misurare le altezze, i pesi, le
dimensione delle membra e dei vari organi e di farne poi la media.
Maggiori ostacoli presentava invece la definizione dell’ homme moyen
moral perché non si poteva misurare il coraggio, la criminalità e i buoni
sentimenti. Lo stesso risultato si poteva ottenere registrando gli atti
coraggiosi o criminali dell’intera società e quindi si poteva attribuire
all’uomo medio una tendenza al crimine equale al numero dei delitti
commessi diviso il numero della popolazione. In questo modo un insieme
di atti separati commessi dai singoli individui veniva trasformato in una
grandezza costante, la propensione che era attribuita all’uomo medio.
Per determinare le caratteristiche dell’uomo medio Quételet
fece una serie di esperimenti in cui usò la curva a campana
di Gauss. Infatti dimostrò che i caratteri antropometrici
come il peso, l’altezza, la lunghezza degli arti ecc.. Hanno
una distribuzione gaussiana
Quételet misurò le circonferenza toraciche di 5738
soldati scozzesi e le raggruppò in intervalli di ampiezza un
pollice,ottenendo sedici gruppi. Quételet osservò che la
distribuzione delle frequenze approssimava la distribuzione
gaussiana.
Quételet concluse che se le misurazioni delle circonferenze
toraciche si comportavano nel modo indicato dalla teoria
degli errori di Gauss, allora le misure delle circonferenze
toraciche dei soldati potevano essere interpretate come
repliche sottoposte a errori di misurazioni della misura
toracica dell’uomo medio.
La stessa cosa vale per il peso, l’altezza ecc..
variabile di Gauss
0.14
0.12
In ordinata y: i valori
della densità di
probabilità della x
0.1
0.08
0.06
y
0.04
0.02
deviazione
standard
σ
0
-10
-9.25
-8.5
-7.75
-7
-6.25
-5.5
-4.75
-4
-3.25
-2.5
-1.75
-1
-0.25
0.5
1.25
2
2.75
3.5
4.25
5
5.75
6.5
7.25
8
8.75
9.5
y
In ascissa x: valori di
una variabile
x
0.45
µ= media
0.4
0.35
0.3
I valori di µ e di
σ individuano
perfettamente la
curva
0.25
0.2
0.15
dev.st.=1
dev.st.=2
dev.st=3
0.1
0.05
0
1 6 111621263136414651566166717681
h= densità di
probabilità
probabilità
∆x= 10
Statura
(cm)
frequenza Frequenza
Relativa
(probabilità p)
(140-150]
5
0,05
(150-160]
9
0,09
(160-170]
20
0,20
(170-180]
32
0,32
(180-190]
20
0,20
(190-200]
9
0,09
(200-210]
5
0,05
100
1,00
totale
Le probabilità p sono le aree dei
rettangoli, le altezze h dei rettangoli sono
le densità di probabilità: h ∆x= area=p
Al tendere a 0 di ∆x
l’istogramma diventa la curva a
campana che ha quindi in
ascissa x i valori delle altezze e
in ordinate y i valori della
densità di probabilità.
Probabilità di trovare
individui di altezza
compresa fra x1 e x2
y
x
x1
x2
variabile di Gauss
0.14
0.12
In ordinata y: i valori
della densità di
probabilità della x
0.1
0.08
0.06
y
0.04
0.02
σ
0
-10
-9.25
-8.5
-7.75
-7
-6.25
-5.5
-4.75
-4
-3.25
-2.5
-1.75
-1
-0.25
0.5
1.25
2
2.75
3.5
4.25
5
5.75
6.5
7.25
8
8.75
9.5
y
In ascissa x: valori di
una variabile
x
0.45
µ= media
0.4
0.35
0.3
0.25
0.2
0.15
dev.st.=1
dev.st.=2
dev.st=3
0.1
0.05
0
1 6 111621263136414651566166717681
Il problema della stima della media o di una
proporzione di una popolazione
- Indagine completa
- Indagine campionaria: la inferenza statistica
-Teorema del limite centrale: sia data una popolazione la
cui media sia µ (e la cui proporzione sia P). Estraiamo da
essa tutti i possibili campioni di dimensione n (grandi
campioni con n≥30) e di ogni campione calcoliamo la media
m (o la frequenza f). Otteniamo una distribuzione di medie
campionarie (o di proporzioni campionarie).
-Esempio se la popolazione ha dimensione N=10 e n= 2
allora i campioni sono 45
-Se N = 100 e n= 10 allora i campioni sono 1,73103 1013
Sia la popolazione costituita da 4 elementi a, b, c, d
Tutti i possibili campioni di dimensione 2 sarebbe costituito da:
a, b
a, c
a, c
b, c
b, d
c, d
Valgono i seguenti risultati:
1) tali distribuzioni sono gaussiane
2) la media delle medie campionarie coincide con la media
µ della popolazione
3) la media delle frequenze campionarie coincide con la
proporzione P della popolazione
4) La deviazione standard della distribuzione delle medie
campionarie è
dove σ è la deviazione standard della
popolazione.
5) La deviazione standard della distribuzione delle
frequenze campionarie è
dove P è la Proporzione della popolazione.
95%
Densità di
frequenza
delle medie
campionarie
Medie campionarie
Media della popolazione
Livello di
fiducia
Un ingegnere addetto al
controllo di quantità
vuole stimare il peso
medio di una scatola di
cereali riempita da una
certa macchina in un
certo giorno. Estrae un
campione casuale di
100 scatole ne calcola
la media campionaria
m = 300,5 grammi e la
deviazione standard s=
15 grammi.
dove σ è la deviazione standard della popolazione e n la
dimensione del campione .
L’intervallo di confidenza al 95% è [300,5 –(1,96)(1,5);300,5+(1,96)(1,5)] cioè
(297,56;303,44)
La media campionaria m proviene dalle code del 5% della distribuzione delle
medie campionarie, così l’intervallo di confidenza al 95% non contiene la
media della popolazione.
- Una stima è tanto più precisa quanto più piccolo è l’intervallo di
confidenza
- È tanto più affidabile quanto maggiore è il livello di fiducia
- Da notare che mantenendo costante la dimensione del campione,
aumentando il livello di fiducia aumenta anche l’intervallo di confidenza,
cioè aumentando l’attendibilità della stima diminuisce la sua precisione.
-Tuttavia si può
conciliare l’aumento
dell’attendibilità con
l’aumento della
precisone o a
precisione invariata,
aumentando la
dimensione del
campione.
Infatti all’aumentare
della dimensione del
campione diminuisce
la deviazione standard
della distribuzione che
si concentra
maggiormente attorno
alla media
Dimensione del
campione n= 250
dimensione del
campione n=100
La verifica delle ipotesi, i test di significatività
Il nostro ingegnere potrebbe procedere in modo diverso per vedere se la
produzione procede sotto controllo. Supponiamo che l’azienda dichiari di
produrre scatole di cereali del peso di 300 grammi, per cui la produzione
sarà sotto controllo se la media è 300 grammi. Si tratta di verificare
questa ipotesi al livello di fiducia del 95%.
H0: µ = 300 si dice ipotesi nulla, l’ipotesi alternativa H1: µ ≠ 300.
Ogni giorno per sapere se la produzione è sotto controllo l’ingegnere
estrae a caso un campione di 100 scatole, ne calcola il peso medio m e
la deviazione standard s
Supponiamo che la media del campione sia 303 grammi. Si pone il
problema seguente:
La differenza 3 grammi rientra nella normale variabilità campionaria
oppure è significativa del fatto che in realtà stiamo producendo scatole di
peso medio superiore a 300 grammi?
Zona
accettazione
Zona rifiuto
σ è la deviazione standard
della popolazione ed è
stimata dalla deviazione
standard del campione.
L’intervallo verde indica la
zona di accettazione
dell’ipotesi nulla.
Le semirette rosse indicano
la zona del rifiuto
dell’ipotesi nulla.
P=95%
α/2=2,5%
α/2=2,5%
P=0,95 si dice livello di fiducia
α = 0,05 = 1-p = 1-0,95 = area delle due code si dice livello di significatività.
Ogni decisione che si prende è soggetta ad un
errore, si hanno due tipi di errori:
1. Si rifiuta H0 quando è vera. L’errore si commette
quando la media campionaria m cade nella zona di
rifiuto. La probabilità dell’errore è α. L’errore si dice di1°
specie
2. Si accetta H0 quando è falsa. Si dice che si commette
un errore β di 2° specie
Si prendono invece decisioni giuste quando
1. Si accetta H0 quando è vera (La probabilità è il livello
di fiducia p)
2. Si rifiuta Ho quando è falsa (La probabilità è 1- β che è
detta potenza del test).
E’ chiaro che la cosa migliore sarebbe costruire un
test in modo da rendere minime le probabilità degli
errori α e β, ma vediamo se ciò è possibile.
E’ più agevole discutere la cosa nel caso in cui le ipotesi
alternative siano 2.
Supponiamo che due persone A e B stiano giocando ai dadi
con la regola che A perde ogni volta che esce la faccia 1.
supponiamo che in 100 lanci la faccia 1 si sia presentata 27
volte, per cui A ha perso con una frequenza pari a 0,27.
Considerato che la probabilità che esca 1 è 0,167, A
sospetta che B stia giocando con un dado truccato, magari
con uno di quei dadi in cui 1 esce con probabilità 0,25. E’
possibile sottoporre a verifica tale sospetto?
Le ipotesi in conflitto sono:
1. Ipotesi nulla H0: p=0,167 il dado non è truccato
2. Ipotesi alternativa H1: p= 0,25, il dado è truccato
Si deve assumere una regola di decisone che potrebbe
essere la seguente:
Se dopo una serie di 100 lanci la frequenza con cui esce 1 è
f< 0,20 allora si accetta H0, altrimenti si accetta H1.
La situazione per quanto riguarda gli errori di 1° e di 2° specie
è allora la seguente.
Distribuzione delle
frequenze campionarie di
campioni di
100 lanci
Zona rifiuto
Zona accettazione
Aumentando la
dimensione dei
campioni è
possibile
diminuire sia α
sia β
Esempio in campo giudiziario
L’impossibilità di diminuire contemporaneamente α e β a parità di dimensione del
campione è chiarita bene dal seguente esempio in campo giudiziario.
Sia H0: l’imputato è innocente
H1: l’imputato è colpevole
α= errore di 1° specie, è la probabilità di condannare un innocente cioè la
probabilità di rifiutare H0 e quindi accettare H1 quando H0 è vera
β = errore di 2° specie, è la probabilità di assolvere un colpevole cioè la
probabilità di accettare H0 (l’imputato è innocente) quando invece è vera H1 cioè
l’imputato è colpevole.
Le riforme a carattere garantista che vogliono diminuire il rischio di condannare
un innocente (α) portano necessariamente al rischio di aumentare β cioè ad
aumentare il rischio di assolvere un colpevole.
Il T test
Caso dell’efficacia di un medicinale (ad esempio per abbassare la
pressione)
Pressione sistolica
Paziente
Placebo
medicinale
Differenze d
1
211
181
30
2
210
172
38
3
210
196
14
4
205
191
14
5
197
167
30
6
190
161
29
7
191
180
11
8
177
160
17
9
173
149
24
10
170
119
51
11
163
156
7
Si calcola la media delle differenze e si ottiene m=
24,1 e la deviazione standard delle differenze =
13,15
L’ipotesi che vogliamo verificare è che tale differenza sia
nulla, che corrisponde alla ipotesi della inefficacia del
medicinale. Vogliamo verificare tale ipotesi al livello di
significatività del 5%.
H0: µ=0
H1: µ>0
In questo caso, dato che il campione è piccolo (<30), si
adopera non la distribuzione gaussiana ma un’altra (la t di
Student) che l’approssima.
Agli inizi della probabilità
Nel 1654 il cavalier Antonio de Méré si
rivolse a Blaise Pascal per sapere perché mai
puntando sull’uscita del 6 nel gioco del dado, in 4 lanci
la pratica del gioco rendeva evidente che fosse più
facile vincere che perdere mentre puntando sull’uscita
del doppio 6 su 24 lanci di due dadi fosse viceversa
più facile perdere che vincere.
Secondo i calcoli che faceva Antonio de Méré avrebbe
dovuto succedere il contrario.
La risposta che diede Pascal fu molto semplice: fai
bene i calcoli e vedrai che la teoria conferma la pratica.
Infatti nel primo caso si perde se nei 4 lanci esce sempre un numero diverso da 6.
La probabilità di perdere è quindi 5/6*5/6*5/6*5/6= (5/6)4 = 0,483 che è minore della
probabilità di vincere che è 1-(5/6)4=0,517.
Nel caso di 24 lanci di due dadi si perde se in ogni lancio non esce il doppio 6. La
probabilità che nei 24 lanci non esca mai il doppio 6 è: (35/36)24=0,508 per cui la
probabilità di vincere è 1-0,508=0,492 che è minore della probabilità di perdere.
E’ con Pierre-Simon Laplace che la
probabilità cessa di essere una
curiosità matematica. I lavori che Laplace
pubblicò a partire dal 1794, in particolare la
Théorie analitique des probabilités del 1812
trasformarono una serie di problemi legati
principalmente ai giochi d’azzardo e alle rendite
vitalizie delle assicurazioni nella teoria classica
della probabilità che divenne una disciplina
scientifica d’avanguardia.
E’ interessante illustrare le motivazioni che
spingono Laplace a questa fatica. Laplace era
un convinto sostenitore di una visione
meccanicistica e deterministica del mondo, che
secondo lui era regolato da ferree leggi
esprimibili in termini matematici.
Scrive nel celeberrimo Essai philosophique sur les probabilités
pubblicato nel 1814 e a partire dalla seconda edizione, premesso
come introduzione alla Théorie:
“Dobbiamo dunque considerare lo stato presente dell’universo
come l’effetto del suo stato anteriore e come la causa del suo stato
futuro. Un’Intelligenza che, per un dato istante, conoscesse tutte le
forze da cui è animata la natura e la situazione rispettiva degli
esseri che la compongono, se per di più fosse abbastanza
profonda da sottomettere questi dati all’analisi, abbraccerebbe
nella stessa formula i movimenti dei più grandi corpi dell’universo e
dell’atomo più leggero: nulla sarebbe incerto per essa, e l’avvenire
come il passato sarebbe presente ai suoi occhi. Lo spirito umano
offre, nella perfezione che ha saputo dare all’astronomia, un pallido
esempio di quest’intelligenza. Le sue scoperte in meccanica e in
geometria, unite a quelle della gravitazione universale, l’hanno
messo in grado di abbracciare nelle stesse espressioni analitiche
gli stati passati e quelli futuri del sistema del mondo.”
Ma il punto è che l’uomo è ben lontano dalle capacità
dell’Intelligenza da lui immaginata. Infatti poco oltre
Laplace afferma:
“La regolarità che l’astronomia ci presenta nel movimento delle
comete, ha luogo senza dubbio in tutti i fenomeni. La curva
descritta da una semplice molecola di aria o di vapore è regolata
con la stessa certezza delle orbite planetarie: non v’è tra esse
nessuna differenza, se non quella che vi pone la nostra ignoranza.
La probabilità è relativa in parte a questa ignoranza, in parte alle
nostre conoscenze”.
Secondo Laplace l’uomo non è l’Intelligenza che lui si è figurato e
pertanto molte volte non è in grado né di conoscere tutte le forze di
cui la natura è animata, né le posizioni delle particelle che la
compongono, né infine, conoscendo tanto le une quanto le altre, di
sottoporre all’analisi matematica i dati in suo possesso. In questi
casi si deve ricorrere alla probabilità. Quindi alla base della
probabilità troviamo la nostra ignoranza.
Definizione classica o laplaciana di Probabilità
Sia E un evento, siano n i casi possibili e m quelli
favorevoli ad esso, allora
P(E) = m/n .
La definizione è valida nell’ipotesi che tutti i casi possibili
siano ritenuti egualmente possibili.
Esempio:
Probabilità che lanciando un dado non truccato esca il
numero 6 è 1/6 in quanto i casi possibili sono 6 e quelli
favorevoli all’evento sono 1.
Per tutto l’Ottocento la definizione di probabilità fu quella classica di
Laplace, tuttavia a partire dagli ultimi anni dell’Ottocento specie in
fisica e in Biologia gli esempi di eventi per i quali si doveva ricorrere
alle osservazioni per determinare le probabilità si andavano
moltiplicandosi.
Definizione frequentista o statistica di
probabilità
Frequenza assoluta: numero delle volte che un evento si
verifica. Es: lancio il dado 10 volte, il numero 6 si verifica 3
volte. 3 è la frequenza assoluta di 6
Frequenza relativa: è il rapporto fra la frequenza assoluta
e il numero delle prove fatte. Nell’esempio precedente: la
frequenza relativa di uscita di 6 è 3/10 = 0,3
La probabilità di un evento in senso frequentista è il
limite al quale tende la frequenza relativa quando il numero
delle prove tende all’infinito oppure la probabilità di un
attributo in una certa popolazione è il limite al quale
tende la frequenza relativa dell’attributo quando la
frequenza è calcolata su campioni estratti dalla
popolazione di grandezza via via crescente e tendente
all’infinito.
Tuttavia perché la definizione sia valida occorre
che l’evento sia ripetibile e le singole prove sia
indipendenti o che i campioni via via usati siano casuali
cioè tali che i componenti abbiano tutti la stessa
probabilità di essere estratti.
Esempio: supponiamo di lanciare un dado un gran numero di volte,
diciamo mille, e di constatare che il 2 si è presentato 173 volte, per
cui 173/1000=0,173 è la frequenza relativa dell’uscita del numero 2.
Proseguendo nei lanci la frequenza relativa assumerà valori diversi
ma tenderà a stabilizzarsi attorno ad un certo valore che viene
assunto come valore della probabilità dell’evento.
L’esperienza ci mostra che in tutti i fenomeni di massa la frequenza
relativa di un certo attributo si stabilizza al crescere del numero delle
osservazioni ed è proprio questo fatto che in qualche modo giustifica
la definizione frequentista di probabilità.
Un ponte fra le definizione di probabilità in senso
classico e in senso frequentista fu gettato agli inizi
del Novecento da Guido Castelnuovo che nel suo Calcolo
delle probabilità del 1919 introdusse la famosa legge
empirica del caso che dice:
“In una serie di prove ripetute un gran numero di volte e
nelle stesse condizioni, ciascuno degli eventi possibili si
manifesta con una frequenza relativa che è presso a
poco uguale alla sua probabilità. L’approssimazione
cresce ordinariamente col crescere del numero delle
prove”.
n. Lanci
Esempio di
simulazione al
computer del lancio di
un dado.
Frequenza con cui si presenta il
numero 3 al crescere del numero
dei lanci.
Probabilità classica di uscita
di 3 = 1/6 = 0,166667
Un contributo determinante alla
formulazione di questa definizione
fu data da Richard von Mises
tedesco che pubblicò un trattato
sulla probabilità dal titolo
impronunciabile nel 1928.
100
200
300
400
500
600
700
800
900
1000
2000
3000
4000
5000
6000
7000
8000
9000
10000
Frequenza
assoluta
14
35
52
69
86
95
108
128
141
156
318
478
636
810
974
1172
1329
1481
1657
Frequenza
relativa
0,140000
0,175000
0,173333
0,172500
0,172000
0,158333
0,154286
0,160000
0,156667
0,156000
0,159000
0,159000
0,159000
0,162000
0,162333
0,167429
0,166125
0,164556
0,165700
MATEMATICA ATTUARIALE
Le aziende per testare la vita media dei loro prodotti, per esempio
lampadine e frigoriferi, eseguono dei test di durata; vale a dire che scelgono un
campione casuale della loro produzione e li fanno funzionare finché non si
guastano. In questo modo se 100 lampadine scelte a caso da una produzione
sono accese in media 60 ore (si registra la vita di ogni lampadina e poi si fa la
media) possiamo dire che la vita media di una lampadina di quel tipo è di 60 ore
(in realtà si fa una stima per intervalli).
In matematica attuariale e per le molte applicazioni nel campo delle
assicurazioni ha molta importanza stabilire quale sia la vita media di un
individuo di età x oppure sapere quale è la probabilità che un individuo che oggi
ha 40 anni possa vivere ancora 20 anni.
E’ chiaro che per calcolare la vita media delle persone non si può seguire il
metodo delle lampadine cioè scegliere 100 individui e poi seguirli finché non
muoiono tutti. Sarebbe troppo lungo. Queste valutazioni si fanno ricorrendo alle
tavole demografiche o tavole di sopravvivenza.
La prima rudimentale ma interessante tavola di sopravvivenza
risale alla prima metà del XVII secolo e fu composta dall’inglese
J. Graunt che reperì i dati dai registri parrocchiali. Un tretennio
più tardi l’astronomo inglese Edmund Halley (1656-1742)
compilò una tavola simile sempre basandosi sui registri parrocchiali.
Da allora applicando i metodi della statistica e del calcolo delle probabilità si sono
potute costruire tavole demografiche sempre più precise ed affidabili basandosi
essenzialmente su due tipi di osservazioni, diverse ma complementari: i dati dei
censimenti e quelli dei decessi.
In Italia si occupa della compilazione delle tavole l’Istituto di Statistica (Istat). Dai
censimenti che nel nostro paese vengono fatti ogni 10 anni, si possono estrarre i
dati relativi ai viventi suddivisi per età e sesso. Rilevando invece per un certo
numero di anni i dati sui decessi dai registri dello stato civile, si possono ricavare
informazioni sul numero medio dei morti, suddivisi per fasce di età.
Si costruiscono quindi delle tavole che anno per anno indicano quante persone
sono sopravvissute rispetto ad un nucleo iniziale e quante quindi sono decedute.
E’ importante avvalersi di tavole aggiornate perché al cambiare delle condizioni di
vita cambiano le probabilità di vita e di morte.
Descrizione delle tavole
dx = lx-lx+1.
Si può vedere che lx ( il numero
dei sopravvissuti) è una funzione
decrescente dell’età,
(ovviamente man mano che
passa il tempo il numero dei vivi
diminuisce, qualcuno muore) ma
prima fino a circa 60 anni
decresce lentamente poi in
maniera più rapida. Dal grafico di
dx si vede che il numero dei morti
diminuisce abbastanza
rapidamente nei primi anni di
vita poi a partire da 10 anni circa
comincia ad aumentare fino a 80
anni poi diminuisce rapidamente
fino all’età estrema.
Alcune probabilità di vita e di morte calcolate in
base alla definizione frequentista di probabilità.
Tasso annuo di sopravvivenza, cioè la probabilità che un
individuo di età x arrivi all’età x+1.
Esempio: probabilità che un individuo maschio di 60 anni
arrivi a 61
Probabilità che un individuo di 80 anni arrivi a 81
Tasso annuo di mortalità, cioè la probabilità che
un individuo di età x muoia prima di compiere
l’età x+1
Esempio: probabilità che una persona di 20 anni muoia
prima di compiere 21 anni.
Probabilità di essere in vita dopo h anni
Esempio: probabilità che un individuo maschio di 39
anni arrivi all’età di 59 anni.
Vita media
È il tempo medio di vita residua che ha una persona di età x.
Si calcola nel modo seguente:
sia lx il numero delle persone di età x, dx è il numero delle persone di questo
gruppo che moriranno entro l’anno, si può pensare che ognuna di queste
persone vivranno in medio ½ di anno.
Le persone che moriranno l’anno successivo cioè all’età x+1 sono dx+1 , si può
pensare che ognuno di essi abbia vissuto un anno e mezzo cioè 3/2 di anno.
Le persone che moriranno all’età x+2 sono dx+2 e si può pensare che ognuno di
essi abbai vissuto 2 anni e mezzo cioè 5/2 di anno. E così via.
In conclusione in questo modo abbiamo calcolato la vita media di ogni individuo
del gruppo iniziale. La vita media di un individuo di età x sarà la media
ponderata delle vite medie di tutto il gruppo dei viventi all’età x, cioè:
vita media età x =
Esempio
La vita media di un maschio di 60 anni è
Vita probabile
La vita probabile di un individuo di età x è il numero di anni
che devono trascorrere affinché la popolazione dei viventi
all’età x diventi la metà.
Essa viene indicata con il simbolo πx .
Allora πx si trova risolvendo l’equazione lx+πx= ½ lx
Ad esempio
Dalle tavole risulta che il numero dei viventi maschi all’età
di 50 è l50 = 93016
Essi diventano la metà (cioè 46508) quando il gruppo ha
un’età compresa fra 78 e 79 per cui si può dire che la vita
media è circa 78-50 = 28
Calcolo del premio di una assicurazione di capitale
differito. Una persona di età x riscuote un certo
capitale C se sarà vivo all’età x+n. Quale premio
deve pagare?
Ad esempio una persona di 30 anni vuole che la
Compagnia di assicurazione gli versi la somma di €
100.000 se sarà in vita all’età di 60 anni.
Il premio può essere:
A) Unico o periodico
B) Puro o caricato
Calcolo del premio unico puro
Si interpreta il contratto come un gioco di
sorte, in cui l’assicurato vince la somma C se arriva
vivo all’età x+n, e paga per giocare il premio U.
Che cosa è la vincita attesa? È il prodotto della
somma da vincere per la probabilità di vincerla
Il premio è puro se il gioco di sorte è equo cioè la
vincita attesa del banco e del giocatore sono uguali.
.
La vincita del banco (in questo caso la
Compagnia di Assicurazione) è certa perché
egli riscuote oggi con certezza il premio U.
Quindi la vincita attesa del banco è U*1 = U
La vincita attesa dell’assicurato e la somma che
riscuoterà fra n anni valutata ad oggi ( C(1+i)-n dove
i è il tasso tecnico dell’operazione) moltiplicata per
la probabilità che egli sia in vita fra n anni. Quindi la
vincita attesa dell’assicurato è:
Quindi il premio puro da pagare sarà
U=
Nel nostro esempio C=100.000, i = 0,02,
x =30, n = 30
Teorema di Bayes
Thomas Bayes (1702-1761) matematico e ministro britannico. Il
teorema fu pubblicato postumo nel 1763.
Supponiamo che un evento E possa essere
determinato da n cause H1, H2,……Hn di cui è certo
che solo una si può verificare.
Supponiamo di conoscere le probabilità con cui si
verificano le n cause p(H1), p(H2),…p(Hn) e la
probabilità con cui si verifica l’evento E dato la
causa cioè p(E/H1)….p(E/Hn).
Supponiamo che si sia verificato l’evento E, il
teorema di Bayes ci permette di calcolare la
probabilità che sia stata la causa Hi a determinare E.
Esempio:
Supponiamo che un medico sappia che un
certo sintomo E (esempio una febbre
altissima in un quadro clinico specifico) possa
essere l’effetto di tre sole malattie H1, H2, H3
le cui probabilità sono:
p(H1)=0,03
p(H2)=0,70
p(H3)=0,27
Supponiamo inoltre che la probabilità che ci sia
febbre alta con la malattia H1, H2, H3 siano:
p(E/H1)=0,90 p(E/H2)=0,10 p(E/H3)=0,30 .
Come si vede a priori la malattia H2 è la più
probabile.
Il problema è: visto che il paziente ha febbre altissima quale è la causa
più probabile?
Il teorema di Bayes nell’esempio dice che:
N.B. il denominatore della frazione è la p(E)
Analogamente per le altre cause:
Come si vede la presenza del sintomo febbre E ha modificato l’opinione del
medico circa la graduatoria delle malattie; infatti a priori la malattia più probabile
era H2, seguita da H3 e infine H1.
Vista la febbre, la malattia più probabile a posteriori è H3.
Visto che i denominatori delle frazioni sono uguali la malattia più probabile
dipende dalle probabilità a priori della malattia e dalle probabilità condizionate del
sintomo data la malattia.
Applicazioni del teorema di Bayes nei test
diagnostici.
Esempio: la diagnosi della sindrome di Down
La sindrome di Down è una condizione cromosomica patologica, che
riguarda circa un feto su 1000. Il più accurato test per la sindrome di
Down richiede l’amniocentesi, un intervento che purtroppo implica un
piccolo rischio di aborto (circa un caso su 200). C’è un altro test
accurato della sindrome di Down che è privo di rischi, noto come triplo
test. Questo esame è diventato recentemente di uso comune e si basa
sulla concentrazione di tre ormoni nel sangue materno a circa 16
settimane di gravidanza. Come ogni test anche il triplo test non è
sempre perfetto, cioè è possibile che il test risulti negativo cioè non
indica malattia ma il feto è malato (errore detto falso negativo) oppure
che risulti positivo cioè indica malattia ma il feto è sano (errore detto
falso positivo).
I termini della questione sono i seguenti:
Prevalenza della malattia o anche detta probabilità a priori:
è la probabilità che un individuo sia malato, nel caso della
sindrome di Down p(Em)= 0,001 cioè 1 su 1000, o anche su
1000000, 1000 sono malati e 999000 sono sani.
la probabilità di un falso positivo = p(T+/Es) = 0,05 cioè 5%. Su
999000 sani il 5% cioè 49950 risulteranno falsi positivi al test
specificità del test = probabilità che il test sia negativo dato che
l’individuo è sano p(T-/Es) = 1-p(T+/Es)= 1-0,05=0,95. Sui 999000 sani il
95% cioè 949050 risulteranno negativi al test.
sensibilità del test = probabilità che il test sia positivo dato che il feto
è malato, p(T+/Em) = 0,60.
Dei 1000 malati il 60% cioè 600 risulteranno positivi al test
Quindi su 1000000 di test risulteranno positivi 49950+600=50550 di cui
solo 600 veri positivi in quanto malati.
probabilità di un falso negativo = p(T-/Em) = 1- p(T+/Em) =0,40 cioè il
40%. Dei 1000 malati il 40% cioè 400 risulteranno negativi al test
Il problema è calcolare la probabilità che il feto sia malato dopo che
il test è risultato positivo, tale valore è detto valore predittivo di un
test positivo o probabilità a posteriori.
Risulta:
Esiste una bassa probabilità che un feto risultato positivo al triplo test sia
effettivamente affetto da sindrome di Down.
Tale valore si poteva ottenere anche considerando che su 50.550 test positivi
solo 600 sono malati per cui
Calcoliamo ora la probabilità che un feto risultato negativo sia effettivamente
sano cioè il valore predittivo di un test negativo.
Esiste quindi quasi la certezza che se il test è negativo il feto è sano.
Le tabelle di contingenza
Alla scoperta della dipendenza o indipendenza fra
variabili o mutabili
Esempio: il casco protettivo è efficace per prevenire i traumi
cranici conseguenti a incidenti?
Casco protettivo
Trauma
cranico
si
no
Totale
Frequenze
osservate
Si
17
218
235
235/793=29,6%
No
130
428
558
558/793=70,4%
totale
147
646
793
Campione di 793 soggetti coinvolti in incidenti con la motocicletta in un
anno.
La tabella delle frequenze attese se non ci fosse alcuna
dipendenza fra il casco protettivo e il trauma cranico.
Dalla tabella precedente si deduce che in tutto il campione ha avuto un trauma
cranico il 29,6% delle persone e non lo ha avuto il 70,4%.
Se l’uso del casco non avesse alcuna influenza nel proteggere dal trauma
cranico ci aspetteremmo che il 29,6% dei 147 che avevano il casco, avranno
trauma cranico cioè 0,296x147=43,6 e la differenza cioè 103,4 avente casco
non avranno avuto trauma cranico.
Analogamente se l’uso del casco non avesse alcuna influenza sul trauma
cranico ci aspetteremmo che il 29,6% dei 646 che non avevano casco avranno
trauma cranico, cioè 0,296x 646= 191,4 e la differenza pari a 454,6 non aventi il
casco non avranno avuto trauma cranico.
Casco protettivo
Trauma cranico
si
no
totale
si
43,6
191,4
235
no
103,4
454,6
558
Totale
147
646
793
Tabella delle frequenze osservate (O)
Casco protettivo
Trauma
cranico
si
no
Totale
Si
17
218
235
235/793=29,6%
No
130
428
558
558/793=70,4%
totale
147
646
793
Tabella delle frequenze attese (A) nel caso della indipendenza
Casco protettivo
Trauma cranico
si
no
totale
si
43,6
191,4
235
no
103,4
454,6
558
Totale
147
646
793
E’ naturale pensare che i caratteri saranno tanto più indipendenti
quanto più le frequente osservate si avvicinano a quelle attese e
quindi tanto più dipendenti quanto più le frequenze osservate si
discostano da quelle attese. Un indice significativo di questa discordanza sarà
quindi:
Se i caratteri sono indipendenti e il numero delle osservazioni sufficientemente
elevati ( in pratica non ci devono essere frequenze attese inferiori a 5) l’indice
dato ha una distribuzione che si avvicina a Chi-quadrato con un grado di
libertà uguale a (p-1)(q-1) dove p e q sono rispettivamente il numero delle
colonne e delle righe della tabella.
Allora se i caratteri sono indipendenti c’è una probabilità del 95% che il chiquadrato calcolato sia inferiore al chi-quadrato tabulato cioè presente nella
tabella del chi-quadrato all’incrocio della colonna corrispondente a 0,95 e alla
riga del grado di libertà (p-1)(q-1). Per cui se il chi-quadrato calcolato è
superiore al chi-quadrato tabulato si conclude che i caratteri sono dipendenti
al grado di fiducia del 95%.
La distribuzione χ2
Sia data popolazione gaussiana con varianza σ2, estraiamo da essa tutti i
possibili campioni di dimensione n e per ogni campioni consideriamo il
rapporto:
dove m è la media del
Campione.
Otteniamo una distribuzione
di numeri, detta distribuzione
chi-quadrato il cui grafico al
variare della dimensione dei
campioni è il seguente:
All’incrocio della colonna χ2 di pedice 0,95 e la riga 9 c’è il numero 16,9. Il
significato è il seguente. Estraendo dalla popolazione un campione di dimensione
10 si ha una probabilità del 95% che esso abbia un chi-quadrato inferiore a 16,9.
La statistica prevede il futuro
Andamento della mortalità infantile in Italia
(yi = morti per 1000 nati vivi)
Anni
xi
yi
1971
0
28,5
1972
1
27,0
1973
2
26,2
1974
3
22,9
35
1975
4
21,2
30
1976
5
19,5
25
1977
6
18,1
20
1978
7
17,1
15
1979
8
15,7
1980
9
14,6
1981
10
14,1
yi= indici di mortalità
y = -1.5255x + 28.073
R² = 0.9767
y = 28.923e-0.075x
R² = 0.9921
yi= indici di mortalità
10
Linear (yi= indici di
mortalità)
5
0
0
5
10
15
Expon. (yi= indici di
mortalità)
1981
Valori extrapolati
Anni
xi
yi
Ip. lineare
Ip. esponenziale
Valori reali
1971
0
28,5
28,1
28,9
28,5
1972
1
27,0
26,5
26,8
27,0
1973
2
26,2
25,0
24,9
26,2
1974
3
22,9
23,5
23,1
22,9
1975
4
21,2
22,0
21,4
21,2
1976
5
19,5
20,4
19,9
19,5
1977
6
18,1
18,9
18,4
18,1
1978
7
17,1
17,4
17,1
17,1
1979
8
15,7
15,9
15,9
15,7
1980
9
14,6
14,3
14,7
14,6
1981
10
14,1
12,8
13,7
14,1
1982
11
11,3
12,7
12,9
1983
12
9,8
11,8
12,3
1984
13
8,2
10,9
11,3
1985
14
6,7
10,1
10,5
1986
15
5,2
9,4
10,1
FINE
Al CALCOLO SOCIALE era attribuita molta importanza in
relazione al governo dei popoli. Significativa è questa frase
di Jean-Jacques Rousseau (1712-1778) tratta dal Contratto
sociale:
“Il Governo sotto il quale (…) i cittadini realizzano il massimo
incremento e si moltiplicano è infallibilmente il migliore. Allo stesso
modo, il Governo sotto il quale un popolo diminuisce e si logora è il
peggiore: esperti di calcolo! Lascio a voi il compito di contare, di
misurare, di paragonare”.
Comunque è nel corso del XIX secolo che il CALCOLO SOCIALE si
sviluppa e prende forma come tecnica statistica usata su larga scala.
Alcuni esempi di studi statistici: dopo le guerre napoleoniche i medici
militari focalizzarono la loro attenzione sulla salubrità degli orfanotrofi,
delle prigioni e degli ospizi per i poveri, di solito con lo scopo di
stimolare le riforme necessarie. Ci sono poi le ricerche sull’istruzione
pubblica.
Ecco alcuni obiettivi di ricerca posti nel 1835 dalla Statistical Society di
Londra per quanto riguarda l’istruzione:
1) Qual è stato l’effetto dell’estensione dell’istruzione nel comportamento del
popolo? E’ diventato più disciplinato, sobrio, soddisfatto o è successo il
contrario?
2) Qual è il rapporto fra crimini e istruzione? Gli scolarizzati sono più esenti dei
non scolarizzati o accade il contrario?
3) Quale crimine prevale di più nelle province colte: i reati contro la proprietà o
contro la persona?
4) Quanti criminali , specialmente nelle classi di crimini più volgari, sapevano
leggere e scrivere in base ai rendiconti del 1833 o del 1834?
5) Qual è il numero dei libri pubblicati durante l’ultimo anno e come sono
classificati?
Influenza di Quételet sulla fisica
Fu il lavoro di Quetelet a ispirare James Clerk Maxwell e Ludwig
Boltzmann a dare alla teoria cinetica dei gas un’impostazione
statistica. In una conferenza alla British Association nel 1873 Maxwell
fece un chiaro riferimento alla fisica sociale di Quételet, dicendo che
non si sarebbero mai trovate le leggi dei gas seguendo il moto e le
collisioni di milioni di particelle indipendenti dato che non erano
disponibili informazioni sulle singole molecole ed i calcoli sarebbero stati
in ogni caso estremamente complessi.
In effetti nella teoria cinetica dei gas il comportamento di un gas perfetto
viene descritto attraverso delle grandezze macroscopiche come il
Volume, la Temperatura e la Pressione, le ultime due fanno riferimento
all’energia cinetica media delle molecole secondo le note formule:
Energia cinetica media =Ecm= 3/2KT dove k è la costante di Boltzmann,
PV=2/3nN Ecm dove n è il numero di grammomolecole e N è il numero di
Avogadro.
Le velocità delle molecole di un gas si distribuiscono
secondo una gaussiana detta distribuzione maxwelliana.
Come si vede dal grafico al crescere della temperatura del
gas il picco della distribuzione (velocità media) si sposta
verso destra (verso valori più alti).
Fly UP