...

Teoria degli errori

by user

on
Category: Documents
27

views

Report

Comments

Transcript

Teoria degli errori
Introduzione
alla
Teoria degli Errori
1
Gli errori di misura sono inevitabili
Una misura non ha significato se non viene accompagnata da una
ragionevole stima dell’errore
(“Una scienza si dice esatta non perché basata su informazioni infinitamente esatte, ma
perché la sua metodologia consente di conoscere il valore dell’indeterminazione associata ad
esse, ovvero di conoscere il limite del contenuto di informazioni che esse portano.”)
Esempio: in ogni caso dobbiamo tenere conto almeno dell’errore di
sensibilità dello strumento utilizzato
per una riga millimetrata l’errore di sensibilità è
per un calibro ventesimale
1 mm
0,05 mm
2
errori sistematici
spostano il risultato delle misure in una
stessa direzione (per eccesso o per
difetto)
teorici: fenomeni individuabili ma trascurati impropriamente (sasso nel pozzo...)
strumentali: possono essere individuati e corretti usando strumenti
“migliori” (taratura bilancia, dilatazione termica righello di metallo, ecc...)
personali: legati all’uso dello strumento (errore di parallasse, ...)
3
errori accidentali
aleatori e imprevedibili, ma possono
essere valutati
misure ripetute
il risultato di un esperimento è una variabile aleatoria (non predicibile a priori,
in senso deterministico). Questo comportamento stocastico è sia contenuto
nella natura del fenomeno studiato, che conseguenza delle inevitabili
incertezze dell’apparato sperimentale.
4
Nel caso di misure ripetibili, lo sparpagliamento dei risultati dà una
indicazione preziosa dell’errore delle misure (e del probabile “valore vero”).
Esempio: supponiamo di misurare il periodo di oscillazione di un pendolo
con un cronometro di precisione. Ripetendo la misura troviamo che i
risultati non sono sempre gli stessi:
2,3 s 2,4 s 2,5 s 2,4 s
possiamo ragionevolmente supporre che la miglior stima del periodo sia il
valore medio. Come errore possiamo considerare la semidispersione
massima:
n
1!
x̄ =
xi
n i=1
∆x =
(
xmin
xmax − xmin
2
|
)
xmax
x̄
5
Si presentano due possibili casi:
a causa della scarsa sensibilità strumentale misure ripetute forniscono lo
stesso risultato
lo strumento permette di evidenziare la non-riproducibilità (in parte
intrinseca, in parte dovuta all’apparato strumentale) del fenomeno in esame:
il fenomeno sfugge al completo controllo ! fluttuazioni di misura
6
Rappresentazione di fenomeni casuali
Abbiamo precedentemente esaminato il caso di un esperimento in cui
l’insieme dei possibili risultati (spazio campione) risulta finito e discreto
lancio di due dadi a sei facce
7
Nel caso di una variabile aleatoria continua si definisce la funzione densità di
probabilità (PDF):
P (x, ∆x)
∆x→0
∆x
p(x) = lim
p(x)
P (a ≤ x ≤ b) =
!
b
p(x)dx
a
x
8
La pdf deve essere “normalizzata”:
!
+∞
p(x)dx = 1
−∞
Si definisce valore di aspettazione della variabile aleatoria:
x̂ = E(x) =
!
+∞
xp(x)dx
−∞
La stessa definizione vale per qualsiasi funzione della variabile aleatoria:
E{f (x)} =
!
+∞
f (x)p(x)dx
−∞
Si dimostrano le seguenti proprietà:
E(k) = k
E(kf ) = kE(f )
E(f + g) = E(f ) + E(g)
E è un operatore lineare.
9
Come si misura la dispersione della variabile attorno al valore di
aspettazione (valore medio)?
E[x̂ − x] = E[x] − x̂ = 0
Allora introduciamo lo “scarto quadratico medio”:
E[(x̂ − x)2 ] = σ 2
σ2
√
σ2
σ = ∆x
varianza della distribuzione
deviazione standard
errore statistico
Se i risultati di una misura fluttuano, essi sono delle variabili casuali che
dipendono dalle condizioni sperimentali.
La media di questa variabile casuale è il valore più significativo del
risultato. La deviazione standard misura l’incertezza da
attribuire al risultato.
10
Tra le distribuzioni discrete più importanti ricordiamo la distribuzione
binomiale e quella di Poisson.
Tra le distribuzioni continue più importanti in fisica (e non solo) trattiamo
la distribuzione normale o di Gauss
se le cause di non riproducibilità della misura sono in gran numero, se i loro
effetti sono relativamente piccoli, dello stesso ordine di grandezza ed hanno
uguale probabilità di assumere valori maggiori o minori della media, si trova
che il risultato delle misure segue la distribuzione di Gauss
(x−x̂)2
1
− 2σ2
g(x) = √ e
σ 2π
11
(x−x̂)2
1
− 2σ2
g(x) = √ e
σ 2π
12
Probabilità che x sia compreso tra a e b:
P (a ≤ x ≤ b) =
!
b
g(x)dx
a
Non esiste una espressione analitica per l’integrale a destra. Consultando le
tavole degli integrali si trova una proprietà interessante della varianza per la
distribuzione normale:
P (|x − x̂| ≤ σ) =
!
x̂−σ
g(x)dx = 0, 68
x̂−σ
x̂ − σ
x̂
x̂ + σ
13
Anche potendo fare ipotesi sulla distribuzione dei dati sperimentali (della
quale si postula l’esistenza), non sono in genere noti a priori i parametri
della distribuzione (valore medio e varianza). Da un insieme di misure
ripetute, che rappresenta un campione delle misure possibili, dobbiamo
trovare la miglior stima possibile di questi parametri
14
Giustificazione della media aritmetica come miglior stima del valore medio
della distribuzione:
1!
x̄ =
xi
n
la media aritmetica dipende dai dati sperimentali è quindi una variabile
aleatoria! Vediamo dunque quale è il valore di aspettazione della media
aritmetica
1!
1
E{x̄} =
E{xi } = nx̂ = x̂
n
n
si dice quindi che la media aritmetica è un estimatore del valore medio
della distribuzione
15
essendo la media aritmetica una variabile aleatoria possiamo anche
calcolarne la varianza:
σ 2 (x)
σ (x̄) = E{(x̄ − x̂) } =
n
2
2
In parole povere: qualunque sia la distribuzione delle xi la media aritmetica
è distribuita attorno al “valore vero” e lo sparpagliamento decresce al
crescere della dimensione del campione: se facessi infinite misure media
aritmetica e valore medio coinciderebbero esattamente!
16
Giustificazione della varianza empirica come miglior stima della varianza
della distribuzione
dal momento che la varianza della pdf è definita come lo scarto quadratico
medio dal valor medio della distribuzione, verrebbe naturale definire il
seguente estimatore
!
(xi − x̄)2
2
s =
n
ma questa scelta comporta il seguente problema, se n=1 allora s=0 !
Per ovviare a questa difficoltà si definisce varianza empirica:
!
(xi − x̄)2
2
s =
n−1
che per n=1 è correttamente indeterminata.
17
Si dimostra che la varianza empirica è un estimatore della varianza della
distribuzione:
!
1
E{s } =
E{ [(xi − x̂) + (x̂ − x̄)]2 } = · · · = σ 2 (x)
n−1
2
Vi risparmio il calcolo della varianza della varianza...
Bisognerebbe tenere in mente che per usare lo scarto quadratico medio
occorrono almeno una decina di misure...
18
Istogrammi e distribuzione limite
19
Supponiamo di misurare il tempo di caduta (in s) di una pallina per 50
volte...
1,26
1,30
1,29
1,41
1,44
1,38
1,42
1,15
1,49
1,23
1,37
1,59
1,42
1,33
1,15
1,35
1,37
1,31
1,41
1,35
1,28
1,30
1,31
1,26
1,32
1,45
1,40
1,33
1,34
1,41
1,39
1,27
1,41
1,25
1,31
1,45
1,19
1,39
1,41
1,27
1,46
1,34
1,44
1,37
1,35
1,30
1,35
1,53
1,32
1,52
ci proponiamo di visualizzare come si distribuiscono i dati sperimentali
20
La variabile aleatoria in questione (il tempo di caduta) è una variabile
continua. Per visualizzare al meglio i dati costruiamo un istogramma a
intervalli:
intervalli
1,12 ; 1,17
1,17 ; 1,22
1,22 ; 1,27
1,27 ; 1,32
1,32 ; 1,37
1,37 ; 1,42
1,42 ; 1,47
1,47 ; 1,52
1,52 ; 1,57
1,57 ; 1,62
numero di dati
2
1
4
10
10
12
7
1
2
1
21
15
11,25
7,5
3,75
0
1,12
1,17
1,22 1,27
1,32
1,37 1,42
1,47
1,52
1,57 1,62
22
Vediamo che i dati si distribuiscono attorno ad un picco. Eseguendo infinite
misure e aumentando di conseguenza il numero di intervalli otterremo una
distribuzione limite continua.
Per poter confrontare l’istogramma a barre con la distribuzione continua
conveniamo di definire l’altezza di ogni barra in modo che:
fk ∆k =
nk
N
Es. nell’intervallo [1,32;1,37] cadono 10 misure delle 50 effettuate, quindi:
∆k = 0, 05 s
N = 50
nk = 10
}
fk = 0, 4 s−1
23
Possiamo stimare il valore medio e la varianza dei dati del nostro esempio
facendo uso della media aritmetica e della varianza empirica:
x̄ = 1, 35 s
σ = 0, 09 s
Confrontiamo il nostro istogramma a barre con la distribuzione normale
con i parametri trovati sopra:
(x−x̂)2
1
− 2σ2
g(x) = √ e
σ 2π
24
25
A proposito della scelta degli intervalli:
la dimensione degli intervalli deve essere tale da essere non inferiore alla
sensibilità dello strumento utilizzato per fare le misure
il numero di intervalli deve essere tale da rappresentare adeguatamente la
distribuzione. Attenzione però: aumentare molto il numero di intervalli (a
parità di numero di misure fatte) aumenta le fluttuazioni statistiche
26
http://www.unisi.it/fisica/dip/dida/ambnatgeoif/home.htm
27
Esercitazione di laboratorio
1. Formare 8 gruppi di lavoro; ciascun gruppo ha in dotazione una riga millimetrica, un calibro
decimale o ventesimale e un pacchetto con una coppia di dadi, qualche decina di chiodi, un
oggetto metallico.
2. Misurare con la riga e con il calibro le dimensioni dell'oggetto per determinarne il volume con
l'errore associato.
3. Eseguire 100 lanci ciascuno di una moneta e scrivere la sequenza dei risultati. A lanci conclusi
costruire la distribuzione delle frequenze e delle probabilità per 25, 50, 75 e 100 tentativi.
Mettere insieme i risultati del gruppo.
4. Eseguire 100 lanci del doppio dado per gruppo. A lanci conclusi costruire la distribuzione
delle frequenze e delle probabilità per 25, 50, 75 e 100 tentativi.
5. Misurare la lunghezza dei chiodi con il calibro (ognuno deve misurare tutti i chiodi del
gruppo) e riportare il risultato in una tabella preliminare. Organizzare i dati riportando le misure
in una tabella in ordine crescente e accompagnandole con le frequenze di uscita. Costruire tre
istogrammi cambiando la larghezza dei sottointervalli. Calcolare la media aritmetica e la
deviazione standard sperimentale associate all'insieme di dati. Provare a costruire la curva
gaussiana teorica che è associata alla media aritmetica e alla deviazione standard risultante.
28
Propagazione degli errori nelle misure
indirette
29
Consideriamo due grandezze omogenee a e b con incertezze "a e "b
a ± ∆a
b ± ∆b
Somma
S max = (a + !a ) + (b + !b ) = (a + b ) + (!a + !b )
S min = (a " !a ) + (b " !b ) = (a + b ) " (!a + !b )
(
)
S=
∆S =
(
Smax + Smin
=a+b
2
Smax − Smin
= ∆a + ∆b
2
)
30
Differenza
D =a−b
Dmax = (a + !a ) " (b " !b ) = (a " b ) + (!a + !b )
Dmin = (a " !a ) " (b + !b ) = (a " b ) " (!a + !b )
(
D=
)
Dmax + Dmin
=a−b
2
(
)
Dmax − Dmin
= ∆a + ∆b
∆D =
2
31
Prodotto
P = ab
Pmax = (a + !a )(b + !b ) = (ab ) + (b!a + a!b + !a!b )
Pmin = (a " !a )(b " !b ) = (ab ) " (b!a + a!b " !a!b )
( = a∆b +) b∆a
∆P
∆b
b
a
∆a
32
Errore relativo
x ± ∆x
Si definisce errore relativo:
εr =
∆x
x
Domanda: misuro una strada lunga 10 km con un incertezza di 100 m ed un
chiodo lungo 4 cm con una incertezza di 1 mm. Quale misura risulta più
precisa?
33
Introdotto l’errore relativo la “regola” del prodotto può essere riscritta
come segue:
Prodotto
∆P = a∆b + b∆a
∆P
∆a ∆b
=
+
P
a
b
34
Quoziente
Q=
a
b
Per esercizio provate che anche in questo caso vale:
∆Q =
a∆b + b∆a
b2
∆a ∆b
∆Q
=
+
Q
a
b
35
Funzione di una variabile
q = q(x)
x ± ∆x
∆q =?
q
qbest
∆q
∆x
xbest
dq =
x
dq
dx
dx
36
∆q = q(xbest + ∆x) − q(xbest )
una approssimazione fondamentale asserisce che:
q(x + u) − q(x) ≃
dq
u
dx
dunque assumendo l’errore su x piccolo abbastanza da trascurare i termini
di ordine superiore:
! !
! dq !
∆q = !! !!∆x
dx
37
Regola generale
Se una grandezza G è funzione di più grandezze a, b, c, …
cioè G=f(a,b,c,….) allora l’errore massimo G è dato da:
!G =
#f
#f
#f
!c + .......
!a +
!b +
#a a0
#b b0
#c c0
Dove a0, b0, c0, …. Sono le misure e a, b, c, … sono le
incertezze.
38
Cifre significative e rappresentazione delle misure
La cifra più significativa è quella, diversa da zero, più a
sinistra
La cifra meno significativa è quella più a destra, diversa da
zero, se non c’è la virgola decimale.
Se c’è la virgola decimale la cifra meno significativa è quella
più a destra, anche se è zero.
Tutte le cifre tra la più e la meno significativa comprese sono
le cifre significative.
3215 3215.4 3200 0.032 1500.0 12.00 0.130
+
- +
- +-
+- +
- +
-
+ -
39
convenzionalmente gli errori di misura si riportano con una sola cifra
significativa (unica eccezione se la cifra più significativa dell’errore è 1 o 2 si
possono tenere due cifre significative). Nel rappresentare correttamente il
risultato di una misura si procede nel modo seguente:
Si arrotonda l’errore ad una sola cifra significativa
Si arrotonda la misura ricordando che la cifra meno
significativa deve essere quella sulla quale “cade” l’errore
G = 124, 83 m
∆G = 0, 67 m
∆G ∼ 0, 7 m
0, 7 m
124, 83 m
G = (124, 8 ± 0, 7) m
40
Esempio 1
Supponiamo di voler determinare il volume di un cilindro.
Le grandezze che possono essere misurate sono:
il diametro d e l’altezza h.
V=
"V =
!
d ± "d
h ± "h
d 2h
4
#V
#d
"d +
d0
#V
#h
"h
h0
Da cui si ottiene
"V = 2
!
4
dh"d +
!
d 2 "h
4
41
Esempio 2: area del rettangolo
Siano
a = 37.55 ± 0.05mm
b = 68.35 ± 0.05mm
a
A = ab = 2566.5425mm 2
b
!A = a!b + b!a = 0.05(37.55) + 0.05(68.35) = 5.295mm 2
!A " 5mm 2
A = (2567 ± 5) mm2
42
Supponiamo di avere a che fare con due grandezze i cui errori sono casuali
(statistici) e le due grandezze siano tra loro indipendenti:
y ± ∆y
x ± ∆x
Consideriamo la somma. E’ improbabile che le incertezze sulle due misure
contribuiscano contemporaneamente a spostare per eccesso (o per difetto)
la misura della somma. L’espressione della propagazione per gli errori
massimi:
∆(x + y) = ∆x + ∆y
Rappresenta una stima per eccesso. Si dimostra che vale:
(∆(x + y))2 = (∆x)2 + (∆y)2
43
(∆(x + y))2 = (∆x)2 + (∆y)2
∆(x + y)
∆y
∆x
!
∆(x + y) = (∆x)2 + (∆y)2
44
45
Fly UP