...

Capitolo 2 – Errori di misura: definizioni e trattamento

by user

on
Category: Documents
6

views

Report

Comments

Transcript

Capitolo 2 – Errori di misura: definizioni e trattamento
Capitolo 2 – Errori di misura:
definizioni e trattamento
1)Generalità
I concetti di media, varianza e deviazione standard si utilizzano
normalmente per ottenere informazioni sulla bontà di una misura. In
generale, si assume come misura m della grandezza M espressa in
unità U il numero
m= M / U
In realtà, una misura può essere ottenuta in due “modi” diversi:
1) misura diretta (visiva o strumentale)
2) misura indiretta [y = f(x1, …., xn)]
1.a) Errori nelle misure dirette
a) definizione di scarto, ξ, della misura i-esima
Si definisce scarto, ξi, della misura i-esima la differenza tra il risultato
della misura e la media della quantità misurata (determinata con i criteri
statistici visti al capitolo precedente)
ξ i = mi − < m >
i = 1, …, N
b) definizione di errore (ε)
Differenza tra il valore misurato e il valore “vero” (in realtà
inconoscibile, poiché perturbato dalla misura stessa). Se il valore vero
della grandezza è µ, nella misura i-esima l’errore commesso è εi
εi = mi − µ
c) definizione di errore relativo (rm)
rm =
ε
m
×100 (%)
Ricordando la definizione di media, si verifica immediatamente che
valgono i seguenti risultati
1 N
< ξ >= ∑ ξ i = 0
N i =1
1 N
< ε >= ∑ ε i =< m > − µ
N i =1
(già visto al capitolo 1)
2) Classificazione degli errori
Se il valore vero di una grandezza è µ, nella misura i-esima
commettiamo l’errore
εi= mi − µ
Tale errore può dipendere sia dallo strumento che dal processo di
misura, ossia dalla interazione tra oggetto, strumento e ambiente. In
generale, classifichiamo gli errori in casuali e sistematici.
a) Errore casuale
• Errore di valutazione (divisioni della scala dello strumento di misura)
• Fluttuazione di parametri sperimentali (temperatura, pressione…)
• Disturbi (oscillazioni meccaniche, segnali radio spuri…)
N.B. Sono a media nulla!
b) Errore sistematico
• Imperfetta taratura degli strumenti
• Imperfetta descrizione fisica del fenomeno (Es.: h = ½ gt2)
N.B.
Gli errori sistematici possono essere corretti quando se ne
conosce l’origine, altrimenti non se ne può tenere conto. La
soluzione, in questo caso, consiste nel cercare di ottenere la
stessa informazioni con misure di tipo differente.
3) Parametri che definiscono le caratteristiche
degli strumenti
Sensibilità o risoluzione
Variazione δ nel valore della grandezza da misurare che provoca il
minimo spostamento “avvertibile” nell’indice dello strumento (meglio
analogico o digitale?). Un medesimo strumento (es.: multimetro) ha
spesso la possibilità di scegliere tra diverse scale di sensibilità.
N.B. In generale, il risultato di una misura fornisce un valore m ∈ (m-δ,
m+δ). Ripetendo n volte la stessa misura si ottengono m1,…,mn risultati
appartenenti a n intervalli, in generale non coincidenti.
Se m1 = m2 =… = m, lo strumento ha sensibilità troppo bassa.
Precisione
Valore “tipico” dello scostamento dal valore medio che caratterizza
serie numerose di misure. Nei buoni strumenti, in condizioni di misura
ideali, precisione e sensibilità coincidono.
Accuratezza
Quantità legata allo scostamento tra la media (su molte misure) dei
valori misurati e il valore vero. Dipende di solito da errori di taratura
(es.: termocoppia). Nei buoni strumenti tale scostamento è minore o
uguale alla sensibilità.
Prontezza
Inverso del tempo richiesto per una misura (una volta raggiunta la
posizione di equilibrio!!!).
4) Relazioni tra i parametri strumentali e le
varie tipologie di errore
•
•
•
La sensibilità limitata introduce un errore di arrotondamento, o di
lettura, che possiamo generalmente considerare errore casuale,
cioè avente media nulla.
La precisione limitata genera fluttuazioni di tipo casuale che
vengono messe in evidenza da strumenti molto sensibili ma poco
precisi.
L’accuratezza limitata genera errori sistematici a media diversa
da zero. Se questi ultimi errori sono preponderanti, l’accuratezza
dello strumento viene stimata tramite la media su N>>1 misure
degli errori commessi misurando una grandezza nota µ.
1 N
1 N
< ε >= ∑ (mi − µ ) = ∑ ε i
N i =1
N i =1
L’accuratezza relativa, espressa in percentuale, vale
<ε >
µ
× 100
5) Trattamento degli errori casuali
Anche se lo strumento è ben tarato, non conosciamo l’errore casuale
che abbiamo compiuto in una certa misura. Supponendo che gli errori
sistematici siano trascurabili, possiamo utilizzare i concetti della
statistica. La media <m> costituirà una stima del valore vero
n m
< m >= ∑ i ≅ µ
i =1 n
Mentre l’errore quadratico medio vero, definito come
<ε
2
n ε2
n (m − µ )2
>= ∑ i
= ∑ i
n
i =1 n
i =1
viene stimato mediante la deviazione standard della misura
n
∑ (mi − < m > )
σ n −1 (m) = i =1
2
n −1
= <ε2 >
Per il caso di misure indipendenti si possono ripetere i principali
teoremi enunciati per medie e varianze:
1) se eseguiamo su una grandezza costante nel tempo n misure con
errore sistematico trascurabile, la legge dei grandi numeri ci
assicura che
n →∞
< m > n ⎯⎯ ⎯→ µ
2) la deviazione standard è una stima “corretta” della radice
quadrata della varianza della misura
n→∞
σ n2−1 (m ) ⎯⎯ ⎯→ σ 2
3) la varianza delle medie su n misure ha come valore stimato
(< m > n − µ )2
=
σ2
n
≅
σ2
n −1
Quando si fornisce il valore medio di una misura è consuetudine
rappresentarlo come
< m >n ±
σ n −1
n
La deviazione standard ottenuta da n misure di una grandezza
costante avente valore vero µ caratterizza la precisione della misura.
In assenza di errori sistematici questa deviazione standard ci fornisce
una stima di quanto una singola misura differisca da µ.
N.B. La grandezza
σ n −1
n
prende il nome di “deviazione standard
della media” o “errore della media” e può essere indicata con
σ
.
6) Relazione tra parametri strumentali e
propagazione degli errori
Sia Y una qualsiasi grandezza fisica per la quale non è disponibile un
Y-metro. In ogni caso, si può ancora determinare Y e calcolare la
precisione della misura se è nota la dipendenza funzionale
Y = f(X1, …, Xn)
di Y da altre grandezze fisiche Xi che possono essere misurate
direttamente. Occorre anche che la funzione f sia continua con tutte le
sue derivate prime parziali.
Il risultato della misura diretta di ogni grandezza Xi può essere
espresso nella forma generale
xi = xi ± σ i
dove il significato delle variabili dipende da tipo di misura effettuata.
Misure a bassa sensibilità
1)
xi
2)
σ i rappresenta la sensibilità dello strumento utilizzato.
è il valore della singola misura (al limite, una sola) riproducibile;
In questo caso, l’intervallo [ xi − σ i ; xi + σ i ] contiene con certezza il
valore “vero” della grandezza in esame e tutti i punti all’interno
dell’intervallo sono equiprobabili.
Misure ad alta sensibilità
1) Caso di una sola misura
xi è il valore della singola misura;
σ i rappresenta l’errore della misura, che deve essere noto a
priori (ed esempio mediante una valutazione ragionata)
2) Caso di più misure
xi è il valore della media, <x>i;
σ irappresenta l’errore della media.
In questo caso, se la distribuzione degli errori è normale (vedi
Capitolo del calcolo delle probabilità), l’intervallo [ xi−3 σ i; xi+3 σ i ]
contiene con certezza il valore “vero” della grandezza in esame e il
punto xi ne rappresenta il valore più probabile.
6.1
Calcolo della media e dell’errore
della media nel caso di misura indiretta
Il calcolo della media non comporta in generale alcuna difficoltà; si
ha
Y = f( x1 ,…, x n )
Viceversa, esistono sostanziali differenze nel calcolo della precisione σ i
del valore Y e sul significato dell’intervallo [ Y ± σ i] a seconda che i dati
sperimentali provengano tutti da misure ad alta sensibilità, a bassa
sensibilità o da una combinazione qualunque dei due casi.
N.B. Si tratta di una generalizzazione di quanto visto al capitolo
precedente a proposito delle leggi di propagazione degli errori, nel
senso che ora stiamo collegando l’incertezza sulla misura alle
caratteristiche dello strumento di misura stesso.
In generale, definita δxi una piccola variazione di xi con
⎜δxi⎜ << ⎜xi⎜
possiamo sviluppare la dipendenza funzionale di Y in serie di Taylor
attorno al punto x
n ⎛ ∂f ⎞
⎟⎟ δxi
δ Y = ∑ ⎜⎜
i =1⎝ ∂xi ⎠{x }
Se le variazioni δxi rappresentano gli errori εi, allora δY rappresenta
l’errore εY nella misura indiretta di Y:
n ⎛ ∂f ⎞
⎟⎟ ε i
ε Y = ∑ ⎜⎜
i =1⎝ ∂xi ⎠{x }
Nel caso in cui la dipendenza funzionale della Y sia esprimibile
attraverso un prodotto di potenze
αi
Y = A ∏ in X i
dove A è una costante moltiplicativa e gli esponenti αi sono numeri
razionali, si ottiene per lo sviluppo in serie
α
α −1 ⎞
⎟ε
ε Y = ⎛⎜ Aα1x1α1 −1x2α 2 ...xn n ⎞⎟ε1 + ... + ⎛⎜ Aα1x1α1 x2α 2 ...α n xn n
⎝
⎠
⎝
⎠ n
da cui, dividendo membro a membro per Y si ottiene l’errore relativo, rY,
per la misura indiretta di Y in funzione degli errori relativi ri delle misure
dirette
n
rY = ∑α i ri
i =1
a) Misure a bassa sensibilità
La precisione σ Y del valore Y si calcola sostituendo agli errori εi la
sensibilità σ i dello strumento impiegato e prendendo il modulo delle
derivate parziali (condizione più sfavorevole)
n ⎛ ∂f ⎞
⎟⎟ σ i
σ Y = ∑ ⎜⎜
i =1 ⎝ ∂xi ⎠{x }
In questo caso, come già visto, l’intervallo contiene il valore vero e tutti
i punti dell’intervallo [Y − σ Y , Y + σ Y ] sono equiprobabili.
Se la dipendenza funzionale di Y è data da un prodotto di potenze, la
precisione relativa SY della misura indiretta è data da
n
SY = ∑ α i Si
i =1
dove le S i sono le precisioni relative delle misure dirette.
b) Misure ad alta sensibilità
In questo caso, gli errori εi sono variabili casuali (distribuite
normalmente, vedi capitolo delle distribuzioni di probabilità) e così pure
si può dire per εY che è una loro combinazione lineare. Allora, se σ i è
l’errore della media di xi , l’errore della media σ Y di Y risulta
n ⎛ ∂f ⎞ 2
⎟⎟ σ i2
σ Y2 = ∑ ⎜⎜
i =1⎝ ∂xi ⎠{x }
Riguardo al significato dell’intervallo [Y − σ Y , Y + σ Y ] , si può affermare
che la distribuzione dei valori attorno al valor medio è normale
(=gaussiana) se sono normali le distribuzioni degli errori εi attorno alle
variabili indipendenti Xi. Nel caso di un prodotto di potenze si ottiene
S G2 =
n
2 2
∑α i Si
i =1
A parità di funzione f e dei valori xi e σ i , si nota che gli errori forniti
dalle leggi di propagazione delle misure a bassa sensibilità sono
sistematicamente maggiori rispetto a quelli forniti per le misure ad alta
sensibilità.
6.2
Combinazione di misure aventi diversa
precisione
Tutti i risultati delle misure, ripetute nelle stesse condizioni, di una
grandezza fisica devono essere considerati a priori egualmente
precisi. Consideriamo ora il caso in cui si devono combinare assieme
misure delle stessa grandezza fisica affette da diversa precisione.
Si assume come valore più attendibile il valore medio della
serie caratterizzata da maggiore precisione, ma evidentemente
l’insieme di tutti i dati a disposizione contiene una quantità di
informazione maggiore rispetto a quello di una singola serie di misure.
Misure di differente precisione si combinano con l’operazione di media
pesata.
Si consideri il caso particolare in cui x1,…, xm+n siano i risultati di m+n
misure ripetute nelle medesime condizioni sperimentali e sia σ2 la
varianza della distribuzione. Da quanto visto in precedenza si ha
1 m+n
x=
∑ xi
m + n i =1
σ =
σ
m+n
Se dalla serie di misure estraiamo le due sottoserie x1,…, xm e xm+1,…,
xm+n possiamo calcolare le relative medie e precisioni
1 m
x = ∑ xi
m i =1
'
σ =
'
σ
m
1 m+n
x =
∑ xi
n i = m +1
"
σ =
"
σ
n
L’espressione generale della media può essere riscritta nel modo
seguente
1 m
1 m+n
x=
∑ xi +
∑ xi
m + n i =1
m + n i = m +1
che può essere espressa in termini della media delle sottoserie
x=
n
m
x"
x' +
m+n
m+n
e ancora, in termini delle varianze
x=
(σ )
' −2
(σ ) + (σ )
' −2
" −2
x' +
(σ )
" −2
(σ ) + (σ )
' −2
" −2
x"
La varianza complessiva viene espressa, in termini delle varianze
delle sottoserie, come
1
σ2 =
' −2
" −2
σ
+σ
( ) ( )
Quindi il valore più attendibile della misura viene calcolato senza
utilizzare tutti gli m+n risultati, ma solo le medie e le relative precisioni.
Le medie vengono combinate linearmente attraverso coefficienti
inversamente proporzionali al quadrato delle relative precisioni.
Più in generale, se yi ± σ i con i = 1,…, N sono i risultati di misure di
una stessa grandezza fisica ottenute con diversa precisione (anche da
differenti sperimentatori o in epoche differenti), il valore più attendibile
della grandezza in esame è la media pesata dei valori, definita come
N
∑ pi yi
y p = i =1
N
∑ pi
i =1
−2
dove il peso pi della i-esima vale pi = σ i e la precisione complessiva
della misura è data da
⎛ N −2 ⎞
σ = ⎜⎜ ∑ σ i ⎟⎟
⎝ i =1
⎠
−1 / 2
Fly UP