Comments
Description
Transcript
Teoria degli errori
Introduzione alla Teoria degli Errori 1 Gli errori di misura sono inevitabili Una misura non ha significato se non viene accompagnata da una ragionevole stima dell’errore (“Una scienza si dice esatta non perché basata su informazioni infinitamente esatte, ma perché la sua metodologia consente di conoscere il valore dell’indeterminazione associata ad esse, ovvero di conoscere il limite del contenuto di informazioni che esse portano.”) Esempio: in ogni caso dobbiamo tenere conto almeno dell’errore di sensibilità dello strumento utilizzato per una riga millimetrata l’errore di sensibilità è per un calibro ventesimale 1 mm 0,05 mm 2 errori sistematici spostano il risultato delle misure in una stessa direzione (per eccesso o per difetto) teorici: fenomeni individuabili ma trascurati impropriamente (sasso nel pozzo...) strumentali: possono essere individuati e corretti usando strumenti “migliori” (taratura bilancia, dilatazione termica righello di metallo, ecc...) personali: legati all’uso dello strumento (errore di parallasse, ...) 3 errori accidentali aleatori e imprevedibili, ma possono essere valutati misure ripetute il risultato di un esperimento è una variabile aleatoria (non predicibile a priori, in senso deterministico). Questo comportamento stocastico è sia contenuto nella natura del fenomeno studiato, che conseguenza delle inevitabili incertezze dell’apparato sperimentale. 4 Nel caso di misure ripetibili, lo sparpagliamento dei risultati dà una indicazione preziosa dell’errore delle misure (e del probabile “valore vero”). Esempio: supponiamo di misurare il periodo di oscillazione di un pendolo con un cronometro di precisione. Ripetendo la misura troviamo che i risultati non sono sempre gli stessi: 2,3 s 2,4 s 2,5 s 2,4 s possiamo ragionevolmente supporre che la miglior stima del periodo sia il valore medio. Come errore possiamo considerare la semidispersione massima: n 1! x̄ = xi n i=1 ∆x = ( xmin xmax − xmin 2 | ) xmax x̄ 5 Si presentano due possibili casi: a causa della scarsa sensibilità strumentale misure ripetute forniscono lo stesso risultato lo strumento permette di evidenziare la non-riproducibilità (in parte intrinseca, in parte dovuta all’apparato strumentale) del fenomeno in esame: il fenomeno sfugge al completo controllo ! fluttuazioni di misura 6 Rappresentazione di fenomeni casuali Abbiamo precedentemente esaminato il caso di un esperimento in cui l’insieme dei possibili risultati (spazio campione) risulta finito e discreto lancio di due dadi a sei facce 7 Nel caso di una variabile aleatoria continua si definisce la funzione densità di probabilità (PDF): P (x, ∆x) ∆x→0 ∆x p(x) = lim p(x) P (a ≤ x ≤ b) = ! b p(x)dx a x 8 La pdf deve essere “normalizzata”: ! +∞ p(x)dx = 1 −∞ Si definisce valore di aspettazione della variabile aleatoria: x̂ = E(x) = ! +∞ xp(x)dx −∞ La stessa definizione vale per qualsiasi funzione della variabile aleatoria: E{f (x)} = ! +∞ f (x)p(x)dx −∞ Si dimostrano le seguenti proprietà: E(k) = k E(kf ) = kE(f ) E(f + g) = E(f ) + E(g) E è un operatore lineare. 9 Come si misura la dispersione della variabile attorno al valore di aspettazione (valore medio)? E[x̂ − x] = E[x] − x̂ = 0 Allora introduciamo lo “scarto quadratico medio”: E[(x̂ − x)2 ] = σ 2 σ2 √ σ2 σ = ∆x varianza della distribuzione deviazione standard errore statistico Se i risultati di una misura fluttuano, essi sono delle variabili casuali che dipendono dalle condizioni sperimentali. La media di questa variabile casuale è il valore più significativo del risultato. La deviazione standard misura l’incertezza da attribuire al risultato. 10 Tra le distribuzioni discrete più importanti ricordiamo la distribuzione binomiale e quella di Poisson. Tra le distribuzioni continue più importanti in fisica (e non solo) trattiamo la distribuzione normale o di Gauss se le cause di non riproducibilità della misura sono in gran numero, se i loro effetti sono relativamente piccoli, dello stesso ordine di grandezza ed hanno uguale probabilità di assumere valori maggiori o minori della media, si trova che il risultato delle misure segue la distribuzione di Gauss (x−x̂)2 1 − 2σ2 g(x) = √ e σ 2π 11 (x−x̂)2 1 − 2σ2 g(x) = √ e σ 2π 12 Probabilità che x sia compreso tra a e b: P (a ≤ x ≤ b) = ! b g(x)dx a Non esiste una espressione analitica per l’integrale a destra. Consultando le tavole degli integrali si trova una proprietà interessante della varianza per la distribuzione normale: P (|x − x̂| ≤ σ) = ! x̂−σ g(x)dx = 0, 68 x̂−σ x̂ − σ x̂ x̂ + σ 13 Anche potendo fare ipotesi sulla distribuzione dei dati sperimentali (della quale si postula l’esistenza), non sono in genere noti a priori i parametri della distribuzione (valore medio e varianza). Da un insieme di misure ripetute, che rappresenta un campione delle misure possibili, dobbiamo trovare la miglior stima possibile di questi parametri 14 Giustificazione della media aritmetica come miglior stima del valore medio della distribuzione: 1! x̄ = xi n la media aritmetica dipende dai dati sperimentali è quindi una variabile aleatoria! Vediamo dunque quale è il valore di aspettazione della media aritmetica 1! 1 E{x̄} = E{xi } = nx̂ = x̂ n n si dice quindi che la media aritmetica è un estimatore del valore medio della distribuzione 15 essendo la media aritmetica una variabile aleatoria possiamo anche calcolarne la varianza: σ 2 (x) σ (x̄) = E{(x̄ − x̂) } = n 2 2 In parole povere: qualunque sia la distribuzione delle xi la media aritmetica è distribuita attorno al “valore vero” e lo sparpagliamento decresce al crescere della dimensione del campione: se facessi infinite misure media aritmetica e valore medio coinciderebbero esattamente! 16 Giustificazione della varianza empirica come miglior stima della varianza della distribuzione dal momento che la varianza della pdf è definita come lo scarto quadratico medio dal valor medio della distribuzione, verrebbe naturale definire il seguente estimatore ! (xi − x̄)2 2 s = n ma questa scelta comporta il seguente problema, se n=1 allora s=0 ! Per ovviare a questa difficoltà si definisce varianza empirica: ! (xi − x̄)2 2 s = n−1 che per n=1 è correttamente indeterminata. 17 Si dimostra che la varianza empirica è un estimatore della varianza della distribuzione: ! 1 E{s } = E{ [(xi − x̂) + (x̂ − x̄)]2 } = · · · = σ 2 (x) n−1 2 Vi risparmio il calcolo della varianza della varianza... Bisognerebbe tenere in mente che per usare lo scarto quadratico medio occorrono almeno una decina di misure... 18 Istogrammi e distribuzione limite 19 Supponiamo di misurare il tempo di caduta (in s) di una pallina per 50 volte... 1,26 1,30 1,29 1,41 1,44 1,38 1,42 1,15 1,49 1,23 1,37 1,59 1,42 1,33 1,15 1,35 1,37 1,31 1,41 1,35 1,28 1,30 1,31 1,26 1,32 1,45 1,40 1,33 1,34 1,41 1,39 1,27 1,41 1,25 1,31 1,45 1,19 1,39 1,41 1,27 1,46 1,34 1,44 1,37 1,35 1,30 1,35 1,53 1,32 1,52 ci proponiamo di visualizzare come si distribuiscono i dati sperimentali 20 La variabile aleatoria in questione (il tempo di caduta) è una variabile continua. Per visualizzare al meglio i dati costruiamo un istogramma a intervalli: intervalli 1,12 ; 1,17 1,17 ; 1,22 1,22 ; 1,27 1,27 ; 1,32 1,32 ; 1,37 1,37 ; 1,42 1,42 ; 1,47 1,47 ; 1,52 1,52 ; 1,57 1,57 ; 1,62 numero di dati 2 1 4 10 10 12 7 1 2 1 21 15 11,25 7,5 3,75 0 1,12 1,17 1,22 1,27 1,32 1,37 1,42 1,47 1,52 1,57 1,62 22 Vediamo che i dati si distribuiscono attorno ad un picco. Eseguendo infinite misure e aumentando di conseguenza il numero di intervalli otterremo una distribuzione limite continua. Per poter confrontare l’istogramma a barre con la distribuzione continua conveniamo di definire l’altezza di ogni barra in modo che: fk ∆k = nk N Es. nell’intervallo [1,32;1,37] cadono 10 misure delle 50 effettuate, quindi: ∆k = 0, 05 s N = 50 nk = 10 } fk = 0, 4 s−1 23 Possiamo stimare il valore medio e la varianza dei dati del nostro esempio facendo uso della media aritmetica e della varianza empirica: x̄ = 1, 35 s σ = 0, 09 s Confrontiamo il nostro istogramma a barre con la distribuzione normale con i parametri trovati sopra: (x−x̂)2 1 − 2σ2 g(x) = √ e σ 2π 24 25 A proposito della scelta degli intervalli: la dimensione degli intervalli deve essere tale da essere non inferiore alla sensibilità dello strumento utilizzato per fare le misure il numero di intervalli deve essere tale da rappresentare adeguatamente la distribuzione. Attenzione però: aumentare molto il numero di intervalli (a parità di numero di misure fatte) aumenta le fluttuazioni statistiche 26 http://www.unisi.it/fisica/dip/dida/ambnatgeoif/home.htm 27 Esercitazione di laboratorio 1. Formare 8 gruppi di lavoro; ciascun gruppo ha in dotazione una riga millimetrica, un calibro decimale o ventesimale e un pacchetto con una coppia di dadi, qualche decina di chiodi, un oggetto metallico. 2. Misurare con la riga e con il calibro le dimensioni dell'oggetto per determinarne il volume con l'errore associato. 3. Eseguire 100 lanci ciascuno di una moneta e scrivere la sequenza dei risultati. A lanci conclusi costruire la distribuzione delle frequenze e delle probabilità per 25, 50, 75 e 100 tentativi. Mettere insieme i risultati del gruppo. 4. Eseguire 100 lanci del doppio dado per gruppo. A lanci conclusi costruire la distribuzione delle frequenze e delle probabilità per 25, 50, 75 e 100 tentativi. 5. Misurare la lunghezza dei chiodi con il calibro (ognuno deve misurare tutti i chiodi del gruppo) e riportare il risultato in una tabella preliminare. Organizzare i dati riportando le misure in una tabella in ordine crescente e accompagnandole con le frequenze di uscita. Costruire tre istogrammi cambiando la larghezza dei sottointervalli. Calcolare la media aritmetica e la deviazione standard sperimentale associate all'insieme di dati. Provare a costruire la curva gaussiana teorica che è associata alla media aritmetica e alla deviazione standard risultante. 28 Propagazione degli errori nelle misure indirette 29 Consideriamo due grandezze omogenee a e b con incertezze "a e "b a ± ∆a b ± ∆b Somma S max = (a + !a ) + (b + !b ) = (a + b ) + (!a + !b ) S min = (a " !a ) + (b " !b ) = (a + b ) " (!a + !b ) ( ) S= ∆S = ( Smax + Smin =a+b 2 Smax − Smin = ∆a + ∆b 2 ) 30 Differenza D =a−b Dmax = (a + !a ) " (b " !b ) = (a " b ) + (!a + !b ) Dmin = (a " !a ) " (b + !b ) = (a " b ) " (!a + !b ) ( D= ) Dmax + Dmin =a−b 2 ( ) Dmax − Dmin = ∆a + ∆b ∆D = 2 31 Prodotto P = ab Pmax = (a + !a )(b + !b ) = (ab ) + (b!a + a!b + !a!b ) Pmin = (a " !a )(b " !b ) = (ab ) " (b!a + a!b " !a!b ) ( = a∆b +) b∆a ∆P ∆b b a ∆a 32 Errore relativo x ± ∆x Si definisce errore relativo: εr = ∆x x Domanda: misuro una strada lunga 10 km con un incertezza di 100 m ed un chiodo lungo 4 cm con una incertezza di 1 mm. Quale misura risulta più precisa? 33 Introdotto l’errore relativo la “regola” del prodotto può essere riscritta come segue: Prodotto ∆P = a∆b + b∆a ∆P ∆a ∆b = + P a b 34 Quoziente Q= a b Per esercizio provate che anche in questo caso vale: ∆Q = a∆b + b∆a b2 ∆a ∆b ∆Q = + Q a b 35 Funzione di una variabile q = q(x) x ± ∆x ∆q =? q qbest ∆q ∆x xbest dq = x dq dx dx 36 ∆q = q(xbest + ∆x) − q(xbest ) una approssimazione fondamentale asserisce che: q(x + u) − q(x) ≃ dq u dx dunque assumendo l’errore su x piccolo abbastanza da trascurare i termini di ordine superiore: ! ! ! dq ! ∆q = !! !!∆x dx 37 Regola generale Se una grandezza G è funzione di più grandezze a, b, c, … cioè G=f(a,b,c,….) allora l’errore massimo G è dato da: !G = #f #f #f !c + ....... !a + !b + #a a0 #b b0 #c c0 Dove a0, b0, c0, …. Sono le misure e a, b, c, … sono le incertezze. 38 Cifre significative e rappresentazione delle misure La cifra più significativa è quella, diversa da zero, più a sinistra La cifra meno significativa è quella più a destra, diversa da zero, se non c’è la virgola decimale. Se c’è la virgola decimale la cifra meno significativa è quella più a destra, anche se è zero. Tutte le cifre tra la più e la meno significativa comprese sono le cifre significative. 3215 3215.4 3200 0.032 1500.0 12.00 0.130 + - + - +- +- + - + - + - 39 convenzionalmente gli errori di misura si riportano con una sola cifra significativa (unica eccezione se la cifra più significativa dell’errore è 1 o 2 si possono tenere due cifre significative). Nel rappresentare correttamente il risultato di una misura si procede nel modo seguente: Si arrotonda l’errore ad una sola cifra significativa Si arrotonda la misura ricordando che la cifra meno significativa deve essere quella sulla quale “cade” l’errore G = 124, 83 m ∆G = 0, 67 m ∆G ∼ 0, 7 m 0, 7 m 124, 83 m G = (124, 8 ± 0, 7) m 40 Esempio 1 Supponiamo di voler determinare il volume di un cilindro. Le grandezze che possono essere misurate sono: il diametro d e l’altezza h. V= "V = ! d ± "d h ± "h d 2h 4 #V #d "d + d0 #V #h "h h0 Da cui si ottiene "V = 2 ! 4 dh"d + ! d 2 "h 4 41 Esempio 2: area del rettangolo Siano a = 37.55 ± 0.05mm b = 68.35 ± 0.05mm a A = ab = 2566.5425mm 2 b !A = a!b + b!a = 0.05(37.55) + 0.05(68.35) = 5.295mm 2 !A " 5mm 2 A = (2567 ± 5) mm2 42 Supponiamo di avere a che fare con due grandezze i cui errori sono casuali (statistici) e le due grandezze siano tra loro indipendenti: y ± ∆y x ± ∆x Consideriamo la somma. E’ improbabile che le incertezze sulle due misure contribuiscano contemporaneamente a spostare per eccesso (o per difetto) la misura della somma. L’espressione della propagazione per gli errori massimi: ∆(x + y) = ∆x + ∆y Rappresenta una stima per eccesso. Si dimostra che vale: (∆(x + y))2 = (∆x)2 + (∆y)2 43 (∆(x + y))2 = (∆x)2 + (∆y)2 ∆(x + y) ∆y ∆x ! ∆(x + y) = (∆x)2 + (∆y)2 44 45