Comments
Description
Transcript
STIMATORI Il metodo dei momenti
STIMATORI Uno dei problemi principali della statistica è quello della stima di parametri di funzioni di densità di probabilità. Tale stima può essere condotta ricercando un solo valore da attribuire al parametro incognito, e allora si parla di stima puntuale di parametri; oppure si può cercare un intervallo di valori al quale è possibile ascrivere il parametro con una certa probabilità e allora si parla di stima per intervalli. In questo lavoro si fa riferimento solo alla stima puntuale. Fondamentalmente gli approcci che si possono seguire per la stima puntuale di parametri sono due: il metodo dei momenti e quello della funzione di massima verosimiglianza. Prima di entrare nel merito dei vari concetti è utile premettere alcune definizioni per chiarire la terminologia utilizzata. Definizione: Siano X1,X2,...,Xn le variabili di un campione casuale estratto da una popolazione con densità f. Si chiama statistica una qualunque funzione g(X1,X2,...,Xn). Osserviamo che i parametri incogniti che dovremo stimare sono nella funzione f mentre la funzione g non ha parametri incogniti. Esempi di statistiche importanti sono i momenti campionari assoluti e relativi, le cui espressioni si riportano di seguito: Alla luce della definizione appena data si capisce come il problema della stima puntuale di parametri si riduca alla ricerca di una opportuna statistica. Una statistica utilizzata per stimare uno o più parametri in una densità viene detto stimatore. Matematicamente indicheremo lo stimatore come: Si noti che lo stimatore è una variabile casuale, perché funzione del campione estratto. Il valore numerico assunto da θ in corrispondenza ad un particolare campione si chiama stima puntuale di θ. Il metodo dei momenti Il metodo dei momenti è una tecnica molto semplice e intuitiva per stimare i parametri incogniti di una certa distribuzione: si impone che i momenti assoluti della distribuzione coincidano con i rispettivi momenti campionari. Supponiamo che fX(x;q1,...,qn) sia una densità con k parametri incogniti e poniamo: dove µr' dipende da θ1,...,θn.Dato poi un campione casuale X1,X2,...,Xn, poniamo: che dipendono da X1,X2,...,Xn e cerchiamo di risolvere il sistema nelle incognite θ1,...,θn. Trovando la soluzione, ammesso che esista: essa sarà lo stimatore cercato. Se le soluzioni sono più di una, converrà cercare fra di esse quella più adatta alla situazione o più semplice da calcolare. Esempio Supponiamo che X abbia una distribuzione normale N(m,s2). Ricordando che, per le proprietà dell'operatore valore atteso E[.] si ha µ1'=µ e µ2'=µ2+σ2 troviamo il sistema da cui si trova cioè che lo stimatore di µ con il metodo dei momenti è la media campionaria, mentre lo stimatore di σ2 è ossia il momento campionario relativo del secondo ordine. Il metodo della funzione di massima verosimiglianza Il metodo dei momenti paga la sua semplicità con il fatto che non assicura che i risultati ottenuti godano di alcune proprietà che sono invece auspicabili. Al contrario, il metodo della massima verosimiglianza gode di numerose proprietà molto importanti. Assumiamo che la funzione f(x;θ) sia la densità di probabilità di una variabile casuale X, dove θ è il parametro incognito da stimare. Ipotizziamo che della variabile X vengano fatte n osservazioni che indichiamo con X 1,X2,...,Xn. La funzione definita da : definisce una funzione dei valori campionari casuali x1,x2,...,xn e del parametro θ detta funzione di massima verosimiglianza. Per interpretare tale funzione supponiamo che i valori osservati siano ottenuti da n prove indipendenti di un esperimento;in quest'ottica la f(x;θ) è la funzione densità di una variabile discreta X. Quindi, per qualunque insieme di valori osservabili la funzione di massima verosimiglianza fornisce la probabilità di ottenere quel particolare insieme di valori con quel particolare ordine di occorrenza. Se invece X è una variabile continua, la funzione di massima verosimiglianza fornisce la densità di probabilità nel punto campione (x1,x2,...,xn) dove abbiamo assunto che lo spazio campionario sia n dimensionale. In base a queste giustificazioni si dice che una stima di massima verosimiglianza del parametro θ quel particolare valore del parametro θ che massimizza la funzione di massima verosimiglianza. Osserviamo che se gli xi sono mantenuti fissi la funzione di massima verosimiglianza è funzione solo di θ e quindi la procedura di massimizzazione si riduce alla ricerca del massimo di funzioni di una sola variabile, che può essere effettuato con le consuete tecniche di analisi matematica. Esempio Proviamo a stimare il parametro θ nella funzione di densità esponenziale f(x;θ), con x>0 e θ>0. La funzione di massima verosimiglianza risulta Poichè il valore di θ che massimizza L è lo stesso che massimizza ln L e quest'ultimo è più facile da trattare, calcoliamo il logaritmo della funzione precedente: differenziando rispetto a θ si ottiene l'equazione: la cui soluzione ci dice che lo stimatore di massima verosimiglianza di θ è: Osserviamo che tale stimatore è esattamente il reciproco della media aritmetica dei valori osservati xi. Nelle sezioni seguenti verranno descritti le proprietà possedute dagli stimatori di massima verosimiglianza.