...

STIMATORI Il metodo dei momenti

by user

on
Category: Documents
84

views

Report

Comments

Transcript

STIMATORI Il metodo dei momenti
STIMATORI
Uno dei problemi principali della statistica è quello della stima di parametri di funzioni di densità di
probabilità. Tale stima può essere condotta ricercando un solo valore da attribuire al parametro
incognito, e allora si parla di stima puntuale di parametri; oppure si può cercare un intervallo di
valori al quale è possibile ascrivere il parametro con una certa probabilità e allora si parla di stima
per intervalli.
In questo lavoro si fa riferimento solo alla stima puntuale. Fondamentalmente gli approcci che si
possono seguire per la stima puntuale di parametri sono due: il metodo dei momenti e quello della
funzione di massima verosimiglianza.
Prima di entrare nel merito dei vari concetti è utile premettere alcune definizioni per chiarire la
terminologia utilizzata.
Definizione: Siano X1,X2,...,Xn le variabili di un campione casuale estratto da una popolazione con
densità f. Si chiama statistica una qualunque funzione g(X1,X2,...,Xn).
Osserviamo che i parametri incogniti che dovremo stimare sono nella funzione f mentre la funzione
g non ha parametri incogniti. Esempi di statistiche importanti sono i momenti campionari assoluti e
relativi, le cui espressioni si riportano di seguito:
Alla luce della definizione appena data si capisce come il problema della stima puntuale di
parametri si riduca alla ricerca di una opportuna statistica. Una statistica utilizzata per stimare uno o
più parametri in una densità viene detto stimatore. Matematicamente indicheremo lo stimatore
come:
Si noti che lo stimatore è una variabile casuale, perché funzione del campione estratto. Il valore
numerico assunto da θ in corrispondenza ad un particolare campione si chiama stima puntuale di
θ.
Il metodo dei momenti
Il metodo dei momenti è una tecnica molto semplice e intuitiva per stimare i parametri incogniti di
una certa distribuzione: si impone che i momenti assoluti della distribuzione coincidano con i
rispettivi momenti campionari. Supponiamo che fX(x;q1,...,qn) sia una densità con k parametri
incogniti e poniamo:
dove µr' dipende da θ1,...,θn.Dato poi un campione casuale X1,X2,...,Xn, poniamo:
che dipendono da X1,X2,...,Xn e cerchiamo di risolvere il sistema nelle incognite θ1,...,θn.
Trovando la soluzione, ammesso che esista:
essa sarà lo stimatore cercato. Se le soluzioni sono più di una, converrà cercare fra di esse quella più
adatta alla situazione o più semplice da calcolare.
Esempio
Supponiamo che X abbia una distribuzione normale N(m,s2). Ricordando che, per le proprietà
dell'operatore valore atteso E[.] si ha µ1'=µ e µ2'=µ2+σ2 troviamo il sistema
da cui si trova
cioè che lo stimatore di µ con il metodo dei momenti è la media campionaria, mentre lo stimatore di
σ2 è
ossia il momento campionario relativo del secondo ordine.
Il metodo della funzione di massima verosimiglianza
Il metodo dei momenti paga la sua semplicità con il fatto che non assicura che i risultati ottenuti
godano di alcune proprietà che sono invece auspicabili. Al contrario, il metodo della massima
verosimiglianza gode di numerose proprietà molto importanti. Assumiamo che la funzione f(x;θ) sia
la densità di probabilità di una variabile casuale X, dove θ è il parametro incognito da stimare.
Ipotizziamo che della variabile X vengano fatte n osservazioni che indichiamo con X 1,X2,...,Xn. La
funzione definita da :
definisce una funzione dei valori campionari casuali x1,x2,...,xn e del parametro θ detta funzione di
massima verosimiglianza. Per interpretare tale funzione supponiamo che i valori osservati siano
ottenuti da n prove indipendenti di un esperimento;in quest'ottica la f(x;θ) è la funzione densità di
una variabile discreta X. Quindi, per qualunque insieme di valori osservabili la funzione di massima
verosimiglianza fornisce la probabilità di ottenere quel particolare insieme di valori con quel
particolare ordine di occorrenza. Se invece X è una variabile continua, la funzione di massima
verosimiglianza fornisce la densità di probabilità nel punto campione (x1,x2,...,xn) dove abbiamo
assunto che lo spazio campionario sia n dimensionale. In base a queste giustificazioni si dice che
una stima di massima verosimiglianza del parametro θ quel particolare valore del parametro θ che
massimizza la funzione di massima verosimiglianza.
Osserviamo che se gli xi sono mantenuti fissi la funzione di massima verosimiglianza è funzione
solo di θ e quindi la procedura di massimizzazione si riduce alla ricerca del massimo di funzioni di
una sola variabile, che può essere effettuato con le consuete tecniche di analisi matematica.
Esempio
Proviamo a stimare il parametro θ nella funzione di densità esponenziale f(x;θ), con x>0 e θ>0. La
funzione di massima verosimiglianza risulta
Poichè il valore di θ che massimizza L è lo stesso che massimizza ln L e quest'ultimo è più facile da
trattare, calcoliamo il logaritmo della funzione precedente:
differenziando rispetto a θ si ottiene l'equazione:
la cui soluzione ci dice che lo stimatore di massima verosimiglianza di θ è:
Osserviamo che tale stimatore è esattamente il reciproco della media aritmetica dei valori osservati
xi.
Nelle sezioni seguenti verranno descritti le proprietà possedute dagli stimatori di massima
verosimiglianza.
Fly UP