...

Indice 1 Il metodo della massima verosimiglianza

by user

on
Category: Documents
50

views

Report

Comments

Transcript

Indice 1 Il metodo della massima verosimiglianza
Indice
1 Il metodo della massima verosimiglianza
1.1
1.2
1.3
1.4
1.5
1.6
1.7
Denizione del problema . . . . . . . . . . . . .
Variabile campionaria - Statistiche - Stimatori .
Correttezza . . . . . . . . . . . . . . . . . . . .
Consistenza . . . . . . . . . . . . . . . . . . . .
Su
cienza - Su
cienza minimale - Completezza
Stimatori di minima varianza: e
cienza . . . .
Stime di massima verosimiglianza . . . . . . . .
2 Il metodo dei minimi quadrati
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Formulazione generale del problema (caso lineare) . . . .
2.3 Soluzione del problema di minimi quadrati: stimatori di
osservabili e parametri . . . . . . . . . . . . . . . . . . .
2.4 Covarianza degli stimatori e stima di o2 . . . . . . . . .
2.5 Ottimalita degli stimatori m.q.: Teorema di
Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Problemi di minimi quadrati con vincoli . . . . . . . . .
2.7 Problemi di stima non lineari . . . . . . . . . . . . . . .
2.8 Applicazione alla regressione lineare . . . . . . . . . . . .
1
1
4
6
12
17
23
35
42
42
47
51
56
62
65
73
81
1 Il metodo della massima verosimiglianza
1.1 Denizione del problema
Nel primo quaderno abbiamo denito in modo parallelo le variabili casuali (v.c.) e le variabili statistiche (v.s.) spiegando come queste si
comportino in modo formalmente identico una volta che si sia istitui1
ta la corrispondenza frequenze $ probabilita e si sia conseguentemente
denito l'operatore di media E fg.
Elemento centrale di quella corrispondenza e stato il considerare una v.s.
come il riordino di una \popolazione" di valori fx1 : : : xN g, ottenuti
ripetendo N volte l'esperimento stocastico E di cui una certa v.c. X
descrive il comportamento aleatorio.
Diremo in questo caso che fx1 : : : xN g costituisce un campione di tipo bernoulliano tratto dalla v.c. X . L'aggettivo bernoulliano si riferisce all'ipotesi, che qui supporremo sempre soddisfatta, che le ripetizioni
dell'esperimento E siano tali da non inuenzarsi stocasticamente tra loro.
Osservazione 1.1.1: per comprendere che vi sono casi signicativi in
cui invece le ripetizioni si inuenzano reciprocamente, basta pensare all'esempio dell'estrazione di due numeri da un'urna che ne contenga 3,
senza che il primo estratto venga riposto nell'urna stessa prima della seconda estrazione. In questo caso la prima estrazione e descritta dalla
v.c.
X1 11=3 12=3 13=3
ammesso che il primo estratto sia ad esempio x1 = 1, la seconda estrazione ha la distribuzione
X2 12=2 13=2
con le ovvie modiche nel caso il primo estratto fosse uno degli altri
due numeri. Dunque in questo caso la distribuzione di X2 dipende
chiaramente dal valore assunto da X1 .
Spesso nell'esperimento E si ha una conoscenza qualitativa del meccanismo stocastico che genera il comportamento aleatorio e poi appunto se
ne conosce un campione (bernoulliano) fx1 : : : xN g.
La conoscenza qualitativa di E puo allora suggerire che la v.c. X che
lo descrive, abbia una distribuzione appartenente ad una certa famiglia
fX (x ), dove rappresenta il parametro (mono- o pluri-dimensionale)
che specica la particolare densita di probabilita che ci interessa: supporremo che possa assumere valori in un insieme specicato.
2
Qualora questo elemento qualitativo non ci sia, talvolta, se il campione
e numeroso, si puo prendere in esame l'istogramma e dalla sua forma
arguire l'appartenenza di X ad una certa famiglia.
Esempio 1.1.1: sia E il lancio di una moneta: poiche i valori argomentali
di X sono solo due, questa v.c. non puo che essere rappresentata da una
famiglia ad un parametro
X 0p 1 ;1 p
(1.1.1)
=p:
(1.1.2)
X = N 2 ]
(1.1.3)
= 2 :
(1.1.4)
dove chiaramente
analogo ragionamento vale per ogni E che ammetta un numero nito di
valori argomentali.
Esempio 1.1.2: sia E una misura di precisione di una grandezza continua in tal caso si potra supporre
e quindi si potra porre
Analogo ragionamento vale per ogni v.c. per cui si possa invocare il
teorema centrale della statistica.
Il problema che ci poniamo ora e il seguente:
supponendo di conoscere la famiglia fX (x ), cui la distribuzione della v.c. X appartiene per un certo = , e conoscendo un campione (bernoulliano) fx1 : : : xN g estratto da
X , dare una stima t di , intendendo con cio per il momento
almeno che jt ; j e piccolo, con elevata probabilita, rispetto
ad un criterio pressato.
3
Poiche t deve essere un numero (od un vettore di numeri) calcolabile sulla
base delle conoscenze che abbiamo, risulta ovvio che t, oltre che dalla
forma della famiglia f (x ), dovra dipendere dai valori del campione,
cioe
t = t(x1 : : : xN ) :
(1.1.5)
Il nostro problema quindi sara di discutere i criteri di scelta della funzione
(1.1.5) in base alle proprieta che ne derivano.
1.2 Variabile campionaria - Statistiche - Stimatori
La variabile campionaria nel caso bernoulliano e la variabile che descrive
N repliche identiche e indipendenti dell'esperimento E , ovvero descrive
l'esperimento complesso E N E : : : E .
Se la v.c. X e ad 1 dimensione, allora la v.c. campionaria sara N dimensionale X (N ) , e fatta in modo tale che ogni sua componente abbia
la stessa distribuzione di X
X1
X
X (N ) = .. 2
.
XN
fX (x) = fX (x ) :
i
(1.2.1)
La distribuzione della v. campionaria X (N ) e poi interamente identicata
tramite l'ipotesi che le sue componenti siano tutte indipendenti tra loro,
cos che
fX (x ) = fX (x1 : : : xN ) = Ni=1 fX (xi ) :
(1.2.2)
La funzione di densita di X (N ) e detta \likelihood" (verosimiglianza) e
noi la indicheremo come
L(x ) = fX (x ) :
(1.2.3)
L'importanza della v. campionaria sta nel fatto che un campione ber4
noulliano fx1 : : : xN g di N estrazioni da X puo essere considerato come
una singola estrazione della variabile X (N ) .
Un esempio chiarira meglio il concetto.
Esempio 1.2.1: si consideri il classico gioco a testa e croce (E ) un
giocatore lancia due volte una moneta ottenendo il campione (t c). Ma
questo stesso puo essere anche considerato come un campione di una
sola replica di E 2, cioe di un esperimento costituito da due lanciatori
indipendenti che lanciano contemporaneamente due monete identiche.
Osservazione 1.2.1: il concetto di variabile campionaria puo essere
applicato anche al caso (non bernoulliano) in cui la ripetizione dell'esperimento E non e fatta nelle identiche condizioni, cos che ogni ripetizione
sara descritta da una diversa v.c. Xi.
Un esempio importante di questo tipo e costituito dal caso in cui una
stessa quantita e misurata in condizioni diverse o con strumenti diversi,
cos che ogni misura avra una diversa varianza i2 . In questo caso si usera
semplicemente la denizione (1.2.3), tenendo pero conto che ora
fX (x ) = Ni=1 fXi (xi ) (1.2.4)
senza che le fXi siano uguali tra loro.
Anzi, per questa strada si potrebbe anche lasciar cadere l'ipotesi di indipendenza stocastica delle Xi, denendo la v. campionaria semplicemente
come quella variabile che descrive il complesso degli N esperimenti considerati, indipendenti o no che siano le variabili che li descrivono, e la
funzione di likelihood come la densita di probabilita di tale variabile
N -pla.
Osservazione 1.2.2: nel caso di variabili discrete (ad es. binomiale,
poissoniana, ecc.) deniamo come likelihood in un punto x1 = k(1) x2 =
= k(2) : : : direttamente il prodotto delle probabilita che ogni componente
xi assuma il valore assegnato k(i). Percio se
PX fx = k g = pk
k = 1 2 : : :
si ha
LX (x) = Ni=1 PX fxi = k(i)g :
5
(1.2.5)
Deniamo statistica S (X (N ) ) una qualunque funzione, a una o piu dimensioni, della v. campionaria X (N ) .
Cos ad esempio la v.c.
M = N1 X Xi
N
i=1
(1.2.6)
e una statistica che prende ovviamente il nome di media campionaria.
E bene osservare che (1.2.6), come statistica e una v.c. e non gia una
costante: e chiaro pero che per un certo campione dato fx1 : : : xN g,
cioe per una estrazione da X (N ) , si potra calcolare la corrispondente
media campionaria, cioe il numero
N
X
1
m = N xi
i=1
(1.2.7)
e che tale numero puo essere considerato come un'estrazione da M.
Alla luce di queste denizioni possiamo riprendere il problema della stima
denito nel x1.1 nel seguente modo: data una certa funzione di likelihood
L(x ), cerchiamo un'opportuna statistica T (X (N ) ), con una distribuzione su
cientemente concentrata attorno al valore , in modo tale che
un'estrazione t da T , calcolata in corrispondenza a un campione estratto
x t = T (x), abbia un'elevata probabilita di essere vicina a .
Con questa impostazione T si chiama uno stimatore di mentre la sua
estrazione t = T (x) si chiama stima.
Vedremo nei prossimi paragra le proprieta di maggior interesse degli
stimatori, in particolare studieremo la media di T (X (N ) ) e la sua varianza
per N ! 1.
1.3 Correttezza
Per semplicita rappresentiamo in questo paragrafo la v. campionaria col
vettore (X ).
Avendo stabilito che uno stimatore T (X ) debba essere distribuito attorno
6
a , la prima questione interessante sara di vedere quale relazione vi sia
tra la media di T (X ), parametro di posizione per eccellenza, e .
Deniamo il bias (distorsione) di T (X ) come
b() = E fT (X )jg ; :
(1.3.1)
Questa formula richiede un commento: intanto intendiamo con E fT (X )jg
la media di T (X ), facendo l'ipotesi che sia il valore corretto del parametro, ovvero
E fT (X )jg =
Z
RN
T (x)L(x )dN x :
(1.3.2)
Dunque, supposto che sia il valore giusto del parametro, b() misura la
deviazione della media di T (X ) da .
Uno stimatore che abbia bias nullo
E fT (X )jg = (1.3.3)
si dice unbiased o corretto.
Esempio 1.3.1: la media campionaria M = (1=N ) Pi Xi e uno stimatore corretto di , qualunque sia la distribuzione sottostante. Infatti
notiamo che per ogni componente Xi si ha 1
E fXijg = (1.3.4)
X
X
E fMjg = N1 E fXi j g = N1 = :
(1.3.5)
cos che
i
i
Esempio 1.3.2: i momenti (non centrali) campionari di ordine n qualsiasi sono stime unbiased dei corrispondenti momenti della distribuzione
sottostante. Sia
Cio esprime l'ovvio fatto che ogni componente e di per se uno stimatore unbiased
di .
1
7
M n = N1 X Xin
( )
(1.3.6)
i
la variabile campionaria \momento campionario di ordine n".
Poiche chiaramente
E fXinjng = n
ragionando come per la media si ha
(1.3.7)
E fM(n)jng = n :
(1.3.8)
Esempio 1.3.3: la varianza campionaria non e uno stimatore corretto
della varianza teorica della popolazione sottostante. Deniamo come
varianza campionaria la variabile
S
2
X
= N1 (Xi ; M)2 =
X 2
X
;
(M)2 = M(2) ; (M)2 :
= 1
i
N
(1.3.9)
Studiamo la media di M2.
Si ha tenendo conto che le diverse componenti di X sono tra loro indipendenti,
E fM2g
(
)
(
)
X
= E 12 XiXk =
N ik
(
)
X
X
= E 12 XiXk + E 12 Xi2 =
N i=k
N i
2
= N ;2 N 2 + N22 =
(1.3.10)
N
N
= N ; 1 2 + 1 2 :
N
N
6
Pertanto, tornando alla (1.3.9) si ha
8
E fS 2 g = 2 ; N N; 1 2 ; N1 2 =
= N N; 1 2 ; 2 = N N; 1 2 :
(1.3.11)
Osservazione 1.3.1: nell'esempio (1.3.3) si e dimostrato che la media di
S
non coincide con 2 , ma e una funzione lineare di 2. In questo caso
e particolarmente semplice modicare lo stimatore in modo da ottenerne
un altro che sia unbiased. Bastera infatti porre
2
S
2
X
= N S2 = 1
(Xi ; M)2
N ;1
N ;1 i
(1.3.12)
perche si abbia
E fS 2g =
2
:
(1.3.13)
Lo stimatore (1.3.12) e detto varianza campionaria corretta: come si vede
esso di!erisce poco (anche numericamente) da S 2 quando N sia grande,
mentre la di!erenza puo essere signicativa quando N sia pari a poche
unita.
Esempio 1.3.4: sia X una variabile doppia X = VU e sia X (N ) la corrispondente
variabile campionaria (2N -dimensionale) le cui componenti
Xi = UVi sono tra loro indipendenti e identicamente distribuite. La
i
covarianza campionaria
SUV
X
= N1 (Ui ; MU )(Vi ; MV )
X
= N1
Ui Vi ; MU MV
(1.3.14)
e uno stimatore non corretto di UV .
Poiche tanto SUV quanto UV sono indici invarianti per traslazione, possiamo supporre di metterci nella situazione piu comoda, cioe U =
0 V = 0, senza alterare il risultato.
9
Calcoliamo prima
(
)
X
E fMU MV g = E N12 UiVk =
ik
X
= N12 E fUiVig =
i
N
= NUV
= NUV 2
poiche E fUi Vk g = 0 (i 6= k) in base alle ipotesi fatte.
Pertanto, dalla (1.3.14)
= N ; 1 UV :
(1.3.15)
N
Analogamente a quanto si fa per la varianza, e anche qui semplice correggere lo stimatore denendo una covarianza corretta tramite la formula
X
E fSUV g = N1
UV
; N1
UV
S UV = N 1; 1 X(Ui ; MU )(Vi ; MV ) :
(1.3.16)
Osservazione 1.3.2: nella denizione (1.3.3) di correttezza si e supposto
che E fT g fosse uguale al parametro per tutti i suoi valori: in questo
caso si dira che T e uno stimatore uniformemente corretto di . Vi
sono casi invece in cui lo stimatore T (X ) puo essere corretto solo per
qualche valore di . Si consideri ad esempio il coe
ciente di correlazione
campionario denito da
R = SSUVS :
U V
(1.3.17)
supponiamo che la variabile doppia sottostante sia
X = VU
una normale doppia con = 0. In tal caso, riscrivendo la (1.3.17) nella
forma
10
X Ui ; MU Vi ; MV
R = N1
S S
U
(1.3.18)
V
si vede che, per l'indipendenza stocastica di Ui Vi,
X
E fRg = N1 E Ui ;S MU E Vi ;S MV :
(1.3.19)
U
V
Ora, essendo le funzioni entro parentesi funzioni dispari, mentre le distribuzioni dei vettori
U. i
..
UN
V.i
..
VN
sono funzioni pari, si ha chiaramente che ciascuna delle medie di (1.3.19)
e nulla, cos
E fRg = 0 :
(1.3.20)
Pertanto R e uno stimatore corretto di = 0 (ed X e normale) e possibile
anche vedere che se 6= 0 R non e uno stimatore unbiased.
Osservazione 1.3.3: (diminuzione del bias). Se T e uno stimatore
corretto di , in generale g(T ) non e uno stimatore corretto di g(),
almeno in modo esatto, a meno che g non sia una funzione lineare.
Tuttavia se 2(T ) e abbastanza piccola si puo porre in modo approssimato
E fg(T )g = g(E fT g) = g() :
(1.3.21)
Supposto che g sia una funzione liscia, ad esempio con derivata terza continua, (1.3.21) equivale a trascurare, come termine principale, la quantita
1=2 g () T2 , infatti
00
E fg(T )g = E fg() + (T ; )g () + 12 g ()(T ; )2 + o2 g :
0
11
00
Qualora l'approssimazione (1.3.21) non bastasse, si puo ridurre il bias di
g(T ), portandolo ad un innitesimo di grado superiore, ponendo
G = g(T ) ; 12 T2 g (T ) :
00
(1.3.22)
E infatti facile vedere che, per una distribuzione simmetrica di T e per
una g abbastanza liscia, (1.3.22) e O4, al contrario di g(T ) che e O2.
Si osservi che (1.3.22) e utile quando si sappia calcolare T2 .
1.4 Consistenza
Vogliamo ora caratterizzare il comportamento degli stimatori quando la
numerosita del campione N tenda all'innito.
E ovvio che sia desiderabile che la distribuzione di T (X (N ) ) tenda a concentrarsi sempre piu attorno a , cioe che T (X (N ) ) tenda in probabilita
a .
Diremo che uno stimatore per cui
(N )
) = in P lim
T
(
X
N
!1
(1.4.1)
e consistente.
In pratica spesso anziche provare la (1.4.1) si fa ricorso alla condizione
su
ciente della convergenza in media quadratica, ovvero
lim E fT (X (N ) g = lim 2fT (X (N ) g = 0 :
N
N
!1
!1
(1.4.2)
(1.4.3)
Notiamo che la (1.4.2) equivale a dire che il bias b() tende a zero per
N ! 1.
Esempio 1.4.1: la media campionaria M e uno stimatore consistente di
. Infatti M e corretta, cos che b = 0, ed inoltre, usando la propagazione
degli errori,
1
2
X 2
1
X
2
(1.4.4)
(M) = N 2
X = N =0 N 12
cos che la (1.4.2) e (1.4.3) sono vericate.
Esempio 1.4.2: se la v.c. X ha momento quarto limitato ( 4 < +1)
allora S 2 e uno stimatore consistente di 2. In e!etti (1.4.2) e chiaramente
vericata perche E fS 2 g = (N ; 1)=N ] 2.
Quanto alla varianza di S 2 , possiamo osservare che, se 4 < +1, si ha
E fS
4
= N N; 1 1 ; N2 + N32
1
4
= +0
N :
g
4
+ N1 1 ; N1
2
4 =
(1.4.5)
Percio e anche
2
fS g = EfS g ;
2
4
1; 1
N
2
4
=0
1
N
e la consistenza e provata.
P 2
Si puo notare che poiche S 2 !
si ha anche chiaramente
2
2 P
2
S2 = N=(N ; 1)S ! , cioe anche S 2 e uno stimatore consistente di
.
Inne osserviamo che nel caso la X sia una v.c. normale, dalla (1.4.5) e
dalla nota relazione 4 = 3 4 si ricava
2
4
(S 2) = N2 ; 1 :
(1.4.6)
Esempio 1.4.3: sia data la famiglia di distribuzioni uniformi
fX (x ) =
1= 0 x 0 x < 0 x > :
si puo dimostrare che la seguente statistica campionaria
Xi
T (X ) = max
i
13
(1.4.7)
e uno stimatore consistente di .
Infatti, per ricavare la distribuzione di T , basta notare che
FT (t) = P fT tg = P fX1 t : : : XN tg =
= P fX tg]N = FX (t)N cos che
fT (t) = N FX (t)N 1 fX (t)
;
(T = max Xi) :
Usando la (1.4.7) per la fX e per la FX si ha per T = max Xi,
8 tN 1
>
<N
0t
fT (t) = > N
: 0 <t
;
cos che
Z
1
E fT g = E fmax Xig = N N tN dt = N N+ 1 = + 0 N1
0
:
Inoltre
Z
1
E fT g = N N tN +1 dt = N N+ 2 2 = 2 + 0 N1
0
2
cos che 2(T ) ! 0 per N ! 1 e la consistenza di T e provata.
Osservazione 1.4.1: contrariamente a quanto avviene per la proprieta
di correttezza, la consistenza viene mantenuta se si passa da T a g(T )
per una vasta classe di funzioni.
In e!etti se g() e continua in si avra che l'immagine inversa di un
intorno qualsiasi di g() g() ; " g() + "] contiene un intorno I di .
14
Figura 1.4.1:
Pertanto si ha
P (jg(T ) ; g()j < ") > P (T 2 I") d'altro canto per la consistenza di T come stimatore di ,
lim P (T 2 I") = 1 N
!1
8 cos che risulta anche
lim P (jg(T ) ; g()j < ") = 1 N
!1
8" (1.4.8)
e g(T ) e uno stimatore consistente di g().
La stessa proprieta vale a piu dimensioni anche se il provare cio richiede
un piu attento esame.
Premettiamo infatti un lemma.
Lemma 1.4.1: sia T = (T1 : : : Tp) uno stimatore di
= = (1 : : : p) nel senso che per ogni componente Ti ! i
15
in P : allora T e uno stimatore consistente p-dimensionale di
, cioe, preso un qualunque intorno p-dimensionale di I ,
risulta
lim P fT(N ) 2 I g = 1 :
N
!1
(1.4.9)
Infatti notiamo che data una successione P (N ) di distribuzioni di probabilita tali che
lim P (N ) (A) = 1 N
lim P (N )(B ) = 1 N
!1
!1
dovra essere anche necessariamente
lim P (N ) (A \ B ) = 1 :
N
!1
Infatti, ssato ", per N abbastanza grande P (N ) (A) > 1 ; ", e quindi
P (N )(B ; A) < ". D'altra parte P (N )(B ) > 1 ; ", e quindi P (N ) (A \ B ) =
= P (N ) (B ) ; P (N )(B ; A) > 1 ; 2".
Tale proprieta si estende immediatamente al caso di un numero nito di
intersezioni. Ne segue che la proprieta (1.4.9) e vera perche ogni intorno
di conterra un cubetto abbastanza piccolo
f"1g f"2g : : : f"pg = C e perche tale cubo puo essere visto
anche come l'intersezione degli \strati" p-dimensionali
C = f1 2 "1 82 : : : 8pg \ f2 2 "2 81 : : : 8pg \ : : : :
Poiche d'altronde per ipotesi
P fT1 2 "1 8T2 : : : 8Tpg ! 1 ed analogamente per le altre componenti, si vede che dovra pure essere
16
P fT 2 C g ! 1 cioe vale la (1.4.9).
Una volta dimostrato il lemma, procedendo in modo identico al caso
monodimensionale si vede che: se Ti sono stimatori consistenti di i e se
g e una funzione continua in = (1 : : : p), allora g(T ) = g(T1 : : : Tp)
e uno stimatore consistente di g().
Esempio 1.4.4: il coe
ciente di correlazione lineare campionario
X MY
R = MXY S; M
S
(1.4.10)
MXY = N1 X XiYi (1.4.11)
X Y
dove si e posto
e uno stimatore consistente di . Applicando l'Osservazione 1.4.1 e sufciente supporre che X Y 6= 0, cos che (1.4.10) denisca una funzione
continua di tutti i suoi argomenti, e provare che MXY ! XY in P , cosa
che viene lasciata al lettore come esercizio.
1.5 Sucienza - Sucienza minimale - Completezza
Larga parte della teoria della stima e dominata da un principio che potremmo chiamare principio di verosimiglianza: questo stabilisce che tutte le informazioni che si possono ottenere su un parametro a partire
da un campione fx1 : : : xN g, debbono essere ricavate dalla forma della
likelihood L(x ).
Cio introduce il concetto di su
cienza, per tener conto che spesso x
entra in L(x ) solo in particolari combinazioni, le quali dunque contengono tutta l'informazione proveniente dal campione, su . Prendiamo un
esempio semplice.
Esempio 1.5.1: consideriamo la distribuzione
17
fX (x ) = 1 e
;
x=
x0
che genera la likelihood
L(x ) = 1N e
1=
;
P xi
xi 0 :
Poiche i valori campionari entrano in L solo tramite
la statistica
S=
X
P x , diciamo che
i
Xi
contiene tutta l'informazione, per la famiglia data, concernente il parametro . Ne segue che, accettando tale principio, si e portati a cercare
i possibili stimatori di fra le funzioni di S , in modo tale che campioni
diversi che danno lo stesso valore di S , portino anche alle stesse stime di
.
Questo concetto e posto su basi piu precise con la denizione di statistica
suciente:
diciamo che S (X (N ) ) e una statistica su
ciente per il parametro e la famiglia fX (x ), se la distribuzione della v.
campionaria X condizionata a S = s risulta indipendente da
.
In termini analitici, ricordando la denizione di variabile condizionata, si
puo vericare che
1
L(x jS = s) = Z L(x )jgrad S (x)j
= h(x)
1
L(x )jgrad S (x)j d
;
;
f
S =s
g
18
(1.5.1)
dove x 2 fS = sg, e d e l'elemento d'area di fS (x) = sg.
Notando che la distribuzione marginale di S ,
fS (s ) =
Z
L(x )j grad S (x))j 1d
;
f
S =s
g
(1.5.2)
ovviamente non puo che essere funzione di s e di fS (s ) = K (s ) si trova che la condizione (1.5.1) puo essere anche scritta nella forma
equivalente
L(x ) = K (s ) h(x)jgrad S (x)j K (s )H (x)
(s = S (x)) :
(1.5.3)
Si perviene cos al cosiddetto teorema di fattorizzazione che a!erma appunto che condizione necessaria e su
ciente a
nche S (X ) sia una statistica su
ciente per e per la famiglia fX (x ), e che la likelihood si
fattorizzi nel prodotto di due fattori, uno dipendente solo da s = S (x) e
, e l'altro dipendente solo da x.
Esempio 1.5.2: sia X (N ) un campione di variabili i.i.d. (indipendenti,
identicamente distribuite) tratte da una N 2 ]. La likelihood di X (N )
puo essere scritta come
1
L(x 2) = (2)N=
e1=(22 )(x
2 N
e)+ (x e)
(1.5.4)
N log 1=(22 )x+x 2e+ x+N2 ]
(1.5.5)
;
;
dove
e = 1 1 : : : 1]+ :
Riscrivendo la (1.5.4) come
L = (21)N=2 e
;
;
;
e confrontando col teorema di fattorizzazione si riconosce che:
19
se = ( ) allora S = (X X e X ) = (P Xi P Xi)
se e nota e = allora S = (P Xi)
se e nota e = allora S = P(Xi ; ) .
+
2
2
+
2
2
2
Osservazione 1.5.1: si noti che l'esistenza di una statistica su
ciente
S (X ) per una famiglia fX (x ), non signica che S (X ) sia uno stimatore
di , ma in generale S (X ) sara uno stimatore di una qualche funzione
di . Cos nell'Esempio 1.5.2 quando = ( ) si ha E fS g = fN (2 +
2
) Ng.
Osservazione 1.5.2: il concetto di statistica su
ciente si puo illustrare
notando che si tratta di una funzione (o piu) le cui superci di livello
S (x) = s hanno la particolarita che, condizionando (restringendo) la distribuzione L(x ) ad una di esse, si trova una distribuzione indipendente
da . Ci si puo chiedere allora quale sia il sistema piu esteso di tali superci. Infatti la variabile S su
ciente che sia costante sul sistema piu
esteso di superci, sara anche quella che varia di meno, pur mantenendo
tutta l'informazione su : si dira allora che S e suciente minimale.
Per comprendere questa problematica si riprenda l'Esempio 1.5.1 e si
osservi che chiaramente, per uguale alla media dell'esponenziale, la
statistica bidimensionale
NX1
S =(
0
;
i=1
Xi XN )
e su
ciente tuttavia anche
N
X
S=(
i=1
Xi )
e su
ciente e quest'ultima compendia, per cos dire, tutta l'informazione
su che era contenuta in S .
Per riconoscere se una statistica e su
ciente minimale o no, si puo fare
ricorso al seguente Lemma.
0
20
Lemma 1.5.1: se S (X ) e una statistica su
ciente, su
ogni supercie di livello Ss = fS (x) = sg il rapporto di
likelihood
L(x )
L(y )
(x y 2 Ss)
e indipendente da .
Infatti se S (x) = S (y) = s, per il teorema di fattorizzazione si ha
L(x ) = K (s ) H (x)
L(y ) = K (s ) H (y)
e quindi
L(x ) = H (x) :
L(y ) H (y)
(1.5.6)
Ne segue che, se si vuol trovare la statistica su
ciente minimale per
una certa famiglia fX (x ), basta esaminare il rapporto di likelihood e
vedere su quali superci esso diventa indipendente da . Infatti anche
per la statistica minimale deve essere S = cost, sulle superci di tipo
(1.5.6). E viceversa, se il sistema S = cost coincide con quello su cui
si verica (1.5.6), allora S e minimale perche nessun'altra statistica puo
essere costante su superci che non siano comprese nel sistema (1.5.6).
Esempio 1.5.3: per un campione
normale di v.c. i.i.d. con media e
P
P
varianza incognite, S = ( Xi Xi2) e su
ciente minimale. Infatti,
scritta la likelihood come in (1.5.5) e formando il rapporto, si trova
L(x ) = e(1=22 )(x+x
L(y )
;
y+ y)+(=2 )(e+ x e+ y)
;
e chiaro che tale rapporto risulta indipendente da e
21
:
2
solo se
X
X
x+x = x2i = y+y = yi2
X
X
e+x = xi = e+y = yi cioe su quelle superci su cui
X
P
x2i = cost X
P
xi = cost :
Pertanto S = ( Xi2 Xi) e su
ciente minimale.
Esempio 1.5.4: vogliamo dimostrare, mediante il rapporto di likelihood, che per la distribuzione uniforme su (0 ) (cfr. Esempio 1.4.3) la
statistica S (X ) = max Xi e su
ciente minimale. Infatti notiamo che la
funzione di likelihood puo essere scritta come
L(x ) =
(1=)N 0 t = max xi :
0 < t = max xi
Quindi, formando il rapporto di likelihood e convenendo che questo rimanga costante se L(x ) = 0 L(y ) = 0 entrambe, si ha
8
1 0 tx ty >
<
L(x ) = 0 < tx 0 ty :
L(y ) >
> 1 < ty 0 tx :
1 < tx ty :
Questo rapporto puo risultare costante solo se
tx = max xi = ty = max yi il che dimostra appunto che S (X ) = max Xi e su
ciente minimale.
Chiudiamo questo paragrafo aggiungendo una denizione che ci sara utile
in seguito: diremo che la statistica S (X ) e completa per la famiglia
fX (x ) se la sola funzione h(S ) per cui vale
22
E fh(S )jg = 0 e
8
(1.5.7)
h(S ) 0 (1.5.8)
cioe se (1.5.7) implica (1.5.8).
Esempio 1.5.5: supposto che 2 sia nota, S = (1=N ) P Xi e completa
per N 2 ]. Infatti siccome S = N ( 2 =N )], si ha
E fh(S )jg =
=
Z+
1
pN
p2
;1
pN
h(s) p e N s 2
(
;
e2 N=(22 )
Z
+1
;
)2 =(22 )
ds =
h(s)e
Ns2 =(22 )
;
esN=2 ds
;1
cos che, per un teorema sulla trasformata di Laplace,
E fh(S )jg = 0
implica
h(s)e
s2 N=22
;
8
0
cioe
h(s) 0 :
1.6 Stimatori di minima varianza: ecienza
Nei paragra 3) e 4) abbiamo studiato gli stimatori in relazione al loro
valore medio e al comportamento asintotico delle loro distribuzioni, cioe
quando N ! 1. In questo paragrafo vogliamo studiare gli stimatori
in base alla loro dispersione attorno a , poiche piu piccola sara questa,
maggiore sara la probabilita che lo stimatore risulti vicino al valore da
stimare.
23
In generale deniamo l'errore quadratico medio di stima (e.q.m.s.) come
E
2
= E fT (X ) ; ]2 g = 2 fT (X ) g + E fT g ; ]2 =
= 2 fT (X ) g + b2 () :
(1.6.1)
Si potrebbe pensare che minimizzando la (1.6.1) si possano direttamente
trovare stimatori con proprieta ottimali: si puo tuttavia vedere che in
generale non esiste una T (X ) che minimizzi la (1.6.1) per tutti i valori
di , cos che per sfruttare tale approccio si e condotti a costruire criteri
di ottimalita piu complessi.
Resta tuttavia vero che minimizzare E 2, pero su una classe piu ristretta di
possibili stimatori, permette in alcuni casi di ricavare facilmente risultati
interessanti e in particolare fornisce esempi in cui si dimostra che uno
stimatore biased puo talvolta essere meno disperso attorno a di tutti
gli stimatori corretti dello stesso parametro.
Esempio 1.6.1: supponiamo di voler stimare la varianza 2 di una
popolazione normale, di cui sia incognita anche la media. Se si restringe
la classe degli stimatori a quelli aventi le seguenti caratteristiche:
siano invarianti per traslazione
T (Xi + ) = T (Xi) siano quadratici omogenei nella v. campionaria
T=
X
ik XiXk siano simmetrici rispetto a permutazioni degli indici
f : : : N g 1
si puo vedere che questi hanno necessariamente la forma
T (X ) = X
(Xi ; M)2 = (N ; 1)S 2 :
(1.6.2)
Scegliendo = 1=(N ; 1), si ha l'unico stimatore corretto di tale classe,
mentre, lasciando libero , si ha in generale un bias
24
b = (N ; 1) ; 1] 2 :
(1.6.3)
Ricordando che
4
(S 2) = 2 N ;1
si ha per E 2 in tale classe l'espressione
2
E
2
= 22(N ; 1) 4 + (N ; 1) ; 1]2 4 :
(1.6.4)
(1.6.5)
Il minimo dell'e.q.m.s. e allora ottenuto per
= N 1+ 1
cioe per
X
T (X ) = N 1+ 1 (Xi ; M)2 :
(1.6.6)
in corrispondenza il valore di E 2 e
E
2
4
= N2 + 1 che come si vede e inferiore a (1.6.4).
Volendoci limitare agli stimatori corretti, si ha b() 0 cos che l'e.q.m.s.
di T (X ) coincide con la sua varianza. Ci si puo chiedere se esista tra gli
stimatori corretti quello di minima varianza, poiche e chiaro che tale
stimatore sia da preferirsi tra quelli della sua classe.
L'esistenza dello stimatore unbiased di minima varianza puo essere provata come un teorema che, sebbene non di grande uso pratico, serve ad
inquadrare bene l'argomento.
25
Teorema 1.6.1: sia data la likelihood L(x ) supponia-
mo che esista una statistica S (x) su
ciente minimale completa per e per L, e sia V uno stimatore unbiased qualsiasi
di . Allora,
T = E fV jS g
(1.6.7)
e uno stimatore di minima varianza tra gli stimatori corretti
inoltre esso e unico.
Notiamo, prima di dare la dimostrazione, che in conseguenza della denizione (1.6.7) come media condizionata, T risulta una funzione di
S
T = T (S ) (1.6.8)
come e logico aspettarsi proprio perche S e una statistica su
ciente
minimale.
Il teorema si dimostra a passi:
a) T e uno stimatore corretto di . Infatti
E fT g = E fT (S )g = E fT (S )g = E fE fV jS gg = E fV g = S
S
b) T e indipendente da V .
cioe se V1 V2 sono due qualsiasi stimatori corretti di , e se
T1 = E fV1 jS g T2 = E fV2jS g, allora T1 = T2.
Infatti, posto h(S ) = T1(S ) ; T2(S ), si ha che
E fh(S )g = ; = 0 8
e per la completezza di S , segue h(S ) 0.
c) T e di minima varianza.
Infatti, sia V un qualunque stimatore unbiased si ha
26
2
(V ) = E f(V
= E f(V
; ) g = E f(V ; T + T ; ) g = (1.6.9)
; T ) g + (T ) + 2E f(V ; T )(T ; )g :
2
2
2
2
D'altro canto, usando la relazione
E fg = E fE fjS gg S
E f(V ; T )(T ; )g = E fT (S ) ; ]E fV jS g ; T (S )]g 0 S
cos che dalla (1.6.9) deriveremo
2
(V ) = 2(T ) + E f(V
; T) g 2
(1.6.10)
ovvero
2
(V ) 2(T ) (1.6.11)
cioe T e di minima varianza.
d) T e unico.
Infatti la (1.6.11) puo valere col segno \=" solo se
E f(V
; T ) g = 0 cioe se V = T con P = 1 :
2
Corollario 1.6.1: come conseguenza del Teorema 1.6.1
si vede subito anche che se uno stimatore T e funzione della
statistica su
ciente minimale ed e allo stesso tempo corretto, allora esso coincide con lo stimatore corretto di minima
varianza. Infatti, se T = T (S ), e inoltre E fT g = , si ha
anche
T = E fT jS g = E fT (S )jS g = T (S ) :
27
Esempio 1.6.2: la varianza campionaria corretta
corretto di
2
S
2
S
e lo stimatore
di minima varianza per una famiglia normale. Infatti e
=
2
1 (X X )2 1 (X X 2 ) ;
i
i
N ;1
N (N ; 1)
2
cioe SP
e funzione
P della statistica su
ciente, per la famiglia normale,
S = ( Xi Xi2) inoltre S 2 e corretto e quindi, in base al Corollario
1.6.1, esso e lo stimatore di minima varianza.
Si noti che a questo punto resta provato anche che lo stimatore (1.6.6)
ha e.q.m.s. inferiore ad ogni simatore corretto.
Osservazione 1.6.1: si noti che se = g(') da luogo ad una nuova
parametrizzazione della likelihood, ovvero se ' e un nuovo parametro
che dipende in modo invertibile da , e se T = h(S ) e uno stimatore
corretto di ', allora esso e anche di minima varianza.
Infatti, se L(x ) e la likelihood in funzione di , posto
L (x ') = L(x g(')) 0
e facile vedere tramite il teorema di fattorizzazione che se S e su
ciente
per , e anche su
ciente per '. Pertanto l'a!ermazione consegue dal
Corollario 1.6.1.
Anche quando esiste un minimo della varianza tra gli stimatori corretti
di un parametro , in genere non e facile calcolare tale minimo, e non e
quindi semplice giudicare, per uno stimatore dato, quanto esso sia buono. Si preferisce allora ricorrere ad una maggiorazione, detta limite di
Cramer-Rao, che specica un limite inferiore per la varianza di uno stimatore, biased o unbiased che sia, limite che puo essere il minimo od un
numero inferiore ad esso.
Teorema 1.6.2: (limite di Cramer-Rao). Data una v.
campionaria di varabili i.i.d., con una densita di probabilita
fX (x ) regolare in , e denita la variabile, dipendente da ,
28
@ log L(X ) = X U = X @ log f (X ) U = @
X i
i
i
i @
(1.6.12)
per un qualsiasi stimatore T , con bias b(), vale la disuguaglianza
2
fT g 1E+fbU(g)] = ; 1E+f@b(U)]g
2
0
0
2
2
(1.6.13)
inoltre (1.6.13) vale col segno di uguaglianza se e solo se esiste
una relazione lineare tra T e U .
Per dimostrare la (1.6.13) partiamo dall'identita
Z
RN
L(x )dN x = 1
(1.6.14)
e supponiamo che L = i fX (xi ) sia cos regolare da poter derivare
due volte sotto l'integrale (1.6.14). Alla prima derivazione otteniamo,
ricordando la denizione (1.6.12),
Z
=
=
=
Z RN
@ L(x )dN x =
X
N
ZR i
@ fX (xi ) fX (xk )dN x =
X @ fX (xi )
k=i
6
fX (xi ) L(x )dN x =
E fU g = 0 RN i
(1.6.15)
cioe U e una variabile a media nulla per ogni .
Derivando una seconda volta e ragionando come in (1.6.15), si ha
Z
Z
f@U gL(x )dN x + RN
= E f@ U g + E fU g = 0 RN
2
29
U@ (L(x ))dN x =
(1.6.16)
ovvero, ricordando anche (1.6.15),
E fU 2 g =
Ora si riparte dall'identita
+ b() =
2
fU g = ;Ef@ U g :
Z
RN
T (x)L(x )dN x :
(1.6.17)
(1.6.18)
supposto di poter derivare sotto integrale, si trova
1 + b () =
Z
0
RN
T (x)@ L(x )dN x = E fT (X )U g :
(1.6.19)
Ricordando che E fU g = 0, la (1.6.19) si puo anche scrivere
1 + b () = (T U ) :
0
inne, rammentando che il coe
ciente di correlazione tra due variabili
soddisfa la disuguaglianza 2 1, e 2 = 1 se e solo se esiste una relazione
lineare tra le due variabili, si puo scrivere
1 + b ()]2 2 (T ) 2(U ) 0
(1.6.20)
che, tramite la (1.6.17) ci da il risultato richiesto.
Si noti che per stimatori corretti la (1.6.20) diventa semplicemente
2
(T ) ;
1 :
E f@ U g
La funzione
I () = ;E f@ U g = ;E f@2 log L(X )g = 2 (U )
(1.6.21)
e detta informazione in quanto e una misura del massimo di informazione
ottenibile dai dati empirici sul parametro .
30
Osservazione 1.6.2: il limite inferiore di Cramer-Rao e signicativo,
nel senso che esistono famiglie di distribuzioni per le quali esso e raggiungibile, cioe e un vero minimo. Infatti la (1.6.20) puo valere col segno
di uguaglianza se e solo se
U = @ log L(x ) = AT (x) + C :
(1.6.22)
in tale relazione A e C possono essere funzioni di senza con cio alterare
il fatto che 2(U T ) = 2(U ) 2 (T ). Integrando la (1.6.22) rispetto a si
ha
log L(x ) = aT (x) + c + d
dove
a=
Z
A d c =
Z
(1.6.23)
C d
e la costante di integrazione d puo essere funzione di x in quanto @ d(x) 0.
Riscritta, la (1.6.23) ci da
(1.6.24)
L(x ) expfa()T (x) + c() + d(x)g una qualsiasi likelihood della forma (1.6.24) e detta appartenere alla famiglia esponenziale. Dunque, il limite minimo di varianza puo essere
raggiunto solo per funzioni di densita della famiglia esponenziale, che tuttavia come e facile provare comprende molte importanti variabili, quali
ad esempio la normale, la ;, la binomiale e la poissoniana.
Osservazione 1.6.3: per uno stimatore corretto che non raggiunga il
limite di Cramer-Rao si potra introdurre un indice, che misuri l'ecienza
dello stimatore stesso, nei termini
= 2(T )I ()] 1 :
(1.6.25)
01
(1.6.26)
;
E chiaro che
31
e l'e
cienza puo essere pari ad 1 se e solo se fX (x ) e della famiglia
esponenziale.
Osservazione 1.6.4: la trattazione del limite di Cramer-Rao (1.6.13) e
essenzialmente monodimensionale. Essa vale ovviamente anche nel caso
in cui sia la componente di un vettore e T sia il corrispondente stimatore. Tuttavia nel caso multidimensionale e possibile ottenere un limite
inferiore piu stretto, che ci proponiamo qui di dare.
Come gia nel caso monodimensionale, osserviamo anche qui che si puo
scrivere
@k L(x ) =
X @k fX (xi )
i
fX (xi ) L(x ) :
cos, introdotta l'operazione vettoriale
@ F () = @1 F () : : : @pF ()]+
(1.6.27)
U (x ) = @ log L(x ) (1.6.28)
e denendo
si puo scrivere
(1.6.29)
@ L(x ) = U L(x ) :
Supporremo L abbastanza regolare in per poter e!ettuare tutte le
derivazioni sotto integrale che ci serviranno. Pertanto, partendo da
Z
e di!erenziando, troviamo
E fU g =
L(x )dN x = 1
Z
U L(x )dN x = 0 :
(1.6.30)
Se ora applichiamo l'operatore @ a E fU g+ notando anche che @ @+ F e
la matrice delle derivate seconde di F , si ha
32
Z
Z
@ U L(x )dN x + U U +L(x )dN x = 0 :
+
(1.6.31)
Poiche vale la (1.6.30), si vede che
E fU U +g = CUU inoltre deniamo come matrice di informazione (di Fisher)
I ()
Z
; @ U L(x )dN x =
Z
; f@ @ log LgLdN x =
;E f@ @ log Lg :
=
=
=
+
+
(1.6.32)
+
In questo modo la (1.6.31) diventa
CUU = I () :
(1.6.33)
sia ora T (x) uno stimatore corretto, p-dimensionale, di : dall'identita
=
+
Z
T (x)+L(x )dN x applicando @ si trova
I=
Z
U T +L(x )dN x :
dove I e la matrice identita, da non confondersi con l'informazione scalare
qui sempre indicata con I () (vedi (1.6.21)).
Ricordando la (1.6.30), questa si puo scrivere
CUT = E fU (T ; T )+g = I :
33
(1.6.34)
Moltiplichiamo a destra e a sinistra per due vettori + e +CUT = E f+U (T ; T )+ g = + :
(1.6.35)
d'altro canto, come nel caso monodimensionale
E f+U (T ; T )+ g2 2
f U g
+
2
( +T ) da cui, applicando la propagazione della covarianza
(+ )2 = E f+U (T ; T )+ g2 (+CUU )( +CTT ) :
(1.6.36)
La (1.6.36) vale per ogni e ogni e se vale col segno di uguaglianza
signica che esiste una relazione lineare tra +U e +T .
Si noti che, scelto ad esempio + = 1 0 : : : 0] e = , si ritrova lo stesso
limite monodimensionale
2
(T1) = +CTT 2(1U ) :
1
tuttavia dalla (1.6.36) e possibile ottenere un limite inferiore piu forte.
Infatti, riscritta la (1.6.36) come
+ 2
+CTT (+C ) (1.6.37)
UU
si puo cercare per ogni dato l' che rende massimo il secondo membro.
Si puo vedere che tale e dato da
= CUU1 ;
cos che si giunge a
2
( +T ) = +CTT +CUU1 = +I () 1 ;
34
;
(1.6.38)
ovvero
CTT I () 1 :
(1.6.39)
;
Questa relazione dice sostanzialmente che la varianze di +T , che e
uno stimatore corretto di +, ha come limite inferiore +I 1 () . In
particolare scegliendo
;
::::::i::::::
i+ = 0 : : : 010 : : : 0]
si trovano i limiti inferiori delle varianze delle singole componenti Ti.
Si puo osservare che I () ha sulla diagonale principale ik () = 2 (Uk ),
cos che, quando I () sia diagonale, la (1.6.38) riproduce i singoli limiti
monodimensionali.
1.7 Stime di massima verosimiglianza
Fino ad ora abbiamo studiato le stime dei parametri in base alle loro
proprieta e solo in un caso abbiamo denito un criterio generale per la
ricerca di tali stime: nel caso degli stimatori corretti di minima varianza.
Come si e visto in quel caso, pero, la soluzione generale del problema e
ottenibile quando si conosca gia uno stimatore corretto, cosa non sempre
facile.
Vedremo in questo paragrafo invece un diverso principio di scelta degli
stimatori detto di massima verosimiglianza (maximum likelihood). Questo criterio, inventato da Fisher, stabilisce di scegliere come stimatore di
la statistica T (X ) tale che
L(x ) :
L(x T (x)) = max
(1.7.1)
Essenzialmente tale principio stabilisce di scegliere per un campione x dato, quel valore di per cui massima era la probabilita di estrarre proprio
quell'x.
Poiche il logaritmo e una funzione monotona, spesso anziche il massimo di L(x ) si preferisce cercare il massimo di log L(x ). Condizione
35
necessaria2 di massimo e l'annullarsi della derivata (o del gradiente) di
log L(x ) cos che (1.7.1) viene tradotto nell'equazione
U (x T (x)) = @ log L(x )j = T (x) 0
(1.7.2)
da risolversi rispetto a T (x).
Esempio 1.7.1: per i campioni normali con = ( 2) si trovano le
stime ^ = (^ ^ 2 ) di m.l. delle equazioni
X
log L(x ) = ; N2 log 2 ; 21 2 (xi ; )2 + cost (1.7.3)
1 P
(
x
;
)
i
2
(1.7.4)
U = ; N + 1 P(x ; )2 i
2 2
24
U (X ^ ^ 2) = 0 :
La soluzione ^ di (1.7.5) e
(1.7.5)
P
^ = N1 PXi
(1.7.6)
^ 2 = N1 (Xi ; ^)2 :
Si puo notare che la stima di m.l. non e in generale unbiased.
Esempio 1.7.2: siano Xi variabili normali con la stessa varianza e medie
i funzioni lineari di un numero inferiore di parametri
X = N 2 ]
(1.7.7)
= A (1.7.8)
.1 = .. N : : : a1p 1
... = ...
a.11
A = ..
aN 1 : : : aNp
p < n p Oltre ad imporre la condizione necessaria, occorrerebbe anche vericare che la soluzione ottenuta da (1.7.2) corrisponda ad un vero massimo. Per alcune distribuzioni,
come la normale, cio e automaticamente vericato.
2
36
supponiamo inoltre che A sia rango pieno3, cos che A+A sia invertibile.
Posto + = (1 : : : p 2) otteniamo la stima m.l. dalle equazioni
log L =
; N2 log ; 21 (x ; A) (x ; A) + cost
2
+
2
@
log
L
@
U = @ log L =
@1 +
= AN (x ;1 A)
2
;
2
2 2
+ 24
(x ; A)+(x ; A) (1.7.9)
(1.7.10)
U (x ^ ^ 2) = 0 :
(1.7.11)
^ = (A+A) 1 A+X
^ 2 = 1 (X ; A)+(X ; A^) :
N
(1.7.12)
(1.7.13)
Il risultato e
;
Notiamo che dei due stimatori, il primo e corretto
E f^g = (A+A) 1 A+E fX g = (A+ A) 1A+A = ;
;
(1.7.14)
mentre il secondo non e corretto.
Infatti notiamo che E fX ; A^g = 0 per la (1.7.14), cos che si puo
scrivere, posto U = X ; A^.
E f(X ; A^)+(X ; A^)g = TrCUU :
Poiche I(N ) = identita a N dimensioni].
In eetti A di rango pieno equivale a dire che A = 0 ! = 0. D'altro canto se
(A A) = 0 allora e anche 0 = + A+ A = (A)+ A = jAj2 ) A = 0 ! = 0:
poiche A+ A e quadrata e non ammette soluzioni del sistema omogeneo associato,
A+ A e invertibile.
3
+
37
U = I(N ) ; A(A+A) 1A+ ]X
;
si ha
CUU = I ; A(A+A) 1A+ ] 2I I ; A(A+A) 1A+ ] =
= 2 I ; A(A+ A) 1A+] :
(1.7.15)
;
;
;
Ora notiamo che
TrI(N ) = N mentre
TrA(A+A) 1A+ = Tr(A+A) 1 A+A = TrI(p) = p :
;
;
Riassumendo, dalla (1.7.15) si trova
TrCUU = 2(N ; p) :
pertanto tornando alla (1.7.13) si vede che
^
^
E f ^ 2g = E f(X ; AN)(X ; A)g = (N N; p) 2 :
Per fortuna e facile correggere tale bias ottenendo come stimatore corretto
^+
^
^o2 = (X ; A) (X ; A) :
(1.7.16)
N ;p
Le formule (1.7.12) e (1.7.16) forniscono la soluzione di un problema detto
\di modello lineare" nell'ambito delle variabili normali. L'argomento sara
ripreso piu in generale trattando del metodo dei minimi quadrati.
38
Gli stimatori di m.l. non hanno in generale nessuna proprieta ottimale,
a parte il signicato intuitivo legato alla loro denizione.
Tuttavia essi restano importanti perche godono di diverse proprieta ottimali almeno asintoticamente, fatte salve alcune condizioni di regolarita
(di!erenziabilita) della funzione di likelihood.
In e!etti le equazioni per le stime di m.l. si scrivono come
U (X ^) = 0 U = (@=@) log L] (1.7.17)
ora notiamo che supposto che lo stimatore ^ = T (X ) ottenuto dalla
(1.7.17) abbia un e.q.m.s. piccolo (rispetto ad una zona di variabilita
signicativa di U in funzione di ), si puo sostituire l'equazione esatta
(1.7.17), con quella linearizzata in corrispondenza al valore esatto di ,
X ) (^ ; ) 0 :
U (X ) + @U (@
=
(1.7.18)
Dalla (1.7.18), che vale solo in modo approssimato, si possono ricavare
interessanti proprieta, approssimate per l'appunto, dello stimatore .
Infatti supponiamo ancora che valga
q
2
f(@Uj )=(@k)g << E f(@Uj )=(@k )g = Ijk () 8j k nel caso monodimensionale, o analoghe condizioni per il caso multidimensionale in tal caso la (1.7.18) puo essere ulteriormente approssimata
con
;I ()(^ ; ) + U (X ) = 0 (1.7.19)
^ = + I () 1 U (X ) :
(1.7.20)
che ha soluzione
;
Ricordando che E fU g = 0 e CUU = I (), dalla (1.7.20) ricaviamo
39
E f^g =
C^^ = I () 1 CUU I () 1 = I () 1 :
;
;
;
(1.7.21)
(1.7.22)
Dunque, nell'ambito delle approssimazioni fatte, ^ e quasi unbiased e la
sua matrice di covarianza e circa I () 1 : si osservi ancora che piu grande
sara I () piu piccola sara la matrice di covarianza di ^ e quindi migliore
(piu informativa) la stima.
In particolare notiamo che
;
U () = @ log L(x ) =
X
@ log fXj (xj ) =
X
Uj ()
(1.7.23)
dove le Uj () sono variabili i.i.d. (possibilmente multidimensionali): supposto che per le Uj si possa applicare il teorema centrale della statistica
(ad esempio Uj abbia momento 3 nito) si avra che U e asintoticamente
normale, e anzi per le (1.7.21), (1.7.22)
^ (1.7.24)
= N I () 1 ] :
E interessante notare che, se per ogni variabile Uj si pone E fUj Uj+g =
= C0 = Io(), si ha
;
I () = CUU = N Io() (1.7.25)
cos che la (1.7.24) puo anche essere scritta come
I ()
^ = N o N
1
;
:
(1.7.26)
Tale relazione mostra che ci si puo aspettare che ^ sia anche consistente,
sebbene la dimostrazione accennata sia puramente euristica: in e!etti gode di tale proprieta sotto opportune ipotesi di regolarita per fX (x ).
Il ragionamento fatto qui in modo puramente approssimato puo essere
reso rigoroso prendendo il lim per N ! 1.
Osservazione 1.7.1: si vuole dimostrare che per lo stimatore di m.l.
monodimensionale ^, soluzione dell'equazione U (^) = 0, vale la proprieta
asintotica, per N ! 1,
40
i( )
^ = N N
con
;
1
i() = E f@ log fX (X )]2g = 2(Uj ) 8j
almeno sotto l'ipotesi restrittiva che le variabili i.i.d.
Uj = @ log fXj (Xj ) @ Uj = Uj soddisno le condizioni del teorema
centrale della statistica e le @2 Uj = Uj siano limitate con P = 1. In
e!etti si puo notare che l'equazione di ^ puo essere scritta
0
00
0 = U (^) = U () + U ()(^ ; ) + 21 U ( )(^ ; )2
0
con j
00
; j j^ ; j. Dividendo per
1
N
p
P
e posto
AN = Up() = pUj () = N 0 i()]
N PN
Uj () cost
U
(
)
BN = N = N = N ;i() N
P U ()
cost cost 1
U
(
)
1
j
CN = 2 N 3=2 = 2 N 3=2 = N p N 2
N
p
N = N (^ ; )
si ha che N risolve l'equazione
0
0
00
00
0 = AN + BN N + CN N2 cos che per N
zione
! 1 N tende in probabilita alla soluzione dell'equap
0 = i()Z ; i()
dove Z = Nlim i()
;
!1
1=2
AN e una normale standardizzata.
41
2 Il metodo dei minimi quadrati
2.1 Introduzione
L'idea di basare la teoria della stima sul principio di massima verosimiglianza, benche attraente, presenta alcuni seri incovenienti:
in primo luogo bisogna supporre che sia nota la famiglia di distri
buzioni da cui si estrae il campione
inoltre il problema di trovare lo stimatore applicando le equazioni del massimo, e risolubile in forma analitica solo in pochi casi
particolari
inne, passando a soluzioni numeriche (cioe accontentandoci del
valore numerico dello stimatore in corrispondenza ai valori numerici
del campione), si vede che, a parte casi particolari o con un numero
piccolo di incognite, il problema e insolubile.
Si pone quindi il problema di ottenere per certe grandezze osservabili
yifi = 1 : : : ng, cioe grandezze sulle quali si possono ricavare informazioni empiriche (osservazioni), stime che non implicano necessariamente
la conoscenza di tutta la distribuzione ma solo certe sue caratteristiche,
ad esempio medie e varianze-covarianze.
Esempio 2.1.1: si consideri una maglia di una rete elettrica e si supponga di aver eseguito misure di di!erenze
di potenziale ai nodi.
In particolare (g. 2.1.1) si supponga di
aver osservato:
y1 = V12 = V2 ; V1
y2 = V23 = V3 ; V2
y3 = V31 = V3 ; V1
(2.1.1)
Le osservazioni sono e!ettuate commettendo errori di misura e quindi
vanno
42
descritte da variabili casuali Y1 Y2 Y3 di cui le variabili \osservabili"
y1 y2 y3 denite in (2.1.1) sono i valori medi:
E fYig = yi :
(2.1.2)
In virtu della struttura sica del sistema sottoposto ad osservazione, le
medie yi non possono assumere tre valori arbitrari, ma a causa della loro
forma (2.1.1) (ovvero per la denizione stessa di potenziale) deve essere
y1 + y2 + y3 = 0
(2.1.3)
viceversa si potrebbe anche notare che dati tre numeri qualsiasi che soddisfano la (2.1.3) e possibile pensare ad una maglia ideale che ha quei
numeri come di!erenza di potenziale: in altri termini la (2.1.3) e la condizione necessaria e su
ciente perche i tre numeri y1 y2 y3 descrivano le
di!erenze di potenziale di una maglia di vertici 1,2,3.
Naturalmente la presenza di una condizione come la (2.1.3) da una qualche informazione sugli errori di misura connessi che non saranno conosciuti individualmente, ma in una loro combinazione lineare. Infatti, se
indichiamo con "i gli errori,
Yi = yi + "i E f"ig = 0 (2.1.4)
deve essere
X
Yi =
X
yi +
X
"i =
X
"i (2.1.5)
in conseguenza della (2.1.3).
Inoltre, conoscendo i procedimenti di misura, si possono fare ragionevoli
ipotesi sulla matrice di covarianza di Y . Ad esempio, adottando particolari precauzioni da studiare caso per caso, si potra supporre che le misure
siano indipendenti e cos le componenti di Y + = Y1 Y2 Y3] saranno tra
loro incorrelate: inoltre supponendo che le osservazioni abbiano tutte la
stessa precisione si potra supporre direttamente
CY Y = o2I 43
(2.1.6)
ove o2 ha il senso della varianza comune a tutte le osservazioni, e rimane
una incognita del nostro problema.
Cos il problema relativo a questo esempio puo essere sintetizzato come:
conoscendo un vettore
Yo1
Yo = Yo2
Yo3
di valori osservati, estratti da una v.c. a 3 dimensioni
Y1
Y = Y2
Y3
di cui e denito il vettore dei valori medi, cioe delle osservabili,
y1
E fY g = y = y2
y3
si sappia che tale media deve soddisfare la condizione (lineare)
X
yi = 0 (2.1.7)
e sapendo che la covarianza di Y ha la forma
CY Y = o2I (2.1.8)
si vogliono trovare stime di y e di o2 , nel senso che che si cercano stimatori
y^ ^o2
rispettivamente di y e o2, che siano funzioni della variabile campionaria
Y , dunque calcolabili conoscendo il vettore delle osservazioni Yo.
44
Inoltre si vorrebbe conoscere anche la dispersione delle nostre stime ovvero Cy^y^ e, dove possibile, anche 2 (^o2). Non manchiamo di osservare,
chiudendo questo esempio, che per motivi di simmetria (cioe non avendo
motivi di pensare che un errore sia piu grande degli altri) una soluzione
intuitiva del nostro probema di stima puo essere data ponendo (per la
(2.1.5))
3
3
X
X
1
1
"^1 = "^2 = "^3 = 3 "k = 3 Yok :
k=1
k=1
(2.1.9)
inoltre si ha anche che, posto
"=
X
Yok =
X
"k (E f"g = 0)
(2.1.10)
risulta per la legge di propagazione degli errori
E f"2g = 2 (") = 3 o2 cos che
^o2 = 1 "2
3
(2.1.11)
e uno stimatore corretto di o2.
In base alla (2.1.9), la (2.1.11) puo essere scritta come
^o2 = 31 "2 = 3^"2i
(2.1.12)
Osservazione 2.1.1: si puo notare che, pur nella sua elementarita, l'E-
sempio 2.1.1 e stato svolto prescindendo completamente dalla distribuzione della variabile 3-D, Y . Una maniera per geometrizzare la scelta (2.1.9)
e la seguente: si consideri lo spazio R3 in cui ha sede la distribuzione di
Y , e in esso il piano V di equazione (2.1.7).
45
Geometria elementare dei minimi
quadrati:
V=
Yo =
y=
y^ =
varieta dei valori ammissibili
vettore delle osservazioni
vettore delle osservabili
vettore delle stime
Figura 2.1.2
La distribuzione di Y ha un valore medio y 2 V (cfr. g. 2.1.2), detta
varieta dei valori ammissibili, il vettore delle osservazioni Yo in generale
sara al di fuori di V si cerca un vettore y^ 2 V che sia \il piu vicino
possibile" a y, e sia una funzione lineare di Yo.
Se Yo ha una distribuzione isotropa, cioe senza una tendenza a muoversi
dalla media y piu in una direzione che in un'altra, cosa che e indicata
dalla forma di covarianza (2.1.8), e \intuitivo" scegliere per y^ la proiezione
ortogonale di Yo su V , cioe quel vettore
y^ = Yo ; "^
(2.1.13)
P
che tra tutti quelli di V ( y^i = 0) rende minima la distanza
"^+"^ =
X
"^2i =
X
(Yoi ; y^i)2 = (Yo ; y^)+(Yo ; y^) = min :
(2.1.14)
In questo caso il quadrato della distanza minimizzata (2.1.13) serve anche
a stimare o2 in base alla (2.1.12).
Osservazione 2.1.2: il criterio di minimizzare la somma dei quadrati
(2.1.14) coincide perfettamente con quello di maximum likelihood quando
si supponga che
Y
N y
Infatti in tal caso
46
oI]
2
:
(2.1.15)
L(Y y) =
1
p
( 2)n
(
ne
1=2o2 )
;
o
P(Yi
yi ) 2
;
(2.1.16)
cos che
P la condizione di massimo di L rispetto a y, soggetto alla condizione yi = 0, si traduce nella condizione di minimo (2.1.14). In questo
senso si puo pensare di generalizzare la (2.1.14) al caso in cui
CY Y = o2Q
(2.1.17)
(Yo ; y^)+Q 1 (Yo ; y^) = min :
(2.1.18)
con Q 6= I , prendendo, in analogia al caso della distribuzione normale,
;
Questo stesso principio sara giusticato anche in base ad una richiesta
di invarianza del procedimento di stima per trasformazioni lineari.
2.2 Formulazione generale del problema (caso lineare)
Analizzando l'esempio del paragrafo precedente perveniamo alla seguente
formulazione generale del problema di stima.
E dato un vettore di valori osservati
Y.o1
Yo = ..
Yon
Y.1
tratto da una v.c. n-dimensionale, Y = ..
Yn
(2.2.1)
, di cui non si conosce in
generale la distribuzione, ma di cui si sa che il valore medio
y = E fY g 47
(2.2.2)
detto anche vettore delle variabili osservabili, per motivi sici o geometrici e ristretto a stare su una varieta lineare a m dimensioni (m <
n)
y2V (2.2.3)
detta anche varieta dei valori ammissibili questo costituisce il cos detto
modello deterministico.
Inoltre sulla base della conoscenza delle modalita di misura si puo a!ermare che la covarianza di Y ha la forma
CY Y = o2Q (2.2.4)
con o2 incognito e Q una matrice nota, strettamente denita positiva:
questo costituisce il cos detto modello stocastico4.
Sulla base del vettore Yo, del modello deterministico (2.2.3), del modello
stocastico (2.2.4) si vogliono trovare le stime
y^ y
^o2 2
o
con matrice di covarianza Cy^y^
e, se possibile,
2
f ^o g :
2
Naturalmente per arrivare a denire le stime richieste occorre porre delle condizioni aggiuntive: queste costituiscono il principio dei minimi
quadrati, che consiste nell'imporre che y^ sia tale da soddisfare
(Yo ; y^)+Q 1 (Yo ; y^) = min
y^ 2 V
;
(2.2.5)
e che ^o2 sia proporzionale alla forma quadratica minimizzata nella (2.2.5),
Il modello stocastico (2.2.4) implica che siano note le varianze 2 fY g a meno di
un fattore proporzionale e le correlazioni tra le componenti questa ipotesi copre molti
casi metrologicamente interessanti.
4
i
48
^o2 = c(Yo ; y^)+Q 1 (Yo ; y^) ;
(2.2.6)
con la costante c determinata in modo tale che ^o2 sia uno stimatore
corretto di o2 .
Osservazione 2.2.1: nel caso Q = I il principio (2.2.5) e interpretato
come la ricerca del punto di minima distanza (euclidea),
p
d(Y y^) = (Y
; y^) (Y ; y^) +
tra quelli che appartengono alla varieta V .
Come si e visto anche nel paragrafo 2.1 la ricerca del punto piu vicino equivale a riconoscere che non esiste nessuna direzione preferenziale
proprio perche Q = I .
Vogliamo far vedere che, se Q = I , il principio (2.2.5) puo essere derivato sulla base della seguente richiesta: sia y^ lo stimatore lineare a cui
arriveremo in base al criterio scelto sia ora T una trasformazione lineare
qualunque che trasforma Y in una variabile isotropa, ad esempio
T =Q
1=2
;
5
(2.2.7)
e sia
U = TY (2.2.8)
CUU = o2 I :
(2.2.9)
cos che
Al vettore osservato Yo corrispondera Uo = TYo, mentre alla varieta V
corrispondera la varieta degli u possibili del tipo u = Ty y 2 V . Sulla
base di questo problema per u, sappiamo che una stima u^ puo essere
ricavata in base al principio
Ricordiamo che questa e per denizione l'unica matrice simmetrica, denita
positiva per cui T 2 = Q;1.
5
49
(U ; u^)+(U ; u^) = min :
u^ = Ty (y 2 V )
(2.2.10)
Ora richiediamo che la stima y^ che stiamo cercando sia legata a u^ proprio
dalla stessa relazione, cioe che se u^ e la stima di u, allora
y^ = T 1u^ sia la stima ricercata di y. Ma in tal caso ispezionando la
(2.2.10) si vede che y^ puo essere ricavata direttamente dal principio
;
(Y ; y^)+Q 1 (Y
y^ 2 V
;
; y^) = min
che e appunto quanto volevamo dimostrare.
Osservazione 2.2.2: poiche in analisi matematica il concetto di distanza e introdotto in termini generali tramite le sue proprieta formali e
in particolare negli spazi euclidei Rn, ogni forma quadratica omogenea,
denita positiva in senso stretto
d(x y) = (x ; y)+P (x ; y)
puo essere presa come nozione di distanza (subordinata alla metrica P =
fPikg), si vede che il problema dei minimi quadrati (caso lineare) puo
essere denito in termini formalmente molto semplici dicendo che:
si vuole trovare il vettore y^ 2 V , varieta dei valori ammissibili, piu vicino ad ogni Y dato, secondo una metrica denita,
tramite il modello stocastico (2.2.4), come P = Q 1 .
;
Osservazione 2.2.3: dal punto di vista della simbologia notiamo che
nelle formule dei paragra precedenti come in quelli che verranno si usera
Y quando si vorra mettere in evidenza la variabile casuale che descrive
il complesso delle osservazioni si usera Yo quando si vorra indicare lo
specico vettore di osservazioni (numeri) trovati nell'eseguire le misure.
Con y^ si indichera lo stimatore di y, il quale sara dunque a sua volta
una variabile casuale funzione della variabile campionaria Y y^ = y^(Y )
tuttavia indicheremo con lo stesso simbolo anche il vettore delle stime,
50
cioe il vettore dei numeri che si ottengono sostituendo nello stimatore
y^(Y ) il vettore delle osservazioni, y^ = y^(Yo). La funzione e ovviamente
sempre la stessa, ma in un caso sottolineiamo il carattere di variabile
casuale, nell'altro il carattere di vettore numerico.
2.3 Soluzione del problema di minimi quadrati: stimatori di osservabili e parametri
Vogliamo risolvere il problema posto col principio dei minimi quadrati
(2.2.5), (2.2.6) considerando sia il caso in cui la varieta lineare V sia data
in forma parametrica
y = Ax + a
(2.3.1)
(dim y = n dim x = m A = n m] rango A = m) che quello in cui essa e data in forma di equazioni di condizione
By = b
(2.3.2)
(Yo ; y^)+Q 1 (Yo ; y^) = min
(2.3.3)
(B = c m] c = n ; m = No eq. di condizione, rango B = c BA = =
0 Ba = b).
Si noti che nel caso normale con Q = I la soluzione e gia stata trovata
nell'Esempio 1.7.2.
Il metodo e perfettamente generalizzabile al caso Q 6= I , tuttavia si
ritiene importante ricavare qui la soluzione direttamente dal principio
variazionale
;
sia per l'interesse del metodo in se che per la maggiore generalita dei
risultati. Per rendere i conti il piu possibile sintetici conviene radunare
le due forme (2.3.1), (2.3.2) in un'unica forma generale della varieta V ,
cioe
Dy = Ax + d 51
(2.3.4)
ed una volta ottenuto il risultato specializzare il modello (2.3.4) ai due
casi di maggior interesse, fD = I d = ag ovvero fD = B A = 0 d = bg.
Prima di procedere specichiamo le dimensioni di (2.3.4):
dim y = n dim x = m m < n
D = l n] A = l m] m < l n
(2.3.5)
inoltre supponiamo che il rango di D sia pieno, cioe che tutte le equazioni
di condizione siano indipendenti, e che la matrice A sia o nulla (caso in
cui mancano i parametri e si hanno pure equazioni di condizione (2.3.2))
oppure abbia rango pieno in modo che si possa sempre pensare di eliminare i parametri, riducendo le (2.3.4) ad un sistema di c = l ; n pure
equazioni di condizione.
Teorema 2.3.1: nelle condizioni poste i vettori (stimatori) x^ y^ che risolvono il problema variazionale (2.3.3), (2.3.4)
(Yo ; y^)+Q 1 (Yo ; y^) = min
Dy^ = Ax^ + d
;
sono dati da
x^ = N 1 A+K 1 (DYo ; d)
y^ = Yo ; QD+K 1Uo ;
;
;
(2.3.6)
(2.3.7)
dove
8
< K = DQD+
+
1
normale)
: UNo == ADYKo ; AAx^ ; d (matrice
(vettore degli scarti)
;
(2.3.8)
Il problema e risolto cercando i punti di stazionarieta di
(Yo ; y^)Q 1 (Yo ; y^) sotto la condizione (2.3.4), mediante la tecnica dei
moltiplicatori di Lagrange. Notiamo subito che la forma quadratica
(2.3.3) e limitata inferiormente, perche denita positiva, mentre tende
;
52
all'innito quando Yo ; y^ ! 1: percio tale forma deve ammettere almeno un minimo assoluto e se le condizioni di stazionarieta hanno soluzione unica, allora tale soluzione deve necessariamente corrispondere al
minimo.
Per applicare la tecnica dei moltiplicatori di Lagrange, occorre sommare
a (1=2)(Yo ; y^)+Q 1 (Yo ; y^) le componenti di Dy^ ; Ax^ ; d, ognuna
moltiplicata per un suo moltiplicatore 1 2 : : : `: ovvero otteniamo la
funzione obiettivo
;
'(^x y^) = (1=2)(Yo ; y^)+Q 1(Yo ; y^) + (Dy^ ; Ax^ ; d)+
;
(2.3.9)
dove + = 1 : : : `].
Per imporre le condizioni di stazionarieta a ', di!erenziamo tale funzione6
d' = ;dy^+Q 1(Yo ; y^) + dy^+D+ ; dx^+A+ :
;
Annullando separatamente i coe
cienti di dy^+ e dx^+ troviamo
(Yo ; y^) + D+ = 0
A+ = 0 ;Q
1
;
(2.3.10)
equazione cui va aggiunta la (2.3.4).
Dalla prima delle (2.3.10) si ha
y^ = Yo ; QD+
che, posta nella (2.3.4), da
6
Si osservi che se S e simmetrica e v un vettore qualunque,
d(v+ Sv) = (dv+ )Sv + v+ Sdv = (dv+ )Sv + dv+ S + v = 2(dv+ )Sv :
53
(2.3.11)
DYo ; K = Ax^ + d
(K = DQD+) :
(2.3.12)
Notiamo che D Q e quindi anche K sono di rango pieno. Si ricava = K 1 (DYo ; d) ; K 1 Ax^
;
;
(2.3.13)
e si usa le seconda delle (2.3.10), trovando
N x^ = A+ K 1(DYo ; d)
(N = A+K 1A) :
;
;
(2.3.14)
Ricordando che o A e identicamente nulla, nel qual caso la stima di x^
non si pone e si puo usare direttamente (2.3.13) in (2.3.11), oppure A e
di rango pieno, la (2.3.14) puo essere risolta e da la (2.3.6):
x^ = N 1A+ K 1(DYo ; d) :
;
;
Sostituendo nella (2.3.13) si ha
= K 1(DYo ; d ; Ax^) = K 1 Uo ;
;
sostituendo nella (2.3.11) si trova la (2.3.7)
y^ = Yo ; QD+K 1 Uo :
;
Il vettore Uo = DYo ; d ; Ax^ prende il nome di vettore degli scarti delle
equazioni.
Osservazione 2.3.1: si consideri il caso in cui si abbiano pure equazioni
parametriche y = Ax + a, dette anche equazioni di osservazione rispetto
al modello generale si ha
D=I
d=a:
54
In questo caso la matrice A prende il nome di matrice disegno. Inoltre si
ha
K = Q N = A+ Q 1 A
;
e risulta
x^ = N 1A+ Q 1(Yo ; a)
y^ = Yo ; QQ 1 Uo = Yo ; Uo = Ax^ + a :
;
;
;
(2.3.15)
Si puo notare che per la seconda delle (2.3.15) il vettore Uo coincide in
questo caso anche con il vettore delle correzioni di Yo Yo ; y^.
Osservazione 2.3.2: si prenda invece il caso in cui By = b, detto anche
delle equazioni di condizione rispetto al modello generale si ha
D=B
A=0
d=b :
dalle (2.3.14) e (2.3.14), posto A = 0, si ricava direttamente
y^ = Yo ; QB + K 1(BYo ; b) (K = BQB + ) :
;
(2.3.16)
In questo caso il vettore
Uo = BYo ; b
prende il nome di vettore degli errori di chiusura (si veda l'Esempio 2.1.1).
Osservazione 2.3.3: si noti che dal punto di vista della stima dei parametri x serve, piu che il vettore Yo, il vettore DYo ; d = Vo: questo
signica che Vo contiene tutta l'informazione necessaria alla stima di x:
in e!etti il modello generale
Dy = Ax + d
puo essere ritrasformato in modello puramente parametrico
55
v = Ax con \osservazione" Vo e con modello stocastico
CV V = o2DQD+ = o2 K :
2.4 Covarianza degli stimatori e stima di
2
o
Gli stimatori x^ y^ sono corretti: infatti dalla (2.3.6), osservando che per i
valori medi x y deve valere la (2.3.4), troviamo
E fx^g = N 1 A+K 1(DE fY g ; d) = N 1A+ K 1(Ax) = N 1 Nx = x :
(2.4.1)
Pertanto per il vettore U degli scarti delle equazioni si ha
;
;
;
;
E fU g = E fDYo ; Ax^ ; dg = Dy ; Ax ; d = 0
;
(2.4.2)
e quindi
E fy^g = E fyg ; QD+K 1 E fU g = y :
;
(2.4.3)
Tra l'altro cio implica che il vettore delle correzioni
"^ = Yo ; y^
e a media nulla
E f"^g = 0 :
(2.4.4)
Cerchiamo ora le covarianze di x^ y^ e alcune matrici di covarianza e di
cross-covarianza che ci serviranno in futuro.
Covarianza di x^: ricordando che per ipotesi
56
CY Y = o2Q
ed applicando la propagazione della covarianza, si ha
Cx^x^ = o2 N 1 A+K 1DQD+K 1AN 1 = o2N 1 :
;
;
;
;
(2.4.5)
;
Covarianza di U: dalla denizione (2.3.8) e dalla (2.3.6) si vede che
U = DY ; d ; AN 1 A+K 1(DY ; d) =
= (I ; AN 1 A+K 1 )(DY ; d) :
;
;
Poiche V = DY
CUU =
=
;
; d ha covarianza CV V =
; AN
; AN
o (I
2
o (K
2
1
;
(2.4.6)
;
o DQD
2
+
= o2 K , si trova
A+K 1 )K (I ; K 1 AN 1 A+) =
1 +
A ):
(2.4.7)
;
;
;
;
Cross-covarianza di U e x^: notando che tanto U quanto x^ sono funzioni
lineari dello stesso vettore V = DY ; d (cfr. (2.3.6) e (2.4.6)), si ha per
denizione
CU x^ = E fU (^x ; x)+ g = (I ; AN 1 A+ K 1)CV V K 1 AN 1 =
= o2(I ; AN 1 A+K 1)AN 1 =
(2.4.8)
2
1 +
1
1
= o (A ; AN A K A)N = 0 :
;
;
;
;
;
;
;
;
;
;
Dunque U e x^ sono tra loro non correlati. Si osservi che di conseguenza
anche il vettore delle correzioni "^ = Y ; y^, che in base alla (2.3.7) e
funzione lineare di U , risultera non correlato ad x^
C"^x^ = 0 :
(2.4.9)
Covarianza di y^: allo scopo di calcolare questa matrice, conviene prima
determinare a livello di servizio C"^"^ e C"y . Dalla denizione "^ = Y ; y^ =
= QD+K 1 U e dalla (2.4.7) si trova
;
57
C"^"^ = o2QD+K 1 (K ; AN 1 A+)K 1DQ :
;
;
;
(2.4.10)
Inoltre per la (2.4.6)
C"^Y = QD+K 1(I ; AN 1 A+K 1 )DCY Y =
= o2QD+K 1 (K ; AN 1 A+)K 1DQ ;
;
;
;
;
;
(2.4.11)
cioe C"^Y = C"^"^.
Essendo tale matrice simmetrica e anche
C"^Y = C"^"^ = CY "^ :
Per concludere, dalla relazione
y^ = Y
; "^ si ha
Cy^y^ = CY Y ; CY "^ ; C"^Y + C"^"^ = CY Y ; C"^"^ =
= o2fQ ; QD+K 1 K ; AN 1 A+]K 1DQg : (2.4.12)
;
;
;
Osservazione 2.4.1: nel caso di un modello di equazioni parametriche
si ha
D = I K = Q U = " N = A+Q 1A ;
cos
8
< Cx^x^ = o2N 1
= C"^"^ = o2 Q ; AN 1 A+]
: CCUU
y^y^ = 2 AN 1 A+ :
;
;
o
;
Si noti come alla decomposizione
58
(2.4.13)
Y
; y = Y ; y^ + y^ ; y = "^ + A(^x ; x)
corrisponde in questo caso una perfettamente analoga decomposizione
CY Y = o2 Q = C"^"^ + Cy^y^ = C"^"^ + ACx^x^ A+
a causa della non correlazione tra i due vettori (Q 1-ortogonali) "^ e y^;y =
A(^x ; x).
Osservazione 2.4.2: nel caso di un modello di pure equazioni di condizione risulta
;
D = B A = 0 K = BQB + U = BY ; b vettore degli errori di chiusura
in tal caso si ha
8
< CUU = o2K
2
+
1
C
"
^"^ = o QB K BQ
: Cy^y^ = 2fQ ; QB + K 1BQg :
o
;
;
(2.4.14)
Anche in questo caso alla decomposizione
Y
; y = "^ + y^ ; y
corrisponde l'analoga relazione per le covarianze
CY Y = C"^"^ + Cy^y^ :
Stima di o2 : come gia annunciato nella formulazione generale del problema (cfr. x2.2), cercheremo uno stimatore di o2 nella forma
^o2 = c (Y
; y^) Q
+
;
1
(Y
; y^) = c "^ Q
+
imponendo la condizione di correttezza
59
1
;
"^ (2.4.15)
E f ^o2g =
2
o
(2.4.16)
allo scopo di determinare la costante c.
Notando che7
"^+Q 1"^ = TrQ 1"^"^+
;
;
si vede che, (cfr. (2.4.10)):
E f"^+Q 1 "^g = TrQ 1E f"^"^+g = TrQ 1C"^"^ =
(2.4.17)
2
1
+
1
1 +
1
= o Tr Q QD K K ; AN A ]K DQg =
= o2 fTrD+K 1DQ ; TrD+K 1 AN 1 A+K 1DQg :
;
;
;
;
;
;
;
;
;
;
;
Per eseguire tale conto e su
ciente ricordare che
K = DQD+ = l l] (l = noequazioni (cfr:2:3:4))
N = A+K 1A = m m] (m = n parametri) :
;
In e!etti
TrD+K 1DQ = TrK 1DQD+ = TrK 1K = TrI (l) = l TrD+K 1AN 1 A+ K 1DQ = TrA+K 1DQD+K 1AN 1 =
= TrA+K 1AN 1 = TrNN 1 = TrI (m) = m :
;
;
;
;
;
;
;
;
;
;
;
;
Cio posto dalla (2.4.17) si deriva semplicemente
7
Ricordiamo
una matrice Q = n n], la traccia e denita come
P q : perche,taledata
funzionale valgono le seguenti due proprieta
TrQ =
ii
TrQ = Trq ] = Trq ] = TrQ+
XX
XX
Tr(A B ) = ( a b ) = ( b a ) = Tr(B A) :
ik
ki
ik ki
i
k
ki
k
60
i
ik
E f"^+Q 1 "^g =
;
2
o
fl ; mg :
(2.4.18)
Confrontando con (2.4.15), (2.4.16), si vede che uno stimatore corretto
di o2 e dato da
+
1
"
^
Q
(2.4.19)
^o = l ; m"^ :
Questo stimatore puo anche essere espresso esplicitamente in funzione degli scarti delle equazioni Uo , anziche delle correzioni "^: infatti, ricordando
che
;
2
"^ = QD+K 1 U (Uo = DYo ; Ax^ ; d)
;
si ha
2
o
+
K 1U
= Ul ;
m
;
(2.4.20)
Si puo osservare che quando si sia interessati solo alla stima dei parametri
x, la (2.4.20) puo essere applicata senza cercare la stima y^, poiche gli
scarti delle equazioni U dipendono da DYo ; d = Vo (U = Vo ; Ax^) e
non da Yo direttamente.
Osservazione 2.4.3: nel caso di un modello puramente parametrico
U = "^ K = Q
cos che (2.4.19) e (2.4.20) coincidono in modo evidente in piu si puo
notare che in questo caso
l = n equazioni = n = n osservabili:
Osservazione 2.4.4: per il modello con pure equazioni di condizione, la
forma (2.4.20) e certamente piu comoda della (2.4.19) in quanto il vettore
Uo (vettore degli errori di chiusura) ha dimensioni inferiori ad "^.
61
2.5 Ottimalita degli stimatori m.q.: Teorema di
Markov
Poiche non abbiamo sin qui fatto alcuna ipotesi sulla distribuzione di Y ,
non e possibile porci in generale il problema dell'e
cienza degli stimatori
m.q. Tuttavia e possibile dimostrare una proprieta assai forte di tali
stimatori, almeno se li si paragona ad altri stimatori lineari e corretti. In
e!etti supponiamo di denire la varieta dei valori ammissibili tramite le
equazioni parametriche
y = Ax + a :
(2.5.1)
sappiamo che lo stimatore e poi lo stesso qualunque sia la forma con cui
si descrive V . In tal caso gli stimatori m.q. sono dati da
x^ = N 1 A+Q 1 (Yo ; a) = M^ (Yo ; a)
y^ = AN 1 A+ Q 1(Yo ; a) + a = L^ (Yo ; a) + a :
;
;
;
;
(2.5.2)
(2.5.3)
Piu in generale deniamo la classe degli stimatori lineari corretti tramite
le formule
x~ = M~ (Yo ; a) + m~
y~ = L~ (Yo ; a) + ~l
(2.5.4)
(2.5.5)
e imponiamo la condizione che quando Yo 2 V , cioe Yo ; a = A per un
qualche , allora risulti anche
~ + m~
x~ = MA
y~ = Yo = A + a L~ A + ~l :
(2.5.6)
Le (2.5.6) vanno intese come identita rispetto a , il che comporta le
condizioni
~ m~ = 0 A = LA~ ~l = a :
I = MA
62
(2.5.7)
Dunque la classe degli stimatori lineari e corretti e denita dalle (2.5.4),
(2.5.5), con le condizioni aggiuntive (2.5.6), (2.5.7): e facile vedere che
gli stimatori m.q. (2.5.2), (2.5.3) appartengono appunto a tale classe.
^ L^ e valida all'interno di tale classe: vale infatti il
L'ottimalita di M
seguente teorema:
Teorema 2.5.1: (di Markov). Siano x~ y~ stimatori lineari
corretti qualunque di x y e siano invece x^ y^ gli stimatori m.q.
allora si ha
Cx~x~ Cx^x^
Cy~y~ Cy^y^ :
(2.5.8)
Osservazione 2.5.1: le (2.5.8) signicano essenzialmente che Cx~x~ ; Cx^x^
e Cy~y~ ; Cy^y^ sono matrici denite positive, ovvero che
+Cx~x~ +Cx^x^
+Cy~y~ +Cy^y^
8
8 :
(2.5.9)
(2.5.10)
A loro volta le (2.5.9), (2.5.10) possono essere cos interpretate: si voglia
stimare una funzione lineare di x e una di y
u = +x + uo
v = +u + vo (2.5.11)
se nelle (2.5.11) si usano gli stimatori m.q. per ottenere u^ = +x^+uo v^ =
+y^ + vo si hanno stimatori lineari corretti di varianza minima
2
(^u) = +Cx^x^ 2
(^v) = +Cy^y^ tra tutti gli altri stimatori lineari corretti
u~ = +x~ + uo v~ = +y~ + vo 2
(~u) 2(^u) 2(~v) 2(^v) :
63
Per dimostrare il Teorema 2.5.1 notiamo che
x~ = M~ (Y
x^ = M^ (Y
; a)
; a)
con
~ = I MA
^ =I :
MA
(2.5.12)
Si puo allora scrivere
x~ = x~ ; x^ + x^ = + x^
Cx~x~ = C + Cx^ + Cx^ + Cx^x^ :
(2.5.13)
(2.5.14)
e chiaro che se
Cx^ = Cx^+ = 0 si ha
Cx~x~ ; Cx^x^ = C 0 che coincide con la prima delle (2.5.8).
D'altronde
(2.5.15)
Cx^ = (M~ ; M^ )CY Y M^ + = o2(M~ ; M^ )Q Q 1AN 1 =
= o2 (M~ ; M^ )AN 1 =
~ ; MA
^ )N 1 = 0 = o2 (MA
;
;
;
;
in conseguenza delle (2.5.12): la (2.5.15) e cos provata.
Quanto alla 2a delle (2.5.8) essa discende immediatamente dalla osservazione che
y~ = Ax~ + a y^ = Ax^ + a 64
cos che
Cy~y~ ; Cy^y^ = ACx~x~ ; Cx^x^]A+ 0 :
l'ultimo passaggio e facilmente vericato calcolando la forma quadratica
associata
+(Cy~y~ ; Cy^y^) :
2.6 Problemi di minimi quadrati con vincoli
Volendo concentrare l'attenzione sulla stima dei parametri, assumiamo
in questo paragrafo il modello parametrico
y = Ax + a (2.6.1)
cui ci si puo sempre ridurre.
Ci sono almeno due casi importanti in cui puo interessare un modello
deterministico come in (2.6.1) con l'aggiunta di (k) vincoli sui parametri
x, cioe di equazioni (lineari) contenenti solo x:
Hx = h (H = k m] k < m)
(2.6.2)
a) quando non si e sicuri del modello (2.6.1), cioe non si sa se si sono
rappresentate tutte le variabili che descrivono un certo fenomeno,
puo essere utile provare modelli diversi in cui si parte da uno molto
generale che include molti parametri, ad altri piu semplici in cui
una parte dei parametri e bloccata (ad esempio vincolata a zero)
b) quando la matrice \disegno" A non sia di rango pieno: in questo
caso infatti viene meno la corrispondenza biunivoca tra i punti della
varieta V e quelli dello spazio dei parametri. Per eliminare questa
indeterminazione e necessario introdurre vincoli sulla x.
Illustriamo questi casi con due esempi.
Esempio 2.6.1: un certo prodotto ottiene delle vendite settimanali crescenti che, a parte uttuazioni casuali, sembrano seguire un andamento
lineare nel tempo
Yi = x1 + x2 ti + "i (2.6.3)
65
a un certo tempo si introduce l'azione di una pubblicita, misurata ad
esempio in termini di numero pi di spot televisivi per settimana: si ritiene
che tale fattore possa inuenzare le vendite con una legge del tipo
Yi = x1 + x2 ti + x3 pi + "i :
(2.6.4)
Per valutare l'e!ettiva e
cacia della pubblicita, si possono compensare
le \osservazioni" Yi (cioe trovare gli stimatori m.q. y^i) prima col modello
(2.6.4) e poi col modello (2.6.3) per confrontare tra loro i risultati. Il modello (2.6.3) risulta essere contenuto nel modello (2.6.4), con l'imposizione
del vincolo
x3 = 0 :
Esempio 2.6.2: in una rete di 7 punti
si misurano dislivelli tra i punti stessi secondo uno schema come quello in gura:
la congruenza geometrica della gura puo
essere espressa per mezzo delle quote dei
punti stessi, considerate come parametri.
Le osservabili, corrispondenti ai lati della
rete, sono 10: le equazioni di osservazione
si scrivono
Qki = Qk ; Qi
(2.6.5)
per i k opportuni.
Le variabili Qki fanno parte del vettore delle osservabili, le quote
Q1 : : : Q7 del vettore dei parametri.
La matrice \disegno" A implicata dalle (2.6.5) e deciente di rango
infatti esiste un vettore
Figura 2.6.1
Q. 1
x = ..
Q7
1. = .. 6= 0
1
tale per cui
Ax = 0 :
66
Questa decienza e ovviamente legata alla mancata ssazione di una
quota di riferimento essa puo essere rimossa imponendo un vincolo ai
parametri.
Ad esempio si potrebbe porre
x1 = Q1 = 0 cioe prendere convenzionalmente il punto 1 come riferimento, oppure
7
X
i=1
xi =
7
X
i=1
Qi = 0 ovvero ssare convenzionalmente a zero la media delle quote.
Il principio dei m.q. si scrive in questo caso come
8
< (1=2)(Yo ; y^)+Q 1 (Yo ; y^) = min
Ax^ + a
: y0^ == H
x^ ; h
;
(2.6.6)
Sostituendo la II nella I e usando dei moltiplicatori di Lagrange per la
III, si ha la funzione obiettivo
' = (1=2)(Yo ; Ax^ ; a)+Q 1(Yo ; Ax^ ; a) + (H x^ ; h)+ :
;
Imponendo la condizione di stazionarieta rispetto ad x^ si trova
;A
+
Q 1 (Yo ; Ax^ ; a) + H + = 0 ;
cui vanno aggiunti i vincoli, ovvero
N x^ + H + = A+ Q 1(Yo ; a)
(2.6.7)
H x^
=h
La (2.6.7) costituisce un sistema normale esteso che puo essere elaborato
ulteriormente in modo analitico, solo se N e di rango pieno.
;
67
In questo caso si puo porre
x^ = N 1 A+Q 1(Yo ; a) ; N 1 H +
;
;
;
(2.6.8)
che, con l'uso del vincolo, da
HN 1A+Q 1 (Yo ; a) ; HN 1H + = h :
;
;
;
(2.6.9)
Risolvendo la (2.6.9) rispetto a e sostituendo in (2.6.8) si ottiene la
soluzione cercata.
Questo procedimento pero non e applicabile quando
det N = 0
ed in generale non e conveniente.
Piu comunemente (2.6.7) viene risolto con un metodo perturbativo che
ha un'interessante interpretazione statistica.
Il vincolo
0 = Hx ; h puo essere considerato come una osservazione nulla, Zo = 0, di un vettore
casuale Z con media e covarianza nulla
E fZ g = 0 :
CZZ = 0
(2.6.10)
con le condizioni (2.6.10) infatti Z assume il valore zero con probabilita
1.
Ora, rilassando un poco tale condizione, possiamo prendere il vincolo
come una osservazione
Zo = 0 tratta da una variabile Z con media nulla
68
(2.6.11)
E fZ g = 0
(2.6.12)
CZZ = o2"I :
(2.6.13)
e con varianza innitesima
Specichiamo anche che supponiamo che Z sia incorrelato con Y
CZY = CY+Z = 0 :
(2.6.14)
In questo modo abbiamo un ampliamento del modello che include i vincoli
delle osservabili:
w = yz osservabili
Wo = Y0o osservazioni
Q
0
CWW = o 0 "I modello stocastico
y
^
A
w^ = z^ = H jx^j + ;ah modello deterministico:
2
La soluzione del relativo problema di m.q., fornita dalla (2.3.15) e allora
1
1
A Q
0
x^ = A H ] 0 (1=")I H
1
Y
;
a
0
o
+ + Q
A H ] 0 (1=")I h =
+
;
;
+
;
= fA+Q 1 A + (1=")H +H g
;
La stima di
2
o
1
;
fA Q
+
1
;
(2.6.15)
(Yo ; a) + (1=")H +hg :
e data poi da
+
1
+
^o2 = (Yo ; a ; Ax^) Q (Yo ; a ; Ax^) + 1="(h ; H x^) (h ; H x^)
n+k;m
(2.6.16)
;
69
in accordo con la (2.4.20), applicata nel presente caso.
Osservazione 2.6.1: nel caso in cui il vincolo consista semplicemente
nel porre a zero l'i-esimo parametro, si ha
1
1;i i 1+1
m
H = 0 : : : : : : 0 1 0 : : : : : : 0]
h = 0 :
pertanto
1 ::: i ;1 i i+1 ::: m
0
0
0
+
H H=
1
0
0
0
e tutta l'operazione (2.6.15) consiste essenzialmente nel modicare la matrice normale aggiungendo il numero \grande" 1=" sull'i-esimo elemento
in diagonale.
Esempio 2.6.3: si consideri una rete
di livellazione (misura di dislivelli) sui
tre punti P1 P2 P3 le quantita misurabili
sono dunque
Q12
y = Q23
Q31
Figura 2.6.2
e il modello deterministico relativo a questo esperimento puo essere espresso parametricamente in funzione del vettore x costituito dalle quote dei
tre punti
70
Q1
x = Q2
Q3
:
Le equazioni d'osservazione sono
Q12
Y = Q23
Q31
Q2 ; Q1
= Ax = Q3 ; Q2
Q1 ; Q3
;1
= 0
1
1
;1
0
0
1
;1
Q1
Q2
Q3
Supposto di avere un vettore di osservazioni Yo tratto da una Y che abbia
come media y, il problema della stima di x non puo essere trattato in
modo ordinario
in quanto la matrice A non e di rango pieno in e!etti,
1
posto e = 1 , risulta
1
Ae = 0
cos che detA = 0, come e ovvio anche da un calcolo diretto.
Cio signica che se x^ e una qualsiasi soluzione di minimi quadrati, altrettanto risulta x^ + e qualsiasi sia , in quanto gli scarti delle equazioni
risultano invarianti per tale trasformazione
V = Yo ; A(^x + e) = Yo ; Ax^ :
Fisicamente cio deriva dal fatto che, non avendo ssato un'origine delle
quote, le quote possono tutte essere variate di una stessa costante ,
senza mutare i dislivelli Qik .
Proviamo ora a risolvere il corrispondente problema imponendo un vincolo che elimini l'ambiguita dell'origine ad esempio imponiamo
2 3
Q1
4
Q1 = 1 0 0] Q2 5 = Hx = 0
Q3
71
che ha l'ovvio signicato di ssare a 0 la quota di P1.
Riscriviamo allora il sistema normale nella forma (2.6.7) tenendo conto
che per ipotesi le misure sono indipendenti e con uguale precisione, ovvero
2
;1
;1
1
;1 ;1
2 ;1
;1 2
0
1
0
0
0 0
Q1
Q2
Q3
;Q012 + Q031
= Q012 ; Q023
Q023 ; Q031
0
:
Dalla quarta equazione si trova ovviamente Q^ 1 = 0, che sostituito nella
seconda e terza, da
Q^ 2 =
Q^ 3 =
Q012 ; 3 (" = Q + Q + Q )
012
023
031
;Q031 + 3
la prima equazione denisce il valore di ovvero
=0
nella fattispecie.
Vediamo ora come si sarebbe potuto risolvere, in modo approssimato, il
problema applicando la formula (2.6.15)
In questo caso la matrice dei pesi e l'unita cos che
x^" = (A+A + 1" H +H ) 1A+Yo ;
(2.6.17)
tenuto conto che a = 0 h = 0.
Se si usa il vincolo
H = 1 0 0] si puo riscrivere il sistema normale di cui (2.6.17) e soluzione, nella forma
72
(D ;e e+)^x" = A+ Yo
3""+1 0 0 D = 0 3 0 :
0 0 3
(e = (1 1 1)+).
Non e di
cile vericare che la forma esplicita dell'inversa della normale
e data da
(D ; e e+) 1 = D 1 + 3(3" + 1)D 1e e+D 1 :
;
;
;
;
Posto per brevita = 1 + 3", la forma esplicita della soluzione e allora
0
x^" = "(;Q012 + Q031 ) + 1+3 (Q012 ; Q023 ) + 3 (Q023 ; Q031 ) "(;Q012 + Q031 ) + 3 (Q012 ; Q023 ) + 1+3 (Q023 ; Q031 ) Da qui, preso " ! 0, ovvero ! 1, si vede che
0
lim
x
^
=
Q
;
012
" 0 " ;Q031 +
!
3
3
= x^
come volevasi dimostrare.
2.7 Problemi di stima non lineari
Vogliamo vedere come si modica il metodo dei minimi quadrati quando
il modello deterministico, che esprime il legame tra i valori medi delle
osservabili, sia non lineare.
Da un punto di vista astratto il principio non di!erisce, come enunciazione, da quello lineare:
73
dato un vettore di osservazioni Yo 2 Rn, estratto da una
v.c. Y di covarianza
CY Y = o2Q
(2.7.1)
e data una varieta V m-dimensionale, in Rn, cui si sa che deve
appartenere la media di Y
y = E fY g 2 V (2.7.2)
si cerca lo stimatore y^ 2 V , di minima distanza da Yo secondo
la matrice Q 1 ,
;
(Yo ; y^)+Q 1 (Yo ; y^) = min
e una stima di o2 proporzionale a tale distanza
;
(2.7.3)
^o2 = c (Yo ; y^)+Q 1 (Yo ; y^) (2.7.4)
essendo ^o2 corretto, almeno in modo approssimato.
;
Esempio 2.7.1: prima di iniziare la trattazione analitica puo essere utile
considerare due esempi semplici, particolarmente evidenti dal punto di
vista graco.
Sia Yo = 012 il vettore delle osservazioni
in un primo
1 e supponiamo
2
caso chehesso sia estratto
da Y = N 1 (0 8) I , e in un secondo che
i
1 Y = N 001 (0 8)2I : i modelli deterministici sono rispettivamente
y2 = y12 ed y2 = 0:01y12. La situazione e rappresentata in g. 2.7.1 a) e
b), dove sono anche mostrati gli stimatori m.q., nonche l'area circolare
contenente circa il 99% delle probabilita.
La prima osservazione e che nell'esempio a) lo stimatore m.q. y^ dista di
piu da y che non Yo (jy^ ; yj > jYo ; yj), mentre nell'esempio b) le cose
vanno meglio.
La seconda osservazione e che vi sono punti nel piano in cui non e denita
univocamente la proiezione sulla varieta V : ad esempio quelli dell'asse
x = 0 8 , e con y > 0 5 per l'esempio a), con y > 50 per l'esempio b),
;
Per comprendere questa aermazione basta osservare che se (t at2 ) e l'equazione
parametrica di una parabola e se (o y) e un punto ssato dell'asse y, l'equazione
d=dtf(y ; at2 )2 + t2 g = 0 ha solo la radice t = 0 quando y < (1=2)a.
8
74
a)
b)
Figura 2.7.1:
ammettono due punti di minima distanza, simmetrici sui due rami della
parabola. e anche utile pero osservare che per il caso a) questi punti sono
ben dentro la zona P = 99%, mentre per il caso b) essi sono ben al di
fuori.
La terza osservazione e che 0,5 e 50 non sono altro che i raggi di curvatura
delle due parabole nell'origine. Pensando un minuto alla denizione di
raggio di curvatura, si comprende che il concetto e generale: in tutta
l'area denita da un lato dalla curva, dall'altro dalla curva descritta dai
suoi centri di curvatura, i punti ammettono una sola proiezione, a minima
distanza, sulla curva stessa.
L'esempio si generalizza alle varieta a m dimensioni in uno spazio Rn,
prendendo il piu piccolo dei raggi di curvatura di V (m) .
Si possono cos trarre alcune conclusioni:
Conclusione 1: il metodo dei m.q. non puo, nel caso non-lineare, godere
di proprieta di ottimalita come nel caso lineare.
Conclusione 2: la soluzione del metodo dei m.q. con modelli non-lineari
75
puo non essere unica.
Conclusione 3: l'unicita della soluzione e garantita se il raggio della
zona
di Y , misurato ad esempio da
p 2 di interesse per la distribuzione
n o quando Q = I 9 , e assai piu piccolo della curvatura della
varieta V .
In ultima analisi si puo a!ermare che il metodo dei m.q. funziona bene
anche nel caso non lineare quando nella zona di interesse la varieta V
non si discosta molto da una varieta lineare: qualora tale condizione
fosse seriamente violata, come nell'esempio di g. 2.7.1 a), non ha senso
applicare il metodo dei m.q. in quanto l'introduzione dell'informazione
data dalla varieta V puo peggiorare quella contenuta nel vettore Yo.
Dal punto di vista analitico i problemi non lineari vengono trattati per
mezzo di una linearizzazione.
Supponiamo ad esempio che la varieta V sia descritta nella forma piu
generale, per mezzo di equazioni non lineari contenenti anche parametri
aggiuntivi
g(y x) = 0
g+(y x) = g1(y x) : : : gl(y x)]
y 2 Rn x 2 Rm :
(2.7.5)
Cio signica quindi che si cercano y^ x^ tali che
(Yo ; y^)Q 1(Yo ; y^) = min
g(^y x^) = 0
;
(2.7.6)
Supponiamo di conoscere dei \valori" approssimati y~ x~ e che nella zona
di interesse g sia ben approssimabile con una funzione lineare: poniamo
allora
y^ = y~ + ^
x^ = x~ + ^
9
Infatti quando Y e normale, e Q = I , si ha la relazione jY
76
(2.7.7)
; yj
2
= 2 .
n
e linearizziamo la seconda delle (2.7.6) come
@ g~ @ g~ g(~y x~) + @y ^ + @x ^ = 0 (2.7.8)
dove
@ g~ @g (~y x~) i
=
@yk @ g@y
~
@g (~y x~)
@y
=
i
@xj
:
La (2.7.8) e il nostro nuovo modello, ora lineare, nelle variabili (parametri) ed (osservabili), per le quali si puo anche porre
o = Yo ; y~
valori osservati
2
C = CY Y = o Q :
(2.7.9)
Notiamo che bastera porre
;
@ g~ = D
@y
@ g~ @x = A
g(~y x~) = gi(~y x~)] = d
(2.7.10)
per trasformare la (2.7.8) nel modello gia trattato nel paragrafo 2.2,
D = A + d :
cio insieme alle (2.7.9) permette di ricavare le stime cercate ^ ^ applicando la teoria lineare. Una volta ottenute le stime ^ ^ si possono calcolare
le corrispondenti y^ x^ dalle (2.7.7).
Osservazione 2.7.1: (iterazioni). ci si puo chiedere ora se il vettore
y^ cos determinato appartenga veramente a V : infatti sono stati
77
determinati in modo che valesse solo l'equazione approssimata (2.7.8). A
tale scopo si possono calcolare gli scarti
;v^ = g(^y x^) = g(~y + ^ x~ + ^)
(2.7.11)
e si puo valutare l'entita di jv^j decidendo se questa e trascurabile rispetto
agli errori di misura.10
Qualora si pensi che v^ non sia abbastanza piccolo, cio signica che i valori approssimati y~ x~ erano troppo grossolani cos che l'approssimazione
lineare (2.7.8) non risulta buona.
In questo caso e necessario iterare il procedimento prendendo i valori
y^1 x^1 determinati al primo passo come nuovi punti di linearizzazione.
Si puo notare che nella nuova iterazione il nuovo vettore d risultera
proprio uguale a
d = g(^y1 x^1) in quanto y^1 x^1 sono i nuovi valori approssimati.
Ripetendo piu volte lo stesso ragionamento si trova l'algoritmo iterativo
Cio naturalmente riportato alle opportune unita di misura: ad esempio si
potrebbe prendere come criterio
10
jv^j
2
<< (l ; m)^2 = U +K ;1 U :
o
78
Passo i+1 y^i+1 = y^i + ^i+1
x^i+1 = x^hi + ^i+1 i
yi x^i )
Di = h; @g(^@y
i
yi x^i )
Ai = @g(^@x
di = g(^yi x^i)]
oi+1 = Yo ; y^i C = CY Y
Di^i+1 = Ai^i+1 + di
#
Principio m.q.
#
^i+1 ^i+1 Passo 1
y^o = y~
x^o = x~
(valori approssimati iniziali)
Il criterio di stop e basato sulla dimensione di jdij quando jdij2 e abbastanza piccolo rispetto (l ; m) o2 , l'iterazione e fermata.
Altri criteri di stop possono essere ssati in base a jij e jij.
Osservazione 2.7.2: per la determinazione dei valori approssimati non
esistono regole generali. Quando non vi sia di meglio, come primi valori
approssimati di y si puo sempre scegliere
y~ = Yo :
(2.7.12)
e bene notare che la (2.7.12) va presa come eguaglianza tra due vettori
costanti non tra due v.c., senza di che sarebbe falsa la relazione
C = CY Y :
Per determinare i valori x~ molte volte si cerca di risolvere una parte delle
equazioni (2.7.5) rispetto ad x ottenendo
x = f (y)
79
e ponendo di conseguenza
x~ = f (~y)
(2.7.13)
Osservazione 2.7.3: nel caso che g(y x) sia gia lineare in una delle due
variabili, non serve linearizzare rispetto a quella variabile. Il caso piu
importante e quello in cui le equazioni non lineari della varieta V sono
in forma puramente parametrica (equazioni d'osservazione)
y = g(x) :
(2.7.14)
Per linearizzare le (2.7.14) basta cercare dei valori approssimati x~, ad
esempio invertendo una parte di tali equazioni e usando i corrispondenti
valori osservati Yoi come termini noti. Successivamente si pone
@ g~
y^ = g(~x + ~) = g(~x) + @x ^ = a + A^ :
Trovata la soluzione ^ si puo calcolare
y^1 = g(~x + ^1) (2.7.15)
(2.7.16)
in modo tale che la stima y^1 corrispondente appartiene esattamente a
V , al contrario del caso generale (cfr. (2.7.11)). Lo schema puo essere
iterato ponendo
@g
y^i+1 = g(^xi + ^i+1) = g(^xi) + @x (^xi) ^i+1
= ai + Ai^i+1 :
(2.7.17)
spesso, per semplicare i conti risparmiando tempo di calcolo, la matrice
A non viene ricalcolata ogni volta, ma piuttosto viene lasciata ssa al
valore iniziale
A = @g@x(~x) :
80
(2.7.18)
Si puo dimostrare che cio provoca una distorsione del 2 ordine nella
stima.
Lo schema iterativo e bloccato qundo il ^oi2 non diminuisce piu che di una
piccola percentuale
^oi2 ; ^oi2 +1
< " pressato :
^oi2
(2.7.19)
2.8 Applicazione alla regressione lineare
Supponiamo di avere un processo descrivibile mediante una (o piu) variabili y su cui compiamo delle osservazioni Yoi che comprendono una
parte stocastica e un valore medio yi che si sa essere funzione di altre p
variabili t1 t2 : : : tp completamente note per ognuna delle i = 1 : : : n
osservazioni
Yoi = yi + "i
yi = g(t1i t2i : : : tpi) E f"ig = 0 C"" = o2I :
(2.8.1)
(2.8.2)
Cio che importa sottolineare nel modello (2.8.1), (2.8.2) e che la parte
stocastica va considerata aggiunta, per ogni osservazione i, alla variabile
dipendente y, detta anche variabile criterio, mentre le variabili indipendenti t1 : : : tp, per la stessa osservazione, sono considerate costanti, cioe
comunque note con una precisione tale da non modicare signicativmente il modello stocastico di " le variabili t1 : : : tp sono dette variabili
concomitanti o di predizione.
Spesso siamo in una situazione di analisi puramente empirica dei dati in
cui il legame y = g(t1 : : : tp) non e noto perche troppo complesso: tuttavia da una prima indagine dei dati stessi o da una conosenza qualitativa
del fenomeno sotto indagine possiamo ritenere che un'approssimazione
lineare di g sia ben giusticata almeno nell'ambito dei valori assunti dalle variabili concomitanti in corrispondenza alle nostre osservazioni. Si
potra cos ragionevolmente sostituire alla II delle (2.8.1) l'equazione
81
8
p X
>
@g
>
(tki ; tk )
< yi = g(t1 : : : tp) +
@t
k
k=1
:
n
X
>
1
>
: tk = n i=1 tki
(2.8.3)
Osservazione 2.8.1: si noti che l'uso delle medie aritmetiche tk per
linearizzare g, e naturale per ottimizzare la validita della approssimazione lineare stessa. Per semplicita nei conti successivi, sebbene cio non
sia strettamente necessario, supporremo di aver gia scelto l'origine delle
variabili concomitanti in modo tale che si abbia il baricentro dei punti
d'osservazione nell'origine
tk = 0
k = 1 : : : p (2.8.4)
qualora tale condizione non fosse gia soddisfatta bastera una semplice
traslazione per ottenere nuove variabili indipendenti
ki = tki ; tk che invece soddisferanno la (2.8.4).
Supponendo dunque che valga la (2.8.4), il modello (2.8.3) diventa
yi = co + c1 t1i + : : : + cptpi (2.8.5)
i parametri incogniti di questo modello sono co c1 : : : cp che organizzeremo nel vettore
xo
x
c.1
(xo = co x = ..
c
p
) :
In forma matriciale la (2.8.5) puo essere riscritta come
y = exo + Tx
82
(2.8.6)
dove
1
. t. 11 : : :
e = .. T = ..
1
t1n : : :
tpi ... :
(2.8.7)
tpn Il modello deterministico (2.8.6) e quello stocastico (2.8.2) insieme deniscono un tipico problema di minimi quadrati lineari in forma parametrica,
la cui compensazione fornira le stime ricercate x^o x^.
Osservazione 2.8.2: notiamo che in virtu della condizione (2.8.4) si ha
t.1
+
T e = n ..
tp
= 0 cos che
(Tx)+(exo) = 0 :
(2.8.8)
Cio signica che nel modello (2.8.6) la varieta dei valori ammissibili (ovviamente a p +1 dimensioni) e decomposta in due sottovarieta ortogonali
fexog fTxg rispettivamente a 1 e a p dimensioni.
Se ora formiamo il sistema normale per la (2.8.6), indicato al solito con Yo
il vettore delle osservazioni e osservato che nella (2.8.6) non si ha termine
noto a, si trova
+
e e +0
0 T T
:
(2.8.9)
8
n
X
>
+
>
(1=n)(T T )kl = (1=n) tkitli = Ctt
>
>
>
<
n i=1
X
(1=n)e+Yo = (1=n) Yoi = Y
>
>
>
i=1P
>
>
(1
=n
)
t
Y
1
i
oi
>
+
i
= Cty
P
: (1=n)T Yo = (2.8.10)
x^o
x^
+
= e +Yo
T Yo
Si ha e+e = n. Poniamo inoltre
(1=n)
83
i tpi Yoi
e notiamo che queste relazioni sembrano proprio quelle di media, covarianza e cross-varianza di valori campionari, motivo questo della simbologia adottata: tuttavia e necessario sottolineare che ne Ctt Cty possono
Figura 2.8.1:
essere covarianze, ne Y e una media, perche da un lato ftkig non sono
campioni estratti da variabili casuali tk (le variabili concomitanti sono
solo costanti note esattamente), dall'altro lato le componenti Yoi non sono
estrazioni dalla stessa v.c. Y in quanto le medie di Yoi hanno valori diversi.
Con questa simbologia il sistema normale (2.8.9), dividendo entrambi i
membri per n, da la soluzione
x^o = Y
x^ = Ctt 1Cty ;
con matrice di covarianza
2
(^xo ) =
2
o
n
84
(2.8.11)
2
Cx^x^ = o2 (nCtt ) 1 = no Ctt 1
Cx^ox^ = 0 :
;
Per la stima di
2
o
;
formiamo dapprima il vettore degli scarti
U = Yo ; Y e ; T x^ :
ricordando la (2.8.8) e la (2.8.9) si ha
jU j
2
(2.8.12)
(2.8.13)
= U + U = jYo ; Y ej2 ; 2^x+T +Yo + x^+ T +T x^ =
= jYo ; Y ej2 ; jT x^j2 = jYo ; Y ej2 ; nx^+ Cty =
X
X
(2.8.14)
=
(Yoi ; Y )2 ; c^k tkiYoi :
i
ki
Da qui in poi si trova ^o2 secondo la regola generale
^o2 = n ; 1p ; 1 U +U :
Osservazione 2.8.3: l'equazione (2.8.14) esprime semplicemente la decomposizione pitagorica di g. 2.8.2 e fornisce uno strumento comodo
per la stima di o2.
Inoltre, notando che Yoi ; Y puo essere interpretato
P \formalmente" come
scarto generale di Yoi dallaPmedia Y (T x^)i = pk=1 tkic^k come scarto tra
la regressione (^yi = c^o + k tkic^k ) e la media Y (^co = Y ), cioe come lo
scarto spiegato dall'equazione di regressione, Ui = Yoi ; yi come scarto
residuo tra il valore osservato ed il valore della regressione (cfr. g. 2.8.3),
si puo riscrivere la (2.8.14) nella forma
SG2 = SR2 + SS2
con
P
SG2 = P(Yoi ; Y )2 = scarti generali
SR2 = P (Yoi ; yi)2 = scarti residui
SS2 = (yi ; Y )2 = scarti spiegati
85
(2.8.15)
Figura 2.8.2:
Figura 2.8.3:
Osservazione 2.8.4: si noti che nel caso di una sola variabile concomitante, la retta di regressione stimata
y^ = c^o + c^1 t
diventa, secondo le (2.8.11) (t = 0)
y^ = Y +
ty
2t
t
che coincide formalmente con la retta di regressione per una variabile
doppia (Y t), sebbene in questo caso l'interpretazione sia notevolmente
diversa.
Osservazione 2.8.5: in generale il motivo per cui interessa costruire
il modello (2.8.5) non e tanto quello di stimare co c1 : : : cp e quindi
86
anche i valori della regressione y^i per, diciamo cos, regolarizzare i valori
osservati Yoi, ma piuttosto quello di poter prevedere pur con un margine
di errore, il valore della regressione y^ in corrispondenza di valori delle
variabili concomitanti per i quali non si hanno osservazioni.
Naturalmente il valore predetto sara quello della regressione
y^(t1 : : : tp) = c^o +
p
X
k=1
c^k tk che, introdotto il vettore
t.1
t = ..
tp
puo anche essere scritto come
y^(t) = x^o + x^+t :
(2.8.16)
Ricordando le (2.8.12), possiamo accompagnare il valore predetto con la
sua varianza (ovvero l'errore di predizione)
2
o 1 + t+ C
1
^y(t)] = n
tt t] :
nel caso di una sola variabile t, la (2.8.17) assume la forma
2
2
6
2 6
o
2
^y(t)] = n 661 +
4
;
3
7
t2 77 :
n 7
X
25
(1=n)
i=1
ti
(2.8.17)
(2.8.18)
Per stimare queste varianze ovviamente occorrera avvalersi del valore
stimato ^o2.
Dalla (2.8.18) appare in modo piu chiaro che l'errore di predizione si
mantiene limitato nche t rimane all'interno dei valori di osservazione
87
Figura 2.8.4:
(jtj max jtij), mentre esso aumenta rapidamente quando si tenti di
estrapolare la regressione all'esterno dei valori di osservazione.
Esempio 2.8.1: nelle operazioni di controllo di una struttura, si misurano le quote di un punto per 6 volte con intervalli di due mesi per
vericare gli eventuali movimenti di assestamento del punto stesso. Poiche pero si sa che la forma geometrica della struttura dipende anche dalla
sua temperatura, contestualmente alla misura della quota si fa un lettura
di temperatura.
Si ipotizza che valga un modello di regressione lineare del tipo
Q = co + c1 t + c2T (Q = quota t = tempo T = temperatura)
Qoi = Qi + "i
C"" = o2 I :
I dati ottenuti sono:
t (in mesi) T (in C ) Q (in mm) (Yo)
2
4,8
127,02
4
9,3
129,22
6
12,5
130,98
8
19,2
133,74
10
10,9
129,98
12
5,2
127,01
Medie:
t=7
T = 10 3167 Y = 129 6583
88
Si osservi in primo luogo che ne t ne T sono centrate, percio e utile
passare a nuove variabili centrate ponendo
t=t+
T =T +
e riformando il modello come y = Q = co + c1 + c2.
Si ottiene cos la nuova tabella
Yo ; Y
-5
-5,5167
-2,6383
n=6
-3
-1,0167
-0,4383
-1
2,1833
1,3217
p=2
1
8,8833
4,0817
3
0,5833
0,3217
(m = 3)
5
-5,1167
-2,6483
2
2
2
S = 70 S = 141 6683 SG = 32 6770 grad. lib.
S = 13 500 SYo = 4,9900 di ^o2 = 3
SYo = 67 8832
Da cui
11
6
2
2500
0873
1
Ctt = ;2 2500 23 6114 Ctt = ;00 0082
0
8316
:
Cty = ;
11 3139
Dunque le stime sono
c^o = x^o = 129
6583 c^1 = x^ = ;0 021535 :
c^2
0 481227 Inoltre, ricordando le (2.8.14), (2.8.15)
89
;0 0082 0 0431
SR2 = SG2 ; 6 x^+Cty = 0 1172 :
cos che
^o2 = 0 0391 ^o = 0 1977 :
In tal modo si ha anche la stima di varianza e covarianza di xo x, cioe
(^xo ) = 0 0065 0 0873
Cx^x^ = 0 0065 ;0 0082
2
;0 0082 0 0431 :
in particolare e
(^c1) = 0 0238
(^c2) = 0 0167 :
Come si vede c^1 e (^c1) sono quasi uguali, il che fa pensare ad una
dipendenza da (cioe da t) non molto signicativa resta invece sensibile
la dipendenza da (cioe da T ). Supponiamo ora di voler predire il valore
di y in corrispondenza a t = 7 T = 15 , cioe = 0 = 4 6833: si ha
y(0 4 6833) = c^o + c^1 0 + c^2 4 6833 = 131 9120 :
Inne, volendo calcolare l'errore di stima di tale predizione, si ha
2
ovvero
0
(^y) = 6 1 + 0 4 6833]Ctt 4 6833 =
2
o
1
;
0 0761 = 0 0127
= 0 0391
f
1
+
0
9453
g
=
6
6
(^y) = 0 11 mm :
90
Fly UP