...

Appunti su alcune classi importanti di matrici e gruppi di matrici. Indice

by user

on
Category: Documents
60

views

Report

Comments

Transcript

Appunti su alcune classi importanti di matrici e gruppi di matrici. Indice
INDICE
1
Appunti su alcune classi importanti di matrici e gruppi di matrici.
Roberto Catenacci
Versione del 26 Luglio 2013
Argomenti scelti sulle matrici e sui gruppi di matrici complessivamente trattati nei corsi di
Geometria 1A , Geometria 1B e Teoria dei Gruppi.
Testi di riferimento consigliati per questi argomenti:
M.L. Curtis, Matrix Groups, Universitext, Springer-Verlag, Berlino 1979
A. Baker, Matrix Groups, Springer Undergraduate Mathematics Series, Springer-Verlag,
Berlino 2002
S.Lang, Algebra Lineare, Boringhieri, Torino 1989
Indice
1 Matrici normali
1.1 Matrici simmetriche e hermitiane . . . . . . . . . . . . . . . . . . . . . . . . . .
2
4
2 Gruppi di Matrici
4
3 Gruppi Ortogonali e Unitari
3.1 Matrici ortogonali e unitarie . . . . . . . . . .
3.2 Autovalori delle matrici hermitiane e unitarie
3.3 Scomposizione polare . . . . . . . . . . . . . .
3.4 Il teorema spettrale . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
8
9
10
11
4 Spazio tangente all’identità
12
4.1 Matrici antisimmetriche e antihermitiane . . . . . . . . . . . . . . . . . . . . . . 17
5 Esponenziale, Logaritmo e Algebre di Lie
18
5.1 Algebre di Lie reali di dimensione due . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2 Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1)) . . . . . . . . . . . 30
5.3 Sottogruppi ad un parametro . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6 Considerazioni topologiche
6.1 Connessione e suriettività dell’esponenziale
6.2 Il caso di O(n) e SO(n) . . . . . . . . . .
6.3 Quaternioni e rotazioni: SU (2) → SO(3) .
6.4 Il caso di GL(n, R) e GL(n, C) . . . . . . .
6.5 Il caso di SL(2, R) . . . . . . . . . . . . .
6.6 Introduzione all’omotopia dei gruppi . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
34
34
38
40
44
46
51
1 MATRICI NORMALI
1
2
Matrici normali
In questa sezione iniziamo lo studio di alcune importanti classi di matrici, usate in moltissimi
campi della matematica e della fisica. Daremo per noti i più semplici risultati di algebra lineare
utilizzati. Indichiamo con Mn (R) e Mn (C) rispettivamente gli insiemi delle matrici n × n reali
o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo
semplicemente il simbolo Mn ). E’ noto che Mn (R) e Mn (C) sono spazi vettoriali reali (di
dimensione n2 e 2n2 rispettivamente) e che con il prodotto righe × colonne, sono anelli non
commutativi con unità. Ricordiamo anche che in Rn si definisce il prodotto scalare standard :
(x, y) = xt y =
n
X
xi y i
i=1
 1
x
y
 x2 
y2 
t
n

 
Dove x = 
 .  , y =  .  e x denota la matrice trasposta di x. Analogamente, in C si
xn
yn
definisce il prodotto hermitiano standard :


1
(x, y) = xt ȳ =
n
X
xi ȳ i
i=1
Definizione 1.1 Sia A una matrice reale o complessa, si definisce aggiunta (o coniugata
hermitiana) di A, la matrice A∗ = Āt .
Osservazione 1.1 E’ chiaro che (A∗ )∗ = A. Inoltre, per le matrici reali, l’aggiunta è
semplicemente la matrice trasposta.
Lemma 1.1 In Rn e in Cn (con i prodotti standard) vale la formula: (Ax, y) = (x, A∗ y).
Prova. Basta ricordare le proprietà algebriche della operazione di trasposizione e le
definizioni di aggiunta di una matrice, di prodotto scalare e hermitiano:
(Ax, y) = (Ax)t ȳ = xt At ȳ = xt Āt y = (x, A∗ y)
La formula del lemma 1.1 , ma con un arbitrario prodotto hermitiano, può essere presa
come definizione di aggiunta di una matrice:
Definizione 1.2 Si definisce aggiunta di una matrice A rispetto ad un prodotto hermitiano
<, >, l’unica matrice A∗ tale che, ∀x, y ∈ Cn
< Ax, y >=< x, A∗ y > .
Se B è la matrice del prodotto hermitiano dato, cioè se < x, y >= xt B ȳ, si ottiene
immediatamente la formula:
A∗ = B −1 At B
1 MATRICI NORMALI
3
Osservazione 1.2 Si noti che la matrice B è I per il prodotto hermitiano standard, e quindi
si riproduce la prima definizione data. (vedi definizione 1.1)
Definizione 1.3 Una matrice A si dice normale se commuta con la sua aggiunta: AA∗ =
A∗ A.
Alcune proprietà interessanti degli autovalori e degli autospazi delle matrici normali sono
date dai seguenti teoremi:
Teorema 1.1 Se A è una matrice normale, e se α è un autovalore di A con autovettore v,
allora ᾱ è autovalore di A∗ con lo stesso autovettore.
Prova. Occorre mostrare che:
Av = αv ⇒ A∗ v = ᾱv
Calcoliamo usando ripetutamente AA∗ = A∗ A e il lemma 1.1
kA∗ v − ᾱvk2 = (A∗ v − ᾱv, A∗ v − ᾱv) =
= (A∗ v, A∗ v) − (ᾱv, A∗ v) − (A∗ v, ᾱv) + (ᾱv, ᾱv) =
= (v, AA∗ v) − ᾱ (v, A∗ v) − α(A∗ v, v) + αᾱ (v, v) =
= (v, A∗ Av) − ᾱ (Av, v) − α(v, Av) + αᾱ (v, v) =
= (v, A∗ αv) − ᾱ (αv, v) − α(v, αv) + αᾱ (v, v) =
= (Av, αv) − ᾱα (v, v) − αᾱ(v, v) + αᾱ (v, v) =
= (αv, αv) − ᾱα (v, v) − αᾱ(v, v) + αᾱ (v, v) = 0
Essendo quindi kA∗ v − ᾱvk2 = 0 abbiamo la tesi.
Teorema 1.2 Se A è una matrice normale, e se α e β sono autovalori distinti di A allora i
corrispondenti autospazi sono ortogonali tra loro.
Prova. Sia Ax = αx e Ay = βy: Si ottiene: (Ax, y) = (αx, y) = α(x, y) e (Ax, y) =
(x, A∗ y) = (x, β̄y) = β(x, y) ⇒ (α − β)(x, y) = 0 ⇒ (x, y) = 0 (nel calcolo abbiamo usato anche
il teorema precedente).
Definizione 1.4 Una applicazione lineare si dice normale se la matrice A, ad essa associata
in una base ortonormale, è una matrice normale.
Osservazione 1.3 Questa definizione è corretta in quanto osserveremo più sotto (vedi il lemma
3.4 della sezione 3.1) che se la matrice associata è normale in una certa base ortonormale lo è
anche in qualsiasi altra base ortonormale.
Il risultato principale relativo alle matrici normali è il cosiddetto Teorema spettrale:
2 GRUPPI DI MATRICI
4
Teorema 1.3 Se l’applicazione lineare ϕ : Cn → Cn è normale, allora esiste una base
ortonormale di autovettori.
Prova. Per la dimostrazione rimandiamo alla sezione 3.4
Dal teorema spettrale segue immediatamente che:
Teorema 1.4 Le matrici normali sono diagonalizzabili (come matrici complesse) tramite una
matrice i cui vettori colonna sono tra loro tutti ortogonali e di norma uno.
Osservazione 1.4 Tali matrici sono dette matrici unitarie (vedi sezione 3.1)
1.1
Matrici simmetriche e hermitiane
Nell’ambito delle matrici normali assumono particolare interesse le matrici simmetriche e quelle
hermitiane.
Definizione 1.5 Una matrice reale A si dice simmetrica se coincide con la sua trasposta:
A = At
Definizione 1.6 Una matrice A si dice hermitiana se coincide con la sua aggiunta:A = A∗
Analogamente alla definizione 1.4 possiamo dare le seguenti definizioni:
Definizione 1.7 Una applicazione lineare si dice simmetrica (hermitiana) se la matrice A, ad
essa associata in una base ortonormale, è una matrice simmetrica (hermitiana).
Osservazione 1.5 Questa definizione è corretta: dimostreremo più sotto (vedi il lemma 3.5
della sezione 3.1) che se la matrice associata è simmetrica o hermitiana in una certa base
ortonormale lo è anche in qualsiasi altra base ortonormale.
2
Gruppi di Matrici
In questa sezione iniziamo lo studio dei principali gruppi di matrici (reali o complesse), come
introduzione alla teoria dei gruppi di Lie; daremo per noti i principali risultati di algebra lineare
utilizzati. Indichiamo ancora con Mn (R) e Mn (C) rispettivamente gli insiemi delle matrici
n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato,
useremo semplicemente il simbolo Mn ). E’ noto che Mn (R) e Mn (C) sono spazi vettoriali reali
di dimensione n2 e 2n2 rispettivamente; è noto anche che su Mn (R) e Mn (C) si può definire un
prodotto, il cosiddetto prodotto righe × colonne: se A, B ∈ Mn con elementi Aij , Bij, allora:
(AB)ij =
k=n
X
Aik Bkj
k=1
La matrice prodotto C = AB è ancora ∈ Mn . Ricordiamo anche che una matrice A ∈ Mn
è invertibile se e solo se det(A) 6= 0 e, in questo caso, ∃ una unica matrice A−1 tale che
2 GRUPPI DI MATRICI
5
AA−1 = A−1 A = I (dove I è una matrice con elementi Iij = 1 se i = j e Iij = 0 se i 6= j).
Ricordando le seguenti proprietà del determinante:
det(AB) = det A det B e det(A)−1 = (det A)−1 ,
possiamo ora dare le seguenti definizioni:
Definizione 2.1 Il gruppo generale lineare reale, denotato con GL(n, R) è l’insieme delle
matrici invertibili ∈ Mn (R) con il prodotto righe × colonne. Il gruppo speciale lineare reale,
denotato con SL(n, R) è il sottogruppo delle matrici A ∈ GL(n, R) tali che det A = 1.
Definizione 2.2 Il gruppo generale lineare complesso, denotato con GL(n, C) è l’insieme
delle matrici invertibili ∈ Mn (C) con il prodotto righe × colonne. Il gruppo speciale lineare
complesso, denotato con SL(n, C) è il sottogruppo delle matrici A ∈ GL(n, C) tali che det A =
1.
Teorema 2.1 I gruppi speciali lineari sono sottogruppi normali dei gruppi generali lineari,
inoltre: GL(n, R)/SL(n, R) = R∗ (e analoga per C).
Prova. La dimostrazione è identica per il caso reale e complesso. Dalle proprietà del
determinante segue che l’applicazione det : GL(n, R) → R∗ è un omomorfismo suriettivo di
nucleo Ker(det) = SL(n, R). Dal fatto che il nucleo di un omomorfismo è un sottogruppo
normale e dal teorema di isomorfismo segue l’asserto.
Descriveremo ora alcuni casi particolari per piccoli n.
Esempio 2.1 GL(1, R) = R∗ e GL(1, C) = C∗ .
Esempio 2.2 GL(1, C) è sottogruppo di GL(2, R). Infatti si può definire il seguente
omorfismo iniettivo:
x −y
ρ(x + iy) =
y x
x −y
Notare che det
= x2 + y 2 .
y x
Esempio 2.3 H ∗ (il gruppo moltiplicativo dei quaternioni non nulli) è sottogruppo di GL(2, C).
Infatti si può definire il seguente omorfismo iniettivo:
x + iy −z − it
ρ(x + iy + jz + kt) =
z − it x − iy
x + iy −z − it
Notare che det
= x2 + y 2 + z 2 + t2 .
z − it x − iy
3 GRUPPI ORTOGONALI E UNITARI
3
6
Gruppi Ortogonali e Unitari
Studiamo ora i più importanti sottogruppi dei gruppi generali lineari: i gruppi ortogonali e
unitari.
Lemma 3.1 Una matrice A ∈ GL(n, R) tale che A−1 = At preserva il prodotto scalare:
(Ax, Ay) = (x, y) per ogni x, y ∈ Rn ; viceversa, se preserva il prodotto scalare per ogni x, y
allora A−1 = At . Una matrice A ∈ GL(n, C) tale che A−1 = A∗ = Āt preserva il prodotto
hermitiano: (Ax, Ay) = (x, y) per ogni x, y ∈ Cn e viceversa.
Prova. La dimostrazione è analoga nei due casi: osserviamo che, per il lemma 1.1 (Ax, y) =
(x, A∗ y); si ottiene allora (Ax, Ay) = (x, A∗ Ay) = (x, y). Viceversa, se (Ax, Ay) = (x, y) allora
(Ax)t (Ay) = xt ȳ e quindi, (per le proprietà note della trasposizione) xt At Ay = xt ȳ. Essendo
verificata per ogni x e y, deve essere At Ā = I, cioè, coniugando, A∗ A = I.
Il lemma 3.1 e le note proprietà dell’aggiunzione:
(A∗ )∗ = A, (AB)∗ = B ∗ A∗ , (A−1 )∗ = (A∗ )−1 , det A∗ = det A
consentono di dare le seguenti definizioni:
Definizione 3.1 Il gruppo ortogonale O(n) è il sottogruppo delle matrici di GL(n, R) che
preservano il prodotto scalare: O(n) = {A ∈ GL(n, R)|A−1 = At }.
Definizione 3.2 Il gruppo unitario U (n) è il sottogruppo delle matrici di GL(n, C) che
preservano il prodotto hermitiano: U (n) = {A ∈ GL(n, C)|A−1 = A∗ }.
Definizione 3.3 Il gruppo delle rotazioni (detto anche gruppo speciale ortogonale) SO(n)
è dato da SO(n) = O(n) ∩ SL(n, R).
Definizione 3.4 Il gruppo speciale unitario SU (n) è dato da U (n) ∩ SL(n, C).
Definizione 3.5 La sfera n − 1 dimensionale è l’insieme S n−1 = {x ∈ Rn |(x, x) = 1}
Osservazione 3.1 Dalla relazione A∗ A = I segue che se A ∈ O(n), det A = ±1; se A ∈ U (n),
det A = z con z z̄ = 1 e quindi det A ∈ S 1 .(Naturalmente non è vero il viceversa).
Teorema 3.1 I gruppi speciali ortogonale e unitario sono sottogruppi normali rispettivamente
dei gruppi ortogonali e unitari (con lo stesso n). Si ha inoltre:
O(n)/SO(n) = Z2 e U (n)/SU (n) = S 1
In particolare, O(1) = Z2 = S 0 e U (1) = S 1 .
Prova. Dalle proprietà del determinante e dall’osservazione 3.1 segue che l’applicazione
det : O(n) → Z2 è un omomorfismo suriettivo di nucleo Ker(det) = SO(n). Dal fatto che
il nucleo di un omomorfismo è un sottogruppo normale e dal teorema di isomorfismo segue
l’asserto. Per U (n) si procede analogamente.
3 GRUPPI ORTOGONALI E UNITARI
7
Osservazione 3.2 Segue dal teorema precedente che ci sono solo due laterali di SO(n) in
O(n) : il laterale SO(n) che contiene I e il laterale O(n) − SO(n) che contiene la matrice
C tale che C11 = −1 e Cij = δij se i 6= 1 e j 6= 1; per tale matrice, det C = −1. Segue
immediatamente che ogni matrice B ∈ O(n) − SO(n) può essere scritta come B = AC con
A ∈ SO(n) (A = BC −1 )
Esempio 3.1 O(2), SO(2) e U (1).
Una matrice A di O(2) deve verificare:
−1
A
−1 d
a c
a b
− detb A
t
det
A
=A =
=
=
b d
c d
− detc A deta A
Si distinguono ora due casi:
a −b
i) det A = 1, allora A ∈ SO(2) e A =
con a2 + b2 = 1 e quindi possiamo porre
b a
a = cos θ, b = sin θ. La matrice A rappresenta una rotazione (nel piano cartesiano x, y)
in senso antiorario di un angolo θ. Prendendo l’omomorfismo ρ dell’esempio 2.2 si ottiene
ρ(cos θ + i sin θ) = A; è anche chiaro che, in questo caso, ρ è suriettivo, e quindi si ha un
isomorfismo:
SO(2) = U (1) = S 1
−a −b
ii) det A = −1, allora A ∈ O(2) − SO(2) e A =
con a2 + b2 = 1 e quindi possiamo
−b a
porre a = cos θ, b = sin θ. Si ottiene
− cos θ − sin θ
cos θ − sin θ
−1 0
=
− sin θ cos θ
sin θ cos θ
0 1
−1 0
La matrice
rappresenta una riflessione (nel piano cartesiano x, y) rispetto al0 1
cos θ − sin θ
l’asse delle y e la matrice
una rotazione di angolo θ. Segue che ogni
sin θ cos θ
A ∈ O(2) − SO(2) rappresenta una riflessione nel piano x, y rispetto a una retta passante per l’origine. Si noti che la composizione di due riflessioni risulta sempre essere una
rotazione (il determinante vale 1).
Esempio 3.2 SU (2) = S 3 = Sp(1) (il gruppo moltiplicativo dei quaternioni di norma 1).
Le matrici di SU (2) devono verificare la relazione:
−1
A
=
−1 a b
d −b
ā c̄
∗
=
=A =
c d
−c a
b̄ d¯
3 GRUPPI ORTOGONALI E UNITARI
8
Segue che una matrice di SU (2) si può scrivere:
a −b
A=
con aā + bb̄ = 1
b̄ ā
Se poniamo a = x + iy e b = z + it si ottiene che (x, y, z, t) ∈ S 3 . La sfera S 3 può essere
identificata col gruppo dei quaternioni di norma uno: Sp(1) = {q ∈ H | q q̄ = 1}. E’ facile
verificare che l’immagine dell’omomorfismo ρ dell’esempio
2.3 è proprio SU (2). Infatti, posto
1
0
q = x + iy + jz + kt si ottiene ρ(q)(ρ(q))∗ =
. Per la suriettività basta ricordare la
0 1
rappresentazione
trovata sopra delle matrici di SU (2) e osservare che ρ(x + iy + jz + kt) =
a −b
. Si conclude osservando che un omomorfismo iniettivo è un isomorfismo sulla sua
b̄ ā
immagine.
Osservazione 3.3 S 0 , S 1 e S 3 sono le uniche sfere a cui si può dare una struttura di gruppo.
3.1
Matrici ortogonali e unitarie
Studiamo ora alcune proprietà algebriche (della massima importanza) delle matrici appartenenti
ai gruppi ortogonali e unitari.
Definizione 3.6 Le matrici appartenenti rispettivamente ai gruppi ortogonali o unitari sono
dette matrici ortogonali o unitarie.
Lemma 3.2 Le matrici ortogonali e le matrici unitarie sono matrici normali.
Prova. Basta ovviamente dimostrarlo nel caso unitario. Se U −1 = U ∗ segue subito: U U ∗ =
I = U ∗U .
Lemma 3.3 Le colonne delle matrici ortogonali e delle matrici unitarie hanno norma unitaria
e sono tra loro ortogonali.
Prova. Queste matrici infatti trasformano basi ortonormali in basi ortonormali, perchè
conservano il prodotto scalare o il prodotto hermitiano.
Lemma 3.4 Se A è una matrice normale, lo è anche ogni matrice simile ad A tramite una
matrice unitaria.
Prova. Sia B = U −1 AU simile ad A, con U unitaria. Si ottiene:
BB ∗ = U ∗ AU (U ∗ AU )∗ = U ∗ A (U U ∗ ) A∗ U = U ∗ AA∗ U
B ∗ B = (U ∗ AU )∗ U ∗ AU = U ∗ A∗ (U U ∗ ) AU = U ∗ A∗ AU
Essendo A normale, segue la tesi: BB ∗ = B ∗ B.
3 GRUPPI ORTOGONALI E UNITARI
9
Osservazione 3.4 Segue immediatamente da questo lemma che se una applicazione lineare è
rappresentata in una base ortonormale da una matrice normale, è rappresentata da una matrice
normale in ogni altra base ortonormale.
Lemma 3.5 Se A è una matrice hermitiana, lo è anche ogni matrice simile ad A tramite una
matrice unitaria.
Prova. Sia B = U −1 AU simile ad A, con U unitaria. Si ottiene:
B = U ∗ AU
B ∗ = (U ∗ AU )∗ = U ∗ A∗ U
Essendo A hermitiana, segue la tesi: B = B ∗
Osservazione 3.5 Segue immediatamente da questo lemma che se una applicazione lineare
è rappresentata in una base ortonormale da una matrice hermitiana, è rappresentata da una
matrice hermitiana in ogni altra base ortonormale.
3.2
Autovalori delle matrici hermitiane e unitarie
Studiamo in questa sezione le principali proprietà degli autovalori e degli autovettori per le
classi di matrici normali di nostro interesse.
Teorema 3.2 Gli autovalori di una matrice hermitiana sono numeri reali.
Prova. Sia Ax = αx. Allora: (Ax, y) = (x, A∗ y) = (x, Ay) ⇒ (αx, x) = (x, αx) ⇒
α(x, x) = ᾱ(x, x) ⇒ α = ᾱ
Segue ovviamente il seguente risultato non banale (ma difficile da ricavare guardando solo
il polinomio caratteristico!):
Teorema 3.3 Gli autovalori di una matrice simmetrica sono numeri reali.
Teorema 3.4 Gli autovalori di una matrice unitaria sono numeri complessi di norma 1.
Prova. Sia U x = αx.Allora (vedi lemma 3.1) (U x, U x) = (x, x) ⇒ (αx, αx) = (x, x) ⇒
αᾱ = 1
Segue ovviamente anche il seguente risultato, anch’esso non banale:
Teorema 3.5 Gli autovalori di una matrice ortogonale possono essere solo ±1.
Riportiamo ora un importante corollario del Teorema Spettrale (per la cui dimostrazione
vedi 1.3)
Teorema 3.6 :
1. Le matrici hermitiane sono diagonalizzabili mediante matrici unitarie.
3 GRUPPI ORTOGONALI E UNITARI
10
2. Le matrici simmetriche sono diagonalizzabili mediante matrici ortogonali.
3. Le matrici unitarie sono diagonalizzabili mediante matrici unitarie.
Definizione 3.7 Una matrice simmetrica (o hermitiana) si dice definita positiva se ha tutti
gli autovalori strettamente maggiori di zero.
Lemma 3.6 Data A definita positiva e simmetrica, esiste una matrice B, anch’essa definita
positiva e simmetrica tale che A = B 2 (analogo risultato vale per le matrici hermitiane positive).
Prova. La matrice A è diagonalizzabile tramite matrici ortogonali, e sulla diagonale ha
numeri reali strettamente positivi. Sia D una sua forma diagonale, e sia E la matrice diagonale
che ha sulla diagonale le radici positive degli autovalori di A:
D = C −1 AC = E 2
Si ottiene quindi, posto B ≡ CEC −1 :
A = CDC −1 = CE 2 C −1 = CEC −1
CEC −1 = BB = B 2 .
La matrice B è simmetrica. Infatti, essendo C −1 = C t e E diagonale, si ha:
t
B t = CEC t = CE t C t = B
Osservazione 3.6 Data A invertibile, At A è definita positiva. Infatti At A è simmetrica,
ed inoltre se At Av = λv si ottiene:
0 < (Av, Av) = v, At Av = (v, λv) = λ(v, v) = λ kvk2
perchè A è invertibile e v 6= 0. Si ha quindi λ > 0. Lo stesso vale nel caso complesso: data A
invertibile, A∗ A è hermitiana definita positiva.
3.3
Scomposizione polare
Concludiamo il paragrafo con una interessante proprietà delle matrici invertibili:
Teorema 3.7 Ogni matrice reale invertibile A si può scrivere come il prodotto di una matrice
ortogonale R e una matrice simmetrica S definita positiva. Un risultato analogo vale per le
matrici complesse: ogni matrice complessa invertibile si può scrivere come il prodotto di una
matrice unitaria U e una matrice hermitiana definita positiva H.
3 GRUPPI ORTOGONALI E UNITARI
11
Prova. Dimostriamolo nel caso reale. Consideriamo la matrice At A (simmetrica e definita
positiva per l’osservazione 3.6 ); per il lemma 3.6 esiste una matrice S simmetrica e definita
positiva tale che S 2 = At A; si ottiene quindi
−1 2 t −1 S S ≡ RS
S = A
A = At
−1
Osserviamo ora che R = (At ) S è ortogonale:
−1
−1
t −1
S
R = A
= S −1 At = S −1 S 2 A−1 = SA−1
t
t
t −1
S = S t A−1 = SA−1
R = A
La dimostrazione nel caso complesso è perfettamente analoga.
Osservazione 3.7 La scomposizione polare nel caso complesso, A = U H, con U unitaria e
H hermitiana definita positiva, nel caso di matrici 1 × 1, invertibili, cioè numeri complessi
6= 0, riproduce, ovviamente, la usuale rappresentazione trigonometrica z = eiθ |z|, con eiθ ∈
U (1), |z| > 0.
Osservazione 3.8 Se la matrice A reale ha determinante positivo, la scomposizione è: A = RS
con det R = 1.
3.4
Il teorema spettrale
In questa sezione dimostriamo il risultato principale sulle matrici normali:
diagonalizzabilità.
Partiamo dai due seguenti semplici lemmi.
la loro
Lemma 3.7 Ogni applicazione lineare f definita su un sottospazio complesso V di Cn , a valori
in V stesso, ha sicuramente un autovettore.
Prova. Infatti, se V ha dimensione r, e si scrive la matrice della restrizione di f a V, si
trova una matrice r × r. Questa ha almeno un autovalore complesso, e, conseguentemente, f
ha almeno un autovettore appartenente a V.
Lemma 3.8 Siano A e B due matrici complesse n × n tali che AB = BA. Allora esiste un
elemento non nullo di Cn che è autovettore sia di A, sia di B.
−
Prova. Sia λ un autovalore di A, e sia Vλ il corrispondente autospazio. Se →
v ∈ Vλ ,
abbiamo:
−
−
−
−
A(B(→
v )) = B(A(→
v )) = B(λ→
v ) = λB(→
v ).
→
−
Quindi B( v ) ∈ Vλ . B è un’applicazione lineare di Vλ in sè stesso. Per il lemma precedente,
−
−
questa ha almeno un autovettore →
w ∈ Vλ . Abbiamo concluso: →
w sta in Vλ , dunque è un
→
−
autovettore di A, e w è anche autovettore di B.
4 SPAZIO TANGENTE ALL’IDENTITÀ
12
Teorema 3.8 Teorema spettrale. Sia hi il prodotto Hermitiano standard su Cn , e sia A
una matrice normale n × n. Allora, esiste una base ortonormale di Cn costituita da autovettori
di A.
Prova. Procediamo per induzione sulla dimensione n. Il teorema è ovvio per n = 1 (A
è una matrice 1 × 1). Dobbiamo dimostrare il teorema spettrale in dimensione n, supponendo
che esso sia vero in dimensione n − 1. Poichè A commuta con A∗ , A e A∗ hanno almeno un
−
autovettore in comune per il lemma 3.8: indichiamolo con →
v1 . Dividendolo per la sua norma,
−
−
potremo supporre che →
v1 abbia lunghezza 1. Ora, siano V1 = span {→
v1 }, e W = (V1 )⊥ . A
−
manda W in sè stesso: se →
w ∈ W,
−
−
−
−
−
−
hA→
w;→
v1 i = h→
w ; A∗ →
v1 i = µ h→
w;→
v1 i = 0
−
La penultima uguaglianza si ottiene ricordando che →
v1 è un autovettore anche per A∗ (indicando
−
con µ l’autovalore associato). L’ultima uguaglianza si ottiene ricordando che →
w ∈ W = (V1 )⊥ .
−
−
−
Dunque, A→
w è ortogonale a →
v1 , e cioè A→
w ∈ W . A può essere vista come un’applicazione
lineare di W in sè stesso. Ma W ha dimensione n − 1, dunque si può applicare l’ipotesi
−
−
−
induttiva. Sia {→
v2 ; ...; →
vn } la base ortonormale di W . Allora, essendo →
v1 ortogonale ad ogni
→
−
→
−
→
−
n
vettore di W , { v1 ; v2 ; ...; vn } è la base cercata di C .
Osservazione 3.9 Nella base ortonormale composta da autovettori la matrice risulta diagonale. Una matrice diagonalizzante è una matrice le cui colonne sono costituite da autovettori e
sulla diagonale abbiamo gli autovalori.
Osservazione 3.10 Abbiamo visto che tutte le matrici complesse normali possono essere
diagonalizzate in C con una base ortonormale di autovettori. Tuttavia, questo non si verifica
nel caso reale. Infatti, una matrice normale reale potrebbe avere autovalori complessi, e quindi
non essere diagonalizzabile in campo reale (pur rimanendo ovviamente diagonalizzabile in campo
complesso). Tale cosa non si verifica per le matrici reali simmetriche che risultano, quindi,
tutte diagonalizzabili; il teorema 3.2, valido per le matrici hermitiane, vero in particolare
anche per tutte le matrici simmetriche, afferma infatti che esse possono avere solo autovalori
reali.
4
Spazio tangente all’identità
Iniziamo in questa sezione lo studio delle proprietà geometriche e topologiche dei gruppi
ortogonali e unitari.
Definizione 4.1 Sia V uno spazio vettoriale reale di dimensione finita, una curva in V è una
funzione differenziabile γ : (a, b) → V, dove (a, b) ⊂ R è un intervallo aperto contenente 0.
Definizione 4.2 Sia u = γ(c) con c ∈ (a, b). Un vettore v tangente in u a V è v =
limh→0 γ(c+h)−γ(c)
h
4 SPAZIO TANGENTE ALL’IDENTITÀ
13
Se (e1 , e2 , ..., en ) è una base di V, si ottiene subito che v = γ 0 (c) = (γ10 (c)...γn0 (c)). Come V
considereremo d’ora in avanti Mn .
Definizione 4.3 Sia G un sottogruppo di GL(n, R) (o GL(n, C)). Una curva in G passante
per l’identità è una curva in GL(n, R) (o GL(n, C) tale che, ∀c ∈ (a, b), γ(c) ∈ G e γ(0) = I.
Definizione 4.4 Siano α e β due curve in G passanti per l’identità, la curva prodotto è la
curva (in G e passante per l’identità) η(c) = (αβ)(c) = α(c)β(c)
Osservazione 4.1 Si ottiene subito (facendo attenzione all’ordine in cui si moltiplicano gli
elementi di G):
(αβ)0 (c) = α(c)β 0 (c) + α0 (c)β(c)
Definizione 4.5 Lo spazio tangente a G nell’identità è l’insieme T (G) = {v ∈ Mn |v = γ 0 (0)},
essendo γ una curva in G passante per l’identità.
Lemma 4.1 T (G) è un sottospazio vettoriale di Mn .
Prova. Siano α0 (0), β 0 (0) ∈ T (G), allora
(αβ)0 (0) = α(0)β 0 (0) + α0 (0)β(0) = α0 (0) + β 0 (0)
e quindi, dato che (αβ)0 (0) ∈ T (G) per la definizione di curva prodotto, anche α0 (0) + β 0 (0) ∈
T (G). Sia ora α0 (0) ∈ T (G) e sia u un numero reale; posto σ(t) = α(ut) si trova immediatamente
che σ è una curva in G passante per l’identità e che σ 0 (0) = uα0 (0) e quindi uα0 (0) ∈ T (G).
Esempio 4.1 T (GL(1, C)) = C = R2 , T (GL(2, R)) = M2 (R) = R4 . Basta infatti osservare
che i valori delle derivate in zero di funzioni reali sono arbitrari numeri reali.
Esempio 4.2 T (SO(2)) = R. Sia (vedi esempio 3.1)
cos f (t) − sin f (t)
α(t) =
con f (0) = 0
sin f (t) cos f (t)
una curva in SO(2) passante per I. Essendo f 0 (0) un arbitrario numero reale, si vede subito
che:
0 −a
0
T (SO(2)) = {matrici 2 × 2 di tipo α (0)} =
,a ∈ R
a 0
E quindi T (SO(2)) è, come spazio
reale,
vettoriale
isomorfo a R. Il lettore farebbe bene a
0 −a
verificare in tutti i dettagli che
, a ∈ R è uno spazio vettoriale reale di dimensione
a 0
1.
Definizione 4.6 La dimensione di G (dim(G)) è la dimensione di T (G) come spazio vettoriale
reale.
4 SPAZIO TANGENTE ALL’IDENTITÀ
14
Definizione 4.7 Un omomorfismo differenziabile ϕ : H → G è un omomorfismo tale che
β(t) = ϕ(α(t)) = (ϕ ◦ α)(t) è una curva in G per ogni α curva in H.
Osservazione 4.2 Si noti che se α passa per l’identità di H necessariamente (ϕ ◦ α) passa per
l’identità di G in virtù del fatto che un omomorfismo manda l’identità nell’identità. Il punto
chiave della definizione è la differenziabilità della funzione composta. Tutti gli omomorfismi
considerati in questa sezione sono differenziabili perchè si ottengono da prodotti e somme tra
numeri reali, numeri complessi (visti come coppie di numeri reali) e quaternioni (visti come
quaterne di numeri reali).
Definizione 4.8 Il differenziale dϕ di un omomorfismo differenziabile è l’applicazione dϕ :
T (H) → T (G):
dϕ(α0 (0)) = β 0 (0) = (ϕ ◦ α)0 (0)
In particolare, il differenziale dell’omomorfismo identità è l’applicazione identità tra T (H)
e T (G).
Esempio 4.3 Consideriamo il caso dell’omomorfismo ρ dell’esempio 2.2. Sia α(t) = x(t) +
iy(t) una curva in GL(1, C) passante per I. Si ottiene subito che
x(t) −y(t)
(ρ ◦ α)(t) =
y(t) x(t)
e quindi:
0
x (0) −y 0 (0)
(ρ ◦ α) (0) =
y 0 (0) x0 (0)
0
Ora x0 (0) e y 0 (0) sono due arbitrari numeri reali, diciamo a e b; risulta quindi dalla definizione
4.8 e dall’esempio 4.1 che dρ : R2 →M2 (R)
a
a −b
2
dρ :
∈R →
∈ M2 (R)
b
b a
Si osservi che dρ è una applicazione lineare
iniettiva
di rango
2, la sua immagine è il sottospazio
1 0
0 −1
bidimensionale di M2 (R) generato da
e
.
0 1
1 0
Esempio 4.4 Se restringiamo ρ alle matrici di U (1) cioè ai numeri complessi di norma 1,
x0 (0) non può più essere arbitrario. Infatti, se x(t)2 + y(t)2 = 1 si ottiene
2x(t)x0 (t) + 2y(t)y 0 (t) = 0,
ma x(0) + iy(0) = 1 e quindi deve essere x0 (0) = 0. Ne segue che:
0 −b
dρ : b ∈ R →
∈ T (SO(2)) ⊂ M2 (R)
b 0
In altri termini (vedi l’esempio 4.2), dρ è un isomorfismo di spazi vettoriali reali tra
T (U (1)) e T (SO(2)). Sappiamo anche (vedi l’esempio 3.1) che ρ è un isomorfismo di gruppi
tra U (1) e SO(2). La situazione descritta in questo esempio si generalizza nel seguente lemma:
4 SPAZIO TANGENTE ALL’IDENTITÀ
15
Lemma 4.2 Il differenziale dϕ di un omomorfismo differenziabile ϕ è una applicazione lineare.
Se ϕ è un isomorfismo di gruppi H → G, allora dϕ è un isomorfismo di spazi vettoriali reali
T (H) → T (G).
Prova. Siano α0 (0), β 0 (0) ∈ T (H) allora (vedi lemma 4.1):
dϕ [α0 (0) + β 0 (0)] = dϕ (αβ)0 (0) = [ϕ ◦ αβ)]0 (0)
Dove αβ è la curva prodotto: (αβ) (t) = α(t)β(t). Si ottiene:
(ϕ ◦ αβ) (t) = ϕ [αβ(t)] = ϕ [α(t)β(t)] = ϕ [α(t)] ϕ [β(t)] = (ϕ ◦ α) (t) (ϕ ◦ β) (t)
Osserviamo ora che, dalla definizione di derivata, si ha proprio:
dϕ [α0 (0) + β 0 (0)] = dϕ (αβ)0 (0) = [ϕ ◦ αβ]0 (0) = [(ϕ ◦ α) (t) (ϕ ◦ β) (t)]0t=0 =
= [ϕ ◦ α]0 (0) (ϕ ◦ β) (0) + (ϕ ◦ α) (0)[ϕ ◦ β]0 (0) = dϕ [α0 (0)] + dϕ [β 0 (0)] ,
perchè (ϕ ◦ β) (0) = (ϕ ◦ α) (0) = ϕ(I) = I, e quindi:
dϕ [α0 (0) + β 0 (0)] = dϕ [α0 (0)] + dϕ [β 0 (0)]
Sia ora a un numero reale si ha allora (vedi ancora il lemma 4.1):
dϕ [aα0 (0)] = dϕ [(aα)0 (0)] = [ϕ ◦ aα)]0 (0)
Ricordiamo ora che aα è la curva (aα) (t) = α(at), per cui:
[ϕ ◦ aα](t) = ϕ [α(at)] = [a (ϕ ◦ α)] (t)
Osserviamo ora che, dalla definizione di derivata, si ha proprio:
[ϕ ◦ aα]0 (0) = [a (ϕ ◦ α) (t)]0t=0 = a (ϕ ◦ α)0 (0)
e quindi:
dϕ [aα0 (0)] = adϕ [α0 (0)]
La linearità di dϕ è provata.
La seconda parte segue dal fatto che la composizione di funzioni differenziabili è
differenziabile e dalla regola di Leibniz. Se ϕ e ψ sono omomorfismi differenziabili
ψ
ϕ
H→G→K
anche ϕ ◦ ψ lo è e, inoltre, si verifica che d(ϕ ◦ ψ) = dϕ ◦ dψ. Infatti si ha, dalle definizioni :
d(ϕ ◦ ψ) [α0 (0)] = (ϕ ◦ ψ ◦ α)0 (0) = dϕ (ψ ◦ α)0 (0) = (dϕ ◦ dψ) [α0 (0)]
Se ϕ è un isomorfismo differenziabile, anche ϕ−1 lo è e quindi segue che:
d(ϕ ◦ ϕ−1 ) = d(Id) = Id = dϕ ◦ dϕ−1 .
Analogamente:
d(ϕ−1 ◦ ϕ) = d(Id) = Id = dϕ−1 ◦ dϕ.
Dove abbiamo indicato con Id l’applicazione identità. Ne consegue che (dϕ)−1 = dϕ−1 e quindi
dϕ è una applicazione lineare invertibile e quindi un isomorfismo.
4 SPAZIO TANGENTE ALL’IDENTITÀ
16
Teorema 4.1 Due gruppi differenziabilmente isomorfi hanno la stessa dimensione.
Prova. Segue banalmente dal lemma 4.2.
Teorema 4.2
dim(SO(2)) = dim(U (1)) = dim(S 1 ) = 1
e
dim(SU (2)) = dim(S 3 ) = 3.
(questo enunciato suggerisce che debba esistere una definizione di dimensione (applicabile anche
alle sfere che non sono gruppi) per cui dim(S n ) = n)
Prova. Abbiamo già visto nell’esempio 4.4 che dim(SO(2)) = dim(U (1)) = 1. Ne vediamo
ora un’altra dimostrazione: SO(2), U (1) e S 1 sono differenziabilmente isomorfi (vedi l’esempio
3.1 ed il teorema 3.1) e quindi, (vedi teorema 4.1), possiamo calcolare solo dim(S 1 ). Sia ora
γ(t) = eif (t) con f (t) reale, differenziabile e tale che f (0) = 0 una curva in S 1 passante per 1. Si
ha T (S 1 ) = {γ 0 (0) = if 0 (0)|}. Essendo ogni numero reale a la derivata in 0 della funzione (reale,
differenziabile e passante per 0) f (t) = at segue che T (S 1 ) è tutto l’asse immaginario e quindi è
isomorfo, come spazio vettoriale reale, a R. Dimostriamo ora la seconda parte. SU (2), S 3 e Sp(1)
sono differenziabilmente isomorfi (vedi esempio 3.2). Sia ora γ(t) = x(t) + y(t)i + z(t)j + w(t)k
con x(t)2 + y(t)2 + z(t)2 + w(t)2 = 1 e x(0) = 1, y(0) = z(0) = w(0) = 0 una curva passante per
l’identità in Sp(1). Si nota che in x(0) = 1 la funzione x(t) ha un massimo e quindi x0 (0) = 0
(vedi anche l’esempio 4.4). Ne segue che γ 0 (0) = y 0 (0)i + z 0 (0)j + w0 (0)k. Allora T (Sp(1)) =
{γ 0 (0)|γ(0) = 1} ⊂ R3 (dove R3 è visto come lo spazio vettoriale reale generato da i, j, k).
Viceversa, R3 ⊂ T (Sp(1)) = {γ 0 (0)|γ(0) = 1} perchè, per ogni a, b, c reali, basta considerare
la curva γ(t) (in Sp(1), perchè si vede subito che kγ(t)k2 = 1, con dominio di definizione un
piccolo intervallo attorno a 0 dipendente da a, b, c in modo che 1 − a2 t2 − b2 t2 − c2 t2 > 0,
differenziabile e passante per 1):
√
γ(t) = 1 − a2 t2 − b2 t2 − c2 t2 + ati + btj + ctk
e si ottiene proprio ai + bj + ck = γ 0 (0).
Il seguente teorema fornisce un’altra giustificazione per l’uso del termine dimensione nella
definizione 4.6.
Teorema 4.3 dim GL(n, R) = n2 e dim GL(n, C) = 2n2
Prova. Siccome (come spazi vettoriali reali) dim Mn (R) = n2 e dim Mn (C) = 2n2 , basta
dimostrare che ogni matrice di Mn può essere vista come la derivata in 0 di una curva in
GL(n, R) (oppure GL(n, C)) passante per l’identità. Sia allora v ∈ Mn e si consideri, in
un intervallo contenente lo zero, la curva σ : (a, b) → Mn definita da σ(t) = tv + I. Tale
curva verifica σ(0) = I e σ 0 (0) = v. Il determinante è una funzione continua (si calcola solo
con somme e prodotti) e quindi prendendo l’intervallo di definizione di σ abbastanza piccolo,
possiamo essere certi che det σ(t) 6= 0 in quanto det σ(0) = 1. In altre parole una matrice che
4 SPAZIO TANGENTE ALL’IDENTITÀ
17
differisce di poco dall’identità è invertibile. Ci si può convincere di ciò anche dimostrando la
formula seguente (ad esempio nel caso semplice di M2 (R)):
det(I + εA) = 1 + εtr(A) + O(ε2 )
Si ricorda che tr(A) è la traccia della matrice A cioè la somma degli elementi presenti sulla
diagonale principale.
La dimostrazione del teorema 4.2, tutta basata su calcoli e costruzioni ad hoc non è per
niente illuminante sulla struttura degli spazi tangenti, ma, a questo punto della trattazione non
era forse possibile fare di meglio...
4.1
Matrici antisimmetriche e antihermitiane
Definizione 4.9 Una matrice A ∈ Mn (R) è detta antisimmetrica se A + At = 0 (dove 0 è la
matrice con tutti gli elementi nulli).
Definizione 4.10 Una matrice A ∈ Mn (C) è detta antihermitiana se A + A∗ = 0.
Definizione 4.11 so(n) = {A ∈ Mn (R)|A + At = 0} (notare che risulta sempre tr(A) = 0)
Definizione 4.12 u(n) = {A ∈ Mn (C)|A + A∗ = 0}
Definizione 4.13 su(n) = {A ∈ Mn (C)|A + A∗ = 0 e tr(A) = 0}
Lemma 4.3 so(n) è un sottospazio vettoriale di Mn (R) di dimensione
n(n−1)
.
2
Prova. Se A, B ∈ so(n) segue che (A + B) + (A + B)t = (A + At ) + (B + B t ) = 0. Se
a ∈ R e A ∈ so(n) segue che aA + (aA)t = a(A + At ) = 0. Per il calcolo della dimensione,
basta osservare che ogni matrice antisimmetrica ha la diagonale tutta nulla e che gli elementi
sotto la diagonale sono gli opposti di quelli sopra la diagonale (infatti A + At = 0 implica che
Aij = −Aji e Aii = 0). Gli elementi indipendenti di una matrice con diagonale tutta nulla sono
2
2
n2 − n, di cui n 2−n stanno sopra la diagonale e n 2−n sotto. L’osservazione precedente mostra
però che in una matrice antisimmetrica gli elementi sopra la diagonale determinano anche quelli
2
sotto la diagonale e quindi ne restano solo n 2−n indipendenti.
Lemma 4.4 u(n) è un sottospazio vettoriale reale di Mn (C) di dimensione n2 e su(n) è un
sottospazio vettoriale reale di Mn (C) di dimensione n2 − 1.
Prova. Se A, B ∈ u(n) segue che (A + B) + (A + B)∗ = (A + A∗ ) + (B + B ∗ ) = 0. Se a ∈ R
e A ∈ u(n) segue che aA + (aA)∗ = aA + āA∗ = a(A + A∗ ) = 0 (Notare che u(n) non è uno
spazio vettoriale su C, perchè se a ∈ C − R si ha a 6= ā). Il caso di su(n) è totalmente analogo
essendo la traccia una operazione lineare. Per il calcolo della dimensione, basta osservare che
ogni matrice antihermitiana ha la diagonale tutta puramente immaginaria e che gli elementi
sotto la diagonale sono gli opposti dei coniugati di quelli sopra la diagonale (infatti A + A∗ = 0
implica che Aij = −Āji e Aii + Āii = 0). Osserviamo ora che gli n2 − n numeri complessi che
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
18
individuano gli elementi indipendenti di una matrice complessa con diagonale tutta nulla, sono
determinati da 2(n2 − n) numeri reali, di cui n2 − n stanno sopra la diagonale e n2 − n sotto.
Sappiamo però che in una matrice antihermitiana gli elementi sopra la diagonale determinano
anche quelli sotto la diagonale; agli n2 − n numeri reali rimasti indipendenti vanno però ancora
aggiunti gli n numeri reali che individuano gli elementi puramente immaginari della diagonale.
Nel caso di su(n) la traccia è nulla, e quindi gli elementi puramente immaginari sulla diagonale
non sono tutti indipendenti, ma uno tra loro deve essere l’opposto della somma dei rimanenti,
e questo fa calare di uno la dimensione reale.
Possiamo ora enunciare un risultato preliminare che però inizia a mostrare l’importanza
degli spazi vettoriali sopra definiti che appaiono in modo naturale in molte altre situazioni.
Lemma 4.5
1. Se γ è una curva passante per l’identità in O(n) oppure in SO(n) allora γ 0 (0) ∈ so(n),
cioè T (O(n)) ⊆ so(n) e T (SO(n)) ⊆ so(n).
2. Se γ è una curva passante per l’identità in U (n) allora γ 0 (0) ∈ u(n), cioè T (U (n)) ⊆ u(n).
3. In particolare, dim O(n) ≤
n2 −n
, dim SO(n)
2
≤
n2 −n
, dim U (n)
2
≤ n2 ,
Prova. In tutti i casi abbiamo (γγ ∗ )(t) = γ(t)γ ∗ (t) = I, per cui (γγ ∗ )0 (t) = 0. Dalla
osservazione 4.1 si ottiene subito:
(γγ ∗ )0 (0) = γ(0)γ ∗0 (0) + γ 0 (0)γ ∗ (0) = γ ∗0 (0) + γ 0 (0) = 0
Il punto 3 segue dai punti 1 e 2 e dai lemmi 4.3 e 4.4.
Osservazione 4.3 Si noti che non abbiamo detto nulla su SU (n) (perchè ?). Per dimostrare
che le disuguaglianze del punto 3 sono, in realtà, uguaglianze e trattare anche il caso di SU (n),
avremo bisogno di altri concetti e risultati, la cui importanza va tuttavia molto oltre questo
scopo.
5
Esponenziale, Logaritmo e Algebre di Lie
Ad un gruppo di matrici G abbiamo associato, nel paragrafo precedente, uno spazio vettoriale:
il suo spazio tangente T (G). In questa parte del corso studieremo gli spazi tangenti dei gruppi di
matrici e ci occuperemo di un metodo per costruire un gruppo a partire da uno spazio vettoriale
con particolari proprietà.
Definizione 5.1 Sia A ∈ Mn (R) l’esponenziale della matrice A è la serie:
eA = I + A + A2 /2 + A3 /3! + .....
Osservazione 5.1 La serie va interpretata nel senso che ∀i, j la matrice eA (quando esiste)
ha componenti:
eA ij = Iij + Aij + A2 /2 ij + A3 /3! ij + .....
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
19
Osservazione 5.2 Fortunatamente, la matrice eA esiste sempre:
Lemma 5.1 La serie eA = I + A + A2 /2 + A3 /3! + ... converge ad un elemento di Mn (R).
Prova. Sia a = max{|Aij |}. Pensando di sostituire ogni elemento di A con a si ottiene:
|Aij | ≤ a, A2 /2 ij ≤ na2 /2, ..., Ak /k! ij ≤ nk−1 ak /k!.
Essendo n e a numeri fissati, il criterio del rapporto1 applicato alla successione dei maggioranti
ci dice che la serie converge in modulo elemento per elemento, cioè per ogni i e j.
Osservazione 5.3 Si può definire l’esponenziale anche di matrici complesse. Ci
limitiamo a ricordare che una successione di numeri complessi zn si dice convergere a z se la
successione di numeri reali |zn − z| → 0. Analogamente al caso reale, una serie di numeri
complessi si dice convergente se converge la successione delle somme parziali. Una condizione
sufficiente perchè una serie di numeri complessi converga è che converga, nel senso delle serie
di numeri reali, la serie dei moduli (serie assolutamente convergenti).
Teorema 5.1
1. Se AB = BA allora eA+B = eA eB .
2. eA ∈ GL(n, R).
3. eBAB
−1
= BeA B −1 .
Prova. Per convincersi del punto 1 basta guardare i primi termini:
B 2 A3 A2 B AB 2 B 3
A2
+ AB +
+
+
+
+
+ ...
eA+B = I + A + B +
2
2
6
2
2 6
A2 A3
B2 B3
eA eB = I + A +
+
+ ...
I +B+
+
+ ... = eA+B
2
6
2
6
Il punto 2 segue dal punto 1: I = e0 = eA−A = eA e−A = e−A eA , e quindi eA è invertibile avendo
un’inversa. Per il punto 3 basta ricordare che:
n
BAB −1 = BAn B −1
1
Sia ak una successione di termini positivi; se limk→∞
caso, ak = nk−1 ak /k! e quindi il limite vale 0.
ak+1
ak
< 1, allora la serie
P
ak converge. Nel nostro
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
20
Esempio 5.1 SO(2) = {eA con A ∈ so(2)}. Se A ∈ so(2) allora eA ∈ SO(2). Cioè:


0 −x 
cos x − sin x
x
0
e
=
sin x cos x
2
2
3
4
0 x3
0 −x
0 −x
−x
0
0 −x
Basta calcolare
=
,
=
,
=
x 0
0 −x2
x 0
−x3 0
x 0
5
4
0 −x
0 −x5
x 0
, ... , applicare la definizione di esponenziale e ricordare
,
=
x5 0
x 0
0 x4
gli sviluppi delle funzioni cos x e sin x :
x2 x4
cos x = 1 −
+
− ....
2!
4!
x 3 x5
sin x = x −
+
− ....
3!
5!
Si osservi anche che ciò mostra esplicitamente che tutte le matrici di SO(2) (vedi esempio
3.1) si ottengono in questo modo.
Osservazione
5.4 Notare che e0 = I, ma invece eA = I non implica A = 0. Ad esempio,


0 −2π 

0
e 2π
= I.
Esempio 5.2 Se A ∈ so(n) allora eA ∈ O(n). Abbiamo infatti (A e At commutano perchè
stiamo considerando matrici normali):
t
t
I = e0 = eA+A = eA eA = eA (eA )t
E’ bene notare esplicitamente cosa l’esempio non dice; non è vero che ogni matrice
ortogonale
1 0
è esponenziale di una matrice antisimmetrica (infatti l’esempio 5.1 mostra che
non
0 −1
si otterrà mai per esponenziazione).
Si può anche definire il logaritmo di una matrice.
Definizione 5.2 Sia A ∈ Mn (R) il logaritmo della matrice A è la serie:
log A = (A − I) − (A − I)2 /2 + (A − I)3 /3 − (A − I)4 /4 + .....
Lemma 5.2 Per A vicino a I, la serie converge.
Prova. Poniamo X = A − I e supponiamo che a = max{|Xij |}. Pensando di sostituire
ogni elemento di X con a si ottiene:
k 2 2
|Xij | ≤ a, X /2 ij ≤ na /2, ..., X /k ij ≤ nk−1 ak /k
Essendo n e a numeri fissati, il criterio del rapporto applicato alla successione dei maggioranti
ci dice che la serie converge in modulo elemento per elemento, cioè per ogni i e j, quando a < n1 .
k k+1
Infatti nnak−1 a/k+1
→ na, e quindi è < 1 per a < n1 .
k /k
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
21
Le relazioni tra esponenziale e logaritmo sono proprio quelle che ci aspettiamo.
Teorema 5.2 Dove le formule hanno senso, elog X = X e log eA = A. Cioè la mappa exp A =
eA è invertibile per matrici vicine alla matrice 0. Analogamente la mappa log è invertibile per
matrici vicino alla matrice I.
Prova. Siccome le serie sono assolutamente convergenti, si possono riarrangiare i termini e
quindi verificare le formule, esattamente come si fa nel caso delle funzioni di variabile reale ex
e log x.
Lemma 5.3 Dove le formule hanno senso, e se log A e log B commutano fra loro, si ha:
log (AB) = log A + log B.
Prova. elog(AB) = AB = elog A elog B = elog A+log B e quindi, prendendo i logaritmi, si ha la
tesi.
Osservazione 5.5 Considerata la mappa esponenziale: exp : Mn → Mn , il teorema 5.2 ci dice
che l’esponenziale è una mappa suriettiva e iniettiva da un intorno della matrice 0 a un intorno
della matrice I.
Dimostremo ora alcune importanti formule relative all’esponenziale di una
matrice qualsiasi, non necessariamente reale (vedi osservazione 5.3)
Teorema 5.3 Sia A(t) una curva passante per l’identità in un gruppo di matrici. Allora:
dA
d
det A = det A · tr(A−1 )
dt
dt
Prova. Indichiamo con Aij gli elementi di A, e con aij i loro complementi algebrici (i
determinanti moltiplicati per (−1)i+j del minore ottenuto da A eliminando la riga i e la colonna
j=n
P
aji
j). E’ noto che: ∀i, det A =
Aij aij e che (A)−1
ij = det A (notare lo scambio i ←→ j). Si
j=1
ottiene quindi:
∂ det A
∂Aij
= aij = (A)−1
ji det A. Allora:
i,j=n
X ∂ det A dAij i,j=n
X
d
dAij
dA(t)
det A =
·
=
det A · (A)−1
= det A · tr(A−1
)
ji
dt
∂Aij
dt
dt
dt
i,j=1
i,j=1
Lemma 5.4 Sia A ∈ Mn e t un numero reale. Allora det etA = 1 ∀t se e solo se trA = 0.
Prova. Siccome dtd etA = etA A, segue dal teorema 5.3 applicato alla curva etA : (il punto 2
del teorema 5.1 ci assicura che ciò si può fare)
d
detA
det etA = det etA · tr(e−tA
) = det etA · tr(e−tA etA A) = det etA · trA
dt
dt
Allora se trA = 0, det etA è una costante e, essendo uguale a 1 in t = 0, è sempre uguale a 1.
Viceversa se det etA = 1 la stessa formula fornisce trA = 0.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
22
Teorema 5.4 Per ogni matrice A ∈ Mn e per ogni numero reale t si ha: det etA = et(trA) . In
particolare, det eA = etrA .
Prova. La formula ricavata per la dimostrazione del lemma 5.4:
d
det etA = det etA · trA,
dt
può essere interpretata come una equazione differenziale: dx
= trA · x con la condizione iniziale
dt
t(trA)
tA
x(0) = 1. Integrandola si ottiene x(t) = e
, cioè det e = et(trA)
Possiamo ora concludere il calcolo dello spazio tangente ai gruppi ortogonali e unitari.
Lemma 5.5
1. Se A ∈ so(n) allora γ(t) = etA è una curva passante per l’identità in SO(n) e γ 0 (0) = A,
cioè so(n) ⊆ T (SO(n))
2. Se A ∈ u(n) allora γ(t) = etA è una curva passante per l’identità in U (n) e γ 0 (0) = A,
cioè u(n) ⊆ T (U (n))
3. Se A ∈ su(n) allora γ(t) = etA è una curva passante per l’identità in SU (n) e γ 0 (0) = A,
cioè su(n) ⊆ T (SU (n))
4. In particolare, dim O(n) ≥
n2 −n
, dim SO(n)
2
≥
n2 −n
, dim U (n)
2
Prova. Chiaramente γ(0) = e0 = I e γ 0 (0) = limt→0
∗
etA −I
t
≥ n2 , dim SU (n) ≥ n2 − 1.
= A. Inoltre:
∗
γ(t)γ(t)∗ = etA etA = et(A+A ) = I
E quindi γ(t) è una curva passante per l’identità in un gruppo ortogonale o unitario. Ricordando
inoltre (vedi teorema 5.4) che det etA = et(trA) , si trova che nei casi 1 e 3, (dove trA = 0), la
curva è tutta in SO(n) e SU (n) rispettivamente.
Teorema 5.5 (Le seguenti uguaglianze rappresentano isomorfismi di spazi vettoriali reali).
1. T (O(n)) = T (SO(n)) = so(n).
2. T (U (n)) = u(n).
3. T (SU (n)) = su(n).
4. In particolare, dim SO(n) = dim O(n) =
n(n−1)
, dim U (n)
2
= n2 e dim SU (n) = n2 − 1.
Prova. I lemmi 4.5 e 5.5 forniscono immediatamente i punti 1 e 2. Per il punto 3, si
deve prima di tutto osservare che se γ(t) è una curva passante per l’identità in SU (n) allora
γ 0 (0) ∈ su(n). Infatti det γ(t) = 1 per cui (vedi teorema 5.3): dtd det γ = tr(γ −1 dγ
) = 0, e quindi
dt
0
per t = 0 si ottiene trγ (0) = 0, e quindi T (SU (n)) ⊂ su(n) e allora dim SU (n) ≤ n2 − 1.
Questo permette di concludere la dimostrazione, perchè per il lemma 5.5 dim SU (n) ≥ n2 − 1.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
23
Osservazione 5.6 Si noti che dim SO(3) = dim SU (2) = 3 (so(3) e su(2) sono infatti spazi
vettoriali isomorfi). Per quanto ne sappiamo fino ad ora SO(3) e SU (2) potrebbero quindi
essere gruppi isomorfi. In realtà non lo sono (hanno il centro diverso, Z(S(U 2)) il centro di
SU (2) è costituito dalle matrici I e −I, mentre il centro di SO(3) è la sola matrice I (vedi gli
esercizi più sotto) e questo fatto suggerisce che si debba approfondire lo studio in varie direzioni.
Esercizio 5.1 Sia U (2) il gruppo delle matrici 2 × 2 unitarie,
iα
e
0
con α, β ∈ R
T =
0 eiβ
è un sottogruppo di U (2) isomorfo a U (1)×U (1). T è massimale, cioè ogni sottogruppo abeliano
che lo contiene coincide con lui.
iα
e
0
Z(U (2)) =
, α ∈ R = U (1)
0 eiα
±1 0
Z(SU (2)) =
= Z2 .
0 ±1
Inoltre si ha:
U (2)
U (1)
=
SU (2)
.
Z2
Prova. Le matrici di T appartengono a U (2) perchè
iα
−1 −iα
iα
t
e
0
e
0
e
0
=
=
0 eiβ
0 e−iβ
0 eiβ
L’isomorfismo richiesto è:
eiα 0
0 eiβ
→ (eiα , eiβ )
Se A ∈ A ⊂U (2) con A abeliano e contenente T, A deve, in particolare, commutare con ogni
matrice di T. Si ottiene quindi, ∀α, β:
iα
iα
a b
e
0
e
0
a b
=
c d
0 eiβ
0 eiβ
c d
iα
ae
beiβ
aeiα beiα
=
⇔b=c=0
iα
iβ
ceiβ deiβ
ce
de
Ma A ∈ U (2) e quindi deve essere anche aā = dd¯ = 1 e quindi A ∈ T. Per trovare il centro
di U (2) si osservi che, dal calcolo precedente, Z(U (2)) ⊂ T , infatti gli elementi del centro
devono commutare con tutti gli elementi di U (2) e quindi, in particolare, con gli elementi di
T.
ora che una matrice di T, per essere nel centro, deve commutare anche con
Osserviamo
0 1
∈ U (2) e quindi si ha:
−1 0
iα
0 1
e
0
0
eiβ
=
−1 0
0 eiβ
−eiα 0
iα
e
0
0 1
0
eiα
=
0 eiβ
−1 0
−eiβ 0
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
24
eiα 0
Cioè α = β. Osservato che le matrici del tipo
commutano con tutte le matrici, si
0 eiα
vede che non ci sono altre condizioni da imporre. Si ottiene quindi:
iα
e
0
Z(U (2)) =
, α ∈ R = U (1)
0 eiα
Il centro di SU (2) si trova ovviamente imponendo alle matrici del centro di U (2) l’ulteriore
condizione che il determinante valga 1 :
±1 0
Z(SU (2)) =
= Z2
0 ±1
Sia ora A ∈ U (2) e indichiamo con ±eiα/2 le due radici complesse di det A = eiα . L’applicazione
ϕ : U (2) → SUZ2(2) data da ϕ(A) = eiα/2 A è ben definita in SUZ2(2) , dove con le parentesi
quadre abbiamo denotato la classe di equivalenza in SUZ2(2) , infatti la scelta del segno della
radice è ininfluente perchè eiα/2 A = −eiα/2 A . L’applicazione è un omomorfismo
iα/2 ed
è anche
ovviamente suriettivo. Il suo nucleo è dato dallematrici A
per
cui
ϕ(A)
=
±e
A
= [±I] e
−iα/2
e
0
quindi dalle matrici del tipo
, α ∈ R = U (1). Il teorema di isomorfismo
−iα/2
0
e
(2)
consente quindi di concludere che: UU (1)
= SUZ2(2)
Esercizio 5.2 Sia SO(3) il gruppo delle matrici 3 × 3 unitarie,



 cos t − sin t 0

T =  sin t cos t 0 t ∈ R


0
0
1
è un sottogruppo di SO(3) isomorfo a SO(2). T è massimale, cioè ogni sottogruppo abeliano
che lo contiene coincide con lui e Z(SO(3)) = I.
Prova. L’isomorfismo richiesto è ovviamente:


cos t − sin t 0
 sin t cos t 0 → cos t − sin t
sin t cos t
0
0
1
Se A ∈ A ⊂SO(3) con A abeliano e contenente T, A deve, in particolare, commutare con ogni
matrice di T. Considerata la base canonica di R3 , T induce tutte le rotazioni del piano e1 , e2 .
2
2
2
Dimostriamo che Ae3 = ±e3 . Infatti posto
 Ae3 = ae1 + be2 + ce3 (con a + b + c = 1)
0 −1 0
consideriamo la matrice B = 1 0 0 ∈ T. Si ottiene subito: Be1 = e2 , Be2 = −e1 e
0 0 1
Be3 = e3 . Imponendo la commutatività ABe3 = BAe3 si ottiene subito c = ±1. La matrice A
induce quindi una trasformazione ortogonale nel piano e1 , e2 che commuta con tutte le rotazioni
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
25
di questo piano. Il caso c = −1 però è escluso perchè è immediato che una matrice di O(2)
che commuta con tutte le matrice di SO(2) deve appartenere a SO(2) e quindi c = 1 perchè
altrimenti il determinante di A varrebbe −1. Abbiamo quindi A ∈ T. Per trovare il centro
di SO(3) si osservi che, dal calcolo precedente, Z(SO(3)) ⊂ T , infatti gli elementi del centro
devono commutare con tutti gli elementi di SO(3) e quindi, in particolare, con gli elementi
di
ora che una matrice di T, per essere nel centro, deve commutare anche con
 T. Osserviamo

0 0 1
 0 1 0 ∈ SO(3) e quindi si ha:
−1 0 0


 

0 0 1
cos t − sin t 0
0
0
1
 0 1 0  sin t cos t 0 =  sin t cos t 0
−1 0 0
0
0
1
− cos t sin t 0


 

cos t − sin t 0
0 0 1
0 − sin t cos t
 sin t cos t 0  0 1 0 =  0
cos t sin t 
0
0
1
−1 0 0
−1
0
0
Cioè t = 0 e quindi A = I.
Osservazione 5.7 Mostreremo in seguito (vedi teorema 6.8 ) che
SU (2)
Z2
= SO(3).
Osservazione 5.8 Gli spazi vettoriali reali so(n) e su(n) non sono chiusi rispetto al prodotto
righe × colonne dei loro elementi. Si può tuttavia introdurre in essi una operazione interna,
chiamata commutatore, che gode di tutte le proprietà sensate del prodotto salvo l’associatività.
Definizione 5.3 Indicando come al solito con T (G) lo spazio tangente di un gruppo ortogonale
o unitario G, siano A e B due suoi elementi. Si definisce commutatore di A e B la matrice:
[A, B] = AB − BA
Lemma 5.6 Siano A, B, C ∈ T (G), il commutatore gode delle seguenti proprietà:
1. [A, B] ∈ T (G)
2. [A, B] = −[B, A]
3. [A, B + C] = [A, B] + [A, C]
4. [A + B, C] = [A, C] + [B, C]
5. ∀a ∈ R, [aA, B] = [A, aB] = a[A, B]
6. [A, [B, C]] + [C, [A, B]] + [B, [C, A]] = 0
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
26
Prova. Per il punto 1 si deve provare che:
(AB − BA) + (AB − BA)∗ = AB − BA + B ∗ A∗ − A∗ B ∗ = 0
Basta scrivere:
AB − BA + B ∗ A∗ − A∗ B ∗ = AB + (AB ∗ − AB ∗ ) − BA + (BA∗ − BA∗ ) + B ∗ A∗ − A∗ B ∗ =
= A (B + B ∗ ) − (A + A∗ ) B ∗ + (B + B ∗ ) A∗ − B (A + A∗ ) = 0
Nel caso di su(n) occorre anche ricordarsi che, per ogni matrice, tr(AB) = tr(BA) e quindi
tr[A, B] = tr (AB − BA) = tr (AB) − tr (BA) = 0.
Gli altri punti sono tutte banali verifiche basate solo sull’uso della definizione.
Osservazione 5.9 La formula del punto 6 è detta identità di Jacobi, e sostituisce
l’associatività per il prodotto A ◦ B = [A, B]:
A ◦ (B ◦ C) − (A ◦ B) ◦ C = (A ◦ C) ◦ B e non = 0
Osservazione 5.10 Nel punto 5 è essenziale che a ∈ R, parliamo qui solo di Algebre di Lie
reali.
Definizione 5.4 Un qualsiasi spazio vettoriale reale V, dotato di un prodotto interno (denotato
con [ , ]V anche nel caso astratto in cui lo spazio vettoriale non sia un sottospazio di Mn ) che
soddisfa le proprietà da 2 a 6 del lemma 5.6 è detto Algebra di Lie.
Definizione 5.5 Un omomorfismo di algebre di Lie è una applicazione lineare ϕ tra i
corrispondenti spazi vettoriali:
ϕ:V →W
che, inoltre, verifica:
ϕ[A, B]V = [ϕ (A) , ϕ (B)]W
Osservazione 5.11 Spazi vettoriali isomorfi come spazi vettoriali possono benissimo non essere isomorfi come Algebre di Lie. In altre parole, non tutti gli
isomorfismi di spazi vettoriali sono isomorfismi di Algebre di Lie. (vedi l’esempio
5.4)
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
5.1
27
Algebre di Lie reali di dimensione due
In questo paragrafo denoteremo di verse strutture di algebre di Lie sullo stesso spazio vettoriale
con la notazione: [, ]0 , [, ]1 , [, ]2 .
Sia V = R2 con base e1 e e2; a parte la struttura di algebra di Lie banale:
[e1 , e2 ]0 = [e1 , e1 ]0 = [e1 , e2 ]0 = 0
(1)
[e1 , e1 ]1 = [e1 , e2 ]1 = 0
[e1 , e2 ]1 = ae1 + be2 = − [e2 , e1 ]1
(2)
(3)
In generale si deve avere:
con a, b reali e non entrambi nulli. L’identità di Jacobi è automaticamente soddisfatta. Possiamo
supporre, senza perdita di generalità, che b 6= 0. Definiamo ora un endomorfismo ϕ di V :
la matrice associata:
ϕ(e1 ) = be1
(4)
1
ϕ(e2 ) = −ae1 + e2
b
(5)
b −a
0 1b
(6)
è invertibile e quindi ϕ è un isomorfismo di spazi vettoriali. Mostriamo ora che è anche un
isomorfismo di algebre di Lie tra la struttura data da [e1 , e2 ]1 = ae1 + be2 e la struttura con
prodotto di Lie dato da [e1 , e2 ]2 = e2 . Si ha infatti:
ϕ [e1 , e2 ]1 = ϕ (ae1 + be2 ) = abe1 − abe1 + e2 = e2
b
1
[ϕ (e1 ) , ϕ (e2 )]2 = be1 , −ae1 + e2 = −ab [e1 , e1 ] + [e1 , e2 ]2 = e2
b
b
2
(7)
(8)
Ovvero:
ϕ [e1 , e2 ]1 = [ϕ (e1 ) , ϕ (e2 )]2
(9)
Abbiamo quindi dimostrato che, a meno di isomorfismi di algebre di Lie, su R2 ci sono solo due
strutture di algebra di Lie:
[e1 , e2 ]0 = [e1 , e1 ]0 = [e1 , e2 ]0 = 0
(10)
[e1 , e1 ]2 = [e1 , e2 ]2 = 0
[e1 , e2 ]2 = e2 = − [e2 , e1 ]2
(11)
(12)
Queste due algebre di Lie ammettono, come ogni algebra di Lie (teorema di Ado), una rappresentazione (ovviamente non unica!) in cui gli elementi di R2 sono matrici, e la parentesi di Lie
è il commutatore.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
28
L’algebra con parentesi [, ]0 è rappresentata, ad esempio, da:
1 0
0 0
0 0
e1 =
, e2 =
,0 =
0 0
0 0
0 1
(13)
infatti:
1 0
0 0
0 0
1 0
0 0
[e1 , e2 ]0 =
−
=
=0
0 0
0 1
0 1
0 0
0 0
x 0
2
Ovvero il punto (x, y) ∈ R è rappresentato dalla matrice
.
0 y
L’algebra [, ]2 è rappresentata, ad esempio, da:
1 0
0 1
0 0
e1 =
, e2 =
,0 =
0 0
0 0
0 0
infatti:
(14)
(15)
0 1
0 1
1 0
0 1
[e1 , e2 ]0 =
−
=
= e2
(16)
0 0
0 0
0 0
0 0
x y
2
Ovvero il punto (x, y) ∈ R è rappresentato dalla matrice
.
0 0
Possiamo anche identificare due gruppi di matrici di dimensione due tali che il loro spazio
tangente sia isomorfo, come algebra di Lie, alle due algebre descritte sopra.
Per l’algebra banale [, ]0 si ha:
x 0
∗
G=
con x, y ∈ R > 0
(17)
0 y
1 0
0 0
Mentre per [, ]2 si ha:
H=
x y
0 1
∗
con x > 0 ∈ R e y ∈ R
(18)
Infatti:
0
0
0
x (0)
0
TG =
con x (0), y (0) ∈ R
0
0
y (0)
0
0
0
0
x (0) y (0)
TH =
con x (0) ∈ R e y (0) ∈ R
0
0
Possiamo verificare che, in entrambi i casi, la mappa esponenziale è suriettiva.
Nel primo caso si ha:


x
0
x


e 0
0
y
e
=
0 ey
(19)
(20)
(21)
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
29
a 0
ln a 0
e quindi, se
∈ G (e allora a, b > 0) esiste un elemento dell’algebra A =
0 b
0 ln b
per cui:
a 0
A
e =
(22)
0 b
Nel secondo caso, invece, si ha:


x y 
1
e 0 0 =
0
x
e
=
0
1 xn xn−1 y
1 x2 xy
0
x y
+ ... +
+ ...
+
+
0
1
0 0
2 0 0
n! 0
y(1 + 21 x + 3!1 x2 + ... + n!1 xn−1 + ...)
1
(23)
(24)
Osserviamo ora che, se x 6= 0, abbiamo:
1
ex − 1
1
1
(1 + x + x2 + ... + xn−1 + ...) =
2
3!
n!
x
(25)
e allora:


x y ex
e 0 0 =
0
y x
(e
x
− 1)
1


se x 6= 0
(26)

0 y 
1 y
0
0
e
=
0 1
ln a
a b
Se allora
∈ H (con a > 0) se a 6= 1 esiste un elemento dell’algebra A =
0 1
0
per cui:
a b
A
e =
0 1
Mentre se a = 1 si ha:

(27)
b
a−1
ln a
0
(28)

0 b 1 b
0
0
e
=
0 1

(29)
E quindi anche in questo caso l’esponenziale è suriettivo come mappa tra lo spazio tangente e
il gruppo.
la classificazione delle algebre di Lie reali di dimensione tre è già molto più complicata e ci
limitiamo qui a dare alcuni esempi di algebre di Lie tridimensionali non banali e non isomorfe
tra loro.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
5.2
30
Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1))
Esempio 5.3 In questo
reale so(3) è:

0
A1 = 0
0
esempio studiamo so(3) e su(2). Una base dello spazio vettoriale





0 0
0 0 1
0 −1 0
0 −1 , A2 =  0 0 0 , A3 = 1 0 0 .
1 0
−1 0 0
0 0 0
E’ facile verificare che la sua struttura di Algebra di Lie è data da:
[A1 , A2 ] = A3 , [A2 , A3 ] = A1 , [A3 , A1 ] = A2 .
Una base dello spazio vettoriale reale su(2) è:
i 0
0 1
0 i
U1 =
, U2 =
, U3 =
.
0 −i
−1 0
i 0
E’ facile verificare che la sua struttura di Algebra di Lie è data da:
[U1 , U2 ] = 2U3 , [U2 , U3 ] = 2U1 , [U3 , U1 ] = 2U2 .
Un isomorfismo di Algebre di Lie (e non solo di spazi vettoriali) è dato da:
ϕ(Ui ) = 2Ai .
Infatti, ad esempio,
ϕ[U1 , U2 ]su(2) = ϕ(2U3 ) = 2ϕ(U3 ) = 4A3
ϕ[U3 , U1 ]su(2) = ϕ(2U2 ) = 2ϕ(U2 ) = 4A2
ϕ[U2 , U3 ]su(2) = ϕ(2U1 ) = 2ϕ(U1 ) = 4A1
ed anche:
[ϕ (U1 ) , ϕ (U2 )]so(3) = [2A1 , 2A2 ]so(3) = 4 [A1 , A2 ]so(3) = 4A3 ed analoghe.
Per cui:
ϕ[Ui , Uj ]su(2) = [ϕ (Ui ) , ϕ (Uj )]so(3) .
Esempio 5.4 (Un non esempio) L’isomorfismo ovvio ϕ(Ui ) = Ai non è un isomorfismo
di Algebre di Lie (perchè?).
Esempio 5.5 Esponenziale degli elementi della base di so(3) e sottogruppi abeliani
a un parametro di SO(3). Posto (vedi lemma 5.5 ed esempio 5.1):
Ri (t) = etAi ,
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
31
si verifica facilmente che:






1
0
0
cos t 0 sin t
cos t − sin t 0
1
0  , R3 (t) =  sin t cos t 0 .
R1 (t) = 0 cos t − sin t , R2 (t) =  0
0 sin t cos t
− sin t 0 cos t
0
0
1
e che gli Ri = {Ri (t), t ∈ R} sono sottogruppi abeliani a un parametro
di SO(3) (isomorfi
 
x
a SO(2)). Le matrici di Ri operano sui vettori di R3 , rappresentati da y  come rotazioni
z
in senso antiorario attorno, rispettivamente, R1 all’asse x, R2 all’asse y, R3 all’asse z. E’
noto dall’algebra lineare (vedi più sotto anche l’esempio 6.2) che per ogni matrice R di SO(3)
esiste in R3 una base ortonormale in cui R = B −1 AB, con A ∈ R3 e B ∈ O(3). Ricordando
che A ∈ R3 significa che A = etA3 per un certo t, ed il punto 3 del teorema 5.1, si ottiene
−1
R = B −1 etA3 B = etB A3 B . Essendo B −1 = B t si verifica facilmente che B −1 A3 B ∈ so(3), cioè
l’esponenziale è suriettivo in grande: ogni matrice di SO(3) è ottenuta esponenziando
una matrice di so(3).
Esempio 5.6 In questo esempio definiamo e studiamo i gruppi SL(2, R) e SO(2, 1) e
le loro algebre di Lie. Dimostreremo che sono tridimensionali e isomorfe fra loro, e che non
sono isomorfe alle algebre studiate nell’esempio precedente. Il gruppo SL(2, R) è definito come
l’insieme delle matrici reali 2 × 2 con determinante uguale a 1. L’algebra di Lie di SL(2, R)
è lo spazio sl(2, R) delle matrici reali 2 × 2 con traccia nulla. Infatti una curva in SL(2, R) è
data da una matrice
a(t) b(t)
A(t) =
c(t) d(t)
con det A(t) = 1 e a(0) = d(0) = 1 e b(0) = c(0)
= 0. Quindi un vettore tangente nell’origine
0
0
a (0) b (0)
è dato da una matrice del tipo
e quindi T (SL(2, R)) ⊆ sl(2, R). Viceversa,
c0 (0) −a0 (0)


a
b

t
a b
la matrice
è il vettore tangente alla curva e c −a
che appartiene tutta a
c −a
SL(2, R) perchè




a b 
a b 


t
ttr
c −a = 1
det e c −a = e
e quindi sl(2, R) ⊆ T (SL(2, R)) . Sia ora B : R3 × R3 → R3 la forma bilineare simmetrica non
degenere di segnatura (2, 1) data da
B(x, y) = x1 y1 + x2 y2 − x3 y3 .
La matrice associata a B nella base standard di R3 è:


1 0 0
Q= 0 1 0 
0 0 −1
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
32
Il gruppo SO(2, 1) è l’insieme delle matrici reali 3 × 3 con determinante 1 che conservano B,
ovvero A ∈ SO(2, 1) se e solo se
det A = 1 e B(Ax, Ay) = B(x, y)
per ogni coppia di vettori x e y in R3 . Si verifica facilmente che A conserva B se e solo se
AT QA = Q.
L’algebra di Lie del gruppo SO(2, 1) è lo spazio so(2, 1) delle matrici 3×3 reali X che soddisfano
X T Q + QX = 0.
Questa identità implica che le matrici di so(2, 1) sono tutte e sole le matrici del tipo


0 a b
X =  −a 0 c  con a, b, c ∈ R
b c 0
Una curva A(t) in SO(2, 1) verifica A(t)T QA(t) = Q e A(0) = I. La derivata A0 (0) verifica
allora A0 (0)T Q + QA0 (0) = 0. Viceversa ogni matrice tale che X T Q + QX = 0 è la derivata
in zero di una curva in SO(2, 1). Posto A(t) = etX si ha infatti: det etX = ettrX = 1 perchè
trX = 0; inoltre si ha:
−1 X T Q
T
Q−1 etX Q = etQ
= e−tX (perchè Q2 = I)
e quindi:
T
etX QetX = Qe−tX etX = Q
Si ha poi il seguente fatto: le due algebre di Lie so(2, 1) e sl(2, R) sono isomorfe tra
loro e non sono isomorfe a so(3) = su(2).
Prova. Innanzi tutto osserviamo che le due algebre di Lie sono entrambe di dimensione 3
e che quindi sono isomorfe come spazi vettoriali. Una base di so(2, 1) è data da






0 1 0
0 0 1
0 0 0
H =  −1 0 0  , X =  0 0 0  , Y =  0 0 1  .
0 0 0
1 0 0
0 1 0
Calcoliamo le parentesi di Lie tra queste matrici. Ad esempio


 


0 1 0
0 0 1
0 0 1
0 1 0
[H, X] =  −1 0 0   0 0 0  −  0 0 0   −1 0 0  = −Y
0 0 0
1 0 0
1 0 0
0 0 0
Analogamente si verifica che
[H, Y ] = X
e [X, Y ] = H.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
33
Ora confrontiamo questo risultato con quello che accade su sl(2, R). Una base (molto usata)
di sl(2, R) è data da
1 0
0 1
0 0
L=
, M=
, N=
.
0 −1
0 0
1 0
Si calcola facilmente che le parentesi di Lie sono date da
[L, M ] = 2M,
[L, N ] = −2N,
[M, N ] = L.
Non pare esserci molta somiglianza tra queste relazioni e quelle trovate tra H, X e Y . Tuttavia
notiamo che la matrice M − N assomiglia a H. Proviamo quindi come nuova base H 0 = M − N ,
X 0 = L e Y 0 = M + N . Si ottiene:
[H 0 , X 0 ] = [M − N, L] = 2M + 2N = −2Y 0 ,
[H 0 , Y 0 ] = [M − N, M + N ] = 2L = 2X 0 ,
[X 0 , Y 0 ] = [L, M + N ] = 2M − 2N = 2H 0 .
(30)
(31)
A parte le costanti moltiplicative queste relazioni sono quasi identiche a quelle tra H, X e Y .
Infatti se ora prendiamo l’applicazione lineare ϕ tra so(2, 1) e sl(2, R) data da
H0
2
X0
X 7→
2
Y0
Y 7→
2
H 7→
si vede subito che ϕ conserva le parentesi di Lie. Osserviamo ora che sl(2, R) non può essere
isomorfa a so(3); infatti dalle relazioni di commutazione di so(3) si vede che la parentesi
di Lie di due vettori tangenti indipendenti è indipendente da questi (l’algebra è isomorfa a
quella del prodotto vettoriale), mentre in sl(2, R) questo non è vero in generale (ad esempio
[L, M ] = 2M ).
5.3
Sottogruppi ad un parametro
Definizione 5.6 Un sottogruppo a un parametro in un gruppo di matrici G è l’immagine di
un omomorfismo differenziabile ϕ :
ϕ: R→G
Osservazione 5.12 Con abuso di notazione spesso ϕ stesso si dice sottogruppo a un parametro,
tali sottogruppi sono abeliani, infatti
ϕ(t)ϕ(s) = ϕ(t + s) = ϕ(s + t) = ϕ(s)ϕ(t)
6 CONSIDERAZIONI TOPOLOGICHE
34
Osservazione 5.13 Si noti che perconoscere
definirlo in un piccolo intorno di t = 0,
n ϕ basta
1
1
infatti, ∀t ∈ R, e per ogni intero n, ϕ( n t) = ϕ(n n t) = ϕ(t) e quindi ϕ( n1 t) determina ϕ(t).
Esempio 5.7 ϕ(t) = etA con A matrice n × n è un sottogruppo a un parametro di GL(n, R) e
ϕ0 (0) = A.
Questo esempio è, in un certo senso, generale:
Teorema 5.6 Sia ϕ(t) un sottogruppo a un parametro di GL(n, R), allora esiste una matrice
A tale che ϕ(t) = etA .
Prova. Per l’osservazione 5.13 basta limitarsi a un piccolo intorno di t = 0. Poniamo
α(t) = log ϕ(t); questa è una curva in Mn e ϕ(t) = eα(t) . Sia α0 (0) = A. Vogliamo mostrare che
α(t) = tA. Infatti, per ogni t si ha:
α(t + s) − α(t)
log ϕ(t + s) − log ϕ(t)
log [ϕ(t)ϕ(s)] − log ϕ(t)
= lim
= lim
=
s→0
s→0
s
s
s
log ϕ(t) + log ϕ(s) − log ϕ(t)
log ϕ(s) − log ϕ(0)
= lim
= α0 (0) = A
= lim
s→0
s→0
s
s
α0 (t) = lim
s→0
Dove abbiamo usato il fatto che logϕ(0) = log I = 0 e che ϕ(t) e ϕ(s) commutano fra loro (vedi
lemma 5.3. Si ha allora la tesi: α(t) = tA.
Teorema 5.7 C’è corrispondenza biunivoca tra i vettori tangenti a GL(n, R) e i suoi
sottogruppi a un parametro.
Prova. Sappiamo già che ogni matrice n × n è un vettore tangente a GL(n, R) e viceversa
(vedi 4.3), e abbiamo già osservato che ad ogni matrice corrisponde un sottogruppo a un
parametro. Il teorema 5.6 dimostra anche che ad ogni sottogruppo corrisponde un vettore
tangente.
Osservazione 5.14 Lo stesso è ovviamente vero anche per GL(n, C).
Osservazione 5.15 Il teorema è facilmente dimostrabile anche per SO(n), O(n), U (n) e
SU (n). Basta osservare che a ogni vettore tangente A ad uno dei gruppi citati corrisponde
il sottogruppo etA e che questo sottogruppo (vedi la dimostrazione del lemma 5.5) è sottogruppo
dei gruppi citati. Viceversa ad ogni sottogruppo dei gruppi citati corrisponde un vettore tangente
ai gruppi citati (vedi teorema 5.6 e lemma 4.5).
6
6.1
Considerazioni topologiche
Connessione e suriettività dell’esponenziale
Ricordando che i gruppi di matrici sono sottoinsiemi di qualche Rn che sono spazi metrici, ad
esempio con l’usuale distanza euclidea d, è chiaro che sono essi stessi spazi metrici.
6 CONSIDERAZIONI TOPOLOGICHE
35
Definizione 6.1 Sia G un gruppo di matrici, la componente connessa con l’identità, (indicata
con G0 ) è l’insieme degli elementi di G che possono essere connessi all’identità tramite una
curva (continua e tutta contenuta in G). In altre parole, g ∈ G0 se e solo se esiste una curva
γ continua e tale che: γ(t) ∈ G, γ(0) = I, γ(1) = g.
Definizione 6.2 G è connesso se G0 = G.
Osservazione 6.1 Questa definizione di connessione è quella che in topologia è usualmente
chiamata connessione per archi.
Teorema 6.1 G0 è un sottogruppo normale di G. Il quoziente G/G0 ≡ π0 (G) è detto gruppo
delle componenti connesse di G.
Prova. Dati h, k ∈ G0 indicheremo con h(t) e k(t), rispettivamente, le curve tali che:
h(0) = k(0) = I e h(1) = h, k(1) = k
G0 è un sottogruppo perchè la curva g(t) = h(t)k(t) è tale che g(0) = I e g(1) = hk; inoltre
la curva g(t) = (h(t))−1 è tale che g(0) = I e g(1) = h−1 . E’ anche normale, perchè ∀a ∈ G e
h ∈ G0 , la curva g(t) = ah(t)a−1 verifica g(0) = I e g(1) = aha−1 e quindi aha−1 ∈ G0 .
Esempio 6.1 GL(n, R) non è connesso. Il determinante è una applicazione continua e suriettiva da GL(n, R) a R∗ , per cui se GL(n, R) fosse connesso, lo sarebbe anche R∗ , che
però, ovviamente, non lo è. Dimostreremo in seguito che GL0 (n, R) = {A| det A > 0}, e
quindi π0 (GL(n, R)) contiene due elementi, rappresentati rispettivamente dalle matrici con
determinante positivo o negativo.
Osservazione 6.2 Nel caso di GL(n, C) il ragionamento precedente non si applica. Questa
osservazione però non è una dimostrazione del fatto (vedi più sotto) che GL(n, C) è connesso.
Osservazione 6.3 O(n) non è connesso. Anche qui basta considerare il determinante; può
essere solo 1 o −1 e quindi una curva continua tutta contenuta in O(n) non può connettere I e
una matrice di O(n) con determinante −1 (il determinante dovrebbe passare per il valore zero).
Osservazione 6.4 Nel caso di SO(n) il ragionamento precedente non si applica. Questa osservazione però non è una dimostrazione del fatto che SO(n) è connesso (vedi più sotto), anzi,
è proprio la componente connessa con l’identità di O(n).
Esempio 6.2 SO(3) è connesso. (Vedi anche esempio 5.5)
Prova. Vogliamo mostrare che ogni elemento di SO(3) è connesso all’identità da una curva
tutta contenuta in SO(3). Dimostriamo prima di tutto che per ogni matrice R di SO(3) esiste
in R3 una base ortonormale in cui R = B −1 AB, con A ∈ R3 e B ∈ O(3).
6 CONSIDERAZIONI TOPOLOGICHE
36
• R ∈ SO(n) con n dispari, ammette sempre l’autovalore 1; basta calcolare:
det(R − I) = det(R − RRt ) = det R det(I − Rt ) = det(I − R) = (−1)n det(R − I)
Si ottiene quindi det(R − I) = 0.
• V , l’autospazio dell’autovalore 1, non può avere dimensione 2. Infatti se ha dimensione
2, siano u, v ∈ V di lunghezza 1 e ortogonali tra loro, e sia w ∈ V 0 (il complemento
ortogonale di V ) anch’esso di lunghezza 1. Si ottiene: (Rw, u) = (Rw, Ru) = (w, u) = 0
e (Rw, v) = (Rw, Rv) = (w, v) = 0. Ne segue allora Rw ∈ V 0 , (cioè il sottospazio V 0
è invariante sotto R) ma la dimensione di V 0 è 1 e quindi Rw = ±w (si ricordi che
gli autovalori possibili per R sono solo ±1). Il caso −1 è impossibile perchè allora la
matrice R avrebbe come autovalori 1, 1, −1 e quindi il suo determinante non potrebbe
essere uguale a 1. Nel caso +1, seguirebbe che V ha dimensione 3, e quindi V 0 sarebbe
ridotto al solo vettore nullo.
• Se V ha dimensione 3 non c’è nulla da dimostrare: nella base u, v, w si ha R = I.
• Nel caso in cui V ha dimensione 1, V 0 ha dimensione 2. Sia u, v, w una base ortonormale
di R3 = V 0 ⊕ V . In questa base, essendo V 0 è invariante sotto R, la matrice R assume la
forma (abbiamo indicato con B ∈ O(3) la matrice di passaggio dalla base canonica di R3
alla base u, v, w):


a b 0
A = BRB −1 =  c d 0 .
0 0 1
a b
cos α − sin α
Essendo A ortogonale e di determinante 1, deve essere
=
(con
c d
sin α cos α
α 6= 0) e quindi:
R = B −1 AB = B −1 eαA3 B
• Il gruppo SO(3) è quindi connesso perchè la curva: (vedi esempio 5.5)
γ(t) = B −1 etαA3 B = etB
−1 αA
3B
∈ SO(3)
e verifica γ(0) = I e γ(1) = R.
Osservazione 6.5 La curva costruita sopra è un sottogruppo a un parametro: abbiamo
mostrato che SO(3) non solo è connesso, ma è anche connesso per sottogruppi a un parametro.
Osservazione 6.6 Gli esempi 5.1 e 5.5 ci mostrano che la mappa esponenziale è suriettiva in grande. Ogni matrice di SO(2) e ogni matrice di SO(3) si ottengono quindi per
esponenziazione di matrici di so(2) e so(3) rispettivamente. Dimostreremo più sotto che lo
stesso è vero per SO(n).
6 CONSIDERAZIONI TOPOLOGICHE
37
Osservazione 6.7 Ricordiamo che la mappa esponenziale è anche iniettiva in piccolo, perchè
in un intorno della matrice 0 ha un’inversa (il logaritmo), ma non può essere iniettiva in grande,
perchè altrimenti SO(2) e SO(3) sarebbero diffeomorfi (tramite exp) ai loro spazi tangenti e
questo è ovviamente falso perchè SO(2) e SO(3) sono compatti (nella usuale topologia metrica)
mentre i loro spazi tangenti, essendo spazi vettoriali, non lo sono certamente.
Esempio 6.3 SU (2) e U (2) sono connessi (per sottogruppi a un parametro). In particolare la
mappa esponenziale è suriettiva in grande.
Prova. Mostriamo che ogni elemento R di SU (2) è connesso all’identità da un sottogruppo
a un parametro di SU (2) . Sappiamo che R ∈ SU (2), essendo normale, è diagonalizzabile
tramite matrici unitarie e che una sua forma diagonale D è (vedi teorema 3.4; per la definizione
di U1 vedi esempio 5.3): D = U RU ∗ con U ∈ U (2).

D=
eiα
0
0 e−iα

=e

iα 0
0 −iα

= eαU1
∗
Essendo R = U ∗ DU = U ∗ eαU1 U = eαU U1 U , abbiamo che il sottogruppo a un parametro
∗
R(t) = etαU U1 U soddisfa R(t)R(t)∗ = I, R(0) = I, e R(1) = R. Si ha inoltre:
det R(t) = etr(tαU
∗U
1U )
= etαtr(U
∗U
1U )
= e0 = 1,
E quindi R(t) ∈ SU (2).
Il caso di U (2) è perfettamente analogo (vedi teorema 3.4):

D=
eiα 0
0 eiβ
Essendo

∗
∗

R = U DU = U e
iα 0
0 iβ

=e
iα 0
0 iβ



U ∗
U =e

tU ∗ 
abbiamo che il sottogruppo a un parametro R(t) = e
R(0) = I, R(1) = R.


iα 0
0 iβ
iα 0
0 iβ

U

U
soddisfa: R(t)R(t)∗ = I,
Teorema 6.2 SU (n) e U (n) sono connessi (per sottogruppi a un parametro). In particolare
la mappa esponenziale è suriettiva in grande.
Prova. Essendo le matrici di SU (n) e U (n) diagonalizzabili mediante matrici unitarie, la
dimostrazione è perfettamente analoga a quella del caso n = 2.
Osservazione 6.8 Il caso di SO(n) è più complicato. Infatti tali matrici non sono tutte diagonalizzabili perchè non hanno sempre abbastanza autovalori reali. Si può dimostrare però che,
come nel caso di SO(3), possono essere messe in una forma a blocchi particolarmente semplice
mediante matrici ortogonali.
6 CONSIDERAZIONI TOPOLOGICHE
6.2
38
Il caso di O(n) e SO(n)
Per dimostrare la connessione di SO(n) occorre descrivere un modo per mettere le matrici di
O(n) in una forma particolarmente semplice.
Sia A ∈ O(n), e consideriamo la matrice S = A + At . Si verifica immediatamente il seguente
lemma:
Lemma 6.1 S è simmetrica, (A ± I)t (A ± I) = 2I ± S e inoltre: SA = AS.
Come ogni matrice simmetrica, S ha autovalori reali ed è diagonalizzabile tramite una
matrice ortogonale (vedi teorema 3.6). Siano λi (i = 1, .., k) i suoi autovalori e Vi i corrispondenti
autospazi; si ha Rn = V1 ⊕ V2 ⊕ ...Vk .
Lemma 6.2 I Vi sono fra loro ortogonali e invarianti rispetto a A, cioè A (Vi ) ⊆ Vi .
Prova. I Vi sono ovviamente ortogonali fra loro perchè autospazi di autovalori distinti. Sia
ora v ∈ Vi , si ha:
SAv = ASv = Aλi v = λi Av
Quindi nella base ortogonale data dalla unione delle basi ortogonali dei singoli autospazi di
S, la matrice A si presenterà come una matrice a blocchi, perchè la sua azione non mescola tra
loro i Vi . Studiamo ora l’azione sui singoli blocchi. Ci sono due casi distinti:
Lemma 6.3 Se λi = ±2, A opera su Vi come moltiplicazione per ∓1. Se invece λi 6= ±2, A
non ha autovettori ∈ Vi . In particolare, v e Av, per λi 6= ±2 e v ∈ Vi , sono indipendenti.
Prova. Se λi = ±2, (A ± I)t (A ± I) v = (2I ± S) v = 0. Segue che:
0 = (A ± I)t (A ± I) v, v = h(A ± I) v, (A ± I) vi
e quindi (A ± I) v = 0, cioè Av = ∓v.
E’ noto (vedi teorema 3.5) che i possibili autovalori di una matrice ortogonale sono ±1, e
quindi se A avesse autovettori ∈ Vi , sarebbe λi = ±2. Segue anche che v e Av, per v ∈ Vi , sono
indipendenti perchè se fossero dipendenti Av = αv e quindi v ∈ Vi sarebbe autovettore di A.
Sia ora W = Span {v, Av} .
Lemma 6.4 W è invariante per A, cioè A (W ) ⊆ W.
Prova. Sia w ∈ W, w = av + bAv, con v ∈ Vi , cioè Sv = (A + At ) v = λi v. Si ha:
(A + At − λi ) v = 0, cioè, moltiplicando per A :
A2 + I − λi A v = 0
e quindi:
A(av + bAv) = aAv + bA2 v = aAv − b (I − λi A) v ∈ W.
Riassumendo, possiamo enunciare il seguente teorema:
6 CONSIDERAZIONI TOPOLOGICHE
39
Teorema 6.3 Per ogni matrice A di O(n) esiste una base ortogonale di Rn in cui la matrice
è a blocchi. La struttura dei blocchi è la seguente: ci sono n1 blocchi 1 × 1 costituiti da 1, n2
blocchi 1 × 1 costituiti da −1, n3 blocchi 2 × 2 costituiti da matrici ortogonali Ri i = 1...n3 .
(n = n1 + n2 + 2n3 ). Inoltre det Ri = 1, cioè Ri ∈ SO(2).
Prova. La struttura a blocchi si ricava direttamente dai precedenti lemmi. Per dimostrare
che det Ri = 1, supponiamo che det Ri = −1, allora la matrice si può scrivere:
α β
Ri =
con α2 + β 2 = 1.
β −α
2α − λi
β
t
= 0.
Sappiamo che, per v ∈ Vi , (Ri + Ri − λi ) v = 0 e quindi det
β
−2α − λi
Questo implica λi = ±2 che è assurdo, perchè stiamo proprio considerando il caso λi 6= ±2.
Se ora supponiamo A ∈ SO(n), il numero n2 (il numero di volte in cui appare −1) sulla
diagonale deve essere pari (det A = 1) e quindi anche questi blocchi possono essere raggruppati
a due a due per formare altri n2 /2 blocchi di tipo Ri . Analogamente, se n1 è pari anche questi
blocchi possono essere raggruppati a due a due per formare altri n1 /2 blocchi di tipo Ri ; se
invece è dispari sulla diagonale resta, per una sola volta un 1 che non fa parte di una matrice
di tipo Ri .
Riassumendo:
Teorema 6.4 Per ogni matrice A di SO(n) esiste una base ortogonale di Rn in cui la matrice
è a blocchi. La struttura dei blocchi è la seguente: se n è pari ci sono n/2 blocchi 2 × 2 costituiti
da matrici Ri ∈ SO(2), se n è dispari c’è in più anche un blocco 1 × 1 costituito dal numero 1.
Esempio 6.4 Se A ∈ SO(3) esiste una base ortonormale in cui:


cos θ − sin θ 0
A =  sin θ cos θ 0
0
0
1
Questo esempio è già stato trattato più sopra.
Esempio 6.5 Se A ∈ SO(4) esiste una base ortonormale in cui:


cos θ − sin θ
0
0
 sin θ cos θ

0
0

A=
 0
0
cos ϕ − sin ϕ 
0
0
sin ϕ cos ϕ
Il teorema 6.4 ci consente di dimostrare:
Teorema 6.5 SO(4) è connesso per sottogruppi a un parametro.
6 CONSIDERAZIONI TOPOLOGICHE
40
Prova. Sia A ∈ SO(4), esiste allora, per il teorema 6.4, una matrice ortogonale B tale che:
T = BAB −1
dove


cos θ − sin θ
0
0
 sin θ cos θ

0
0

T =
 0
0
cos ϕ − sin ϕ 
0
0
sin ϕ cos ϕ
Allora posto:


0 −θ 0 0
 θ 0 0 0 

C=
 0 0 0 −ϕ 
0 0 ϕ 0
si ha: T = eC e quindi:
γ(t) = B −1 etC B = etB
−1 CB
∈ SO(4)
e verifica γ(0) = I e γ(1) = A.
Teorema 6.6 SO(n) è connesso per sottogruppi a un parametro. In particolare exp : so(n) →
SO(n) è suriettivo in grande.
Prova. In virtù del teorema 6.4 la dimostrazione è perfettamente analoga a quella dei casi
n = 3 e n = 4.
Possiamo ora riprendere l’osservazione 6.4 e dimostrare il seguente teorema:
Teorema 6.7 SO(n) è la componente connessa con l’identità di O(n). In particolare
π0 (O(n)) = O(n)/SO(n) = Z2
Prova. E’ chiaro per il precedente teorema che SO(n) ⊆ O(n)0 . Per il viceversa, se g ∈
O(n)0 , esiste una curva γ(t) in O(n) tale che γ(0) = I e γ(1) = g; det γ(t) è una funzione
continua di t che può assumere solo i valori ±1, e quindi non può cambiare segno senza passare
per lo 0, e allora det γ(t) = 1 per tutti i t (valendo 1 in t = 0). In particolare det γ(1) = det g = 1
e allora g ∈ SO(n).
6.3
Quaternioni e rotazioni: SU (2) → SO(3)
Abbiamo già dimostrato (vedi osservazione 5.6) che sebbene SU (2) e SO(3) abbiano la stessa
algebra, e quindi la stessa dimensione, essi non sono gruppi isomorfi perchè hanno centri diversi;
possiamo ora dire di più su questa questione. Descriveremo infatti un importante omomorfismo
tra SU (2) e SO(3) (detto omomorfismo di ricoprimento).
Osservazione 6.9 Nel corso della dimostrazione illustreremo la relazione esistente tra i quaternioni e le rotazioni spaziali. Il metodo illustrato per trattare le rotazioni spaziali ha una notevolissima applicazione pratica: è infatti l’algoritmo più efficiente numericamente per eseguire
calcoli con le matrici di rotazioni ed è quello usato nei programmi di grafica 3D al computer,
specialmente nei videogiochi.
6 CONSIDERAZIONI TOPOLOGICHE
41
Teorema 6.8
SU (2)
Z2
Dove abbiamo identificato Z2 con {±I} ⊂ SU (2).
SO(3) =
Prova. Ricordiamo che (vedi esempio 3.2) SU (2) = S 3 = Sp(1) (il gruppo moltiplicativo
dei quaternioni di norma 1). L’isomorfismo è dato esplicitamente da:
a −b
dove aā + bb̄ = 1
⇐⇒ x + iy + jz + tk (dove a = x + iy e b = z + it)
b̄ ā
Consideriamo ora lo spazio H1 dei quaternioni cosiddetti puri:
H1 = {q ∈ H | q = −q} = {bi + cj + dk, b, c, d ∈ R}
Lo spazio H dei quaternioni (isomorfo a R4 ) si spezza quindi in H = H0 ⊕ H1 , dove H0 è
costituito dai quaternioni reali, mentre H1 è isomorfo come spazio vettoriale reale a R3 . Nel
seguito considereremo l’isomorfismo che manda i, j, k nella corrispondente base di R3 ortonormale rispetto al prodotto scalare standard. Converremo anche di indicare il quaternione puro
q e il corrispondente vettore con la stessa lettera. In completa analogia con i numeri complessi
chiameremo parte reale di un qualsiasi quaternione h ∈ H l’espressione Re {h} = 21 h + h̄ .
Se q1 , q2 sono due quaternioni puri il prodotto scalare in R3 dei corrispondenti vettori è dato
da:
(q1 , q2 ) = Re {q1 q2 }
Dove al secondo membro il prodotto è il prodotto di quaternioni. Infatti, ricordando che nei
quaternioni si ha hk = k h,si trova che:
Re {q1 q2 } = b1 b2 + c1 c2 + d1 d2
Ricordando che la norma quadrata di un quaternione h è khk2 = hh̄ abbiamo per i quaternioni
puri:
(q, q) = qq = kqk2
Quindi la lunghezza euclidea in R3 di un vettore corrisponde alla norma quaternionica del
quaternione puro che lo rappresenta. Ricordiamo anche che se A ∈ Sp(1), essendo kAk = 1, si
ha AqAq = qq
Definiamo ora una mappa Ψ : SU (2) → GL(3, R)
Ψ(A)(q) = AqA−1
Dove a sinistra pensiamo A come matrice di SU (2) , Ψ(A) come una matrice 3×3 , q un vettore
di R3 e il prodotto è il prodotto righe per colonne; a destra pensiamo invece A come elemento
di Sp(1), q come un quaternione puro (usando gli isomorfismi citati sopra), e i prodotti sono
i prodotti tra quaternioni. Notiamo anche che AqA−1 è effettivamente un quaternione puro e
quindi è interpretabile come un vettore di R3 :
AqA−1 = AqA−1 = −AqA−1
6 CONSIDERAZIONI TOPOLOGICHE
42
Dove abbiamo usato le relazioni: A = A−1 , q = −q.
La mappa Ψ è un omomorfismo:
Ψ(AB)(q) = ABq (AB)−1 = A BqB −1 A−1 = [Ψ(A) ◦ Ψ(B)] (q)
e inoltre preserva la lunghezza in R3 , infatti si ha:
AqA−1 AqA−1 = AqA−1 A−1 qA = AqqA = AqAq = qq
E’ quindi:
(Ψ(A)q, Ψ(A)q) = (q, q)
Abbiamo quindi scoperto che, in realtà:
Ψ(A) ∈ O(3).
Con un lunghissimo ma elementare calcolo (basta infatti esprimere A come un quaternione
unitario, eseguire nell’ordine i prodotti AiA−1 , AjA−1 , AkA−1 e poi scrivere la matrice 3 × 3
che ha come colonne le componenti i, j, k di questi prodotti) si potrebbe scrivere esplicitamente
l’omomorfismo (vedi più sotto dove lo facciamo con l’aiuto di un programma di computer
algebra).
Ad esempio:


1 0
0
i 0
Ψ
=  0 −1 0 
0 −i
0 0 −1
Infatti, nel caso in oggetto, A = i e quindi
AiA−1 = i, AjA−1 = −j, AkA−1 = −k.
Osserviamo ora che:
i 0
Ψ
∈ SO(3)
0 −i
Questo fatto è generale, e un ragionamento topologico ci consente di evitare i calcoli espliciti:
essendo Ψ continua e non costante ed essendo SU (2) connesso, l’immagine di Ψ deve essere
connessa e quindi:
Ψ (SU (2)) ⊆ SO(3)
Il nucleo di Ψ è formato da {±I} ⊂ SU (2), infatti A ∈ ker Ψ quando Ψ(A) è l’identità, ovvero
quando AqA−1 = q per ogni q ∈ H1 . Cioè quando Aq = qA. Essendo q puro, è immediato
verificare che questo implica A = ±1 ∈ Sp(1), ovvero A = ±I ∈ SU (2).
Occupiamoci ora della suriettività di Ψ. Sia u un quaternione puro di norma 1 cioè uū =
−uu = 1 e consideriamo il quaternione unitario A :
A = cos θ + u sin θ
è facile verificare che u è lasciato fisso dalla rotazione determinata da A :
AuA−1 = (cos θ + u sin θ)u(cos θ − u sin θ) = u
6 CONSIDERAZIONI TOPOLOGICHE
43
Concludiamo che Ψ è suriettiva su SO(3) perchè già sappiamo che ogni rotazione è una rotazione di un certo angolo attorno ad un certo un asse (osserviamo che, fortunatamente, non è
qui necessario trovarli!). Possiamo allora applicare il teorema di isomorfismo, ottenendo:
SO(3) =
SU (2)
Z2
Dove abbiamo identificato Z2 con {±I} ⊂ SU (2).
Osservazione 6.10 Anche la suriettività potrebbe essere molto elegantemente dimostrata da
argomenti topologici (ma un poco più avanzati della sola connessione).
Osservazione 6.11 Con un programma di computer algebra è facile scrivere esplicitamente
l’omomorfismo:
 2

x + y 2 − z 2 − t2
2tx + 2yz
2ty − 2xz
x + iy −z − it

−2tx + 2yz
x2 − y 2 + z 2 − t2
2tz + 2xy
Ψ
=
z + it x − iy
2
2
2
2
2ty + 2xz
2tz − 2xy
x −y −z +t
Dove x2 + y 2 + z 2 + t2 = 1. Il determinante vale: t6 + x6 + y 6 + z 6 + 3t2 x4 + 3t4 x2 + 3t2 y 4 +
3t4 y 2 + 3t2 z 4 + 3t4 z 2 + 3x2 y 4 + 3x4 y 2 + 3x2 z 4 + 3x4 z 2 + 3y 2 z 4 + 3y 4 z 2 + 6t2 x2 y 2 + 6t2 x2 z 2 +
3
6t2 y 2 z 2 + 6x2 y 2 z 2 = (t2 + x2 + y 2 + z 2 ) = 1. Si conferma quindi che Ψ : SU (2) → SO(3).
Osservazione
6.12 Osserviamo che applicando la formula al caso A = cos α2 − i sin α2 =
cos − α2 + i sin − α2 otteniamo:


−iα/2
1
0
0
e
0
=  0 cos α − sin α 
Ψ
iα/2
0
e
0 sin α cos α
Ovvero una rotazione antioraria di angolo α attorno all’asse x. La formula si può applicare allora per trovare la matrice di rotazione corrispondente ad un angolo θ e ad un asse u
rappresentato da u = ux i + uy j + uz k ponendo:
θ
θ
θ
θ
x = cos , y = −ux sin , z = −uy sin , t = −uz sin
2
2
2
2
Si ottiene allora la famosa formula di rotazione di Eulero-Rodrigues. Osservando la matrice
esplicita della prima osservazione si capisce subito perchè il metodo dei quaternioni è cosi
efficiente: l’angolo e l’asse di rotazione si vedono immediatamente e non sono nascosti nei
parametri di una complicata matrice ortogonale!
Osservazione 6.13 L’introduzione dell’isomorfismo tra quaternioni puri e vettori di R3 è alla
base della teoria delle algebre di Clifford, uno strumento molto importante in fisica teorica e
in geometria. Ad esempio si può dare una interpretazione unificata del prodotto scalare e del
prodotto vettoriale ∧ in R3 osservando che:
q1 q2 = (q1 , q2 ) − q1 ∧ q2
Dove, come al solito, a sinistra abbiamo quaternioni puri e a destra vettori di R3 .
6 CONSIDERAZIONI TOPOLOGICHE
6.4
44
Il caso di GL(n, R) e GL(n, C)
I risultati ottenuti per U (n) e SO(n), e la scomposizione polare delle matrici di GL(n, R)
e GL(n, C), (vedi teorema 3.3 e le osservazioni seguenti) ci consentono di dimostrare un
importante risultato:
Teorema 6.9 GL(n, C) è connesso.
Prova. Sia A ∈ GL(n, C), la sua scomposizione polare è A = U H dove ricordiamo che
U ∈ U (n) e H è una matrice hermitiana definita positiva.
Siccome U (n) è connesso, esiste una curva u(t) ∈ U (n) tale che u(0) = I e u(1) = U.
Consideriamo ora la curva in M (n, C) data da:
h(t) = tH + (1 − t)I
Che connette I a H. Per ogni t ∈ [0, 1] , la matrice h(t) è hermitiana definita positiva. Infatti
i suoi autovalori sono λi = tηi + (1 − t) > 0 (dove gli ηi sono gli autovalori, necessariamente
reali, di H), perchè ηi > 0 e t ∈ [0, 1] . Allora la curva γ(t) = u(t)h(t) appartiene a GL(n, C)
(perchè det γ(t) 6= 0) e verifica γ(0) = u(0)h(0) = I e γ(1) = u(1)h(1) = U H = A.
Teorema 6.10 GL+ (n, R) = {A ∈ GL(n, R) con det A > 0} è connesso.
Prova. La dimostrazione è analoga a quella del caso complesso. Sia A ∈ GL+ (n, R), la sua
scomposizione polare è A = RS dove ricordiamo che R ∈ SO(n) e S è una matrice simmetrica
definita positiva.
Siccome SO(n) è connesso, esiste una curva r(t) ∈ SO(n) tale che r(0) = I e r(1) = R.
Consideriamo ora la curva in M (n, R) data da:
s(t) = tS + (1 − t)I
Che connette I a S. Per ogni t ∈ [0, 1] , la matrice s(t) è simmetrica definita positiva. Infatti i
suoi autovalori sono λi = tηi +(1 − t) > 0 perchè ηi > 0 e t ∈ [0, 1] (gli ηi sono ora gli autovalori,
necessariamente positivi, di S). Allora la curva γ(t) = r(t)s(t) appartiene a GL+ (n, R) (perchè
det γ(t) 6= 0) e verifica γ(0) = r(0)s(0) = I e γ(1) = r(1)s(1) = RS = A.
Osservazione 6.14 Sappiamo già (vedi l’esempio 6.1) che GL(n, R) non è connesso (dove
cade la dimostrazione precedente?).
Teorema 6.11 GL0 (n, R) = GL+ (n, R), in particolare si ottiene che π0 (GL(n, R)) =
GL(n, R)/GL+ (n, R) = Z2 .
Prova. E’ chiaro per il precedente teorema che GL+ (n, R) ⊆ GL0 (n, R). Per il viceversa,
se g ∈ GL0 (n, R), esiste una curva γ(t) in GL0 (n, R) tale che γ(0) = I e γ(1) = g; det γ(t)
è una funzione continua di t che non assume il valore 0. Allora det γ(t) > 0 per tutti i t
(essendo positivo in t = 0). In particolare det γ(1) = det g > 0 e allora g ∈ GL+ (n, R).
6 CONSIDERAZIONI TOPOLOGICHE
45
L’ultima osservazione è una conseguenza del teorema di isomorfismo applicato all’omomorfismo
det A
ϕ(A) = |det
.
A|
La questione della suriettività della mappa esponenziale per GL(n, C) e GL+ (n, R) è più
complicata perchè nei teoremi di connessione dimostrati più sopra la curva costruita non è un
sottogruppo a un parametro.
Osservazione 6.15 Nel caso di GL(n, C) la suriettività della mappa esponenziale è legata all’esistenza del logaritmo in grande, infatti se ogni matrice complessa invertibile avesse un
logaritmo (non necessariamente unico!) allora sarebbe elog A = A e la suriettività sarebbe provata. La nostra definizione di logaritmo dà però solo l’esistenza in piccolo, infatti la serie
converge solo per le matrici che differiscono poco dalla matrice I.
Osservazione 6.16 Il caso di GL(1, C) = C∗ è semplice: sia α = ρeiθ con ρ > 0 un numero
complesso invertibile. Possiamo definire un logaritmo complesso di α, ponendo: log α = log ρ +
iθ. Si ottiene quindi elog α = elog ρ+iθ = ρeiθ = α.
Osservazione 6.17 E’ chiaro che ci sono infiniti logaritmi complessi di α, perchè per ogni
intero k, anche la definizione log α = log ρ + iθ + 2kπi andrebbe bene. Questa ambiguità è
dovuta al fatto che, contrariamente al caso reale, ez = 1 non implica necessariamente z = 0,
ad esempio, e2πi = 1. Lo stesso fenomeno avviene per il logaritmo di una matrice complessa:
abbiamo
già osservato infatti che eA = I non implica necessariamente A = 0. Ad esempio,

0 −2π 

0
e 2π
= I. L’ambiguità non si presenta ovviamente seci occupiamo
solo dell’esistenza
0 −2π
in piccolo; infatti, come 2πi non è vicino a 0, cosı̀ la matrice
non è vicina a I.
2π
0
Teorema 6.12 La mappa esponenziale exp : M (2 × 2, C) → GL(2, C) è suriettiva.
a 0
Prova. Sia A una matrice di GL(2, C), se A è diagonalizzabile, sia D =
una
0 b
sua forma diagonale: D = B −1 AB e poniamo
log a
0
C=
0
log b
dove log è un qualsiasi logaritmo complesso. Allora si ottiene subito:

e
BCB −1

= Be
log a
0
0
log b


B −1 = BDB −1 = A
Se invece A non è diagonalizzabile, essendo complessa e 2 × 2, deve avere un autovalore
doppio λ 6= 0 con autospazio monodimensionale. Sia v un autovettore dell’autovalore λ e w
6 CONSIDERAZIONI TOPOLOGICHE
46
un altro vettore indipendente da v. Nella base
da v e w, la matrice A assume una
costituita
λ
x
forma triangolare superiore F = B −1 AB =
con x 6= 0. Se poniamo:
0 λ
log λ xλ−1
C=
0
log λ
Si ottiene subito, applicando la definizione di esponenziale, che:


e
a b
0 a


=
ea bea
0 ea
E allora, ponendo a = log λ e b = xλ−1 :


e
E quindi:
eBCB
log λ xλ−1
0
log λ
−1


=
λ x
0 λ
= BeC B −1 = BF B −1 = A
Osservazione 6.18 Un procedimento analogo, ma più complicato, si può usare nel caso di
GL(n, C) con n > 2, infatti si dimostra che tutte le matrici complesse si possono mettere in
una particolare forma a blocchi in cui ogni blocco è una matrice triangolare superiore (forma di
Jordan), abbiamo quindi:
Teorema 6.13 La mappa esponenziale exp : M (n × n, C) → GL(n, C) è suriettiva.
Osservazione 6.19 Il caso di GL(n, R) comporta ulteriori difficoltà. Innanzi tutto la mappa
esponenziale non può essere suriettiva perchè GL(n, R) non è connesso. Inoltre, anche nella
componente connessa, si presenta il problema della presenza possibile di autovalori negativi o
addirittura complessi.
6.5
Il caso di SL(2, R)
Analizziamo, per capire il tipo di problemi, il caso di SL(2, R). Ricordiamo che SL(2, R) è
il sottogruppo di GL(2, R) costituito dalle matrici di determinante 1; il suo spazio tangente, denotato sl(2, R), è l’algebra di Lie delle matrici reali
nulla. Infatti
2 × 2 a traccia
a(t) b(t)
una curva in SL(2, R) è data da una matrice A(t) =
con det A(t) = 1 e
c(t) d(t)
a(0) = d(0) = 1 e b(0) = c(0) =0. Quindi un vettore tangente nell’origine è dato da una
a0 (0) b0 (0)
e quindi T (SL(2, R)) ⊆ sl(2, R). Viceversa, la matrice
matrice del tipo
c0 (0) −a0 (0)
6 CONSIDERAZIONI TOPOLOGICHE
47

t
a b
c −a


a b
è il vettore tangente alla curva e
che appartiene tutta a SL(2, R) perchè
c −a



a b 
a b 
t
ttr
c −a = 1 e quindi sl(2, R) ⊆ T (SL(2, R)) .
det e c −a = e
Osservazione 6.20 Il gruppo SL(2, R) è connesso, infatti la mappa ϕ : GL+ (2, R) →
A
è continua e suriettiva, e GL+ (2, R) è connesso, vedi teorema
SL(2, R), data da ϕ(A) = √det
A
6.11.
Teorema 6.14 Per ogni A ∈ sl(2, R) si ha
tr eA ≥ −2.
exp
In particolare, la mappa esponenziale sl(2, R) → SL(2, R) non è suriettiva.
Prova. Vogliamo mostrare che non tutte le matrici di SL(2, R) si possono ottenere per
esponenziazionedi matricidella sua algebra di Lie, nonostante SL(2, R) sia un gruppo connesso.
a b
Sia infatti A =
una matrice a traccia nulla. Si ha facilmente:
c −a
2n
a b
2 n
= bc + a
c −a
2n+1
a b
2 n
= bc + a
c −a
1 0
0 1
a b
c −a
Si ha quindi:
2n
n
a b
tr
= 2 bc + a2
c −a
2n+1
a b
tr
=0
c −a
Osserviamo ora che dalla serie formale dell’esponenziale si ricava:
√
e
x
√
+ e−
x
=2+x+
1 2
1 3
1
1
x +
x +
x4 +
x5 + O x 6
12
360
20 160
1814 400
Quindi, ponendo x = bc + a2 , e prendendo la traccia della serie esponenziale di eA :
treA = tr(I +A+A2 /2+A3 /3!+...) = 2+0+
Si ha finalmente:


tre
a b
c −a
√
√
2x
2x2
2x3
2x4
+0+
+0+
+0+
+.... = e x +e− x
2
4!
6!
8!

√

=e
bc+a2
+ e−
√
bc+a2
6 CONSIDERAZIONI TOPOLOGICHE
48
Ora si osservi che, se bc + a2 ≥ 0, allora tr eA ≥ 2, mentre se bc + a2 ≤ 0 :
√
√
p
±ı̀ |bc+a2 |
A
∓ı̀ |bc+a2 |
tr e = e
+e
= 2 cos |bc + a2 |
E quindi, in questo caso, −2 ≤ tr eA ≤ 2. Si ha quindi il risultato cercato:
Per ogni A ∈ sl(2, R), allora tr eA ≥ −2
−2 3
Quindi, ad esempio, la matrice B =
∈ SL(2, R), avendo traccia −4 non si
1 −2
può ottenere per esponenziazione di una matrice reale a traccia nulla.
Invece la matrice

0 −π 

−1 0
π
0
∈ SL(2, R) si può ottenere, ad esempio, da e
.
0 −1
Definizione 6.3 Indichiamo con exp sl(2, R) l’insieme delle matrici di SL(2, R) che si
ottengono come esponenziali di elementi dell’algebra di Lie.
Teorema 6.15 Sia M ∈ SL(2, R) con trM > −2, allora M ∈ exp sl(2, R).
Prova. Sia M ∈ SL(2, R) e quindi con det M = 1; il suo polinomio caratteristico è
p(λ) = λ2 − τ λ + 1, dove τ = trM. Gli autovalori sono quindi:
1
1√ 2
λ± = τ ±
τ −4
2
2
a) Se τ > 2 gli autovalori sono reali e distinti, la matrice è diagonalizzabile tramite una matrice
reale, ed inoltre deve essere λ+ λ− = 1. Si ha quindi λ± > 0, e allora log λ+ + log λ− = 0. La
matrice M è quindi esponenziale di una matrice reale a traccia nulla:

X
M =e
log λ+
0
0
log λ−

X −1
, con trX
log λ+
0
0
log λ−
X −1 = 0.
b) Se −2 < τ < 2, gli autovalori sono complessi coniugati e di modulo 1; poniamo λ+ = a + ib
con a2 + b2 = 1 e autovettore v. Allora si ottiene subito che λ− = a − ib con a2 + b2 = 1 e
autovettore v̄. Si ottiene M v = (a + ib) v, M v̄ = (a − ib) v̄. Segue che:
v + v̄
v − v̄
v + v̄
=a
+ ib
M
2
2
2
v − v̄
v + v̄
v − v̄
M i
= −b
+ ia
2
2
2
a −b
v+v̄
v−v̄
0
Allora nella base reale u = 2 , w = i 2 la matrice M assume la forma M =
b a
0
0
con det M = 1 e quindi M ∈ SO(2). Sia ora X la matrice (reale!) del cambiamento di base:
6 CONSIDERAZIONI TOPOLOGICHE
49
M = XM 0 X −1 . Sappiamo però che su SO(2) la mappa esponenziale dall’algebra delle matrici
antisimmetriche è suriettiva e quindi si ha M 0 = eB con B ∈ so(2), allora:
−1
M = eXBX , con tr XBX −1 = 0.
c) Se τ = 2, si presenta solo l’autovalore reale doppio 1, e ci sono due casi. Se la matrice
M è diagonalizzabile, M = I = e0 . Se non è diagonalizzabile, si può mettere (comeabbiamo
1 a
mostrato nella dimostrazione del teorema 6.12) in forma triangolare superiore F =
0 1


0 a 

con a 6= 0, mediante una matrice reale X; essendo F = e 0 0 (vedi ancora dimostrazione
del teorema 6.12), si ha quindi:

X
M =e
0 a
0 0

X −1
.
Osservazione 6.21 Il caso limite τ = −2 è il più interessante: se la matrice
è diagonalizzabile,


0
−π 

π 0
si può mettere nella forma M = −I, e allora, come già osservato, M
. Se invece
=e
−1 a
non è diagonalizzabile, la sua forma triangolare superiore è F =
con a 6= 0. Si
0 −1
può mostrare che matrici di questo tipo non sono esprimibili come esponenziali di matrici reali
a traccia nulla. Si ha infatti:
0 ±π
A
Teorema 6.16 Sia A ∈ sl(2, R); se tre = −2 allora A = X
X −1 . In particolare,
∓π 0
l’unica matrice di SL(2, R) con traccia −2 che sta nell’immagine dell’esponenziale è −I.
a b
Prova. Sia A =
∈ sl(2, R); sappiamo allora (vedi dimostrazione del teorec −a
ma 6.14) che deve essere p
− det A = bc + a2 ≤ 0 (altrimenti si avrebbe treA ≥ 2). Si ha
allora −2 = treA = 2 cos |bc + a2 | e quindi deve essere det A = −bc − a2 = π 2 . Allora il
2
2
polinomio
caratteristico
di A è p(λ) = λ + π e la matrice A può essere messa nella forma
0 ±π
A=X
X −1 . Infatti gli autovalori sono ±iπ e si può applicare il ragionamento
∓π 0
svolto nel punto b) del teorema precedente. Si ha quindi:

X
e
0 ±π
∓π 0

X −1
=X
−1 0
0 −1
X −1 = −I
6 CONSIDERAZIONI TOPOLOGICHE
50
−2 3
Osservazione 6.22 La matrice B =
∈ SL(2, R) si può ovviamente ottenere
1 −2
invece, usando il procedimento seguito nella dimostrazione del teorema 6.12, come esponenziale
di una matrice complessa.
Osservazione 6.23 La matrice complessa citata nell’osservazione qui sopra è necessariamente complessa, nel senso che se det A = 1 e trA < −2 non esiste nessuna matrice reale B
per cui sia A = eB , infatti dovrebbe essere det eB = etrB = 1, per cui trB = 2kπi, ma essendo
B reale, l’unica possibilità è trB = 0, e quindi ricadremmo nel caso di sl(2, R).
Osservazione 6.24 Se A ∈ SL(2, R) ha trA < −2 è chiaro che tr(−1)A = tr (−A) > 2 e
quindi (−1)A ∈ exp sl(2, R).
Possiamo quindi riassumere i risultati ottenuti nei precedenti teoremi e osservazioni:
Teorema 6.17 Sia A ∈ SL(2, R), e poniamo 40 = {X ∈ sl(2, R), det X = 0} e 4− =
{X ∈ sl(2, R), det X < 0} .
• Condizione necessaria e sufficiente perchè una matrice A ∈ exp sl(2, R) è che la sua
traccia sia > −2, oppure A = −I.
• trA > −2 se e solo se A ∈ interno di exp sl(2, R).
• −2 < trA < 2 se e solo se A è coniugata a una matrice R ∈ SO(2) e R 6= ±I.
• trA = 2 se e solo se A ∈ exp 40 . In particolare, in questo caso si ha (A − I)2 = 0.
• trA > 2 se e solo se A ∈ exp 4− .
• SL(2, R) = exp sl(2, R)∪(−1)exp 4− = exp sl(2, R)∪(−1) exp (40 ∪ 4− ) (la barra indica
la chiusura dell’insieme).
• Per ogni A ∈ SL(2, R), A ∈ exp sl(2, R) oppure −A ∈ exp sl(2, R). L’unica matrice A
per cui ±A ∈ exp sl(2, R) è A = I.
• Per ogni A ∈ SL(2, R), A2 ∈ exp sl(2, R). Infatti se A sta nell’immagine dell’esponenziale, anche A2 ci sta, mentre se A non sta nell’immagine dell’esponenziale allora −A ci
sta e quindi anche A2 = (−A) (−A) ci sta.
Possiamo anche dire qualcosa di più preciso sulle matrici di GL+ (2, R) che stanno
nell’immagine dell’esponenziale:
Teorema 6.18 Se A ∈ GL+ (2, R) è della forma eB , con B ∈ M (2 × 2, R), allora
√
1
trA ≥ −2.
det A
exp
In particolare, la mappa esponenziale M (2 × 2, R) → GL+ (2, R) non è suriettiva.
6 CONSIDERAZIONI TOPOLOGICHE
51
Prova. Sia A ∈ GL+ (2, R), e supponiamo che A = eB con B ∈ M (2 × 2, R). Allora
= C ∈ SL(2, R). Si ottiene allora:
√A
det A
C = eB e− log
√
det A
Si ha quindi:
√
= eB−log
√
det AI
tr(B−log
√
det AI )
=e
1 = det C = det e
√
e allora tr B − log det AI = 0, perchè nelle ipotesi fatte è un numero reale. Quindi C è
B−log
det AI
exp
nell’immagine della mappa esponenziale sl(2, R) → SL(2, R). Dalla dimostrazione del teorema
6.14 si ricava allora:
1
trA ≥ −2
trC = √
det A
−10 10
1
Ad esempio, la matrice A =
∈ GL+ (2, R), avendo √det
trA = − 21
, non si può
10
A
1 −11
ottenere per esponenziazione di una matrice reale.
Osservazione 6.25 Abbiamo anche ottenuto una generalizzazione del teorema 6.14. Per ogni
B ∈ M (2 × 2, R) si ha:
√
tr eB ≥ −2 etrB
Teorema 6.19 Ogni matrice di GL+ (n, R) si può ottenere come prodotto di due esponenziali.
Prova. Ricorriamo ancora alla decomposizione polare: A = RS con R ∈ SO(n) e S
simmetrica definita positiva. Sappiamo (vedi teorema 6.6) che R = eB con B ∈ so(n); S è
diagonalizzabile e ha autovalori positivi. Si ha: D = C −1 SC con C ortogonale reale. Sia ora F
la matrice diagonale che ha sulla diagonale i logaritmi degli autovalori (il logaritmo è l’usuale
logaritmo reale, infatti gli autovalori sono reali e positivi): D = eF . Si ottiene quindi che
A = eB CeF C −1 = eB eCF C
6.6
−1
Introduzione all’omotopia dei gruppi
In questa breve sezione discutiamo alcuni aspetti della teoria dell’omotopia riferita ai nostri
gruppi di matrici. Per la teoria dell’omotopia in generale si rimanda al corso di geometria 2.
Definizione 6.4 Se G è un gruppo di matrici si dice path space (spazio dei cammini) di G
l’insieme P (G) :
P (G) = {curve γ continue in G, γ : [0, 1] ⊂ R → G, con γ(0) = I}
P (G) diventa a sua volta uno spazio metrico con la distanza d∗ indotta dalla distanza euclidea
d in G ⊂ Rn :
d∗ (σ, τ ) = sup d(σ(t), τ (t))
t∈[0,1]
6 CONSIDERAZIONI TOPOLOGICHE
52
La mappa ω : P (G) × (a, b) → G definita da ω(σ, t) = σ(t) è chiaramente continua. P (G) è
un gruppo con la moltiplicazione indotta dal prodotto in G:
(σ · τ )(t) = σ(t)τ (t)
L’elemento neutro è il cammino costante 1, dove 1(t) = I ∀t, e il cammino inverso del
cammino δ è δ −1 , dove δ −1 (t) = (δ(t))−1 .
Consideriamo ora l’omomorfismo ρ : P (G) → G definito da ρ(σ) = σ(1). Chiaramente ρ è
suriettivo se G è connesso.
Definizione 6.5 Il loop space di G, indicato con Ω(G), è il nucleo di ρ :
Ω(G) = { γ : [0, 1] ⊂ R → G, con γ(0) = γ(1) = I}
Osservazione 6.26 Essendo il nucleo di un omomorfismo, Ω(G) è sottogruppo normale di
P (G). Se G è connesso, dal teorema di isomorfismo per l’omomorfismo ρ si ha:
P (G)
=G
Ω(G)
Definizione 6.6 Se invece G non è connesso, sia G0 la componente connessa con l’identità
(vedi definizione 6.1). Nel contesto di questa sezione il gruppo (vedi teorema 6.1) G/G0 ≡ π0 (G)
è detto zeresimo gruppo di omotopia G.
Definizione 6.7 G si dice semplicemente connesso se è connesso e anche Ω(G) lo è.
Se invece Ω(G) non è connesso sia Ω(G)0 la sua componente connessa con l’identità.
Teorema 6.20 Ω(G)0 è un sottogruppo normale di P (G).
Prova. Infatti, per definizione,
Ω(G)0 = { γ : [0, 1] → G, γ(0) = γ(1) = I e ∃f : [0, 1] → Ω(G) tale che
f (0) = 1 (il loop costante) e f (1) = γ}.
Poniamo ora f (s)(t) = F (s, t). Questa è una mappa continua F : [0, 1] × [0, 1] → G tale che:
F (0, t) = f (0)(t) = 1(t) = I
F (1, t) = f (1)(t) = γ(t)
F (s, 0) = f (s)(0) = I
F (s, 1) = f (s)(1) = I
Sia ora σ = δγδ −1 con γ ∈ Ω(G)0 e δ ∈ P (G), vogliamo mostrare che anche σ ∈ Ω(G)0 , cioè
esiste una curva h (s) in Ω(G) che connette il loop costante 1(t) = I a σ, ovvero h(0) = 1 e
h(1) = σ. Sia
H : [0, 1] × [0, 1] → G
H(s, t) = δ (t) F (s, t)δ −1 (t) = δ (t) F (s, t) (δ(t))−1
6 CONSIDERAZIONI TOPOLOGICHE
53
e poniamo:
h(s)(t) = H(s, t).
Questa è la curva cercata:
• h(s) è un loop, ovvero h(s) ∈ Ω(G) per ogni s :
h(s)(0) = δ (0) F (s, 0) (δ(0))−1 = I · F (s, 0) · I = f (s)(0) = I
h(s)(1) = δ (1) F (s, 1) (δ(1))−1 = δ (1) · F (s, 1) · δ (1)−1 = δ (1) · I · δ (1)−1 = I
• h (s) connette il loop costante 1(t) = I a σ, ovvero h(0) = 1 e h(1) = σ :
h(0)(t) = δ (t) F (0, t) (δ(t))−1 = δ (t) · I · (δ(t))−1 = I
h(1)(t) = δ (t) F (1, t) (δ(t))−1 = δ (t) · γ(t) · (δ(t))−1 = σ(t)
Definizione 6.8 Possiamo quindi considerare il gruppo quoziente:
G̃ =
P (G)
Ω(G)0
G̃ è detto gruppo di ricoprimento universale di G.
Osservazione 6.27 Si può mostrare che se G è connesso anche G̃ è connesso.
Osservazione 6.28 L’omomorfismo ρ : P (G) → G definito più sopra da ρ(σ) = σ(1) induce
una mappa
π : G̃ → G
data da: π [σ] = ρ(σ) = σ(1). Tale mappa è ben definita perchè tutti i cammini in [σ] hanno lo
stesso punto finale essendo definiti a meno di moltiplicazione per un loop.
Definizione 6.9 Osservato inoltre che la mappa π è un omomorfismo, possiamo definire il
primo gruppo di omotopia di G (π1 (G)):
π1 (G) = ker π
Osservazione 6.29 Applicando le definizioni si vede subito che G è semplicemente connesso
⇐⇒ G̃ = G ⇐⇒ π1 (G) = {e} cioè il gruppo banale;
Teorema 6.21 Siano G e G0 gruppi isomorfi, allora π1 (G) = π1 (G0 ).
6 CONSIDERAZIONI TOPOLOGICHE
54
Prova. Infatti se ϕ è un omomorfismo tra due gruppi G e G0 , si definisce ϕ̃ : P (G) → P (G0 )
cosı̀:
ϕ̃(γ)(t) = ϕ(γ(t))
e anche ϕ̃ è un omomorfismo. Inoltre se γ ∈ Ω(G), anche ϕ̃(γ) ∈ Ω(G0 ) infatti:
ϕ̃(γ)(0) = ϕ(γ(0)) = ϕ(IG ) = IG0
ϕ̃(γ)(1) = ϕ(γ(1)) = ϕ(IG ) = IG0
Chiaramente se ϕ è un isomorfismo anche ϕ̃ lo è.
Teorema 6.22 π1 (G) = π0 (Ω(G)) =
Ω(G)
(Ω(G))0
Prova. Basta osservare che [ω] ∈ π1 (G) = ker π ⊆
se ω ∈ Ω(G).
P (G)
Ω(G)0
se e solo se ω(1) = I, cioè se e solo
Teorema 6.23 Se G è connesso π1 (G) è abeliano.
Prova. Mostreremo che π1 (G) ⊆ Centro di G̃. Fissato h ∈ π1 (G),
la mappa
consideriamo
−1
continua ψ : G̃ → π1 (G) definita da ψ(g) = ghg . L’immagine ψ G̃ ⊆ π1 (G) è connessa
perchè G̃ è connesso, ma essendo π1 (G) discreto perchè è un gruppo di componenti connesse,
deve allora ridursi a un punto. Essendo ψ(e) = h deve essere anche ψ(g) = ghg −1 = h e quindi
gh = hg.
Osservazione 6.30 Il teorema precedente vale anche nel caso in cui G non sia connesso.
Osservazione 6.31 Per il calcolo esplicito di π1 (G) in alcuni casi particolari interessanti si
rimanda ad altri corsi più avanzati. Ad esempio si ha:
π1 (U (1)) = Z
π1 (SO(3)) = Z2
π1 (SU (2)) = {0}
Fly UP