Appunti su alcune classi importanti di matrici e gruppi di matrici. Indice
by user
Comments
Transcript
Appunti su alcune classi importanti di matrici e gruppi di matrici. Indice
INDICE 1 Appunti su alcune classi importanti di matrici e gruppi di matrici. Roberto Catenacci Versione del 26 Luglio 2013 Argomenti scelti sulle matrici e sui gruppi di matrici complessivamente trattati nei corsi di Geometria 1A , Geometria 1B e Teoria dei Gruppi. Testi di riferimento consigliati per questi argomenti: M.L. Curtis, Matrix Groups, Universitext, Springer-Verlag, Berlino 1979 A. Baker, Matrix Groups, Springer Undergraduate Mathematics Series, Springer-Verlag, Berlino 2002 S.Lang, Algebra Lineare, Boringhieri, Torino 1989 Indice 1 Matrici normali 1.1 Matrici simmetriche e hermitiane . . . . . . . . . . . . . . . . . . . . . . . . . . 2 4 2 Gruppi di Matrici 4 3 Gruppi Ortogonali e Unitari 3.1 Matrici ortogonali e unitarie . . . . . . . . . . 3.2 Autovalori delle matrici hermitiane e unitarie 3.3 Scomposizione polare . . . . . . . . . . . . . . 3.4 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 8 9 10 11 4 Spazio tangente all’identità 12 4.1 Matrici antisimmetriche e antihermitiane . . . . . . . . . . . . . . . . . . . . . . 17 5 Esponenziale, Logaritmo e Algebre di Lie 18 5.1 Algebre di Lie reali di dimensione due . . . . . . . . . . . . . . . . . . . . . . . . 27 5.2 Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1)) . . . . . . . . . . . 30 5.3 Sottogruppi ad un parametro . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 6 Considerazioni topologiche 6.1 Connessione e suriettività dell’esponenziale 6.2 Il caso di O(n) e SO(n) . . . . . . . . . . 6.3 Quaternioni e rotazioni: SU (2) → SO(3) . 6.4 Il caso di GL(n, R) e GL(n, C) . . . . . . . 6.5 Il caso di SL(2, R) . . . . . . . . . . . . . 6.6 Introduzione all’omotopia dei gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 34 38 40 44 46 51 1 MATRICI NORMALI 1 2 Matrici normali In questa sezione iniziamo lo studio di alcune importanti classi di matrici, usate in moltissimi campi della matematica e della fisica. Daremo per noti i più semplici risultati di algebra lineare utilizzati. Indichiamo con Mn (R) e Mn (C) rispettivamente gli insiemi delle matrici n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo semplicemente il simbolo Mn ). E’ noto che Mn (R) e Mn (C) sono spazi vettoriali reali (di dimensione n2 e 2n2 rispettivamente) e che con il prodotto righe × colonne, sono anelli non commutativi con unità. Ricordiamo anche che in Rn si definisce il prodotto scalare standard : (x, y) = xt y = n X xi y i i=1 1 x y x2 y2 t n Dove x = . , y = . e x denota la matrice trasposta di x. Analogamente, in C si xn yn definisce il prodotto hermitiano standard : 1 (x, y) = xt ȳ = n X xi ȳ i i=1 Definizione 1.1 Sia A una matrice reale o complessa, si definisce aggiunta (o coniugata hermitiana) di A, la matrice A∗ = Āt . Osservazione 1.1 E’ chiaro che (A∗ )∗ = A. Inoltre, per le matrici reali, l’aggiunta è semplicemente la matrice trasposta. Lemma 1.1 In Rn e in Cn (con i prodotti standard) vale la formula: (Ax, y) = (x, A∗ y). Prova. Basta ricordare le proprietà algebriche della operazione di trasposizione e le definizioni di aggiunta di una matrice, di prodotto scalare e hermitiano: (Ax, y) = (Ax)t ȳ = xt At ȳ = xt Āt y = (x, A∗ y) La formula del lemma 1.1 , ma con un arbitrario prodotto hermitiano, può essere presa come definizione di aggiunta di una matrice: Definizione 1.2 Si definisce aggiunta di una matrice A rispetto ad un prodotto hermitiano <, >, l’unica matrice A∗ tale che, ∀x, y ∈ Cn < Ax, y >=< x, A∗ y > . Se B è la matrice del prodotto hermitiano dato, cioè se < x, y >= xt B ȳ, si ottiene immediatamente la formula: A∗ = B −1 At B 1 MATRICI NORMALI 3 Osservazione 1.2 Si noti che la matrice B è I per il prodotto hermitiano standard, e quindi si riproduce la prima definizione data. (vedi definizione 1.1) Definizione 1.3 Una matrice A si dice normale se commuta con la sua aggiunta: AA∗ = A∗ A. Alcune proprietà interessanti degli autovalori e degli autospazi delle matrici normali sono date dai seguenti teoremi: Teorema 1.1 Se A è una matrice normale, e se α è un autovalore di A con autovettore v, allora ᾱ è autovalore di A∗ con lo stesso autovettore. Prova. Occorre mostrare che: Av = αv ⇒ A∗ v = ᾱv Calcoliamo usando ripetutamente AA∗ = A∗ A e il lemma 1.1 kA∗ v − ᾱvk2 = (A∗ v − ᾱv, A∗ v − ᾱv) = = (A∗ v, A∗ v) − (ᾱv, A∗ v) − (A∗ v, ᾱv) + (ᾱv, ᾱv) = = (v, AA∗ v) − ᾱ (v, A∗ v) − α(A∗ v, v) + αᾱ (v, v) = = (v, A∗ Av) − ᾱ (Av, v) − α(v, Av) + αᾱ (v, v) = = (v, A∗ αv) − ᾱ (αv, v) − α(v, αv) + αᾱ (v, v) = = (Av, αv) − ᾱα (v, v) − αᾱ(v, v) + αᾱ (v, v) = = (αv, αv) − ᾱα (v, v) − αᾱ(v, v) + αᾱ (v, v) = 0 Essendo quindi kA∗ v − ᾱvk2 = 0 abbiamo la tesi. Teorema 1.2 Se A è una matrice normale, e se α e β sono autovalori distinti di A allora i corrispondenti autospazi sono ortogonali tra loro. Prova. Sia Ax = αx e Ay = βy: Si ottiene: (Ax, y) = (αx, y) = α(x, y) e (Ax, y) = (x, A∗ y) = (x, β̄y) = β(x, y) ⇒ (α − β)(x, y) = 0 ⇒ (x, y) = 0 (nel calcolo abbiamo usato anche il teorema precedente). Definizione 1.4 Una applicazione lineare si dice normale se la matrice A, ad essa associata in una base ortonormale, è una matrice normale. Osservazione 1.3 Questa definizione è corretta in quanto osserveremo più sotto (vedi il lemma 3.4 della sezione 3.1) che se la matrice associata è normale in una certa base ortonormale lo è anche in qualsiasi altra base ortonormale. Il risultato principale relativo alle matrici normali è il cosiddetto Teorema spettrale: 2 GRUPPI DI MATRICI 4 Teorema 1.3 Se l’applicazione lineare ϕ : Cn → Cn è normale, allora esiste una base ortonormale di autovettori. Prova. Per la dimostrazione rimandiamo alla sezione 3.4 Dal teorema spettrale segue immediatamente che: Teorema 1.4 Le matrici normali sono diagonalizzabili (come matrici complesse) tramite una matrice i cui vettori colonna sono tra loro tutti ortogonali e di norma uno. Osservazione 1.4 Tali matrici sono dette matrici unitarie (vedi sezione 3.1) 1.1 Matrici simmetriche e hermitiane Nell’ambito delle matrici normali assumono particolare interesse le matrici simmetriche e quelle hermitiane. Definizione 1.5 Una matrice reale A si dice simmetrica se coincide con la sua trasposta: A = At Definizione 1.6 Una matrice A si dice hermitiana se coincide con la sua aggiunta:A = A∗ Analogamente alla definizione 1.4 possiamo dare le seguenti definizioni: Definizione 1.7 Una applicazione lineare si dice simmetrica (hermitiana) se la matrice A, ad essa associata in una base ortonormale, è una matrice simmetrica (hermitiana). Osservazione 1.5 Questa definizione è corretta: dimostreremo più sotto (vedi il lemma 3.5 della sezione 3.1) che se la matrice associata è simmetrica o hermitiana in una certa base ortonormale lo è anche in qualsiasi altra base ortonormale. 2 Gruppi di Matrici In questa sezione iniziamo lo studio dei principali gruppi di matrici (reali o complesse), come introduzione alla teoria dei gruppi di Lie; daremo per noti i principali risultati di algebra lineare utilizzati. Indichiamo ancora con Mn (R) e Mn (C) rispettivamente gli insiemi delle matrici n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo semplicemente il simbolo Mn ). E’ noto che Mn (R) e Mn (C) sono spazi vettoriali reali di dimensione n2 e 2n2 rispettivamente; è noto anche che su Mn (R) e Mn (C) si può definire un prodotto, il cosiddetto prodotto righe × colonne: se A, B ∈ Mn con elementi Aij , Bij, allora: (AB)ij = k=n X Aik Bkj k=1 La matrice prodotto C = AB è ancora ∈ Mn . Ricordiamo anche che una matrice A ∈ Mn è invertibile se e solo se det(A) 6= 0 e, in questo caso, ∃ una unica matrice A−1 tale che 2 GRUPPI DI MATRICI 5 AA−1 = A−1 A = I (dove I è una matrice con elementi Iij = 1 se i = j e Iij = 0 se i 6= j). Ricordando le seguenti proprietà del determinante: det(AB) = det A det B e det(A)−1 = (det A)−1 , possiamo ora dare le seguenti definizioni: Definizione 2.1 Il gruppo generale lineare reale, denotato con GL(n, R) è l’insieme delle matrici invertibili ∈ Mn (R) con il prodotto righe × colonne. Il gruppo speciale lineare reale, denotato con SL(n, R) è il sottogruppo delle matrici A ∈ GL(n, R) tali che det A = 1. Definizione 2.2 Il gruppo generale lineare complesso, denotato con GL(n, C) è l’insieme delle matrici invertibili ∈ Mn (C) con il prodotto righe × colonne. Il gruppo speciale lineare complesso, denotato con SL(n, C) è il sottogruppo delle matrici A ∈ GL(n, C) tali che det A = 1. Teorema 2.1 I gruppi speciali lineari sono sottogruppi normali dei gruppi generali lineari, inoltre: GL(n, R)/SL(n, R) = R∗ (e analoga per C). Prova. La dimostrazione è identica per il caso reale e complesso. Dalle proprietà del determinante segue che l’applicazione det : GL(n, R) → R∗ è un omomorfismo suriettivo di nucleo Ker(det) = SL(n, R). Dal fatto che il nucleo di un omomorfismo è un sottogruppo normale e dal teorema di isomorfismo segue l’asserto. Descriveremo ora alcuni casi particolari per piccoli n. Esempio 2.1 GL(1, R) = R∗ e GL(1, C) = C∗ . Esempio 2.2 GL(1, C) è sottogruppo di GL(2, R). Infatti si può definire il seguente omorfismo iniettivo: x −y ρ(x + iy) = y x x −y Notare che det = x2 + y 2 . y x Esempio 2.3 H ∗ (il gruppo moltiplicativo dei quaternioni non nulli) è sottogruppo di GL(2, C). Infatti si può definire il seguente omorfismo iniettivo: x + iy −z − it ρ(x + iy + jz + kt) = z − it x − iy x + iy −z − it Notare che det = x2 + y 2 + z 2 + t2 . z − it x − iy 3 GRUPPI ORTOGONALI E UNITARI 3 6 Gruppi Ortogonali e Unitari Studiamo ora i più importanti sottogruppi dei gruppi generali lineari: i gruppi ortogonali e unitari. Lemma 3.1 Una matrice A ∈ GL(n, R) tale che A−1 = At preserva il prodotto scalare: (Ax, Ay) = (x, y) per ogni x, y ∈ Rn ; viceversa, se preserva il prodotto scalare per ogni x, y allora A−1 = At . Una matrice A ∈ GL(n, C) tale che A−1 = A∗ = Āt preserva il prodotto hermitiano: (Ax, Ay) = (x, y) per ogni x, y ∈ Cn e viceversa. Prova. La dimostrazione è analoga nei due casi: osserviamo che, per il lemma 1.1 (Ax, y) = (x, A∗ y); si ottiene allora (Ax, Ay) = (x, A∗ Ay) = (x, y). Viceversa, se (Ax, Ay) = (x, y) allora (Ax)t (Ay) = xt ȳ e quindi, (per le proprietà note della trasposizione) xt At Ay = xt ȳ. Essendo verificata per ogni x e y, deve essere At Ā = I, cioè, coniugando, A∗ A = I. Il lemma 3.1 e le note proprietà dell’aggiunzione: (A∗ )∗ = A, (AB)∗ = B ∗ A∗ , (A−1 )∗ = (A∗ )−1 , det A∗ = det A consentono di dare le seguenti definizioni: Definizione 3.1 Il gruppo ortogonale O(n) è il sottogruppo delle matrici di GL(n, R) che preservano il prodotto scalare: O(n) = {A ∈ GL(n, R)|A−1 = At }. Definizione 3.2 Il gruppo unitario U (n) è il sottogruppo delle matrici di GL(n, C) che preservano il prodotto hermitiano: U (n) = {A ∈ GL(n, C)|A−1 = A∗ }. Definizione 3.3 Il gruppo delle rotazioni (detto anche gruppo speciale ortogonale) SO(n) è dato da SO(n) = O(n) ∩ SL(n, R). Definizione 3.4 Il gruppo speciale unitario SU (n) è dato da U (n) ∩ SL(n, C). Definizione 3.5 La sfera n − 1 dimensionale è l’insieme S n−1 = {x ∈ Rn |(x, x) = 1} Osservazione 3.1 Dalla relazione A∗ A = I segue che se A ∈ O(n), det A = ±1; se A ∈ U (n), det A = z con z z̄ = 1 e quindi det A ∈ S 1 .(Naturalmente non è vero il viceversa). Teorema 3.1 I gruppi speciali ortogonale e unitario sono sottogruppi normali rispettivamente dei gruppi ortogonali e unitari (con lo stesso n). Si ha inoltre: O(n)/SO(n) = Z2 e U (n)/SU (n) = S 1 In particolare, O(1) = Z2 = S 0 e U (1) = S 1 . Prova. Dalle proprietà del determinante e dall’osservazione 3.1 segue che l’applicazione det : O(n) → Z2 è un omomorfismo suriettivo di nucleo Ker(det) = SO(n). Dal fatto che il nucleo di un omomorfismo è un sottogruppo normale e dal teorema di isomorfismo segue l’asserto. Per U (n) si procede analogamente. 3 GRUPPI ORTOGONALI E UNITARI 7 Osservazione 3.2 Segue dal teorema precedente che ci sono solo due laterali di SO(n) in O(n) : il laterale SO(n) che contiene I e il laterale O(n) − SO(n) che contiene la matrice C tale che C11 = −1 e Cij = δij se i 6= 1 e j 6= 1; per tale matrice, det C = −1. Segue immediatamente che ogni matrice B ∈ O(n) − SO(n) può essere scritta come B = AC con A ∈ SO(n) (A = BC −1 ) Esempio 3.1 O(2), SO(2) e U (1). Una matrice A di O(2) deve verificare: −1 A −1 d a c a b − detb A t det A =A = = = b d c d − detc A deta A Si distinguono ora due casi: a −b i) det A = 1, allora A ∈ SO(2) e A = con a2 + b2 = 1 e quindi possiamo porre b a a = cos θ, b = sin θ. La matrice A rappresenta una rotazione (nel piano cartesiano x, y) in senso antiorario di un angolo θ. Prendendo l’omomorfismo ρ dell’esempio 2.2 si ottiene ρ(cos θ + i sin θ) = A; è anche chiaro che, in questo caso, ρ è suriettivo, e quindi si ha un isomorfismo: SO(2) = U (1) = S 1 −a −b ii) det A = −1, allora A ∈ O(2) − SO(2) e A = con a2 + b2 = 1 e quindi possiamo −b a porre a = cos θ, b = sin θ. Si ottiene − cos θ − sin θ cos θ − sin θ −1 0 = − sin θ cos θ sin θ cos θ 0 1 −1 0 La matrice rappresenta una riflessione (nel piano cartesiano x, y) rispetto al0 1 cos θ − sin θ l’asse delle y e la matrice una rotazione di angolo θ. Segue che ogni sin θ cos θ A ∈ O(2) − SO(2) rappresenta una riflessione nel piano x, y rispetto a una retta passante per l’origine. Si noti che la composizione di due riflessioni risulta sempre essere una rotazione (il determinante vale 1). Esempio 3.2 SU (2) = S 3 = Sp(1) (il gruppo moltiplicativo dei quaternioni di norma 1). Le matrici di SU (2) devono verificare la relazione: −1 A = −1 a b d −b ā c̄ ∗ = =A = c d −c a b̄ d¯ 3 GRUPPI ORTOGONALI E UNITARI 8 Segue che una matrice di SU (2) si può scrivere: a −b A= con aā + bb̄ = 1 b̄ ā Se poniamo a = x + iy e b = z + it si ottiene che (x, y, z, t) ∈ S 3 . La sfera S 3 può essere identificata col gruppo dei quaternioni di norma uno: Sp(1) = {q ∈ H | q q̄ = 1}. E’ facile verificare che l’immagine dell’omomorfismo ρ dell’esempio 2.3 è proprio SU (2). Infatti, posto 1 0 q = x + iy + jz + kt si ottiene ρ(q)(ρ(q))∗ = . Per la suriettività basta ricordare la 0 1 rappresentazione trovata sopra delle matrici di SU (2) e osservare che ρ(x + iy + jz + kt) = a −b . Si conclude osservando che un omomorfismo iniettivo è un isomorfismo sulla sua b̄ ā immagine. Osservazione 3.3 S 0 , S 1 e S 3 sono le uniche sfere a cui si può dare una struttura di gruppo. 3.1 Matrici ortogonali e unitarie Studiamo ora alcune proprietà algebriche (della massima importanza) delle matrici appartenenti ai gruppi ortogonali e unitari. Definizione 3.6 Le matrici appartenenti rispettivamente ai gruppi ortogonali o unitari sono dette matrici ortogonali o unitarie. Lemma 3.2 Le matrici ortogonali e le matrici unitarie sono matrici normali. Prova. Basta ovviamente dimostrarlo nel caso unitario. Se U −1 = U ∗ segue subito: U U ∗ = I = U ∗U . Lemma 3.3 Le colonne delle matrici ortogonali e delle matrici unitarie hanno norma unitaria e sono tra loro ortogonali. Prova. Queste matrici infatti trasformano basi ortonormali in basi ortonormali, perchè conservano il prodotto scalare o il prodotto hermitiano. Lemma 3.4 Se A è una matrice normale, lo è anche ogni matrice simile ad A tramite una matrice unitaria. Prova. Sia B = U −1 AU simile ad A, con U unitaria. Si ottiene: BB ∗ = U ∗ AU (U ∗ AU )∗ = U ∗ A (U U ∗ ) A∗ U = U ∗ AA∗ U B ∗ B = (U ∗ AU )∗ U ∗ AU = U ∗ A∗ (U U ∗ ) AU = U ∗ A∗ AU Essendo A normale, segue la tesi: BB ∗ = B ∗ B. 3 GRUPPI ORTOGONALI E UNITARI 9 Osservazione 3.4 Segue immediatamente da questo lemma che se una applicazione lineare è rappresentata in una base ortonormale da una matrice normale, è rappresentata da una matrice normale in ogni altra base ortonormale. Lemma 3.5 Se A è una matrice hermitiana, lo è anche ogni matrice simile ad A tramite una matrice unitaria. Prova. Sia B = U −1 AU simile ad A, con U unitaria. Si ottiene: B = U ∗ AU B ∗ = (U ∗ AU )∗ = U ∗ A∗ U Essendo A hermitiana, segue la tesi: B = B ∗ Osservazione 3.5 Segue immediatamente da questo lemma che se una applicazione lineare è rappresentata in una base ortonormale da una matrice hermitiana, è rappresentata da una matrice hermitiana in ogni altra base ortonormale. 3.2 Autovalori delle matrici hermitiane e unitarie Studiamo in questa sezione le principali proprietà degli autovalori e degli autovettori per le classi di matrici normali di nostro interesse. Teorema 3.2 Gli autovalori di una matrice hermitiana sono numeri reali. Prova. Sia Ax = αx. Allora: (Ax, y) = (x, A∗ y) = (x, Ay) ⇒ (αx, x) = (x, αx) ⇒ α(x, x) = ᾱ(x, x) ⇒ α = ᾱ Segue ovviamente il seguente risultato non banale (ma difficile da ricavare guardando solo il polinomio caratteristico!): Teorema 3.3 Gli autovalori di una matrice simmetrica sono numeri reali. Teorema 3.4 Gli autovalori di una matrice unitaria sono numeri complessi di norma 1. Prova. Sia U x = αx.Allora (vedi lemma 3.1) (U x, U x) = (x, x) ⇒ (αx, αx) = (x, x) ⇒ αᾱ = 1 Segue ovviamente anche il seguente risultato, anch’esso non banale: Teorema 3.5 Gli autovalori di una matrice ortogonale possono essere solo ±1. Riportiamo ora un importante corollario del Teorema Spettrale (per la cui dimostrazione vedi 1.3) Teorema 3.6 : 1. Le matrici hermitiane sono diagonalizzabili mediante matrici unitarie. 3 GRUPPI ORTOGONALI E UNITARI 10 2. Le matrici simmetriche sono diagonalizzabili mediante matrici ortogonali. 3. Le matrici unitarie sono diagonalizzabili mediante matrici unitarie. Definizione 3.7 Una matrice simmetrica (o hermitiana) si dice definita positiva se ha tutti gli autovalori strettamente maggiori di zero. Lemma 3.6 Data A definita positiva e simmetrica, esiste una matrice B, anch’essa definita positiva e simmetrica tale che A = B 2 (analogo risultato vale per le matrici hermitiane positive). Prova. La matrice A è diagonalizzabile tramite matrici ortogonali, e sulla diagonale ha numeri reali strettamente positivi. Sia D una sua forma diagonale, e sia E la matrice diagonale che ha sulla diagonale le radici positive degli autovalori di A: D = C −1 AC = E 2 Si ottiene quindi, posto B ≡ CEC −1 : A = CDC −1 = CE 2 C −1 = CEC −1 CEC −1 = BB = B 2 . La matrice B è simmetrica. Infatti, essendo C −1 = C t e E diagonale, si ha: t B t = CEC t = CE t C t = B Osservazione 3.6 Data A invertibile, At A è definita positiva. Infatti At A è simmetrica, ed inoltre se At Av = λv si ottiene: 0 < (Av, Av) = v, At Av = (v, λv) = λ(v, v) = λ kvk2 perchè A è invertibile e v 6= 0. Si ha quindi λ > 0. Lo stesso vale nel caso complesso: data A invertibile, A∗ A è hermitiana definita positiva. 3.3 Scomposizione polare Concludiamo il paragrafo con una interessante proprietà delle matrici invertibili: Teorema 3.7 Ogni matrice reale invertibile A si può scrivere come il prodotto di una matrice ortogonale R e una matrice simmetrica S definita positiva. Un risultato analogo vale per le matrici complesse: ogni matrice complessa invertibile si può scrivere come il prodotto di una matrice unitaria U e una matrice hermitiana definita positiva H. 3 GRUPPI ORTOGONALI E UNITARI 11 Prova. Dimostriamolo nel caso reale. Consideriamo la matrice At A (simmetrica e definita positiva per l’osservazione 3.6 ); per il lemma 3.6 esiste una matrice S simmetrica e definita positiva tale che S 2 = At A; si ottiene quindi −1 2 t −1 S S ≡ RS S = A A = At −1 Osserviamo ora che R = (At ) S è ortogonale: −1 −1 t −1 S R = A = S −1 At = S −1 S 2 A−1 = SA−1 t t t −1 S = S t A−1 = SA−1 R = A La dimostrazione nel caso complesso è perfettamente analoga. Osservazione 3.7 La scomposizione polare nel caso complesso, A = U H, con U unitaria e H hermitiana definita positiva, nel caso di matrici 1 × 1, invertibili, cioè numeri complessi 6= 0, riproduce, ovviamente, la usuale rappresentazione trigonometrica z = eiθ |z|, con eiθ ∈ U (1), |z| > 0. Osservazione 3.8 Se la matrice A reale ha determinante positivo, la scomposizione è: A = RS con det R = 1. 3.4 Il teorema spettrale In questa sezione dimostriamo il risultato principale sulle matrici normali: diagonalizzabilità. Partiamo dai due seguenti semplici lemmi. la loro Lemma 3.7 Ogni applicazione lineare f definita su un sottospazio complesso V di Cn , a valori in V stesso, ha sicuramente un autovettore. Prova. Infatti, se V ha dimensione r, e si scrive la matrice della restrizione di f a V, si trova una matrice r × r. Questa ha almeno un autovalore complesso, e, conseguentemente, f ha almeno un autovettore appartenente a V. Lemma 3.8 Siano A e B due matrici complesse n × n tali che AB = BA. Allora esiste un elemento non nullo di Cn che è autovettore sia di A, sia di B. − Prova. Sia λ un autovalore di A, e sia Vλ il corrispondente autospazio. Se → v ∈ Vλ , abbiamo: − − − − A(B(→ v )) = B(A(→ v )) = B(λ→ v ) = λB(→ v ). → − Quindi B( v ) ∈ Vλ . B è un’applicazione lineare di Vλ in sè stesso. Per il lemma precedente, − − questa ha almeno un autovettore → w ∈ Vλ . Abbiamo concluso: → w sta in Vλ , dunque è un → − autovettore di A, e w è anche autovettore di B. 4 SPAZIO TANGENTE ALL’IDENTITÀ 12 Teorema 3.8 Teorema spettrale. Sia hi il prodotto Hermitiano standard su Cn , e sia A una matrice normale n × n. Allora, esiste una base ortonormale di Cn costituita da autovettori di A. Prova. Procediamo per induzione sulla dimensione n. Il teorema è ovvio per n = 1 (A è una matrice 1 × 1). Dobbiamo dimostrare il teorema spettrale in dimensione n, supponendo che esso sia vero in dimensione n − 1. Poichè A commuta con A∗ , A e A∗ hanno almeno un − autovettore in comune per il lemma 3.8: indichiamolo con → v1 . Dividendolo per la sua norma, − − potremo supporre che → v1 abbia lunghezza 1. Ora, siano V1 = span {→ v1 }, e W = (V1 )⊥ . A − manda W in sè stesso: se → w ∈ W, − − − − − − hA→ w;→ v1 i = h→ w ; A∗ → v1 i = µ h→ w;→ v1 i = 0 − La penultima uguaglianza si ottiene ricordando che → v1 è un autovettore anche per A∗ (indicando − con µ l’autovalore associato). L’ultima uguaglianza si ottiene ricordando che → w ∈ W = (V1 )⊥ . − − − Dunque, A→ w è ortogonale a → v1 , e cioè A→ w ∈ W . A può essere vista come un’applicazione lineare di W in sè stesso. Ma W ha dimensione n − 1, dunque si può applicare l’ipotesi − − − induttiva. Sia {→ v2 ; ...; → vn } la base ortonormale di W . Allora, essendo → v1 ortogonale ad ogni → − → − → − n vettore di W , { v1 ; v2 ; ...; vn } è la base cercata di C . Osservazione 3.9 Nella base ortonormale composta da autovettori la matrice risulta diagonale. Una matrice diagonalizzante è una matrice le cui colonne sono costituite da autovettori e sulla diagonale abbiamo gli autovalori. Osservazione 3.10 Abbiamo visto che tutte le matrici complesse normali possono essere diagonalizzate in C con una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale. Infatti, una matrice normale reale potrebbe avere autovalori complessi, e quindi non essere diagonalizzabile in campo reale (pur rimanendo ovviamente diagonalizzabile in campo complesso). Tale cosa non si verifica per le matrici reali simmetriche che risultano, quindi, tutte diagonalizzabili; il teorema 3.2, valido per le matrici hermitiane, vero in particolare anche per tutte le matrici simmetriche, afferma infatti che esse possono avere solo autovalori reali. 4 Spazio tangente all’identità Iniziamo in questa sezione lo studio delle proprietà geometriche e topologiche dei gruppi ortogonali e unitari. Definizione 4.1 Sia V uno spazio vettoriale reale di dimensione finita, una curva in V è una funzione differenziabile γ : (a, b) → V, dove (a, b) ⊂ R è un intervallo aperto contenente 0. Definizione 4.2 Sia u = γ(c) con c ∈ (a, b). Un vettore v tangente in u a V è v = limh→0 γ(c+h)−γ(c) h 4 SPAZIO TANGENTE ALL’IDENTITÀ 13 Se (e1 , e2 , ..., en ) è una base di V, si ottiene subito che v = γ 0 (c) = (γ10 (c)...γn0 (c)). Come V considereremo d’ora in avanti Mn . Definizione 4.3 Sia G un sottogruppo di GL(n, R) (o GL(n, C)). Una curva in G passante per l’identità è una curva in GL(n, R) (o GL(n, C) tale che, ∀c ∈ (a, b), γ(c) ∈ G e γ(0) = I. Definizione 4.4 Siano α e β due curve in G passanti per l’identità, la curva prodotto è la curva (in G e passante per l’identità) η(c) = (αβ)(c) = α(c)β(c) Osservazione 4.1 Si ottiene subito (facendo attenzione all’ordine in cui si moltiplicano gli elementi di G): (αβ)0 (c) = α(c)β 0 (c) + α0 (c)β(c) Definizione 4.5 Lo spazio tangente a G nell’identità è l’insieme T (G) = {v ∈ Mn |v = γ 0 (0)}, essendo γ una curva in G passante per l’identità. Lemma 4.1 T (G) è un sottospazio vettoriale di Mn . Prova. Siano α0 (0), β 0 (0) ∈ T (G), allora (αβ)0 (0) = α(0)β 0 (0) + α0 (0)β(0) = α0 (0) + β 0 (0) e quindi, dato che (αβ)0 (0) ∈ T (G) per la definizione di curva prodotto, anche α0 (0) + β 0 (0) ∈ T (G). Sia ora α0 (0) ∈ T (G) e sia u un numero reale; posto σ(t) = α(ut) si trova immediatamente che σ è una curva in G passante per l’identità e che σ 0 (0) = uα0 (0) e quindi uα0 (0) ∈ T (G). Esempio 4.1 T (GL(1, C)) = C = R2 , T (GL(2, R)) = M2 (R) = R4 . Basta infatti osservare che i valori delle derivate in zero di funzioni reali sono arbitrari numeri reali. Esempio 4.2 T (SO(2)) = R. Sia (vedi esempio 3.1) cos f (t) − sin f (t) α(t) = con f (0) = 0 sin f (t) cos f (t) una curva in SO(2) passante per I. Essendo f 0 (0) un arbitrario numero reale, si vede subito che: 0 −a 0 T (SO(2)) = {matrici 2 × 2 di tipo α (0)} = ,a ∈ R a 0 E quindi T (SO(2)) è, come spazio reale, vettoriale isomorfo a R. Il lettore farebbe bene a 0 −a verificare in tutti i dettagli che , a ∈ R è uno spazio vettoriale reale di dimensione a 0 1. Definizione 4.6 La dimensione di G (dim(G)) è la dimensione di T (G) come spazio vettoriale reale. 4 SPAZIO TANGENTE ALL’IDENTITÀ 14 Definizione 4.7 Un omomorfismo differenziabile ϕ : H → G è un omomorfismo tale che β(t) = ϕ(α(t)) = (ϕ ◦ α)(t) è una curva in G per ogni α curva in H. Osservazione 4.2 Si noti che se α passa per l’identità di H necessariamente (ϕ ◦ α) passa per l’identità di G in virtù del fatto che un omomorfismo manda l’identità nell’identità. Il punto chiave della definizione è la differenziabilità della funzione composta. Tutti gli omomorfismi considerati in questa sezione sono differenziabili perchè si ottengono da prodotti e somme tra numeri reali, numeri complessi (visti come coppie di numeri reali) e quaternioni (visti come quaterne di numeri reali). Definizione 4.8 Il differenziale dϕ di un omomorfismo differenziabile è l’applicazione dϕ : T (H) → T (G): dϕ(α0 (0)) = β 0 (0) = (ϕ ◦ α)0 (0) In particolare, il differenziale dell’omomorfismo identità è l’applicazione identità tra T (H) e T (G). Esempio 4.3 Consideriamo il caso dell’omomorfismo ρ dell’esempio 2.2. Sia α(t) = x(t) + iy(t) una curva in GL(1, C) passante per I. Si ottiene subito che x(t) −y(t) (ρ ◦ α)(t) = y(t) x(t) e quindi: 0 x (0) −y 0 (0) (ρ ◦ α) (0) = y 0 (0) x0 (0) 0 Ora x0 (0) e y 0 (0) sono due arbitrari numeri reali, diciamo a e b; risulta quindi dalla definizione 4.8 e dall’esempio 4.1 che dρ : R2 →M2 (R) a a −b 2 dρ : ∈R → ∈ M2 (R) b b a Si osservi che dρ è una applicazione lineare iniettiva di rango 2, la sua immagine è il sottospazio 1 0 0 −1 bidimensionale di M2 (R) generato da e . 0 1 1 0 Esempio 4.4 Se restringiamo ρ alle matrici di U (1) cioè ai numeri complessi di norma 1, x0 (0) non può più essere arbitrario. Infatti, se x(t)2 + y(t)2 = 1 si ottiene 2x(t)x0 (t) + 2y(t)y 0 (t) = 0, ma x(0) + iy(0) = 1 e quindi deve essere x0 (0) = 0. Ne segue che: 0 −b dρ : b ∈ R → ∈ T (SO(2)) ⊂ M2 (R) b 0 In altri termini (vedi l’esempio 4.2), dρ è un isomorfismo di spazi vettoriali reali tra T (U (1)) e T (SO(2)). Sappiamo anche (vedi l’esempio 3.1) che ρ è un isomorfismo di gruppi tra U (1) e SO(2). La situazione descritta in questo esempio si generalizza nel seguente lemma: 4 SPAZIO TANGENTE ALL’IDENTITÀ 15 Lemma 4.2 Il differenziale dϕ di un omomorfismo differenziabile ϕ è una applicazione lineare. Se ϕ è un isomorfismo di gruppi H → G, allora dϕ è un isomorfismo di spazi vettoriali reali T (H) → T (G). Prova. Siano α0 (0), β 0 (0) ∈ T (H) allora (vedi lemma 4.1): dϕ [α0 (0) + β 0 (0)] = dϕ (αβ)0 (0) = [ϕ ◦ αβ)]0 (0) Dove αβ è la curva prodotto: (αβ) (t) = α(t)β(t). Si ottiene: (ϕ ◦ αβ) (t) = ϕ [αβ(t)] = ϕ [α(t)β(t)] = ϕ [α(t)] ϕ [β(t)] = (ϕ ◦ α) (t) (ϕ ◦ β) (t) Osserviamo ora che, dalla definizione di derivata, si ha proprio: dϕ [α0 (0) + β 0 (0)] = dϕ (αβ)0 (0) = [ϕ ◦ αβ]0 (0) = [(ϕ ◦ α) (t) (ϕ ◦ β) (t)]0t=0 = = [ϕ ◦ α]0 (0) (ϕ ◦ β) (0) + (ϕ ◦ α) (0)[ϕ ◦ β]0 (0) = dϕ [α0 (0)] + dϕ [β 0 (0)] , perchè (ϕ ◦ β) (0) = (ϕ ◦ α) (0) = ϕ(I) = I, e quindi: dϕ [α0 (0) + β 0 (0)] = dϕ [α0 (0)] + dϕ [β 0 (0)] Sia ora a un numero reale si ha allora (vedi ancora il lemma 4.1): dϕ [aα0 (0)] = dϕ [(aα)0 (0)] = [ϕ ◦ aα)]0 (0) Ricordiamo ora che aα è la curva (aα) (t) = α(at), per cui: [ϕ ◦ aα](t) = ϕ [α(at)] = [a (ϕ ◦ α)] (t) Osserviamo ora che, dalla definizione di derivata, si ha proprio: [ϕ ◦ aα]0 (0) = [a (ϕ ◦ α) (t)]0t=0 = a (ϕ ◦ α)0 (0) e quindi: dϕ [aα0 (0)] = adϕ [α0 (0)] La linearità di dϕ è provata. La seconda parte segue dal fatto che la composizione di funzioni differenziabili è differenziabile e dalla regola di Leibniz. Se ϕ e ψ sono omomorfismi differenziabili ψ ϕ H→G→K anche ϕ ◦ ψ lo è e, inoltre, si verifica che d(ϕ ◦ ψ) = dϕ ◦ dψ. Infatti si ha, dalle definizioni : d(ϕ ◦ ψ) [α0 (0)] = (ϕ ◦ ψ ◦ α)0 (0) = dϕ (ψ ◦ α)0 (0) = (dϕ ◦ dψ) [α0 (0)] Se ϕ è un isomorfismo differenziabile, anche ϕ−1 lo è e quindi segue che: d(ϕ ◦ ϕ−1 ) = d(Id) = Id = dϕ ◦ dϕ−1 . Analogamente: d(ϕ−1 ◦ ϕ) = d(Id) = Id = dϕ−1 ◦ dϕ. Dove abbiamo indicato con Id l’applicazione identità. Ne consegue che (dϕ)−1 = dϕ−1 e quindi dϕ è una applicazione lineare invertibile e quindi un isomorfismo. 4 SPAZIO TANGENTE ALL’IDENTITÀ 16 Teorema 4.1 Due gruppi differenziabilmente isomorfi hanno la stessa dimensione. Prova. Segue banalmente dal lemma 4.2. Teorema 4.2 dim(SO(2)) = dim(U (1)) = dim(S 1 ) = 1 e dim(SU (2)) = dim(S 3 ) = 3. (questo enunciato suggerisce che debba esistere una definizione di dimensione (applicabile anche alle sfere che non sono gruppi) per cui dim(S n ) = n) Prova. Abbiamo già visto nell’esempio 4.4 che dim(SO(2)) = dim(U (1)) = 1. Ne vediamo ora un’altra dimostrazione: SO(2), U (1) e S 1 sono differenziabilmente isomorfi (vedi l’esempio 3.1 ed il teorema 3.1) e quindi, (vedi teorema 4.1), possiamo calcolare solo dim(S 1 ). Sia ora γ(t) = eif (t) con f (t) reale, differenziabile e tale che f (0) = 0 una curva in S 1 passante per 1. Si ha T (S 1 ) = {γ 0 (0) = if 0 (0)|}. Essendo ogni numero reale a la derivata in 0 della funzione (reale, differenziabile e passante per 0) f (t) = at segue che T (S 1 ) è tutto l’asse immaginario e quindi è isomorfo, come spazio vettoriale reale, a R. Dimostriamo ora la seconda parte. SU (2), S 3 e Sp(1) sono differenziabilmente isomorfi (vedi esempio 3.2). Sia ora γ(t) = x(t) + y(t)i + z(t)j + w(t)k con x(t)2 + y(t)2 + z(t)2 + w(t)2 = 1 e x(0) = 1, y(0) = z(0) = w(0) = 0 una curva passante per l’identità in Sp(1). Si nota che in x(0) = 1 la funzione x(t) ha un massimo e quindi x0 (0) = 0 (vedi anche l’esempio 4.4). Ne segue che γ 0 (0) = y 0 (0)i + z 0 (0)j + w0 (0)k. Allora T (Sp(1)) = {γ 0 (0)|γ(0) = 1} ⊂ R3 (dove R3 è visto come lo spazio vettoriale reale generato da i, j, k). Viceversa, R3 ⊂ T (Sp(1)) = {γ 0 (0)|γ(0) = 1} perchè, per ogni a, b, c reali, basta considerare la curva γ(t) (in Sp(1), perchè si vede subito che kγ(t)k2 = 1, con dominio di definizione un piccolo intervallo attorno a 0 dipendente da a, b, c in modo che 1 − a2 t2 − b2 t2 − c2 t2 > 0, differenziabile e passante per 1): √ γ(t) = 1 − a2 t2 − b2 t2 − c2 t2 + ati + btj + ctk e si ottiene proprio ai + bj + ck = γ 0 (0). Il seguente teorema fornisce un’altra giustificazione per l’uso del termine dimensione nella definizione 4.6. Teorema 4.3 dim GL(n, R) = n2 e dim GL(n, C) = 2n2 Prova. Siccome (come spazi vettoriali reali) dim Mn (R) = n2 e dim Mn (C) = 2n2 , basta dimostrare che ogni matrice di Mn può essere vista come la derivata in 0 di una curva in GL(n, R) (oppure GL(n, C)) passante per l’identità. Sia allora v ∈ Mn e si consideri, in un intervallo contenente lo zero, la curva σ : (a, b) → Mn definita da σ(t) = tv + I. Tale curva verifica σ(0) = I e σ 0 (0) = v. Il determinante è una funzione continua (si calcola solo con somme e prodotti) e quindi prendendo l’intervallo di definizione di σ abbastanza piccolo, possiamo essere certi che det σ(t) 6= 0 in quanto det σ(0) = 1. In altre parole una matrice che 4 SPAZIO TANGENTE ALL’IDENTITÀ 17 differisce di poco dall’identità è invertibile. Ci si può convincere di ciò anche dimostrando la formula seguente (ad esempio nel caso semplice di M2 (R)): det(I + εA) = 1 + εtr(A) + O(ε2 ) Si ricorda che tr(A) è la traccia della matrice A cioè la somma degli elementi presenti sulla diagonale principale. La dimostrazione del teorema 4.2, tutta basata su calcoli e costruzioni ad hoc non è per niente illuminante sulla struttura degli spazi tangenti, ma, a questo punto della trattazione non era forse possibile fare di meglio... 4.1 Matrici antisimmetriche e antihermitiane Definizione 4.9 Una matrice A ∈ Mn (R) è detta antisimmetrica se A + At = 0 (dove 0 è la matrice con tutti gli elementi nulli). Definizione 4.10 Una matrice A ∈ Mn (C) è detta antihermitiana se A + A∗ = 0. Definizione 4.11 so(n) = {A ∈ Mn (R)|A + At = 0} (notare che risulta sempre tr(A) = 0) Definizione 4.12 u(n) = {A ∈ Mn (C)|A + A∗ = 0} Definizione 4.13 su(n) = {A ∈ Mn (C)|A + A∗ = 0 e tr(A) = 0} Lemma 4.3 so(n) è un sottospazio vettoriale di Mn (R) di dimensione n(n−1) . 2 Prova. Se A, B ∈ so(n) segue che (A + B) + (A + B)t = (A + At ) + (B + B t ) = 0. Se a ∈ R e A ∈ so(n) segue che aA + (aA)t = a(A + At ) = 0. Per il calcolo della dimensione, basta osservare che ogni matrice antisimmetrica ha la diagonale tutta nulla e che gli elementi sotto la diagonale sono gli opposti di quelli sopra la diagonale (infatti A + At = 0 implica che Aij = −Aji e Aii = 0). Gli elementi indipendenti di una matrice con diagonale tutta nulla sono 2 2 n2 − n, di cui n 2−n stanno sopra la diagonale e n 2−n sotto. L’osservazione precedente mostra però che in una matrice antisimmetrica gli elementi sopra la diagonale determinano anche quelli 2 sotto la diagonale e quindi ne restano solo n 2−n indipendenti. Lemma 4.4 u(n) è un sottospazio vettoriale reale di Mn (C) di dimensione n2 e su(n) è un sottospazio vettoriale reale di Mn (C) di dimensione n2 − 1. Prova. Se A, B ∈ u(n) segue che (A + B) + (A + B)∗ = (A + A∗ ) + (B + B ∗ ) = 0. Se a ∈ R e A ∈ u(n) segue che aA + (aA)∗ = aA + āA∗ = a(A + A∗ ) = 0 (Notare che u(n) non è uno spazio vettoriale su C, perchè se a ∈ C − R si ha a 6= ā). Il caso di su(n) è totalmente analogo essendo la traccia una operazione lineare. Per il calcolo della dimensione, basta osservare che ogni matrice antihermitiana ha la diagonale tutta puramente immaginaria e che gli elementi sotto la diagonale sono gli opposti dei coniugati di quelli sopra la diagonale (infatti A + A∗ = 0 implica che Aij = −Āji e Aii + Āii = 0). Osserviamo ora che gli n2 − n numeri complessi che 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 18 individuano gli elementi indipendenti di una matrice complessa con diagonale tutta nulla, sono determinati da 2(n2 − n) numeri reali, di cui n2 − n stanno sopra la diagonale e n2 − n sotto. Sappiamo però che in una matrice antihermitiana gli elementi sopra la diagonale determinano anche quelli sotto la diagonale; agli n2 − n numeri reali rimasti indipendenti vanno però ancora aggiunti gli n numeri reali che individuano gli elementi puramente immaginari della diagonale. Nel caso di su(n) la traccia è nulla, e quindi gli elementi puramente immaginari sulla diagonale non sono tutti indipendenti, ma uno tra loro deve essere l’opposto della somma dei rimanenti, e questo fa calare di uno la dimensione reale. Possiamo ora enunciare un risultato preliminare che però inizia a mostrare l’importanza degli spazi vettoriali sopra definiti che appaiono in modo naturale in molte altre situazioni. Lemma 4.5 1. Se γ è una curva passante per l’identità in O(n) oppure in SO(n) allora γ 0 (0) ∈ so(n), cioè T (O(n)) ⊆ so(n) e T (SO(n)) ⊆ so(n). 2. Se γ è una curva passante per l’identità in U (n) allora γ 0 (0) ∈ u(n), cioè T (U (n)) ⊆ u(n). 3. In particolare, dim O(n) ≤ n2 −n , dim SO(n) 2 ≤ n2 −n , dim U (n) 2 ≤ n2 , Prova. In tutti i casi abbiamo (γγ ∗ )(t) = γ(t)γ ∗ (t) = I, per cui (γγ ∗ )0 (t) = 0. Dalla osservazione 4.1 si ottiene subito: (γγ ∗ )0 (0) = γ(0)γ ∗0 (0) + γ 0 (0)γ ∗ (0) = γ ∗0 (0) + γ 0 (0) = 0 Il punto 3 segue dai punti 1 e 2 e dai lemmi 4.3 e 4.4. Osservazione 4.3 Si noti che non abbiamo detto nulla su SU (n) (perchè ?). Per dimostrare che le disuguaglianze del punto 3 sono, in realtà, uguaglianze e trattare anche il caso di SU (n), avremo bisogno di altri concetti e risultati, la cui importanza va tuttavia molto oltre questo scopo. 5 Esponenziale, Logaritmo e Algebre di Lie Ad un gruppo di matrici G abbiamo associato, nel paragrafo precedente, uno spazio vettoriale: il suo spazio tangente T (G). In questa parte del corso studieremo gli spazi tangenti dei gruppi di matrici e ci occuperemo di un metodo per costruire un gruppo a partire da uno spazio vettoriale con particolari proprietà. Definizione 5.1 Sia A ∈ Mn (R) l’esponenziale della matrice A è la serie: eA = I + A + A2 /2 + A3 /3! + ..... Osservazione 5.1 La serie va interpretata nel senso che ∀i, j la matrice eA (quando esiste) ha componenti: eA ij = Iij + Aij + A2 /2 ij + A3 /3! ij + ..... 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 19 Osservazione 5.2 Fortunatamente, la matrice eA esiste sempre: Lemma 5.1 La serie eA = I + A + A2 /2 + A3 /3! + ... converge ad un elemento di Mn (R). Prova. Sia a = max{|Aij |}. Pensando di sostituire ogni elemento di A con a si ottiene: |Aij | ≤ a, A2 /2 ij ≤ na2 /2, ..., Ak /k! ij ≤ nk−1 ak /k!. Essendo n e a numeri fissati, il criterio del rapporto1 applicato alla successione dei maggioranti ci dice che la serie converge in modulo elemento per elemento, cioè per ogni i e j. Osservazione 5.3 Si può definire l’esponenziale anche di matrici complesse. Ci limitiamo a ricordare che una successione di numeri complessi zn si dice convergere a z se la successione di numeri reali |zn − z| → 0. Analogamente al caso reale, una serie di numeri complessi si dice convergente se converge la successione delle somme parziali. Una condizione sufficiente perchè una serie di numeri complessi converga è che converga, nel senso delle serie di numeri reali, la serie dei moduli (serie assolutamente convergenti). Teorema 5.1 1. Se AB = BA allora eA+B = eA eB . 2. eA ∈ GL(n, R). 3. eBAB −1 = BeA B −1 . Prova. Per convincersi del punto 1 basta guardare i primi termini: B 2 A3 A2 B AB 2 B 3 A2 + AB + + + + + + ... eA+B = I + A + B + 2 2 6 2 2 6 A2 A3 B2 B3 eA eB = I + A + + + ... I +B+ + + ... = eA+B 2 6 2 6 Il punto 2 segue dal punto 1: I = e0 = eA−A = eA e−A = e−A eA , e quindi eA è invertibile avendo un’inversa. Per il punto 3 basta ricordare che: n BAB −1 = BAn B −1 1 Sia ak una successione di termini positivi; se limk→∞ caso, ak = nk−1 ak /k! e quindi il limite vale 0. ak+1 ak < 1, allora la serie P ak converge. Nel nostro 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 20 Esempio 5.1 SO(2) = {eA con A ∈ so(2)}. Se A ∈ so(2) allora eA ∈ SO(2). Cioè: 0 −x cos x − sin x x 0 e = sin x cos x 2 2 3 4 0 x3 0 −x 0 −x −x 0 0 −x Basta calcolare = , = , = x 0 0 −x2 x 0 −x3 0 x 0 5 4 0 −x 0 −x5 x 0 , ... , applicare la definizione di esponenziale e ricordare , = x5 0 x 0 0 x4 gli sviluppi delle funzioni cos x e sin x : x2 x4 cos x = 1 − + − .... 2! 4! x 3 x5 sin x = x − + − .... 3! 5! Si osservi anche che ciò mostra esplicitamente che tutte le matrici di SO(2) (vedi esempio 3.1) si ottengono in questo modo. Osservazione 5.4 Notare che e0 = I, ma invece eA = I non implica A = 0. Ad esempio, 0 −2π 0 e 2π = I. Esempio 5.2 Se A ∈ so(n) allora eA ∈ O(n). Abbiamo infatti (A e At commutano perchè stiamo considerando matrici normali): t t I = e0 = eA+A = eA eA = eA (eA )t E’ bene notare esplicitamente cosa l’esempio non dice; non è vero che ogni matrice ortogonale 1 0 è esponenziale di una matrice antisimmetrica (infatti l’esempio 5.1 mostra che non 0 −1 si otterrà mai per esponenziazione). Si può anche definire il logaritmo di una matrice. Definizione 5.2 Sia A ∈ Mn (R) il logaritmo della matrice A è la serie: log A = (A − I) − (A − I)2 /2 + (A − I)3 /3 − (A − I)4 /4 + ..... Lemma 5.2 Per A vicino a I, la serie converge. Prova. Poniamo X = A − I e supponiamo che a = max{|Xij |}. Pensando di sostituire ogni elemento di X con a si ottiene: k 2 2 |Xij | ≤ a, X /2 ij ≤ na /2, ..., X /k ij ≤ nk−1 ak /k Essendo n e a numeri fissati, il criterio del rapporto applicato alla successione dei maggioranti ci dice che la serie converge in modulo elemento per elemento, cioè per ogni i e j, quando a < n1 . k k+1 Infatti nnak−1 a/k+1 → na, e quindi è < 1 per a < n1 . k /k 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 21 Le relazioni tra esponenziale e logaritmo sono proprio quelle che ci aspettiamo. Teorema 5.2 Dove le formule hanno senso, elog X = X e log eA = A. Cioè la mappa exp A = eA è invertibile per matrici vicine alla matrice 0. Analogamente la mappa log è invertibile per matrici vicino alla matrice I. Prova. Siccome le serie sono assolutamente convergenti, si possono riarrangiare i termini e quindi verificare le formule, esattamente come si fa nel caso delle funzioni di variabile reale ex e log x. Lemma 5.3 Dove le formule hanno senso, e se log A e log B commutano fra loro, si ha: log (AB) = log A + log B. Prova. elog(AB) = AB = elog A elog B = elog A+log B e quindi, prendendo i logaritmi, si ha la tesi. Osservazione 5.5 Considerata la mappa esponenziale: exp : Mn → Mn , il teorema 5.2 ci dice che l’esponenziale è una mappa suriettiva e iniettiva da un intorno della matrice 0 a un intorno della matrice I. Dimostremo ora alcune importanti formule relative all’esponenziale di una matrice qualsiasi, non necessariamente reale (vedi osservazione 5.3) Teorema 5.3 Sia A(t) una curva passante per l’identità in un gruppo di matrici. Allora: dA d det A = det A · tr(A−1 ) dt dt Prova. Indichiamo con Aij gli elementi di A, e con aij i loro complementi algebrici (i determinanti moltiplicati per (−1)i+j del minore ottenuto da A eliminando la riga i e la colonna j=n P aji j). E’ noto che: ∀i, det A = Aij aij e che (A)−1 ij = det A (notare lo scambio i ←→ j). Si j=1 ottiene quindi: ∂ det A ∂Aij = aij = (A)−1 ji det A. Allora: i,j=n X ∂ det A dAij i,j=n X d dAij dA(t) det A = · = det A · (A)−1 = det A · tr(A−1 ) ji dt ∂Aij dt dt dt i,j=1 i,j=1 Lemma 5.4 Sia A ∈ Mn e t un numero reale. Allora det etA = 1 ∀t se e solo se trA = 0. Prova. Siccome dtd etA = etA A, segue dal teorema 5.3 applicato alla curva etA : (il punto 2 del teorema 5.1 ci assicura che ciò si può fare) d detA det etA = det etA · tr(e−tA ) = det etA · tr(e−tA etA A) = det etA · trA dt dt Allora se trA = 0, det etA è una costante e, essendo uguale a 1 in t = 0, è sempre uguale a 1. Viceversa se det etA = 1 la stessa formula fornisce trA = 0. 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 22 Teorema 5.4 Per ogni matrice A ∈ Mn e per ogni numero reale t si ha: det etA = et(trA) . In particolare, det eA = etrA . Prova. La formula ricavata per la dimostrazione del lemma 5.4: d det etA = det etA · trA, dt può essere interpretata come una equazione differenziale: dx = trA · x con la condizione iniziale dt t(trA) tA x(0) = 1. Integrandola si ottiene x(t) = e , cioè det e = et(trA) Possiamo ora concludere il calcolo dello spazio tangente ai gruppi ortogonali e unitari. Lemma 5.5 1. Se A ∈ so(n) allora γ(t) = etA è una curva passante per l’identità in SO(n) e γ 0 (0) = A, cioè so(n) ⊆ T (SO(n)) 2. Se A ∈ u(n) allora γ(t) = etA è una curva passante per l’identità in U (n) e γ 0 (0) = A, cioè u(n) ⊆ T (U (n)) 3. Se A ∈ su(n) allora γ(t) = etA è una curva passante per l’identità in SU (n) e γ 0 (0) = A, cioè su(n) ⊆ T (SU (n)) 4. In particolare, dim O(n) ≥ n2 −n , dim SO(n) 2 ≥ n2 −n , dim U (n) 2 Prova. Chiaramente γ(0) = e0 = I e γ 0 (0) = limt→0 ∗ etA −I t ≥ n2 , dim SU (n) ≥ n2 − 1. = A. Inoltre: ∗ γ(t)γ(t)∗ = etA etA = et(A+A ) = I E quindi γ(t) è una curva passante per l’identità in un gruppo ortogonale o unitario. Ricordando inoltre (vedi teorema 5.4) che det etA = et(trA) , si trova che nei casi 1 e 3, (dove trA = 0), la curva è tutta in SO(n) e SU (n) rispettivamente. Teorema 5.5 (Le seguenti uguaglianze rappresentano isomorfismi di spazi vettoriali reali). 1. T (O(n)) = T (SO(n)) = so(n). 2. T (U (n)) = u(n). 3. T (SU (n)) = su(n). 4. In particolare, dim SO(n) = dim O(n) = n(n−1) , dim U (n) 2 = n2 e dim SU (n) = n2 − 1. Prova. I lemmi 4.5 e 5.5 forniscono immediatamente i punti 1 e 2. Per il punto 3, si deve prima di tutto osservare che se γ(t) è una curva passante per l’identità in SU (n) allora γ 0 (0) ∈ su(n). Infatti det γ(t) = 1 per cui (vedi teorema 5.3): dtd det γ = tr(γ −1 dγ ) = 0, e quindi dt 0 per t = 0 si ottiene trγ (0) = 0, e quindi T (SU (n)) ⊂ su(n) e allora dim SU (n) ≤ n2 − 1. Questo permette di concludere la dimostrazione, perchè per il lemma 5.5 dim SU (n) ≥ n2 − 1. 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 23 Osservazione 5.6 Si noti che dim SO(3) = dim SU (2) = 3 (so(3) e su(2) sono infatti spazi vettoriali isomorfi). Per quanto ne sappiamo fino ad ora SO(3) e SU (2) potrebbero quindi essere gruppi isomorfi. In realtà non lo sono (hanno il centro diverso, Z(S(U 2)) il centro di SU (2) è costituito dalle matrici I e −I, mentre il centro di SO(3) è la sola matrice I (vedi gli esercizi più sotto) e questo fatto suggerisce che si debba approfondire lo studio in varie direzioni. Esercizio 5.1 Sia U (2) il gruppo delle matrici 2 × 2 unitarie, iα e 0 con α, β ∈ R T = 0 eiβ è un sottogruppo di U (2) isomorfo a U (1)×U (1). T è massimale, cioè ogni sottogruppo abeliano che lo contiene coincide con lui. iα e 0 Z(U (2)) = , α ∈ R = U (1) 0 eiα ±1 0 Z(SU (2)) = = Z2 . 0 ±1 Inoltre si ha: U (2) U (1) = SU (2) . Z2 Prova. Le matrici di T appartengono a U (2) perchè iα −1 −iα iα t e 0 e 0 e 0 = = 0 eiβ 0 e−iβ 0 eiβ L’isomorfismo richiesto è: eiα 0 0 eiβ → (eiα , eiβ ) Se A ∈ A ⊂U (2) con A abeliano e contenente T, A deve, in particolare, commutare con ogni matrice di T. Si ottiene quindi, ∀α, β: iα iα a b e 0 e 0 a b = c d 0 eiβ 0 eiβ c d iα ae beiβ aeiα beiα = ⇔b=c=0 iα iβ ceiβ deiβ ce de Ma A ∈ U (2) e quindi deve essere anche aā = dd¯ = 1 e quindi A ∈ T. Per trovare il centro di U (2) si osservi che, dal calcolo precedente, Z(U (2)) ⊂ T , infatti gli elementi del centro devono commutare con tutti gli elementi di U (2) e quindi, in particolare, con gli elementi di T. ora che una matrice di T, per essere nel centro, deve commutare anche con Osserviamo 0 1 ∈ U (2) e quindi si ha: −1 0 iα 0 1 e 0 0 eiβ = −1 0 0 eiβ −eiα 0 iα e 0 0 1 0 eiα = 0 eiβ −1 0 −eiβ 0 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 24 eiα 0 Cioè α = β. Osservato che le matrici del tipo commutano con tutte le matrici, si 0 eiα vede che non ci sono altre condizioni da imporre. Si ottiene quindi: iα e 0 Z(U (2)) = , α ∈ R = U (1) 0 eiα Il centro di SU (2) si trova ovviamente imponendo alle matrici del centro di U (2) l’ulteriore condizione che il determinante valga 1 : ±1 0 Z(SU (2)) = = Z2 0 ±1 Sia ora A ∈ U (2) e indichiamo con ±eiα/2 le due radici complesse di det A = eiα . L’applicazione ϕ : U (2) → SUZ2(2) data da ϕ(A) = eiα/2 A è ben definita in SUZ2(2) , dove con le parentesi quadre abbiamo denotato la classe di equivalenza in SUZ2(2) , infatti la scelta del segno della radice è ininfluente perchè eiα/2 A = −eiα/2 A . L’applicazione è un omomorfismo iα/2 ed è anche ovviamente suriettivo. Il suo nucleo è dato dallematrici A per cui ϕ(A) = ±e A = [±I] e −iα/2 e 0 quindi dalle matrici del tipo , α ∈ R = U (1). Il teorema di isomorfismo −iα/2 0 e (2) consente quindi di concludere che: UU (1) = SUZ2(2) Esercizio 5.2 Sia SO(3) il gruppo delle matrici 3 × 3 unitarie, cos t − sin t 0 T = sin t cos t 0 t ∈ R 0 0 1 è un sottogruppo di SO(3) isomorfo a SO(2). T è massimale, cioè ogni sottogruppo abeliano che lo contiene coincide con lui e Z(SO(3)) = I. Prova. L’isomorfismo richiesto è ovviamente: cos t − sin t 0 sin t cos t 0 → cos t − sin t sin t cos t 0 0 1 Se A ∈ A ⊂SO(3) con A abeliano e contenente T, A deve, in particolare, commutare con ogni matrice di T. Considerata la base canonica di R3 , T induce tutte le rotazioni del piano e1 , e2 . 2 2 2 Dimostriamo che Ae3 = ±e3 . Infatti posto Ae3 = ae1 + be2 + ce3 (con a + b + c = 1) 0 −1 0 consideriamo la matrice B = 1 0 0 ∈ T. Si ottiene subito: Be1 = e2 , Be2 = −e1 e 0 0 1 Be3 = e3 . Imponendo la commutatività ABe3 = BAe3 si ottiene subito c = ±1. La matrice A induce quindi una trasformazione ortogonale nel piano e1 , e2 che commuta con tutte le rotazioni 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 25 di questo piano. Il caso c = −1 però è escluso perchè è immediato che una matrice di O(2) che commuta con tutte le matrice di SO(2) deve appartenere a SO(2) e quindi c = 1 perchè altrimenti il determinante di A varrebbe −1. Abbiamo quindi A ∈ T. Per trovare il centro di SO(3) si osservi che, dal calcolo precedente, Z(SO(3)) ⊂ T , infatti gli elementi del centro devono commutare con tutti gli elementi di SO(3) e quindi, in particolare, con gli elementi di ora che una matrice di T, per essere nel centro, deve commutare anche con T. Osserviamo 0 0 1 0 1 0 ∈ SO(3) e quindi si ha: −1 0 0 0 0 1 cos t − sin t 0 0 0 1 0 1 0 sin t cos t 0 = sin t cos t 0 −1 0 0 0 0 1 − cos t sin t 0 cos t − sin t 0 0 0 1 0 − sin t cos t sin t cos t 0 0 1 0 = 0 cos t sin t 0 0 1 −1 0 0 −1 0 0 Cioè t = 0 e quindi A = I. Osservazione 5.7 Mostreremo in seguito (vedi teorema 6.8 ) che SU (2) Z2 = SO(3). Osservazione 5.8 Gli spazi vettoriali reali so(n) e su(n) non sono chiusi rispetto al prodotto righe × colonne dei loro elementi. Si può tuttavia introdurre in essi una operazione interna, chiamata commutatore, che gode di tutte le proprietà sensate del prodotto salvo l’associatività. Definizione 5.3 Indicando come al solito con T (G) lo spazio tangente di un gruppo ortogonale o unitario G, siano A e B due suoi elementi. Si definisce commutatore di A e B la matrice: [A, B] = AB − BA Lemma 5.6 Siano A, B, C ∈ T (G), il commutatore gode delle seguenti proprietà: 1. [A, B] ∈ T (G) 2. [A, B] = −[B, A] 3. [A, B + C] = [A, B] + [A, C] 4. [A + B, C] = [A, C] + [B, C] 5. ∀a ∈ R, [aA, B] = [A, aB] = a[A, B] 6. [A, [B, C]] + [C, [A, B]] + [B, [C, A]] = 0 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 26 Prova. Per il punto 1 si deve provare che: (AB − BA) + (AB − BA)∗ = AB − BA + B ∗ A∗ − A∗ B ∗ = 0 Basta scrivere: AB − BA + B ∗ A∗ − A∗ B ∗ = AB + (AB ∗ − AB ∗ ) − BA + (BA∗ − BA∗ ) + B ∗ A∗ − A∗ B ∗ = = A (B + B ∗ ) − (A + A∗ ) B ∗ + (B + B ∗ ) A∗ − B (A + A∗ ) = 0 Nel caso di su(n) occorre anche ricordarsi che, per ogni matrice, tr(AB) = tr(BA) e quindi tr[A, B] = tr (AB − BA) = tr (AB) − tr (BA) = 0. Gli altri punti sono tutte banali verifiche basate solo sull’uso della definizione. Osservazione 5.9 La formula del punto 6 è detta identità di Jacobi, e sostituisce l’associatività per il prodotto A ◦ B = [A, B]: A ◦ (B ◦ C) − (A ◦ B) ◦ C = (A ◦ C) ◦ B e non = 0 Osservazione 5.10 Nel punto 5 è essenziale che a ∈ R, parliamo qui solo di Algebre di Lie reali. Definizione 5.4 Un qualsiasi spazio vettoriale reale V, dotato di un prodotto interno (denotato con [ , ]V anche nel caso astratto in cui lo spazio vettoriale non sia un sottospazio di Mn ) che soddisfa le proprietà da 2 a 6 del lemma 5.6 è detto Algebra di Lie. Definizione 5.5 Un omomorfismo di algebre di Lie è una applicazione lineare ϕ tra i corrispondenti spazi vettoriali: ϕ:V →W che, inoltre, verifica: ϕ[A, B]V = [ϕ (A) , ϕ (B)]W Osservazione 5.11 Spazi vettoriali isomorfi come spazi vettoriali possono benissimo non essere isomorfi come Algebre di Lie. In altre parole, non tutti gli isomorfismi di spazi vettoriali sono isomorfismi di Algebre di Lie. (vedi l’esempio 5.4) 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 5.1 27 Algebre di Lie reali di dimensione due In questo paragrafo denoteremo di verse strutture di algebre di Lie sullo stesso spazio vettoriale con la notazione: [, ]0 , [, ]1 , [, ]2 . Sia V = R2 con base e1 e e2; a parte la struttura di algebra di Lie banale: [e1 , e2 ]0 = [e1 , e1 ]0 = [e1 , e2 ]0 = 0 (1) [e1 , e1 ]1 = [e1 , e2 ]1 = 0 [e1 , e2 ]1 = ae1 + be2 = − [e2 , e1 ]1 (2) (3) In generale si deve avere: con a, b reali e non entrambi nulli. L’identità di Jacobi è automaticamente soddisfatta. Possiamo supporre, senza perdita di generalità, che b 6= 0. Definiamo ora un endomorfismo ϕ di V : la matrice associata: ϕ(e1 ) = be1 (4) 1 ϕ(e2 ) = −ae1 + e2 b (5) b −a 0 1b (6) è invertibile e quindi ϕ è un isomorfismo di spazi vettoriali. Mostriamo ora che è anche un isomorfismo di algebre di Lie tra la struttura data da [e1 , e2 ]1 = ae1 + be2 e la struttura con prodotto di Lie dato da [e1 , e2 ]2 = e2 . Si ha infatti: ϕ [e1 , e2 ]1 = ϕ (ae1 + be2 ) = abe1 − abe1 + e2 = e2 b 1 [ϕ (e1 ) , ϕ (e2 )]2 = be1 , −ae1 + e2 = −ab [e1 , e1 ] + [e1 , e2 ]2 = e2 b b 2 (7) (8) Ovvero: ϕ [e1 , e2 ]1 = [ϕ (e1 ) , ϕ (e2 )]2 (9) Abbiamo quindi dimostrato che, a meno di isomorfismi di algebre di Lie, su R2 ci sono solo due strutture di algebra di Lie: [e1 , e2 ]0 = [e1 , e1 ]0 = [e1 , e2 ]0 = 0 (10) [e1 , e1 ]2 = [e1 , e2 ]2 = 0 [e1 , e2 ]2 = e2 = − [e2 , e1 ]2 (11) (12) Queste due algebre di Lie ammettono, come ogni algebra di Lie (teorema di Ado), una rappresentazione (ovviamente non unica!) in cui gli elementi di R2 sono matrici, e la parentesi di Lie è il commutatore. 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 28 L’algebra con parentesi [, ]0 è rappresentata, ad esempio, da: 1 0 0 0 0 0 e1 = , e2 = ,0 = 0 0 0 0 0 1 (13) infatti: 1 0 0 0 0 0 1 0 0 0 [e1 , e2 ]0 = − = =0 0 0 0 1 0 1 0 0 0 0 x 0 2 Ovvero il punto (x, y) ∈ R è rappresentato dalla matrice . 0 y L’algebra [, ]2 è rappresentata, ad esempio, da: 1 0 0 1 0 0 e1 = , e2 = ,0 = 0 0 0 0 0 0 infatti: (14) (15) 0 1 0 1 1 0 0 1 [e1 , e2 ]0 = − = = e2 (16) 0 0 0 0 0 0 0 0 x y 2 Ovvero il punto (x, y) ∈ R è rappresentato dalla matrice . 0 0 Possiamo anche identificare due gruppi di matrici di dimensione due tali che il loro spazio tangente sia isomorfo, come algebra di Lie, alle due algebre descritte sopra. Per l’algebra banale [, ]0 si ha: x 0 ∗ G= con x, y ∈ R > 0 (17) 0 y 1 0 0 0 Mentre per [, ]2 si ha: H= x y 0 1 ∗ con x > 0 ∈ R e y ∈ R (18) Infatti: 0 0 0 x (0) 0 TG = con x (0), y (0) ∈ R 0 0 y (0) 0 0 0 0 x (0) y (0) TH = con x (0) ∈ R e y (0) ∈ R 0 0 Possiamo verificare che, in entrambi i casi, la mappa esponenziale è suriettiva. Nel primo caso si ha: x 0 x e 0 0 y e = 0 ey (19) (20) (21) 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 29 a 0 ln a 0 e quindi, se ∈ G (e allora a, b > 0) esiste un elemento dell’algebra A = 0 b 0 ln b per cui: a 0 A e = (22) 0 b Nel secondo caso, invece, si ha: x y 1 e 0 0 = 0 x e = 0 1 xn xn−1 y 1 x2 xy 0 x y + ... + + ... + + 0 1 0 0 2 0 0 n! 0 y(1 + 21 x + 3!1 x2 + ... + n!1 xn−1 + ...) 1 (23) (24) Osserviamo ora che, se x 6= 0, abbiamo: 1 ex − 1 1 1 (1 + x + x2 + ... + xn−1 + ...) = 2 3! n! x (25) e allora: x y ex e 0 0 = 0 y x (e x − 1) 1 se x 6= 0 (26) 0 y 1 y 0 0 e = 0 1 ln a a b Se allora ∈ H (con a > 0) se a 6= 1 esiste un elemento dell’algebra A = 0 1 0 per cui: a b A e = 0 1 Mentre se a = 1 si ha: (27) b a−1 ln a 0 (28) 0 b 1 b 0 0 e = 0 1 (29) E quindi anche in questo caso l’esponenziale è suriettivo come mappa tra lo spazio tangente e il gruppo. la classificazione delle algebre di Lie reali di dimensione tre è già molto più complicata e ci limitiamo qui a dare alcuni esempi di algebre di Lie tridimensionali non banali e non isomorfe tra loro. 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 5.2 30 Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1)) Esempio 5.3 In questo reale so(3) è: 0 A1 = 0 0 esempio studiamo so(3) e su(2). Una base dello spazio vettoriale 0 0 0 0 1 0 −1 0 0 −1 , A2 = 0 0 0 , A3 = 1 0 0 . 1 0 −1 0 0 0 0 0 E’ facile verificare che la sua struttura di Algebra di Lie è data da: [A1 , A2 ] = A3 , [A2 , A3 ] = A1 , [A3 , A1 ] = A2 . Una base dello spazio vettoriale reale su(2) è: i 0 0 1 0 i U1 = , U2 = , U3 = . 0 −i −1 0 i 0 E’ facile verificare che la sua struttura di Algebra di Lie è data da: [U1 , U2 ] = 2U3 , [U2 , U3 ] = 2U1 , [U3 , U1 ] = 2U2 . Un isomorfismo di Algebre di Lie (e non solo di spazi vettoriali) è dato da: ϕ(Ui ) = 2Ai . Infatti, ad esempio, ϕ[U1 , U2 ]su(2) = ϕ(2U3 ) = 2ϕ(U3 ) = 4A3 ϕ[U3 , U1 ]su(2) = ϕ(2U2 ) = 2ϕ(U2 ) = 4A2 ϕ[U2 , U3 ]su(2) = ϕ(2U1 ) = 2ϕ(U1 ) = 4A1 ed anche: [ϕ (U1 ) , ϕ (U2 )]so(3) = [2A1 , 2A2 ]so(3) = 4 [A1 , A2 ]so(3) = 4A3 ed analoghe. Per cui: ϕ[Ui , Uj ]su(2) = [ϕ (Ui ) , ϕ (Uj )]so(3) . Esempio 5.4 (Un non esempio) L’isomorfismo ovvio ϕ(Ui ) = Ai non è un isomorfismo di Algebre di Lie (perchè?). Esempio 5.5 Esponenziale degli elementi della base di so(3) e sottogruppi abeliani a un parametro di SO(3). Posto (vedi lemma 5.5 ed esempio 5.1): Ri (t) = etAi , 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 31 si verifica facilmente che: 1 0 0 cos t 0 sin t cos t − sin t 0 1 0 , R3 (t) = sin t cos t 0 . R1 (t) = 0 cos t − sin t , R2 (t) = 0 0 sin t cos t − sin t 0 cos t 0 0 1 e che gli Ri = {Ri (t), t ∈ R} sono sottogruppi abeliani a un parametro di SO(3) (isomorfi x a SO(2)). Le matrici di Ri operano sui vettori di R3 , rappresentati da y come rotazioni z in senso antiorario attorno, rispettivamente, R1 all’asse x, R2 all’asse y, R3 all’asse z. E’ noto dall’algebra lineare (vedi più sotto anche l’esempio 6.2) che per ogni matrice R di SO(3) esiste in R3 una base ortonormale in cui R = B −1 AB, con A ∈ R3 e B ∈ O(3). Ricordando che A ∈ R3 significa che A = etA3 per un certo t, ed il punto 3 del teorema 5.1, si ottiene −1 R = B −1 etA3 B = etB A3 B . Essendo B −1 = B t si verifica facilmente che B −1 A3 B ∈ so(3), cioè l’esponenziale è suriettivo in grande: ogni matrice di SO(3) è ottenuta esponenziando una matrice di so(3). Esempio 5.6 In questo esempio definiamo e studiamo i gruppi SL(2, R) e SO(2, 1) e le loro algebre di Lie. Dimostreremo che sono tridimensionali e isomorfe fra loro, e che non sono isomorfe alle algebre studiate nell’esempio precedente. Il gruppo SL(2, R) è definito come l’insieme delle matrici reali 2 × 2 con determinante uguale a 1. L’algebra di Lie di SL(2, R) è lo spazio sl(2, R) delle matrici reali 2 × 2 con traccia nulla. Infatti una curva in SL(2, R) è data da una matrice a(t) b(t) A(t) = c(t) d(t) con det A(t) = 1 e a(0) = d(0) = 1 e b(0) = c(0) = 0. Quindi un vettore tangente nell’origine 0 0 a (0) b (0) è dato da una matrice del tipo e quindi T (SL(2, R)) ⊆ sl(2, R). Viceversa, c0 (0) −a0 (0) a b t a b la matrice è il vettore tangente alla curva e c −a che appartiene tutta a c −a SL(2, R) perchè a b a b t ttr c −a = 1 det e c −a = e e quindi sl(2, R) ⊆ T (SL(2, R)) . Sia ora B : R3 × R3 → R3 la forma bilineare simmetrica non degenere di segnatura (2, 1) data da B(x, y) = x1 y1 + x2 y2 − x3 y3 . La matrice associata a B nella base standard di R3 è: 1 0 0 Q= 0 1 0 0 0 −1 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 32 Il gruppo SO(2, 1) è l’insieme delle matrici reali 3 × 3 con determinante 1 che conservano B, ovvero A ∈ SO(2, 1) se e solo se det A = 1 e B(Ax, Ay) = B(x, y) per ogni coppia di vettori x e y in R3 . Si verifica facilmente che A conserva B se e solo se AT QA = Q. L’algebra di Lie del gruppo SO(2, 1) è lo spazio so(2, 1) delle matrici 3×3 reali X che soddisfano X T Q + QX = 0. Questa identità implica che le matrici di so(2, 1) sono tutte e sole le matrici del tipo 0 a b X = −a 0 c con a, b, c ∈ R b c 0 Una curva A(t) in SO(2, 1) verifica A(t)T QA(t) = Q e A(0) = I. La derivata A0 (0) verifica allora A0 (0)T Q + QA0 (0) = 0. Viceversa ogni matrice tale che X T Q + QX = 0 è la derivata in zero di una curva in SO(2, 1). Posto A(t) = etX si ha infatti: det etX = ettrX = 1 perchè trX = 0; inoltre si ha: −1 X T Q T Q−1 etX Q = etQ = e−tX (perchè Q2 = I) e quindi: T etX QetX = Qe−tX etX = Q Si ha poi il seguente fatto: le due algebre di Lie so(2, 1) e sl(2, R) sono isomorfe tra loro e non sono isomorfe a so(3) = su(2). Prova. Innanzi tutto osserviamo che le due algebre di Lie sono entrambe di dimensione 3 e che quindi sono isomorfe come spazi vettoriali. Una base di so(2, 1) è data da 0 1 0 0 0 1 0 0 0 H = −1 0 0 , X = 0 0 0 , Y = 0 0 1 . 0 0 0 1 0 0 0 1 0 Calcoliamo le parentesi di Lie tra queste matrici. Ad esempio 0 1 0 0 0 1 0 0 1 0 1 0 [H, X] = −1 0 0 0 0 0 − 0 0 0 −1 0 0 = −Y 0 0 0 1 0 0 1 0 0 0 0 0 Analogamente si verifica che [H, Y ] = X e [X, Y ] = H. 5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 33 Ora confrontiamo questo risultato con quello che accade su sl(2, R). Una base (molto usata) di sl(2, R) è data da 1 0 0 1 0 0 L= , M= , N= . 0 −1 0 0 1 0 Si calcola facilmente che le parentesi di Lie sono date da [L, M ] = 2M, [L, N ] = −2N, [M, N ] = L. Non pare esserci molta somiglianza tra queste relazioni e quelle trovate tra H, X e Y . Tuttavia notiamo che la matrice M − N assomiglia a H. Proviamo quindi come nuova base H 0 = M − N , X 0 = L e Y 0 = M + N . Si ottiene: [H 0 , X 0 ] = [M − N, L] = 2M + 2N = −2Y 0 , [H 0 , Y 0 ] = [M − N, M + N ] = 2L = 2X 0 , [X 0 , Y 0 ] = [L, M + N ] = 2M − 2N = 2H 0 . (30) (31) A parte le costanti moltiplicative queste relazioni sono quasi identiche a quelle tra H, X e Y . Infatti se ora prendiamo l’applicazione lineare ϕ tra so(2, 1) e sl(2, R) data da H0 2 X0 X 7→ 2 Y0 Y 7→ 2 H 7→ si vede subito che ϕ conserva le parentesi di Lie. Osserviamo ora che sl(2, R) non può essere isomorfa a so(3); infatti dalle relazioni di commutazione di so(3) si vede che la parentesi di Lie di due vettori tangenti indipendenti è indipendente da questi (l’algebra è isomorfa a quella del prodotto vettoriale), mentre in sl(2, R) questo non è vero in generale (ad esempio [L, M ] = 2M ). 5.3 Sottogruppi ad un parametro Definizione 5.6 Un sottogruppo a un parametro in un gruppo di matrici G è l’immagine di un omomorfismo differenziabile ϕ : ϕ: R→G Osservazione 5.12 Con abuso di notazione spesso ϕ stesso si dice sottogruppo a un parametro, tali sottogruppi sono abeliani, infatti ϕ(t)ϕ(s) = ϕ(t + s) = ϕ(s + t) = ϕ(s)ϕ(t) 6 CONSIDERAZIONI TOPOLOGICHE 34 Osservazione 5.13 Si noti che perconoscere definirlo in un piccolo intorno di t = 0, n ϕ basta 1 1 infatti, ∀t ∈ R, e per ogni intero n, ϕ( n t) = ϕ(n n t) = ϕ(t) e quindi ϕ( n1 t) determina ϕ(t). Esempio 5.7 ϕ(t) = etA con A matrice n × n è un sottogruppo a un parametro di GL(n, R) e ϕ0 (0) = A. Questo esempio è, in un certo senso, generale: Teorema 5.6 Sia ϕ(t) un sottogruppo a un parametro di GL(n, R), allora esiste una matrice A tale che ϕ(t) = etA . Prova. Per l’osservazione 5.13 basta limitarsi a un piccolo intorno di t = 0. Poniamo α(t) = log ϕ(t); questa è una curva in Mn e ϕ(t) = eα(t) . Sia α0 (0) = A. Vogliamo mostrare che α(t) = tA. Infatti, per ogni t si ha: α(t + s) − α(t) log ϕ(t + s) − log ϕ(t) log [ϕ(t)ϕ(s)] − log ϕ(t) = lim = lim = s→0 s→0 s s s log ϕ(t) + log ϕ(s) − log ϕ(t) log ϕ(s) − log ϕ(0) = lim = α0 (0) = A = lim s→0 s→0 s s α0 (t) = lim s→0 Dove abbiamo usato il fatto che logϕ(0) = log I = 0 e che ϕ(t) e ϕ(s) commutano fra loro (vedi lemma 5.3. Si ha allora la tesi: α(t) = tA. Teorema 5.7 C’è corrispondenza biunivoca tra i vettori tangenti a GL(n, R) e i suoi sottogruppi a un parametro. Prova. Sappiamo già che ogni matrice n × n è un vettore tangente a GL(n, R) e viceversa (vedi 4.3), e abbiamo già osservato che ad ogni matrice corrisponde un sottogruppo a un parametro. Il teorema 5.6 dimostra anche che ad ogni sottogruppo corrisponde un vettore tangente. Osservazione 5.14 Lo stesso è ovviamente vero anche per GL(n, C). Osservazione 5.15 Il teorema è facilmente dimostrabile anche per SO(n), O(n), U (n) e SU (n). Basta osservare che a ogni vettore tangente A ad uno dei gruppi citati corrisponde il sottogruppo etA e che questo sottogruppo (vedi la dimostrazione del lemma 5.5) è sottogruppo dei gruppi citati. Viceversa ad ogni sottogruppo dei gruppi citati corrisponde un vettore tangente ai gruppi citati (vedi teorema 5.6 e lemma 4.5). 6 6.1 Considerazioni topologiche Connessione e suriettività dell’esponenziale Ricordando che i gruppi di matrici sono sottoinsiemi di qualche Rn che sono spazi metrici, ad esempio con l’usuale distanza euclidea d, è chiaro che sono essi stessi spazi metrici. 6 CONSIDERAZIONI TOPOLOGICHE 35 Definizione 6.1 Sia G un gruppo di matrici, la componente connessa con l’identità, (indicata con G0 ) è l’insieme degli elementi di G che possono essere connessi all’identità tramite una curva (continua e tutta contenuta in G). In altre parole, g ∈ G0 se e solo se esiste una curva γ continua e tale che: γ(t) ∈ G, γ(0) = I, γ(1) = g. Definizione 6.2 G è connesso se G0 = G. Osservazione 6.1 Questa definizione di connessione è quella che in topologia è usualmente chiamata connessione per archi. Teorema 6.1 G0 è un sottogruppo normale di G. Il quoziente G/G0 ≡ π0 (G) è detto gruppo delle componenti connesse di G. Prova. Dati h, k ∈ G0 indicheremo con h(t) e k(t), rispettivamente, le curve tali che: h(0) = k(0) = I e h(1) = h, k(1) = k G0 è un sottogruppo perchè la curva g(t) = h(t)k(t) è tale che g(0) = I e g(1) = hk; inoltre la curva g(t) = (h(t))−1 è tale che g(0) = I e g(1) = h−1 . E’ anche normale, perchè ∀a ∈ G e h ∈ G0 , la curva g(t) = ah(t)a−1 verifica g(0) = I e g(1) = aha−1 e quindi aha−1 ∈ G0 . Esempio 6.1 GL(n, R) non è connesso. Il determinante è una applicazione continua e suriettiva da GL(n, R) a R∗ , per cui se GL(n, R) fosse connesso, lo sarebbe anche R∗ , che però, ovviamente, non lo è. Dimostreremo in seguito che GL0 (n, R) = {A| det A > 0}, e quindi π0 (GL(n, R)) contiene due elementi, rappresentati rispettivamente dalle matrici con determinante positivo o negativo. Osservazione 6.2 Nel caso di GL(n, C) il ragionamento precedente non si applica. Questa osservazione però non è una dimostrazione del fatto (vedi più sotto) che GL(n, C) è connesso. Osservazione 6.3 O(n) non è connesso. Anche qui basta considerare il determinante; può essere solo 1 o −1 e quindi una curva continua tutta contenuta in O(n) non può connettere I e una matrice di O(n) con determinante −1 (il determinante dovrebbe passare per il valore zero). Osservazione 6.4 Nel caso di SO(n) il ragionamento precedente non si applica. Questa osservazione però non è una dimostrazione del fatto che SO(n) è connesso (vedi più sotto), anzi, è proprio la componente connessa con l’identità di O(n). Esempio 6.2 SO(3) è connesso. (Vedi anche esempio 5.5) Prova. Vogliamo mostrare che ogni elemento di SO(3) è connesso all’identità da una curva tutta contenuta in SO(3). Dimostriamo prima di tutto che per ogni matrice R di SO(3) esiste in R3 una base ortonormale in cui R = B −1 AB, con A ∈ R3 e B ∈ O(3). 6 CONSIDERAZIONI TOPOLOGICHE 36 • R ∈ SO(n) con n dispari, ammette sempre l’autovalore 1; basta calcolare: det(R − I) = det(R − RRt ) = det R det(I − Rt ) = det(I − R) = (−1)n det(R − I) Si ottiene quindi det(R − I) = 0. • V , l’autospazio dell’autovalore 1, non può avere dimensione 2. Infatti se ha dimensione 2, siano u, v ∈ V di lunghezza 1 e ortogonali tra loro, e sia w ∈ V 0 (il complemento ortogonale di V ) anch’esso di lunghezza 1. Si ottiene: (Rw, u) = (Rw, Ru) = (w, u) = 0 e (Rw, v) = (Rw, Rv) = (w, v) = 0. Ne segue allora Rw ∈ V 0 , (cioè il sottospazio V 0 è invariante sotto R) ma la dimensione di V 0 è 1 e quindi Rw = ±w (si ricordi che gli autovalori possibili per R sono solo ±1). Il caso −1 è impossibile perchè allora la matrice R avrebbe come autovalori 1, 1, −1 e quindi il suo determinante non potrebbe essere uguale a 1. Nel caso +1, seguirebbe che V ha dimensione 3, e quindi V 0 sarebbe ridotto al solo vettore nullo. • Se V ha dimensione 3 non c’è nulla da dimostrare: nella base u, v, w si ha R = I. • Nel caso in cui V ha dimensione 1, V 0 ha dimensione 2. Sia u, v, w una base ortonormale di R3 = V 0 ⊕ V . In questa base, essendo V 0 è invariante sotto R, la matrice R assume la forma (abbiamo indicato con B ∈ O(3) la matrice di passaggio dalla base canonica di R3 alla base u, v, w): a b 0 A = BRB −1 = c d 0 . 0 0 1 a b cos α − sin α Essendo A ortogonale e di determinante 1, deve essere = (con c d sin α cos α α 6= 0) e quindi: R = B −1 AB = B −1 eαA3 B • Il gruppo SO(3) è quindi connesso perchè la curva: (vedi esempio 5.5) γ(t) = B −1 etαA3 B = etB −1 αA 3B ∈ SO(3) e verifica γ(0) = I e γ(1) = R. Osservazione 6.5 La curva costruita sopra è un sottogruppo a un parametro: abbiamo mostrato che SO(3) non solo è connesso, ma è anche connesso per sottogruppi a un parametro. Osservazione 6.6 Gli esempi 5.1 e 5.5 ci mostrano che la mappa esponenziale è suriettiva in grande. Ogni matrice di SO(2) e ogni matrice di SO(3) si ottengono quindi per esponenziazione di matrici di so(2) e so(3) rispettivamente. Dimostreremo più sotto che lo stesso è vero per SO(n). 6 CONSIDERAZIONI TOPOLOGICHE 37 Osservazione 6.7 Ricordiamo che la mappa esponenziale è anche iniettiva in piccolo, perchè in un intorno della matrice 0 ha un’inversa (il logaritmo), ma non può essere iniettiva in grande, perchè altrimenti SO(2) e SO(3) sarebbero diffeomorfi (tramite exp) ai loro spazi tangenti e questo è ovviamente falso perchè SO(2) e SO(3) sono compatti (nella usuale topologia metrica) mentre i loro spazi tangenti, essendo spazi vettoriali, non lo sono certamente. Esempio 6.3 SU (2) e U (2) sono connessi (per sottogruppi a un parametro). In particolare la mappa esponenziale è suriettiva in grande. Prova. Mostriamo che ogni elemento R di SU (2) è connesso all’identità da un sottogruppo a un parametro di SU (2) . Sappiamo che R ∈ SU (2), essendo normale, è diagonalizzabile tramite matrici unitarie e che una sua forma diagonale D è (vedi teorema 3.4; per la definizione di U1 vedi esempio 5.3): D = U RU ∗ con U ∈ U (2). D= eiα 0 0 e−iα =e iα 0 0 −iα = eαU1 ∗ Essendo R = U ∗ DU = U ∗ eαU1 U = eαU U1 U , abbiamo che il sottogruppo a un parametro ∗ R(t) = etαU U1 U soddisfa R(t)R(t)∗ = I, R(0) = I, e R(1) = R. Si ha inoltre: det R(t) = etr(tαU ∗U 1U ) = etαtr(U ∗U 1U ) = e0 = 1, E quindi R(t) ∈ SU (2). Il caso di U (2) è perfettamente analogo (vedi teorema 3.4): D= eiα 0 0 eiβ Essendo ∗ ∗ R = U DU = U e iα 0 0 iβ =e iα 0 0 iβ U ∗ U =e tU ∗ abbiamo che il sottogruppo a un parametro R(t) = e R(0) = I, R(1) = R. iα 0 0 iβ iα 0 0 iβ U U soddisfa: R(t)R(t)∗ = I, Teorema 6.2 SU (n) e U (n) sono connessi (per sottogruppi a un parametro). In particolare la mappa esponenziale è suriettiva in grande. Prova. Essendo le matrici di SU (n) e U (n) diagonalizzabili mediante matrici unitarie, la dimostrazione è perfettamente analoga a quella del caso n = 2. Osservazione 6.8 Il caso di SO(n) è più complicato. Infatti tali matrici non sono tutte diagonalizzabili perchè non hanno sempre abbastanza autovalori reali. Si può dimostrare però che, come nel caso di SO(3), possono essere messe in una forma a blocchi particolarmente semplice mediante matrici ortogonali. 6 CONSIDERAZIONI TOPOLOGICHE 6.2 38 Il caso di O(n) e SO(n) Per dimostrare la connessione di SO(n) occorre descrivere un modo per mettere le matrici di O(n) in una forma particolarmente semplice. Sia A ∈ O(n), e consideriamo la matrice S = A + At . Si verifica immediatamente il seguente lemma: Lemma 6.1 S è simmetrica, (A ± I)t (A ± I) = 2I ± S e inoltre: SA = AS. Come ogni matrice simmetrica, S ha autovalori reali ed è diagonalizzabile tramite una matrice ortogonale (vedi teorema 3.6). Siano λi (i = 1, .., k) i suoi autovalori e Vi i corrispondenti autospazi; si ha Rn = V1 ⊕ V2 ⊕ ...Vk . Lemma 6.2 I Vi sono fra loro ortogonali e invarianti rispetto a A, cioè A (Vi ) ⊆ Vi . Prova. I Vi sono ovviamente ortogonali fra loro perchè autospazi di autovalori distinti. Sia ora v ∈ Vi , si ha: SAv = ASv = Aλi v = λi Av Quindi nella base ortogonale data dalla unione delle basi ortogonali dei singoli autospazi di S, la matrice A si presenterà come una matrice a blocchi, perchè la sua azione non mescola tra loro i Vi . Studiamo ora l’azione sui singoli blocchi. Ci sono due casi distinti: Lemma 6.3 Se λi = ±2, A opera su Vi come moltiplicazione per ∓1. Se invece λi 6= ±2, A non ha autovettori ∈ Vi . In particolare, v e Av, per λi 6= ±2 e v ∈ Vi , sono indipendenti. Prova. Se λi = ±2, (A ± I)t (A ± I) v = (2I ± S) v = 0. Segue che: 0 = (A ± I)t (A ± I) v, v = h(A ± I) v, (A ± I) vi e quindi (A ± I) v = 0, cioè Av = ∓v. E’ noto (vedi teorema 3.5) che i possibili autovalori di una matrice ortogonale sono ±1, e quindi se A avesse autovettori ∈ Vi , sarebbe λi = ±2. Segue anche che v e Av, per v ∈ Vi , sono indipendenti perchè se fossero dipendenti Av = αv e quindi v ∈ Vi sarebbe autovettore di A. Sia ora W = Span {v, Av} . Lemma 6.4 W è invariante per A, cioè A (W ) ⊆ W. Prova. Sia w ∈ W, w = av + bAv, con v ∈ Vi , cioè Sv = (A + At ) v = λi v. Si ha: (A + At − λi ) v = 0, cioè, moltiplicando per A : A2 + I − λi A v = 0 e quindi: A(av + bAv) = aAv + bA2 v = aAv − b (I − λi A) v ∈ W. Riassumendo, possiamo enunciare il seguente teorema: 6 CONSIDERAZIONI TOPOLOGICHE 39 Teorema 6.3 Per ogni matrice A di O(n) esiste una base ortogonale di Rn in cui la matrice è a blocchi. La struttura dei blocchi è la seguente: ci sono n1 blocchi 1 × 1 costituiti da 1, n2 blocchi 1 × 1 costituiti da −1, n3 blocchi 2 × 2 costituiti da matrici ortogonali Ri i = 1...n3 . (n = n1 + n2 + 2n3 ). Inoltre det Ri = 1, cioè Ri ∈ SO(2). Prova. La struttura a blocchi si ricava direttamente dai precedenti lemmi. Per dimostrare che det Ri = 1, supponiamo che det Ri = −1, allora la matrice si può scrivere: α β Ri = con α2 + β 2 = 1. β −α 2α − λi β t = 0. Sappiamo che, per v ∈ Vi , (Ri + Ri − λi ) v = 0 e quindi det β −2α − λi Questo implica λi = ±2 che è assurdo, perchè stiamo proprio considerando il caso λi 6= ±2. Se ora supponiamo A ∈ SO(n), il numero n2 (il numero di volte in cui appare −1) sulla diagonale deve essere pari (det A = 1) e quindi anche questi blocchi possono essere raggruppati a due a due per formare altri n2 /2 blocchi di tipo Ri . Analogamente, se n1 è pari anche questi blocchi possono essere raggruppati a due a due per formare altri n1 /2 blocchi di tipo Ri ; se invece è dispari sulla diagonale resta, per una sola volta un 1 che non fa parte di una matrice di tipo Ri . Riassumendo: Teorema 6.4 Per ogni matrice A di SO(n) esiste una base ortogonale di Rn in cui la matrice è a blocchi. La struttura dei blocchi è la seguente: se n è pari ci sono n/2 blocchi 2 × 2 costituiti da matrici Ri ∈ SO(2), se n è dispari c’è in più anche un blocco 1 × 1 costituito dal numero 1. Esempio 6.4 Se A ∈ SO(3) esiste una base ortonormale in cui: cos θ − sin θ 0 A = sin θ cos θ 0 0 0 1 Questo esempio è già stato trattato più sopra. Esempio 6.5 Se A ∈ SO(4) esiste una base ortonormale in cui: cos θ − sin θ 0 0 sin θ cos θ 0 0 A= 0 0 cos ϕ − sin ϕ 0 0 sin ϕ cos ϕ Il teorema 6.4 ci consente di dimostrare: Teorema 6.5 SO(4) è connesso per sottogruppi a un parametro. 6 CONSIDERAZIONI TOPOLOGICHE 40 Prova. Sia A ∈ SO(4), esiste allora, per il teorema 6.4, una matrice ortogonale B tale che: T = BAB −1 dove cos θ − sin θ 0 0 sin θ cos θ 0 0 T = 0 0 cos ϕ − sin ϕ 0 0 sin ϕ cos ϕ Allora posto: 0 −θ 0 0 θ 0 0 0 C= 0 0 0 −ϕ 0 0 ϕ 0 si ha: T = eC e quindi: γ(t) = B −1 etC B = etB −1 CB ∈ SO(4) e verifica γ(0) = I e γ(1) = A. Teorema 6.6 SO(n) è connesso per sottogruppi a un parametro. In particolare exp : so(n) → SO(n) è suriettivo in grande. Prova. In virtù del teorema 6.4 la dimostrazione è perfettamente analoga a quella dei casi n = 3 e n = 4. Possiamo ora riprendere l’osservazione 6.4 e dimostrare il seguente teorema: Teorema 6.7 SO(n) è la componente connessa con l’identità di O(n). In particolare π0 (O(n)) = O(n)/SO(n) = Z2 Prova. E’ chiaro per il precedente teorema che SO(n) ⊆ O(n)0 . Per il viceversa, se g ∈ O(n)0 , esiste una curva γ(t) in O(n) tale che γ(0) = I e γ(1) = g; det γ(t) è una funzione continua di t che può assumere solo i valori ±1, e quindi non può cambiare segno senza passare per lo 0, e allora det γ(t) = 1 per tutti i t (valendo 1 in t = 0). In particolare det γ(1) = det g = 1 e allora g ∈ SO(n). 6.3 Quaternioni e rotazioni: SU (2) → SO(3) Abbiamo già dimostrato (vedi osservazione 5.6) che sebbene SU (2) e SO(3) abbiano la stessa algebra, e quindi la stessa dimensione, essi non sono gruppi isomorfi perchè hanno centri diversi; possiamo ora dire di più su questa questione. Descriveremo infatti un importante omomorfismo tra SU (2) e SO(3) (detto omomorfismo di ricoprimento). Osservazione 6.9 Nel corso della dimostrazione illustreremo la relazione esistente tra i quaternioni e le rotazioni spaziali. Il metodo illustrato per trattare le rotazioni spaziali ha una notevolissima applicazione pratica: è infatti l’algoritmo più efficiente numericamente per eseguire calcoli con le matrici di rotazioni ed è quello usato nei programmi di grafica 3D al computer, specialmente nei videogiochi. 6 CONSIDERAZIONI TOPOLOGICHE 41 Teorema 6.8 SU (2) Z2 Dove abbiamo identificato Z2 con {±I} ⊂ SU (2). SO(3) = Prova. Ricordiamo che (vedi esempio 3.2) SU (2) = S 3 = Sp(1) (il gruppo moltiplicativo dei quaternioni di norma 1). L’isomorfismo è dato esplicitamente da: a −b dove aā + bb̄ = 1 ⇐⇒ x + iy + jz + tk (dove a = x + iy e b = z + it) b̄ ā Consideriamo ora lo spazio H1 dei quaternioni cosiddetti puri: H1 = {q ∈ H | q = −q} = {bi + cj + dk, b, c, d ∈ R} Lo spazio H dei quaternioni (isomorfo a R4 ) si spezza quindi in H = H0 ⊕ H1 , dove H0 è costituito dai quaternioni reali, mentre H1 è isomorfo come spazio vettoriale reale a R3 . Nel seguito considereremo l’isomorfismo che manda i, j, k nella corrispondente base di R3 ortonormale rispetto al prodotto scalare standard. Converremo anche di indicare il quaternione puro q e il corrispondente vettore con la stessa lettera. In completa analogia con i numeri complessi chiameremo parte reale di un qualsiasi quaternione h ∈ H l’espressione Re {h} = 21 h + h̄ . Se q1 , q2 sono due quaternioni puri il prodotto scalare in R3 dei corrispondenti vettori è dato da: (q1 , q2 ) = Re {q1 q2 } Dove al secondo membro il prodotto è il prodotto di quaternioni. Infatti, ricordando che nei quaternioni si ha hk = k h,si trova che: Re {q1 q2 } = b1 b2 + c1 c2 + d1 d2 Ricordando che la norma quadrata di un quaternione h è khk2 = hh̄ abbiamo per i quaternioni puri: (q, q) = qq = kqk2 Quindi la lunghezza euclidea in R3 di un vettore corrisponde alla norma quaternionica del quaternione puro che lo rappresenta. Ricordiamo anche che se A ∈ Sp(1), essendo kAk = 1, si ha AqAq = qq Definiamo ora una mappa Ψ : SU (2) → GL(3, R) Ψ(A)(q) = AqA−1 Dove a sinistra pensiamo A come matrice di SU (2) , Ψ(A) come una matrice 3×3 , q un vettore di R3 e il prodotto è il prodotto righe per colonne; a destra pensiamo invece A come elemento di Sp(1), q come un quaternione puro (usando gli isomorfismi citati sopra), e i prodotti sono i prodotti tra quaternioni. Notiamo anche che AqA−1 è effettivamente un quaternione puro e quindi è interpretabile come un vettore di R3 : AqA−1 = AqA−1 = −AqA−1 6 CONSIDERAZIONI TOPOLOGICHE 42 Dove abbiamo usato le relazioni: A = A−1 , q = −q. La mappa Ψ è un omomorfismo: Ψ(AB)(q) = ABq (AB)−1 = A BqB −1 A−1 = [Ψ(A) ◦ Ψ(B)] (q) e inoltre preserva la lunghezza in R3 , infatti si ha: AqA−1 AqA−1 = AqA−1 A−1 qA = AqqA = AqAq = qq E’ quindi: (Ψ(A)q, Ψ(A)q) = (q, q) Abbiamo quindi scoperto che, in realtà: Ψ(A) ∈ O(3). Con un lunghissimo ma elementare calcolo (basta infatti esprimere A come un quaternione unitario, eseguire nell’ordine i prodotti AiA−1 , AjA−1 , AkA−1 e poi scrivere la matrice 3 × 3 che ha come colonne le componenti i, j, k di questi prodotti) si potrebbe scrivere esplicitamente l’omomorfismo (vedi più sotto dove lo facciamo con l’aiuto di un programma di computer algebra). Ad esempio: 1 0 0 i 0 Ψ = 0 −1 0 0 −i 0 0 −1 Infatti, nel caso in oggetto, A = i e quindi AiA−1 = i, AjA−1 = −j, AkA−1 = −k. Osserviamo ora che: i 0 Ψ ∈ SO(3) 0 −i Questo fatto è generale, e un ragionamento topologico ci consente di evitare i calcoli espliciti: essendo Ψ continua e non costante ed essendo SU (2) connesso, l’immagine di Ψ deve essere connessa e quindi: Ψ (SU (2)) ⊆ SO(3) Il nucleo di Ψ è formato da {±I} ⊂ SU (2), infatti A ∈ ker Ψ quando Ψ(A) è l’identità, ovvero quando AqA−1 = q per ogni q ∈ H1 . Cioè quando Aq = qA. Essendo q puro, è immediato verificare che questo implica A = ±1 ∈ Sp(1), ovvero A = ±I ∈ SU (2). Occupiamoci ora della suriettività di Ψ. Sia u un quaternione puro di norma 1 cioè uū = −uu = 1 e consideriamo il quaternione unitario A : A = cos θ + u sin θ è facile verificare che u è lasciato fisso dalla rotazione determinata da A : AuA−1 = (cos θ + u sin θ)u(cos θ − u sin θ) = u 6 CONSIDERAZIONI TOPOLOGICHE 43 Concludiamo che Ψ è suriettiva su SO(3) perchè già sappiamo che ogni rotazione è una rotazione di un certo angolo attorno ad un certo un asse (osserviamo che, fortunatamente, non è qui necessario trovarli!). Possiamo allora applicare il teorema di isomorfismo, ottenendo: SO(3) = SU (2) Z2 Dove abbiamo identificato Z2 con {±I} ⊂ SU (2). Osservazione 6.10 Anche la suriettività potrebbe essere molto elegantemente dimostrata da argomenti topologici (ma un poco più avanzati della sola connessione). Osservazione 6.11 Con un programma di computer algebra è facile scrivere esplicitamente l’omomorfismo: 2 x + y 2 − z 2 − t2 2tx + 2yz 2ty − 2xz x + iy −z − it −2tx + 2yz x2 − y 2 + z 2 − t2 2tz + 2xy Ψ = z + it x − iy 2 2 2 2 2ty + 2xz 2tz − 2xy x −y −z +t Dove x2 + y 2 + z 2 + t2 = 1. Il determinante vale: t6 + x6 + y 6 + z 6 + 3t2 x4 + 3t4 x2 + 3t2 y 4 + 3t4 y 2 + 3t2 z 4 + 3t4 z 2 + 3x2 y 4 + 3x4 y 2 + 3x2 z 4 + 3x4 z 2 + 3y 2 z 4 + 3y 4 z 2 + 6t2 x2 y 2 + 6t2 x2 z 2 + 3 6t2 y 2 z 2 + 6x2 y 2 z 2 = (t2 + x2 + y 2 + z 2 ) = 1. Si conferma quindi che Ψ : SU (2) → SO(3). Osservazione 6.12 Osserviamo che applicando la formula al caso A = cos α2 − i sin α2 = cos − α2 + i sin − α2 otteniamo: −iα/2 1 0 0 e 0 = 0 cos α − sin α Ψ iα/2 0 e 0 sin α cos α Ovvero una rotazione antioraria di angolo α attorno all’asse x. La formula si può applicare allora per trovare la matrice di rotazione corrispondente ad un angolo θ e ad un asse u rappresentato da u = ux i + uy j + uz k ponendo: θ θ θ θ x = cos , y = −ux sin , z = −uy sin , t = −uz sin 2 2 2 2 Si ottiene allora la famosa formula di rotazione di Eulero-Rodrigues. Osservando la matrice esplicita della prima osservazione si capisce subito perchè il metodo dei quaternioni è cosi efficiente: l’angolo e l’asse di rotazione si vedono immediatamente e non sono nascosti nei parametri di una complicata matrice ortogonale! Osservazione 6.13 L’introduzione dell’isomorfismo tra quaternioni puri e vettori di R3 è alla base della teoria delle algebre di Clifford, uno strumento molto importante in fisica teorica e in geometria. Ad esempio si può dare una interpretazione unificata del prodotto scalare e del prodotto vettoriale ∧ in R3 osservando che: q1 q2 = (q1 , q2 ) − q1 ∧ q2 Dove, come al solito, a sinistra abbiamo quaternioni puri e a destra vettori di R3 . 6 CONSIDERAZIONI TOPOLOGICHE 6.4 44 Il caso di GL(n, R) e GL(n, C) I risultati ottenuti per U (n) e SO(n), e la scomposizione polare delle matrici di GL(n, R) e GL(n, C), (vedi teorema 3.3 e le osservazioni seguenti) ci consentono di dimostrare un importante risultato: Teorema 6.9 GL(n, C) è connesso. Prova. Sia A ∈ GL(n, C), la sua scomposizione polare è A = U H dove ricordiamo che U ∈ U (n) e H è una matrice hermitiana definita positiva. Siccome U (n) è connesso, esiste una curva u(t) ∈ U (n) tale che u(0) = I e u(1) = U. Consideriamo ora la curva in M (n, C) data da: h(t) = tH + (1 − t)I Che connette I a H. Per ogni t ∈ [0, 1] , la matrice h(t) è hermitiana definita positiva. Infatti i suoi autovalori sono λi = tηi + (1 − t) > 0 (dove gli ηi sono gli autovalori, necessariamente reali, di H), perchè ηi > 0 e t ∈ [0, 1] . Allora la curva γ(t) = u(t)h(t) appartiene a GL(n, C) (perchè det γ(t) 6= 0) e verifica γ(0) = u(0)h(0) = I e γ(1) = u(1)h(1) = U H = A. Teorema 6.10 GL+ (n, R) = {A ∈ GL(n, R) con det A > 0} è connesso. Prova. La dimostrazione è analoga a quella del caso complesso. Sia A ∈ GL+ (n, R), la sua scomposizione polare è A = RS dove ricordiamo che R ∈ SO(n) e S è una matrice simmetrica definita positiva. Siccome SO(n) è connesso, esiste una curva r(t) ∈ SO(n) tale che r(0) = I e r(1) = R. Consideriamo ora la curva in M (n, R) data da: s(t) = tS + (1 − t)I Che connette I a S. Per ogni t ∈ [0, 1] , la matrice s(t) è simmetrica definita positiva. Infatti i suoi autovalori sono λi = tηi +(1 − t) > 0 perchè ηi > 0 e t ∈ [0, 1] (gli ηi sono ora gli autovalori, necessariamente positivi, di S). Allora la curva γ(t) = r(t)s(t) appartiene a GL+ (n, R) (perchè det γ(t) 6= 0) e verifica γ(0) = r(0)s(0) = I e γ(1) = r(1)s(1) = RS = A. Osservazione 6.14 Sappiamo già (vedi l’esempio 6.1) che GL(n, R) non è connesso (dove cade la dimostrazione precedente?). Teorema 6.11 GL0 (n, R) = GL+ (n, R), in particolare si ottiene che π0 (GL(n, R)) = GL(n, R)/GL+ (n, R) = Z2 . Prova. E’ chiaro per il precedente teorema che GL+ (n, R) ⊆ GL0 (n, R). Per il viceversa, se g ∈ GL0 (n, R), esiste una curva γ(t) in GL0 (n, R) tale che γ(0) = I e γ(1) = g; det γ(t) è una funzione continua di t che non assume il valore 0. Allora det γ(t) > 0 per tutti i t (essendo positivo in t = 0). In particolare det γ(1) = det g > 0 e allora g ∈ GL+ (n, R). 6 CONSIDERAZIONI TOPOLOGICHE 45 L’ultima osservazione è una conseguenza del teorema di isomorfismo applicato all’omomorfismo det A ϕ(A) = |det . A| La questione della suriettività della mappa esponenziale per GL(n, C) e GL+ (n, R) è più complicata perchè nei teoremi di connessione dimostrati più sopra la curva costruita non è un sottogruppo a un parametro. Osservazione 6.15 Nel caso di GL(n, C) la suriettività della mappa esponenziale è legata all’esistenza del logaritmo in grande, infatti se ogni matrice complessa invertibile avesse un logaritmo (non necessariamente unico!) allora sarebbe elog A = A e la suriettività sarebbe provata. La nostra definizione di logaritmo dà però solo l’esistenza in piccolo, infatti la serie converge solo per le matrici che differiscono poco dalla matrice I. Osservazione 6.16 Il caso di GL(1, C) = C∗ è semplice: sia α = ρeiθ con ρ > 0 un numero complesso invertibile. Possiamo definire un logaritmo complesso di α, ponendo: log α = log ρ + iθ. Si ottiene quindi elog α = elog ρ+iθ = ρeiθ = α. Osservazione 6.17 E’ chiaro che ci sono infiniti logaritmi complessi di α, perchè per ogni intero k, anche la definizione log α = log ρ + iθ + 2kπi andrebbe bene. Questa ambiguità è dovuta al fatto che, contrariamente al caso reale, ez = 1 non implica necessariamente z = 0, ad esempio, e2πi = 1. Lo stesso fenomeno avviene per il logaritmo di una matrice complessa: abbiamo già osservato infatti che eA = I non implica necessariamente A = 0. Ad esempio, 0 −2π 0 e 2π = I. L’ambiguità non si presenta ovviamente seci occupiamo solo dell’esistenza 0 −2π in piccolo; infatti, come 2πi non è vicino a 0, cosı̀ la matrice non è vicina a I. 2π 0 Teorema 6.12 La mappa esponenziale exp : M (2 × 2, C) → GL(2, C) è suriettiva. a 0 Prova. Sia A una matrice di GL(2, C), se A è diagonalizzabile, sia D = una 0 b sua forma diagonale: D = B −1 AB e poniamo log a 0 C= 0 log b dove log è un qualsiasi logaritmo complesso. Allora si ottiene subito: e BCB −1 = Be log a 0 0 log b B −1 = BDB −1 = A Se invece A non è diagonalizzabile, essendo complessa e 2 × 2, deve avere un autovalore doppio λ 6= 0 con autospazio monodimensionale. Sia v un autovettore dell’autovalore λ e w 6 CONSIDERAZIONI TOPOLOGICHE 46 un altro vettore indipendente da v. Nella base da v e w, la matrice A assume una costituita λ x forma triangolare superiore F = B −1 AB = con x 6= 0. Se poniamo: 0 λ log λ xλ−1 C= 0 log λ Si ottiene subito, applicando la definizione di esponenziale, che: e a b 0 a = ea bea 0 ea E allora, ponendo a = log λ e b = xλ−1 : e E quindi: eBCB log λ xλ−1 0 log λ −1 = λ x 0 λ = BeC B −1 = BF B −1 = A Osservazione 6.18 Un procedimento analogo, ma più complicato, si può usare nel caso di GL(n, C) con n > 2, infatti si dimostra che tutte le matrici complesse si possono mettere in una particolare forma a blocchi in cui ogni blocco è una matrice triangolare superiore (forma di Jordan), abbiamo quindi: Teorema 6.13 La mappa esponenziale exp : M (n × n, C) → GL(n, C) è suriettiva. Osservazione 6.19 Il caso di GL(n, R) comporta ulteriori difficoltà. Innanzi tutto la mappa esponenziale non può essere suriettiva perchè GL(n, R) non è connesso. Inoltre, anche nella componente connessa, si presenta il problema della presenza possibile di autovalori negativi o addirittura complessi. 6.5 Il caso di SL(2, R) Analizziamo, per capire il tipo di problemi, il caso di SL(2, R). Ricordiamo che SL(2, R) è il sottogruppo di GL(2, R) costituito dalle matrici di determinante 1; il suo spazio tangente, denotato sl(2, R), è l’algebra di Lie delle matrici reali nulla. Infatti 2 × 2 a traccia a(t) b(t) una curva in SL(2, R) è data da una matrice A(t) = con det A(t) = 1 e c(t) d(t) a(0) = d(0) = 1 e b(0) = c(0) =0. Quindi un vettore tangente nell’origine è dato da una a0 (0) b0 (0) e quindi T (SL(2, R)) ⊆ sl(2, R). Viceversa, la matrice matrice del tipo c0 (0) −a0 (0) 6 CONSIDERAZIONI TOPOLOGICHE 47 t a b c −a a b è il vettore tangente alla curva e che appartiene tutta a SL(2, R) perchè c −a a b a b t ttr c −a = 1 e quindi sl(2, R) ⊆ T (SL(2, R)) . det e c −a = e Osservazione 6.20 Il gruppo SL(2, R) è connesso, infatti la mappa ϕ : GL+ (2, R) → A è continua e suriettiva, e GL+ (2, R) è connesso, vedi teorema SL(2, R), data da ϕ(A) = √det A 6.11. Teorema 6.14 Per ogni A ∈ sl(2, R) si ha tr eA ≥ −2. exp In particolare, la mappa esponenziale sl(2, R) → SL(2, R) non è suriettiva. Prova. Vogliamo mostrare che non tutte le matrici di SL(2, R) si possono ottenere per esponenziazionedi matricidella sua algebra di Lie, nonostante SL(2, R) sia un gruppo connesso. a b Sia infatti A = una matrice a traccia nulla. Si ha facilmente: c −a 2n a b 2 n = bc + a c −a 2n+1 a b 2 n = bc + a c −a 1 0 0 1 a b c −a Si ha quindi: 2n n a b tr = 2 bc + a2 c −a 2n+1 a b tr =0 c −a Osserviamo ora che dalla serie formale dell’esponenziale si ricava: √ e x √ + e− x =2+x+ 1 2 1 3 1 1 x + x + x4 + x5 + O x 6 12 360 20 160 1814 400 Quindi, ponendo x = bc + a2 , e prendendo la traccia della serie esponenziale di eA : treA = tr(I +A+A2 /2+A3 /3!+...) = 2+0+ Si ha finalmente: tre a b c −a √ √ 2x 2x2 2x3 2x4 +0+ +0+ +0+ +.... = e x +e− x 2 4! 6! 8! √ =e bc+a2 + e− √ bc+a2 6 CONSIDERAZIONI TOPOLOGICHE 48 Ora si osservi che, se bc + a2 ≥ 0, allora tr eA ≥ 2, mentre se bc + a2 ≤ 0 : √ √ p ±ı̀ |bc+a2 | A ∓ı̀ |bc+a2 | tr e = e +e = 2 cos |bc + a2 | E quindi, in questo caso, −2 ≤ tr eA ≤ 2. Si ha quindi il risultato cercato: Per ogni A ∈ sl(2, R), allora tr eA ≥ −2 −2 3 Quindi, ad esempio, la matrice B = ∈ SL(2, R), avendo traccia −4 non si 1 −2 può ottenere per esponenziazione di una matrice reale a traccia nulla. Invece la matrice 0 −π −1 0 π 0 ∈ SL(2, R) si può ottenere, ad esempio, da e . 0 −1 Definizione 6.3 Indichiamo con exp sl(2, R) l’insieme delle matrici di SL(2, R) che si ottengono come esponenziali di elementi dell’algebra di Lie. Teorema 6.15 Sia M ∈ SL(2, R) con trM > −2, allora M ∈ exp sl(2, R). Prova. Sia M ∈ SL(2, R) e quindi con det M = 1; il suo polinomio caratteristico è p(λ) = λ2 − τ λ + 1, dove τ = trM. Gli autovalori sono quindi: 1 1√ 2 λ± = τ ± τ −4 2 2 a) Se τ > 2 gli autovalori sono reali e distinti, la matrice è diagonalizzabile tramite una matrice reale, ed inoltre deve essere λ+ λ− = 1. Si ha quindi λ± > 0, e allora log λ+ + log λ− = 0. La matrice M è quindi esponenziale di una matrice reale a traccia nulla: X M =e log λ+ 0 0 log λ− X −1 , con trX log λ+ 0 0 log λ− X −1 = 0. b) Se −2 < τ < 2, gli autovalori sono complessi coniugati e di modulo 1; poniamo λ+ = a + ib con a2 + b2 = 1 e autovettore v. Allora si ottiene subito che λ− = a − ib con a2 + b2 = 1 e autovettore v̄. Si ottiene M v = (a + ib) v, M v̄ = (a − ib) v̄. Segue che: v + v̄ v − v̄ v + v̄ =a + ib M 2 2 2 v − v̄ v + v̄ v − v̄ M i = −b + ia 2 2 2 a −b v+v̄ v−v̄ 0 Allora nella base reale u = 2 , w = i 2 la matrice M assume la forma M = b a 0 0 con det M = 1 e quindi M ∈ SO(2). Sia ora X la matrice (reale!) del cambiamento di base: 6 CONSIDERAZIONI TOPOLOGICHE 49 M = XM 0 X −1 . Sappiamo però che su SO(2) la mappa esponenziale dall’algebra delle matrici antisimmetriche è suriettiva e quindi si ha M 0 = eB con B ∈ so(2), allora: −1 M = eXBX , con tr XBX −1 = 0. c) Se τ = 2, si presenta solo l’autovalore reale doppio 1, e ci sono due casi. Se la matrice M è diagonalizzabile, M = I = e0 . Se non è diagonalizzabile, si può mettere (comeabbiamo 1 a mostrato nella dimostrazione del teorema 6.12) in forma triangolare superiore F = 0 1 0 a con a 6= 0, mediante una matrice reale X; essendo F = e 0 0 (vedi ancora dimostrazione del teorema 6.12), si ha quindi: X M =e 0 a 0 0 X −1 . Osservazione 6.21 Il caso limite τ = −2 è il più interessante: se la matrice è diagonalizzabile, 0 −π π 0 si può mettere nella forma M = −I, e allora, come già osservato, M . Se invece =e −1 a non è diagonalizzabile, la sua forma triangolare superiore è F = con a 6= 0. Si 0 −1 può mostrare che matrici di questo tipo non sono esprimibili come esponenziali di matrici reali a traccia nulla. Si ha infatti: 0 ±π A Teorema 6.16 Sia A ∈ sl(2, R); se tre = −2 allora A = X X −1 . In particolare, ∓π 0 l’unica matrice di SL(2, R) con traccia −2 che sta nell’immagine dell’esponenziale è −I. a b Prova. Sia A = ∈ sl(2, R); sappiamo allora (vedi dimostrazione del teorec −a ma 6.14) che deve essere p − det A = bc + a2 ≤ 0 (altrimenti si avrebbe treA ≥ 2). Si ha allora −2 = treA = 2 cos |bc + a2 | e quindi deve essere det A = −bc − a2 = π 2 . Allora il 2 2 polinomio caratteristico di A è p(λ) = λ + π e la matrice A può essere messa nella forma 0 ±π A=X X −1 . Infatti gli autovalori sono ±iπ e si può applicare il ragionamento ∓π 0 svolto nel punto b) del teorema precedente. Si ha quindi: X e 0 ±π ∓π 0 X −1 =X −1 0 0 −1 X −1 = −I 6 CONSIDERAZIONI TOPOLOGICHE 50 −2 3 Osservazione 6.22 La matrice B = ∈ SL(2, R) si può ovviamente ottenere 1 −2 invece, usando il procedimento seguito nella dimostrazione del teorema 6.12, come esponenziale di una matrice complessa. Osservazione 6.23 La matrice complessa citata nell’osservazione qui sopra è necessariamente complessa, nel senso che se det A = 1 e trA < −2 non esiste nessuna matrice reale B per cui sia A = eB , infatti dovrebbe essere det eB = etrB = 1, per cui trB = 2kπi, ma essendo B reale, l’unica possibilità è trB = 0, e quindi ricadremmo nel caso di sl(2, R). Osservazione 6.24 Se A ∈ SL(2, R) ha trA < −2 è chiaro che tr(−1)A = tr (−A) > 2 e quindi (−1)A ∈ exp sl(2, R). Possiamo quindi riassumere i risultati ottenuti nei precedenti teoremi e osservazioni: Teorema 6.17 Sia A ∈ SL(2, R), e poniamo 40 = {X ∈ sl(2, R), det X = 0} e 4− = {X ∈ sl(2, R), det X < 0} . • Condizione necessaria e sufficiente perchè una matrice A ∈ exp sl(2, R) è che la sua traccia sia > −2, oppure A = −I. • trA > −2 se e solo se A ∈ interno di exp sl(2, R). • −2 < trA < 2 se e solo se A è coniugata a una matrice R ∈ SO(2) e R 6= ±I. • trA = 2 se e solo se A ∈ exp 40 . In particolare, in questo caso si ha (A − I)2 = 0. • trA > 2 se e solo se A ∈ exp 4− . • SL(2, R) = exp sl(2, R)∪(−1)exp 4− = exp sl(2, R)∪(−1) exp (40 ∪ 4− ) (la barra indica la chiusura dell’insieme). • Per ogni A ∈ SL(2, R), A ∈ exp sl(2, R) oppure −A ∈ exp sl(2, R). L’unica matrice A per cui ±A ∈ exp sl(2, R) è A = I. • Per ogni A ∈ SL(2, R), A2 ∈ exp sl(2, R). Infatti se A sta nell’immagine dell’esponenziale, anche A2 ci sta, mentre se A non sta nell’immagine dell’esponenziale allora −A ci sta e quindi anche A2 = (−A) (−A) ci sta. Possiamo anche dire qualcosa di più preciso sulle matrici di GL+ (2, R) che stanno nell’immagine dell’esponenziale: Teorema 6.18 Se A ∈ GL+ (2, R) è della forma eB , con B ∈ M (2 × 2, R), allora √ 1 trA ≥ −2. det A exp In particolare, la mappa esponenziale M (2 × 2, R) → GL+ (2, R) non è suriettiva. 6 CONSIDERAZIONI TOPOLOGICHE 51 Prova. Sia A ∈ GL+ (2, R), e supponiamo che A = eB con B ∈ M (2 × 2, R). Allora = C ∈ SL(2, R). Si ottiene allora: √A det A C = eB e− log √ det A Si ha quindi: √ = eB−log √ det AI tr(B−log √ det AI ) =e 1 = det C = det e √ e allora tr B − log det AI = 0, perchè nelle ipotesi fatte è un numero reale. Quindi C è B−log det AI exp nell’immagine della mappa esponenziale sl(2, R) → SL(2, R). Dalla dimostrazione del teorema 6.14 si ricava allora: 1 trA ≥ −2 trC = √ det A −10 10 1 Ad esempio, la matrice A = ∈ GL+ (2, R), avendo √det trA = − 21 , non si può 10 A 1 −11 ottenere per esponenziazione di una matrice reale. Osservazione 6.25 Abbiamo anche ottenuto una generalizzazione del teorema 6.14. Per ogni B ∈ M (2 × 2, R) si ha: √ tr eB ≥ −2 etrB Teorema 6.19 Ogni matrice di GL+ (n, R) si può ottenere come prodotto di due esponenziali. Prova. Ricorriamo ancora alla decomposizione polare: A = RS con R ∈ SO(n) e S simmetrica definita positiva. Sappiamo (vedi teorema 6.6) che R = eB con B ∈ so(n); S è diagonalizzabile e ha autovalori positivi. Si ha: D = C −1 SC con C ortogonale reale. Sia ora F la matrice diagonale che ha sulla diagonale i logaritmi degli autovalori (il logaritmo è l’usuale logaritmo reale, infatti gli autovalori sono reali e positivi): D = eF . Si ottiene quindi che A = eB CeF C −1 = eB eCF C 6.6 −1 Introduzione all’omotopia dei gruppi In questa breve sezione discutiamo alcuni aspetti della teoria dell’omotopia riferita ai nostri gruppi di matrici. Per la teoria dell’omotopia in generale si rimanda al corso di geometria 2. Definizione 6.4 Se G è un gruppo di matrici si dice path space (spazio dei cammini) di G l’insieme P (G) : P (G) = {curve γ continue in G, γ : [0, 1] ⊂ R → G, con γ(0) = I} P (G) diventa a sua volta uno spazio metrico con la distanza d∗ indotta dalla distanza euclidea d in G ⊂ Rn : d∗ (σ, τ ) = sup d(σ(t), τ (t)) t∈[0,1] 6 CONSIDERAZIONI TOPOLOGICHE 52 La mappa ω : P (G) × (a, b) → G definita da ω(σ, t) = σ(t) è chiaramente continua. P (G) è un gruppo con la moltiplicazione indotta dal prodotto in G: (σ · τ )(t) = σ(t)τ (t) L’elemento neutro è il cammino costante 1, dove 1(t) = I ∀t, e il cammino inverso del cammino δ è δ −1 , dove δ −1 (t) = (δ(t))−1 . Consideriamo ora l’omomorfismo ρ : P (G) → G definito da ρ(σ) = σ(1). Chiaramente ρ è suriettivo se G è connesso. Definizione 6.5 Il loop space di G, indicato con Ω(G), è il nucleo di ρ : Ω(G) = { γ : [0, 1] ⊂ R → G, con γ(0) = γ(1) = I} Osservazione 6.26 Essendo il nucleo di un omomorfismo, Ω(G) è sottogruppo normale di P (G). Se G è connesso, dal teorema di isomorfismo per l’omomorfismo ρ si ha: P (G) =G Ω(G) Definizione 6.6 Se invece G non è connesso, sia G0 la componente connessa con l’identità (vedi definizione 6.1). Nel contesto di questa sezione il gruppo (vedi teorema 6.1) G/G0 ≡ π0 (G) è detto zeresimo gruppo di omotopia G. Definizione 6.7 G si dice semplicemente connesso se è connesso e anche Ω(G) lo è. Se invece Ω(G) non è connesso sia Ω(G)0 la sua componente connessa con l’identità. Teorema 6.20 Ω(G)0 è un sottogruppo normale di P (G). Prova. Infatti, per definizione, Ω(G)0 = { γ : [0, 1] → G, γ(0) = γ(1) = I e ∃f : [0, 1] → Ω(G) tale che f (0) = 1 (il loop costante) e f (1) = γ}. Poniamo ora f (s)(t) = F (s, t). Questa è una mappa continua F : [0, 1] × [0, 1] → G tale che: F (0, t) = f (0)(t) = 1(t) = I F (1, t) = f (1)(t) = γ(t) F (s, 0) = f (s)(0) = I F (s, 1) = f (s)(1) = I Sia ora σ = δγδ −1 con γ ∈ Ω(G)0 e δ ∈ P (G), vogliamo mostrare che anche σ ∈ Ω(G)0 , cioè esiste una curva h (s) in Ω(G) che connette il loop costante 1(t) = I a σ, ovvero h(0) = 1 e h(1) = σ. Sia H : [0, 1] × [0, 1] → G H(s, t) = δ (t) F (s, t)δ −1 (t) = δ (t) F (s, t) (δ(t))−1 6 CONSIDERAZIONI TOPOLOGICHE 53 e poniamo: h(s)(t) = H(s, t). Questa è la curva cercata: • h(s) è un loop, ovvero h(s) ∈ Ω(G) per ogni s : h(s)(0) = δ (0) F (s, 0) (δ(0))−1 = I · F (s, 0) · I = f (s)(0) = I h(s)(1) = δ (1) F (s, 1) (δ(1))−1 = δ (1) · F (s, 1) · δ (1)−1 = δ (1) · I · δ (1)−1 = I • h (s) connette il loop costante 1(t) = I a σ, ovvero h(0) = 1 e h(1) = σ : h(0)(t) = δ (t) F (0, t) (δ(t))−1 = δ (t) · I · (δ(t))−1 = I h(1)(t) = δ (t) F (1, t) (δ(t))−1 = δ (t) · γ(t) · (δ(t))−1 = σ(t) Definizione 6.8 Possiamo quindi considerare il gruppo quoziente: G̃ = P (G) Ω(G)0 G̃ è detto gruppo di ricoprimento universale di G. Osservazione 6.27 Si può mostrare che se G è connesso anche G̃ è connesso. Osservazione 6.28 L’omomorfismo ρ : P (G) → G definito più sopra da ρ(σ) = σ(1) induce una mappa π : G̃ → G data da: π [σ] = ρ(σ) = σ(1). Tale mappa è ben definita perchè tutti i cammini in [σ] hanno lo stesso punto finale essendo definiti a meno di moltiplicazione per un loop. Definizione 6.9 Osservato inoltre che la mappa π è un omomorfismo, possiamo definire il primo gruppo di omotopia di G (π1 (G)): π1 (G) = ker π Osservazione 6.29 Applicando le definizioni si vede subito che G è semplicemente connesso ⇐⇒ G̃ = G ⇐⇒ π1 (G) = {e} cioè il gruppo banale; Teorema 6.21 Siano G e G0 gruppi isomorfi, allora π1 (G) = π1 (G0 ). 6 CONSIDERAZIONI TOPOLOGICHE 54 Prova. Infatti se ϕ è un omomorfismo tra due gruppi G e G0 , si definisce ϕ̃ : P (G) → P (G0 ) cosı̀: ϕ̃(γ)(t) = ϕ(γ(t)) e anche ϕ̃ è un omomorfismo. Inoltre se γ ∈ Ω(G), anche ϕ̃(γ) ∈ Ω(G0 ) infatti: ϕ̃(γ)(0) = ϕ(γ(0)) = ϕ(IG ) = IG0 ϕ̃(γ)(1) = ϕ(γ(1)) = ϕ(IG ) = IG0 Chiaramente se ϕ è un isomorfismo anche ϕ̃ lo è. Teorema 6.22 π1 (G) = π0 (Ω(G)) = Ω(G) (Ω(G))0 Prova. Basta osservare che [ω] ∈ π1 (G) = ker π ⊆ se ω ∈ Ω(G). P (G) Ω(G)0 se e solo se ω(1) = I, cioè se e solo Teorema 6.23 Se G è connesso π1 (G) è abeliano. Prova. Mostreremo che π1 (G) ⊆ Centro di G̃. Fissato h ∈ π1 (G), la mappa consideriamo −1 continua ψ : G̃ → π1 (G) definita da ψ(g) = ghg . L’immagine ψ G̃ ⊆ π1 (G) è connessa perchè G̃ è connesso, ma essendo π1 (G) discreto perchè è un gruppo di componenti connesse, deve allora ridursi a un punto. Essendo ψ(e) = h deve essere anche ψ(g) = ghg −1 = h e quindi gh = hg. Osservazione 6.30 Il teorema precedente vale anche nel caso in cui G non sia connesso. Osservazione 6.31 Per il calcolo esplicito di π1 (G) in alcuni casi particolari interessanti si rimanda ad altri corsi più avanzati. Ad esempio si ha: π1 (U (1)) = Z π1 (SO(3)) = Z2 π1 (SU (2)) = {0}