Introduzione alla teoria dell`informazione e della codifica
by user
Comments
Transcript
Introduzione alla teoria dell`informazione e della codifica
Introduzione alla teoria dell’Informazione e della Codifica Comunicazioni Elettriche C a.a. 2008/09 © Alberto Signoroni - Università di Brescia 1 [email protected] 05/11/2008 “Misurare” l’Informazione z Punto di vista quantitativo – Modellizzazione statistica – Entropia di una sorgente di informazione z Punto di vista percettivo – Modellizzazione del sistema uditivo/visivo umano – Approcci globali (model driven) o locali (data driven) z Punto di vista semantico – Modellizzazione difficile in generale – Modelli di “rilevanza” in ambiti (applicativi) specifici © Alberto Signoroni - Università di Brescia 2 05/11/2008 Teoria dell’Informazione z z Informazione ha qui un riscontro quantitativo in senso statistico. Concetti: – – – – z Sorgenti di informazione S (processi stocastici) Misura dell’informazione (in base ad un modello di S) Entropia di una sorgente S Codifica di sorgente CS (compressione) Shannon C.E., Weaver W., The matematical theory of Communication, Univ.Of Illinois press, urbana IL, 1949 © Alberto Signoroni - Università di Brescia 3 05/11/2008 Sorgenti di Informazione S •Segnali •Immagini •Volumi •Video (X ) N n n =1 X = {x } M i i =1 Proc.stocastico: all’istante n la VC X assume, con probabilità pi ,uno degli M simboli possibili xi dell’ alfabeto di sorgente. Sorgenti stazionarie discrete senza memoria: • simboli indipendenti e identicamente distribuiti (i.i.d.) • voglio caratterizzare dal punto di vista statistico quanta INFORMAZIONE viene prodotta dalla sorgente così modellizzata. © Alberto Signoroni - Università di Brescia 4 05/11/2008 Misura dell’Informazione ¾ Associo ad un simbolo xi i.i.d. un’informazione Ii . Proprietà desiderate per Ii : 1. pi < p j ⇒ I i > I j 2. I i ≥ 0 per 0 ≤ pi ≤ 1 3. I i → 0 se pi a 1 4. pi , j = pi ⋅ p j ⇒ I i , j = I i + I j Soddisfatte dalla funzione logaritmica © Alberto Signoroni - Università di Brescia 1 I i = log a pi 5 05/11/2008 Sorgenti binarie bit di lunghezza e di informazione: { xi = bi1 , bi2 , K , biLi b = {0,1} z z z z } Lunghezza di simbolo Li Li [bit di lunghezza] Li è intero positivo Lunghezza media I ( xi ) = I i = − log a pi a=2 z z z z L = ∑i =1 pi Li I = ∑i =1 pi I i M z Lunghezza totale Ltot ≈ N ⋅ L © Alberto Signoroni - Università di Brescia Informazione di simbolo Ii Ii [bit di informazione] Ii è reale positivo Informazione media M z ENTROPIA Informazione totale I tot ≈ N ⋅ I 6 05/11/2008 Entropia di una Sorgente H(X) Si definisce come l’informazione che mediamente si acquisisce in un generico istante n, per il fatto di conoscere il valore assunto dal processo Xn : ES: Sorgente binaria senza memoria: p0 , p1=1- p0 1 H(X) = ∑i =1 pi I i =∑i =1 pi log 2 pi ∆ M M Dal modello di sorgente stazionaria senza memoria si conosce l’entropia di ordine zero, H0. Modelli più avanzati consentono ad esempio di ricavare entropie di ordine superiore, HS , con HS<H0. © Alberto Signoroni - Università di Brescia 7 05/11/2008 Teorema della codifica di sorgente Proprietà dell’Entropia: 0 ≤ H(X) ≤ log 2 M con H(X) = 0 se ∃ i : pi = 1 e H(X) = log 2 M se ∀i, pi = 1 / M Simboli equiprobabili Teorema di Shannon sulla codifica di sorgente (1948): Data la sorgente discreta stazionaria senza memoria X, con entropia H(X) allora: L ≥ H(X) Dal teorema deduciamo che esiste una Lmin=H(X), e che si può introdurre un’efficienza di codifica: © Alberto Signoroni - Università di Brescia H(X) η= L 8 05/11/2008 Codifica di Sorgente S ► (X ) N n n =1 X = {xi }i =1 M CS Codici a lunghezza fissa Li = L , ∀i ► Rappresento xi su L bit dove L ≥ log 2 M ► solitamente L = ⎡log 2 M ⎤ © Alberto Signoroni - Università di Brescia n 01011101010100011010111011… c{x(n)} codifica del simbolo x(n) ► Codici a lunghezza variabile ► Cerco di seguire il criterio di quantità di informazione ► Se pi>pj cerco di utilizzare Li<Lj in modo da diminuire E[L ] = L Problema: il codice generato deve essere UNIVOCAMENTE DECIFRABILE (decodificabile) 9 05/11/2008 Codici decodificabili e a prefisso Il teorema della codifica di sorgente non è costruttivo: non indica metodi di costruzione di codici per poter ottenere prestazioni H(X) ≤ L ≤ H(X) + ε , con ε piccolo a piacere. Proprietà: le lunghezze delle parole di un codice decodificabile binario con M simboli soddisfano sempre la seguente disuguaglianza (di Kraft-McMillan): M ∑2 − Li ≤1 i =1 { Codici a Prefisso: famiglia di codici t.c. dato xi = bi1 , bi2 , K , biLi Lj 1 2 non esiste x j = bi , bi , K , bi , ∀i ≠ j con L j < Li { © Alberto Signoroni - Università di Brescia } } 10 05/11/2008 Codici decodificabili e a prefisso • La disuguaglianza di Kraft è c.n. per tutti i codici binari decodificabili • da essa si ricava il teorema della codifica di sorgente • per codici in base K è sufficiente sostituire K al posto di 2 • i codici a prefisso sono una sottoclasse di codici decodificabili • per ottenere L = H(X) basterebbe poter scegliere Li = − log 2 pi • scegliendo invece Li = ⎡− log 2 pi ⎤ si dimostra che si spreca in tutto 1 bit, ovvero H(X) ≤ L ≤ H(X) + 1 Estensione di una sorgente senza memoria: considero gruppi di n simboli della sorgente X di M simboli ottengo Xn con alfabeto di Mn siboli per cui vale n H(X) ≤ nL ≤ n H(X) + 1 e quindi: 1 H(X) ≤ L ≤ H(X) + 11 © Alberto Signoroni - Università di Brescia n 05/11/2008 Codifica a prefisso di Huffman Algoritmo di codifica Sorgente codificata 0 Decodifica ad albero 0 start 1 1 0 1 © Alberto Signoroni - Università di Brescia s0 (end simbolo) 0 s3 (end simbolo) 1 s4 (end simbolo) s1 (end simbolo) s2 (end simbolo) 12 05/11/2008 ES1 – una sorgente stazionaria discreta senza memoria ha un alfabeto di 8 simboli con probabilità 0.25 0.20 0.15 0.12 0.10 0.08 0.05 e 0.05. -Determinare un codice di Huffman per la sorgente -determinare la lunghezza media di simbolo e confrontarla con l’entropia L © Alberto Signoroni - Università di Brescia 13 05/11/2008 ES2 – una sorgente stazionaria discreta senza memoria emette 4 simboli con probabilità p1=p2=0.3365 e p3=p4=0.1635. -Determinare un codice di Huffman per la sorgente e calcolare il bitrate medio -Determinare un codice di Huffman che codifiche coppie di simboli e determinare il bitrate medio -Determinare il bitrate medio ottenibile con la codifica di J simboli se J → ∞ L © Alberto Signoroni - Università di Brescia 14 05/11/2008 ES2 – (segue) Quiz:trova l’errore © Alberto Signoroni - Università di Brescia 15 05/11/2008 ES2 – (segue) L2 L © Alberto Signoroni - Università di Brescia 16 05/11/2008 Trasmissione dell’informazione z Consideriamo alcuni possibili modelli di canali di trasmissione dell’ informazione a tempo discreto (trasmissione numerica): – canale additivo gaussiano l’uscita è la somma dell’ingresso e di una variabile casuale gaussiana a valor medio nullo e con varianza σ2; è il modello tipico di un sistema di trasmissione in presenza di rumore additivo gaussiano bianco, ad esempio con ingresso binario, se non è presente un decisore a soglia – canale binario simmetrico (BSC: Binary Symmetric Channel ): alfabeto binario {0,1} sia in ingresso sia in uscita; probabilità di errore pb(e)=p(1/0) = p(0/1) = ε indipendente dall’ingresso; è il modello tipico di un sistema di trasmissione binario che includa un decisore a soglia © Alberto Signoroni - Università di Brescia 17 05/11/2008 Trasmissione dell’informazione su canali discreti z z sorgente e canale DISCRETI nel tempo e nelle ampiezze alfabeto sorgente X → rumore → alfabeto destinatario Y – – – – – p(xi): prob. che la sorgente trasmetta il simbolo xi p(yi): prob. che il destinatario riceva il simbolo yi p(xi,yj): prob. che avendo trasmesso xi sia stato ricevuto yj p(xi|yj): prob. di aver trasmesso xi dato che è stato ricevuto yj p(yi|xj): prob. di ricevere yi dato che è stato trasmesso xj © Alberto Signoroni - Università di Brescia 18 05/11/2008 Informazione trasferita sul canale z Misurabile attraverso il concetto di informazione mutua I ( xi , y j ) = log 2 z p ( xi | y j ) p ( xi ) In generale 0 ≤ I(xi,yj) ≤ I(xi) – se il canale fosse IDEALE allora yi = xi , ossia p(xi|yj)=1 e quindi I(xi,yj) = I(xi); – se il canale fosse MOLTO rumoroso allora yi risulterebbe incorrelato a xi , ossia p(xi|yj)=p(xi), e quindi I(xi,yj) = 0 ! © Alberto Signoroni - Università di Brescia 19 05/11/2008 Informazione mutua media zSi definisce informazione mutua media la quantità I ( X , Y ) = ∑ p ( xi , y j )I ( xi , y j ) i, j zEssa rappresenta la quantità media di informazione trasferita dal canale, ovvero la quantità media dell’informazione della sorgente portata dal simbolo trasmesso e ricevuto Rappresentazione insiemistica delle entropie sorgente-canale © Alberto Signoroni - Università di Brescia 20 05/11/2008 Equivocazione I ( X , Y ) = ∑ p ( xi , y j ) log 2 i, j p ( xi | y j ) p ( xi ) = 1 1 = ∑ p ( xi , y j ) log 2 − ∑ p ( xi , y j ) log 2 = p ( xi ) i , j p ( xi | y j ) i, j ⎛ ⎞ 1 = ∑ ⎜⎜ ∑ p ( xi , y j ) ⎟⎟ log 2 − H (X |Y) = p ( xi ) i ⎝ j ⎠ = H (X ) − H (X |Y) Equivocazione: informazione persa dal canale © Alberto Signoroni - Università di Brescia 21 05/11/2008 Capacità di un canale discreto z Dato che I(X,Y) oltre che dipendere dal canale dipende anche dalla sorgente, ovvero da H(X) e quindi dalle p(xi), si definisce capacità di canale [bit di informazione/simbolo] la quantità: Cs = max I ( X , Y ) p ( xi ) z Dato il massimo ritmo di trasmissione Rs,max (in un canale dispersivo devo garantire ISI=0), definisco alternativamente capacità di canale [bit di informazione/sec] C = Rs ,max Cs © Alberto Signoroni - Università di Brescia 22 05/11/2008 Teorema fondamentale della codifica di canale Teorema (Shannon, 1948): Se un canale ha capacità C e la sorgente emette informazioni ad un ritmo R < C, allora esiste un sistema di codifica tale che l’uscita della sorgente può essere trasmessa nel canale con una probabilità d’errore piccola a piacere. Viceversa se R > C allora non è possibile trasmettere l’informazione senza errori. Osservazione: Se R < C, con un opportuno codice, posso introdurre una ridondanza tale da poter contrastare in modo risolutivo le fonti di errore presenti nel canale. La ridondanza fa aumentare Rb , quindi ho un costo in termini di banda di trasmissione. © Alberto Signoroni - Università di Brescia 23 05/11/2008 Capacità di un canale BSC z Diagramma di transizione di un canale BSC associato alla trasmissione di un simbolo (il canale viene riusato ad ogni simbolo secondo Rb) ε ε ε ε = pb (e ) ε z Per calcolare I(X,Y) posso usare la formula (complementare a quella vista e più comoda in questo caso): I ( X , Y ) = H (Y ) − H (Y | X ) © Alberto Signoroni - Università di Brescia 24 05/11/2008 Capacità di un canale BSC z Per il calcolo di Cs cerco il massimo di I(X,Y) sui diversi valori di p(x0). – L’espressione di H(Y |X) è facilmente calcolabile 1 = Ω(ε ) ε 1− ε H (Y | X ) = p( x0 ) H (Y | x0 ) + (1 − p( x0 )) H (Y | x1 ) = Ω(ε ) H (Y | x0 ) = H (Y | x1 ) = ε log 2 1 + (1 − ε ) log 2 – H(Y) è massima e vale 1 nel caso equiprobabile (per la simmetria del canale che conserva l’equiprobabilità degli ingressi sulle uscite) z canale invertito Quindi per un canale BSC Cs = 1 − Ω(ε ) = 1 + ε log2 ε + (1 − ε ) log2 (1 − ε ) © Alberto Signoroni - Università di Brescia ε 25 05/11/2008 Capacità di un canale gaussiano Proprietà del canale additivo gaussiano: • il segnale è trasmesso senza distorsioni nella banda B con compensazione dell’attenuazione • il canale forza l’ingresso ad essere un segnale a banda limitata B e potenza P • il segnale ricevuto è contaminato da rumore AWGN a banda limitata B e potenza N0B • segnale e rumore sono indipendenti © Alberto Signoroni - Università di Brescia Legge di Hartley-Shannon ⎛ P ⎞ ⎟⎟ C = B log 2 ⎜⎜1 + ⎝ N0 B ⎠ NB se B→∞ C → C∞ il canale introduce un limite rispetto al ritmo di una comunicazione completamente affidabile anche avendo a disposizione una banda illimitata 26 05/11/2008 Codifica di canale per la trasmissione numerica © Alberto Signoroni - Università di Brescia 27 05/11/2008 Modelli di sistemi di comunicazione © Alberto Signoroni - Università di Brescia 28 05/11/2008 Codifica di canale z Codifica di canale: orientata ad aumentare l’affidabilità della trasmissione di bit – In questa introduzione vediamo solo casi semplici (modello di canale BSC, codici lineari) z Strategie per la codifica di canale: – correzione di errori secondo la capacità di correzione del codice usato – rilevazione di errori secondo la capacità di rilevazione del codice usato z Codici lineari: utilizzo di cifre di parità ottenute tramite combinazioni lineari di bit all’interno della parola trasmessa – codici a blocco: parola di codice formata da k bit di informazione e (n-k) bit di parità (vedremo esempi semplici ed i codici di Hamming) – codici convoluzionali: introduzione di memoria tra simboli adiacenti (non li vedremo) – altri… © Alberto Signoroni - Università di Brescia 29 05/11/2008 Codici a blocco Parole u costituite da k bit utili di informazione rappresentate su parole x di codice di n bit. 2k parole di codice ( parola inviata) 2n - 2k parole esterne al codice parola ricevuta correzione rilevazione © Alberto Signoroni - Università di Brescia 30 05/11/2008 Codici a blocco lineari z Codici lineari C z Codici a blocco: schema – semplificano la decodifica – se x p , x q ∈ C, ( x p + x q ) ∈ C, ∀p, q – 0∈C – NB: “+” è la somma mod 2 z Codici sistematici – k bit di informazione in posizione nota e n-k bit di parità z Distanza di Hamming d tra xp e xq: numero di elementi (bit) in cui le 2 parole del codice differiscono – d(xp,xq) = d(xp+xq,0) = numero di elementi non nulli di xp+xq z Peso di Hamming w della parola xp: numero di bit=1 in xp © Alberto Signoroni - Università di Brescia 31 05/11/2008 Codici sistematici z Notazione matriciale per la generazione di parole di codice: x=uG G è detta matrice generatrice di C z z Nei codici sistematici G=| Ik P| Matrice di parità H per codici sistematici H = x H= 0 – infatti xH = uGH = u , uP © Alberto Signoroni - Università di Brescia P I n−k P I n− k = uP + uP = 0 32 05/11/2008 Codici sistematici z In generale se dmin =minp,q{d(xp,xq)} aumenta aumenta anche la capacità di correzione del codice. In un codice (n,k) lineare con distanza minima dmin – capacità di rilevazione: r = dmin-1 – capacità di correzione: t = (dmin-1)/2 per dmin dispari t = (dmin/2)-1 per dmin pari z Proprietà: dmin = wmin (wmin calcolato su C\{0}) x z canale y Sindrome s del vettore ricevuto y : yH = (x + e)H = eH = s – la sindrome è nulla se non ci sono errori, e = 0 – in caso di # ≤ t errori la sindrome indica la posizione dell’errore – in caso di # ≤ r errori si può adottare una opportuna politica di decodifica: associo alla sindrome il vettore errore di peso minimo che l’ha prodotta (criterio max. verosimiglianza → minima distanza) © Alberto Signoroni - Università di Brescia 33 05/11/2008 Codici di Hamming z Codici di Hamming: – – – – – codici sistematici (n,k) con n=2n-k-1 capacità di correzione=1 capacità di rivelazione=2 proprietà: dmin = 3 esempi z z z (3,1) codice banale 000,111 (7,4), (15,11), (31,26) … (127,92)… …(1023,1013), se n aumenta, k/n → a 1 MA la capacità di correzione è fissa a 1! © Alberto Signoroni - Università di Brescia 34 05/11/2008 “Costo” della codifica sorgente R cod. canale R* modulatore bit di informazione bit inviati sul canale k * H =H n n Rb = Rb k [bit di informazione/simbolo(utilizzo del canale)] * [bit/sec] Se voglio trasmettere a parità di potenza PT senza ridurre il ritmo effettivo di trasmissione Rb allora “indebolisco” i simboli utili: ⎛ n ⎞⎛ k ⎞ PT = Rb Eb = ⎜ Rb ⎟⎜ Eb ⎟ ⎝ k ⎠⎝ n ⎠ * * © Alberto Signoroni - Università di Brescia 35 05/11/2008 “Prestazioni” della codifica z z z NOTA: Consideriamo per semplicità sorgenti binarie e canali binari simmetrici (dove quindi la decisione viene fatta indipendentemente bit per bit: decodifica hard) Se indebolisco i simboli allora aumento la pb,r(e) in ricezione MA il codice corregge errori: quindi quali sono le reali prestazioni in termini di pb,c(e) dopo la decodifica di canale ? Il codice corregge fino a 1 errore. Nei codici di Hamming in presenza di errori si finisce con probabilità molto elevata su una parola a distanza minima dmin. Quindi per ogni simbolo si sbagliano dmin bit, che si ripartiscono in una frazione k/n sui bit utili di informazione. La probabilità sul bit sarà quella di simbolo diviso k. © Alberto Signoroni - Università di Brescia 36 05/11/2008 “Prestazioni” della codifica Quindi per un codice di Hamming che corregge 1 errore: pb ,c (e) = ( pB 2 / k ) ⋅ d min ⋅ (k / n) – pB2 : prob. di almeno 2 errori su un Blocco di n decisioni sul bit (è una funzione di pb,r(e), v. sotto); – k: numero di bit utili (rispetto ai quali calcolo pb,c(e)) per Blocco; – dmin numero di bit mediamente errati a causa della decodifica di un Blocco errato per un codice di Hamming; – k/n frazione di distribuzione di errori tra bit utili e bit del blocco pB ( t +1) t ⎤ ⎛ n ⎞ t +1 ⎡ ⎛n⎞ i n −i ⎟⎟ε (1 − ε ) n −t −1 , se ε = pb ,r (e) << 1 = ⎢1 − ∑ ⎜⎜ ⎟⎟ε (1 − ε ) ⎥ ≅ ⎜⎜ ⎦ ⎝ t + 1⎠ ⎣ i =0 ⎝ i ⎠ © Alberto Signoroni - Università di Brescia 37 05/11/2008 Confronto e limiti delle modulazioni numeriche © Alberto Signoroni - Università di Brescia 38 05/11/2008 Obiettivi di progetto per un sistema di trasmission numerica z Obiettivi: – – – – – Massimizzare il bit-rate Rb di trasmissione Minimizzare la probabilità d’errore pb(e) Minimizzare la potenza richiesta in ricezione PR Minimizzare la banda di trasmissione BT Massimizzare l’utilizzo del sistema (rispetto alla sua capacità) – Minimizzare la complessità e il costo del sistema © Alberto Signoroni - Università di Brescia 39 05/11/2008 Prestazioni di pb(e): esempio di modulazioni coerenti M-PSK e M-FSK (M=2k) M-PSK efficiente in BT M-FSK k=5 efficiente in PT k=4 pb(e) k=1 k=2 k=4 k=3 k=5 k=1,2 E-b Università / N 0 [dB] © Alberto Signoroni di Brescia E b / N 0 [dB] 40 05/11/2008 Limiti di progetto z Limitazioni: – I requisiti di banda BT di Nyquist per evitare ISI – Il limite di Shannon R<C e la capacità del canale AWGN (legge Shannon-Hartley) – Normative (BT , PT) – Limiti tecnologici (PT , Rb ,…) – Altri requisiti (es. raggio dell’orbita satellitare) © Alberto Signoroni - Università di Brescia 41 05/11/2008 Minima banda BT (Nyquist, ISI=0) – In banda base il limite teorco è BT,min=Rs/2 [Hz] – In banda passante BT,min=Rs [Hz] P( f ) p (t ) = sinc( t / T ) 1 T −1 2T 0 1 2T © Alberto Signoroni - Università di Brescia f − 2T − T 0 T 2T t 42 05/11/2008 Limite di Shannon z z Capacità di canale: limite teorico di ritmo di trasferimento di informazione su un canale con pb(e) piccola a piacere. Capacità di un canale AWGN (Hartley-Shannon): ⎛ PR ⎞ Rb ≤ C = BT log 2 ⎜1 + ⎟ N⎠ ⎝ BT [bit/s] [ Hz ] PR ≤ E b C [Watt] N = N 0 BT [Watt] ⎛ Rb E b Rb ⎞ E b 2 R b / BT − 1 ⎟⎟ ; ≤ log 2 ⎜⎜ 1 + ≥ BT N 0 BT ⎠ N0 Rb / BT ⎝ Eb se BT → ∞ , → ln 2 = 0,693 (-1,6 dB) N0 © Alberto Signoroni - Università di Brescia 43 05/11/2008 BT/Rb [Hz/bits/s] Regione utile R<C Regione non utile -1.6 [dB] E b / N 0 [dB] Il limite minimo di rapporto segnale rumore Eb/N0 relativo a un canale AWGN con banda infinita per poter trasmettere informazione con pb(e) piccola a piacere ad un ritmo massimo C∞ è pari a -1,6 dB. © Alberto Signoroni - Università di Brescia 44 05/11/2008 Confronto tra sistemi di modulazione z Le due maggiori risorse per le TLC: PT e BT z A seconda dei casi una delle due può essere più “preziosa”, ed i sistemi si possoni classificare in – Sistemi con limitazioni in potenza: z risparmiano potenza alle spese della banda (es. segnali ortogonali, M-FSK, utilizzo di sistemi di codifica di canale (aumento della banda)) – Sistemi con limitazioni in banda: z risparmiano banda alle spese della potenza (es. M-PAM, M-PSK, M-QAM, sistemi di modulazione avanzati ad elevata efficienza spettrale) © Alberto Signoroni - Università di Brescia 45 05/11/2008 Modulazioni numeriche con M simboli z Efficienza di banda: ρ= Rb log 2 M 1 = = BT BT Ts BT Tb [bits/s/Hz ] – Assumendo impulsi di Nyquist ideali (sinc), in banda passante: BT , min = 1 / Ts = R s [Hz] z M-PSK and M-QAM (sistemi con limitazioni in banda) ρ = log 2 M [bits/s/Hz ] – L’efficienza di banda aumenta con l’aumentare di M. z M-FSK (sistemi con limitazioni in potenza) ρ ≅ log 2 M / M [bits/s/Hz ] – L’efficienza di banda diminuisce con l’aumentare di M. © Alberto Signoroni - Università di Brescia 46 05/11/2008 −5 Grafico di confronto ( p b ( e ) = 10 ) Rb/BT [bits/s/Hz] R=C R>C M=256 Regione non utile M=64 S. con limitazione in banda M=16 M=8 M=4 uso di codifica di canale M=2 M=4 R<C M=2 Regione utile (di utilizzo pratico) M=8 M=16 Limite di Shannon -1.6 dB S. con limitazione in potenza E b / N 0 [dB] © Alberto Signoroni - Università di Brescia MPSK MQAM MFSK* p b ( e ) = 10 −5 *segnali ortogonali, ricezione coerente 47 05/11/2008 Applicazioni delle modulazioni numeriche © Alberto Signoroni - Università di Brescia 48 05/11/2008 z Trasmissioni satelitari – QAM, 8-PSK z Telefonia cellulare GSM – GMSK (versione ad elevata efficienza in banda del FSK binario) z LAN Wireless (IEEE 802.11/WiFi) – IEEE 802.11b WiFi (1-11Mb/s; 2,4GHz) z z z 1 Mb/s DBPSK (differential 2-PSK) + spread spectrum 2 Mb/s DQPSK + spread spectrum 5.5-11 Mb/s QPSK (QAM) – IEEE 802.11a/g HyperLAN2 (6-54Mb/s) z z z • • • 6;9 Mb/s BPSK (2-ASK) + OFDM 12;18 Mb/s QPSK + OFDM 24-54 Mb/s M-QAM + OFDM Bluetooth2 π / 4-DQPSK (2 Mbit/s) 8-DPSK (3 Mbit/s) Bluetooth 1 GMSK (versione modificata del FSK binario) ZigBee (IEEE 802.15.4) PSK. © Alberto Signoroni - Università di Brescia 49 05/11/2008 z OFDM: set di segnali PSK o M-QAM in multiplati in bande ortogonali – ADSL and VDSL broadband access via telephone network copper wires. – IEEE 802.11a and 802.11g Wireless LANs. – The Digital audio broadcasting systems EUREKA 147, Digital Radio Mondiale, HD Radio, T-DMB and ISDB-TSB. – The terrestrial digital TV systems DVB-T, DVB-H, T-DMB and ISDBT. – The IEEE 802.16 or WiMax Wireless MAN standard. – The IEEE 802.20 or Mobile Broadband Wireless Access (MBWA) standard. – The Flash-OFDM cellular system. – Some Ultra wideband (UWB) systems. – Power line communication (PLC). – Point-to-point (PtP) and point-to-multipoint (PtMP) wireless applications. © Alberto Signoroni - Università di Brescia 50 05/11/2008