...

Introduzione alla teoria dell`informazione e della codifica

by user

on
Category: Documents
15

views

Report

Comments

Transcript

Introduzione alla teoria dell`informazione e della codifica
Introduzione alla teoria
dell’Informazione
e della Codifica
Comunicazioni Elettriche C
a.a. 2008/09
© Alberto Signoroni - Università di Brescia
1
[email protected] 05/11/2008
“Misurare” l’Informazione
z
Punto di vista quantitativo
– Modellizzazione statistica
– Entropia di una sorgente di informazione
z
Punto di vista percettivo
– Modellizzazione del sistema uditivo/visivo umano
– Approcci globali (model driven) o locali (data driven)
z
Punto di vista semantico
– Modellizzazione difficile in generale
– Modelli di “rilevanza” in ambiti (applicativi) specifici
© Alberto Signoroni - Università di Brescia
2
05/11/2008
Teoria dell’Informazione
z
z
Informazione ha qui un riscontro quantitativo in senso
statistico.
Concetti:
–
–
–
–
z
Sorgenti di informazione S (processi stocastici)
Misura dell’informazione (in base ad un modello di S)
Entropia di una sorgente S
Codifica di sorgente CS (compressione)
Shannon C.E., Weaver W., The matematical theory of Communication, Univ.Of
Illinois press, urbana IL, 1949
© Alberto Signoroni - Università di Brescia
3
05/11/2008
Sorgenti di Informazione
S
•Segnali
•Immagini
•Volumi
•Video
(X )
N
n n =1
X = {x }
M
i i =1
Proc.stocastico: all’istante n la VC
X assume, con probabilità pi ,uno degli
M simboli possibili xi dell’ alfabeto di
sorgente.
Sorgenti stazionarie discrete senza memoria:
• simboli indipendenti e identicamente distribuiti (i.i.d.)
• voglio caratterizzare dal punto di vista statistico quanta
INFORMAZIONE viene prodotta dalla sorgente così modellizzata.
© Alberto Signoroni - Università di Brescia
4
05/11/2008
Misura dell’Informazione
¾ Associo ad un simbolo xi
i.i.d. un’informazione Ii .
Proprietà desiderate per Ii :
1. pi < p j ⇒ I i > I j
2. I i ≥ 0 per 0 ≤ pi ≤ 1
3. I i → 0 se pi a 1
4. pi , j = pi ⋅ p j ⇒ I i , j = I i + I j
Soddisfatte dalla funzione logaritmica
© Alberto Signoroni - Università di Brescia
1
I i = log a
pi
5
05/11/2008
Sorgenti binarie
bit di lunghezza e di informazione:
{
xi = bi1 , bi2 , K , biLi
b = {0,1}
z
z
z
z
}
Lunghezza di simbolo Li
Li [bit di lunghezza]
Li è intero positivo
Lunghezza media
I ( xi ) = I i = − log a pi
a=2
z
z
z
z
L = ∑i =1 pi Li
I = ∑i =1 pi I i
M
z
Lunghezza totale
Ltot ≈ N ⋅ L
© Alberto Signoroni - Università di Brescia
Informazione di simbolo Ii
Ii [bit di informazione]
Ii è reale positivo
Informazione media
M
z
ENTROPIA
Informazione totale
I tot ≈ N ⋅ I
6
05/11/2008
Entropia di una Sorgente H(X)
Si definisce come l’informazione
che mediamente si acquisisce in un
generico istante n, per il fatto di
conoscere il valore assunto dal
processo Xn :
ES: Sorgente binaria
senza memoria:
p0 , p1=1- p0
1
H(X) = ∑i =1 pi I i =∑i =1 pi log 2
pi
∆
M
M
Dal modello di sorgente stazionaria senza
memoria si conosce l’entropia di ordine
zero, H0. Modelli più avanzati consentono
ad esempio di ricavare entropie di ordine
superiore, HS , con HS<H0.
© Alberto Signoroni - Università di Brescia
7
05/11/2008
Teorema della codifica di sorgente
Proprietà dell’Entropia: 0 ≤ H(X) ≤ log 2 M
con H(X) = 0 se ∃ i : pi = 1
e H(X) = log 2 M se ∀i, pi = 1 / M
Simboli
equiprobabili
Teorema di Shannon sulla codifica di sorgente (1948):
Data la sorgente discreta stazionaria senza memoria X, con entropia H(X)
allora:
L ≥ H(X)
Dal teorema deduciamo che esiste una Lmin=H(X),
e che si può introdurre un’efficienza di codifica:
© Alberto Signoroni - Università di Brescia
H(X)
η=
L
8
05/11/2008
Codifica di Sorgente
S
►
(X )
N
n n =1
X = {xi }i =1
M
CS
Codici a lunghezza fissa
Li = L , ∀i
► Rappresento xi su L bit dove
L ≥ log 2 M
► solitamente
L = ⎡log 2 M ⎤
© Alberto Signoroni - Università di Brescia
n
01011101010100011010111011…
c{x(n)}
codifica del simbolo x(n)
►
Codici a lunghezza variabile
► Cerco di seguire il criterio di
quantità di informazione
► Se pi>pj cerco di utilizzare Li<Lj
in modo da diminuire E[L ] = L
Problema: il codice generato
deve essere UNIVOCAMENTE
DECIFRABILE (decodificabile)
9
05/11/2008
Codici decodificabili e a prefisso
Il teorema della codifica di sorgente non è costruttivo:
non indica metodi di costruzione di codici per poter ottenere prestazioni
H(X) ≤ L ≤ H(X) + ε , con ε piccolo a piacere.
Proprietà: le lunghezze delle parole di
un codice decodificabile binario con M
simboli soddisfano sempre la seguente
disuguaglianza (di Kraft-McMillan):
M
∑2
− Li
≤1
i =1
{
Codici a Prefisso: famiglia di codici t.c. dato xi = bi1 , bi2 , K , biLi
Lj
1
2
non esiste x j = bi , bi , K , bi , ∀i ≠ j con L j < Li
{
© Alberto Signoroni - Università di Brescia
}
}
10
05/11/2008
Codici decodificabili e a prefisso
• La disuguaglianza di Kraft è c.n. per tutti i codici binari decodificabili
• da essa si ricava il teorema della codifica di sorgente
• per codici in base K è sufficiente sostituire K al posto di 2
• i codici a prefisso sono una sottoclasse di codici decodificabili
• per ottenere L = H(X) basterebbe poter scegliere Li = − log 2 pi
• scegliendo invece Li = ⎡− log 2 pi ⎤ si dimostra che si spreca in
tutto 1 bit, ovvero
H(X) ≤ L ≤ H(X) + 1
Estensione di una sorgente senza memoria: considero gruppi di n
simboli della sorgente X di M simboli ottengo Xn con alfabeto di Mn
siboli per cui vale n H(X) ≤ nL ≤ n H(X) + 1 e quindi:
1
H(X) ≤ L ≤ H(X) +
11
© Alberto Signoroni - Università di Brescia
n
05/11/2008
Codifica a prefisso di Huffman
Algoritmo di codifica
Sorgente codificata
0
Decodifica ad albero
0
start
1
1
0
1
© Alberto Signoroni - Università di Brescia
s0 (end simbolo)
0
s3 (end simbolo)
1 s4 (end simbolo)
s1
(end simbolo)
s2 (end simbolo)
12
05/11/2008
ES1 – una sorgente stazionaria discreta senza memoria ha un alfabeto di 8 simboli
con probabilità 0.25 0.20 0.15 0.12 0.10 0.08 0.05 e 0.05.
-Determinare un codice di Huffman per la sorgente
-determinare la lunghezza media di simbolo e confrontarla con l’entropia
L
© Alberto Signoroni - Università di Brescia
13
05/11/2008
ES2 – una sorgente stazionaria discreta senza memoria emette 4 simboli con
probabilità p1=p2=0.3365 e p3=p4=0.1635.
-Determinare un codice di Huffman per la sorgente e calcolare il bitrate medio
-Determinare un codice di Huffman che codifiche coppie di simboli e determinare il
bitrate medio
-Determinare il bitrate medio ottenibile con la codifica di J simboli se J → ∞
L
© Alberto Signoroni - Università di Brescia
14
05/11/2008
ES2 – (segue)
Quiz:trova
l’errore
© Alberto Signoroni - Università di Brescia
15
05/11/2008
ES2 – (segue)
L2
L
© Alberto Signoroni - Università di Brescia
16
05/11/2008
Trasmissione dell’informazione
z
Consideriamo alcuni possibili modelli di canali di trasmissione
dell’ informazione a tempo discreto (trasmissione numerica):
– canale additivo gaussiano l’uscita è la somma dell’ingresso e di una
variabile casuale gaussiana a valor medio nullo e con varianza σ2; è il
modello tipico di un sistema di trasmissione in presenza di rumore additivo
gaussiano bianco, ad esempio con ingresso binario, se non è presente un
decisore a soglia
– canale binario simmetrico (BSC: Binary Symmetric Channel ): alfabeto
binario {0,1} sia in ingresso sia in uscita; probabilità di errore pb(e)=p(1/0)
= p(0/1) = ε indipendente dall’ingresso; è il modello tipico di un sistema di
trasmissione binario che includa un decisore a soglia
© Alberto Signoroni - Università di Brescia
17
05/11/2008
Trasmissione dell’informazione
su canali discreti
z
z
sorgente e canale DISCRETI nel tempo e nelle ampiezze
alfabeto sorgente X → rumore → alfabeto destinatario Y
–
–
–
–
–
p(xi): prob. che la sorgente trasmetta il simbolo xi
p(yi): prob. che il destinatario riceva il simbolo yi
p(xi,yj): prob. che avendo trasmesso xi sia stato ricevuto yj
p(xi|yj): prob. di aver trasmesso xi dato che è stato ricevuto yj
p(yi|xj): prob. di ricevere yi dato che è stato trasmesso xj
© Alberto Signoroni - Università di Brescia
18
05/11/2008
Informazione trasferita sul canale
z
Misurabile attraverso il concetto di informazione mutua
I ( xi , y j ) = log 2
z
p ( xi | y j )
p ( xi )
In generale 0 ≤ I(xi,yj) ≤ I(xi)
– se il canale fosse IDEALE allora yi = xi , ossia p(xi|yj)=1
e quindi I(xi,yj) = I(xi);
– se il canale fosse MOLTO rumoroso allora yi risulterebbe
incorrelato a xi , ossia p(xi|yj)=p(xi), e quindi I(xi,yj) = 0 !
© Alberto Signoroni - Università di Brescia
19
05/11/2008
Informazione mutua media
zSi
definisce informazione mutua media la quantità
I ( X , Y ) = ∑ p ( xi , y j )I ( xi , y j )
i, j
zEssa
rappresenta la
quantità media di informazione trasferita dal canale,
ovvero la quantità media dell’informazione della sorgente portata
dal simbolo trasmesso e ricevuto
Rappresentazione insiemistica
delle entropie sorgente-canale
© Alberto Signoroni - Università di Brescia
20
05/11/2008
Equivocazione
I ( X , Y ) = ∑ p ( xi , y j ) log 2
i, j
p ( xi | y j )
p ( xi )
=
1
1
= ∑ p ( xi , y j ) log 2
− ∑ p ( xi , y j ) log 2
=
p ( xi ) i , j
p ( xi | y j )
i, j
⎛
⎞
1
= ∑ ⎜⎜ ∑ p ( xi , y j ) ⎟⎟ log 2
− H (X |Y) =
p ( xi )
i ⎝ j
⎠
= H (X ) − H (X |Y)
Equivocazione:
informazione persa dal canale
© Alberto Signoroni - Università di Brescia
21
05/11/2008
Capacità di un canale discreto
z
Dato che I(X,Y) oltre che dipendere dal canale dipende anche
dalla sorgente, ovvero da H(X) e quindi dalle p(xi), si definisce
capacità di canale [bit di informazione/simbolo] la quantità:
Cs = max I ( X , Y )
p ( xi )
z
Dato il massimo ritmo di trasmissione Rs,max (in un canale
dispersivo devo garantire ISI=0), definisco alternativamente
capacità di canale [bit di informazione/sec]
C = Rs ,max Cs
© Alberto Signoroni - Università di Brescia
22
05/11/2008
Teorema fondamentale
della codifica di canale
Teorema (Shannon, 1948): Se un canale ha capacità C e la
sorgente emette informazioni ad un ritmo R < C, allora
esiste un sistema di codifica tale che l’uscita della sorgente
può essere trasmessa nel canale con una probabilità
d’errore piccola a piacere. Viceversa se R > C allora non è
possibile trasmettere l’informazione senza errori.
Osservazione: Se R < C, con un opportuno codice, posso introdurre
una ridondanza tale da poter contrastare in modo risolutivo le fonti di
errore presenti nel canale. La ridondanza fa aumentare Rb , quindi ho
un costo in termini di banda di trasmissione.
© Alberto Signoroni - Università di Brescia
23
05/11/2008
Capacità di un canale BSC
z
Diagramma di transizione di un canale BSC associato alla trasmissione di
un simbolo (il canale viene riusato ad ogni simbolo secondo Rb)
ε
ε
ε
ε = pb (e )
ε
z
Per calcolare I(X,Y) posso usare la formula (complementare a quella vista e
più comoda in questo caso):
I ( X , Y ) = H (Y ) − H (Y | X )
© Alberto Signoroni - Università di Brescia
24
05/11/2008
Capacità di un canale BSC
z
Per il calcolo di Cs cerco il massimo di I(X,Y) sui diversi valori di p(x0).
– L’espressione di H(Y |X) è facilmente calcolabile
1
= Ω(ε )
ε
1− ε
H (Y | X ) = p( x0 ) H (Y | x0 ) + (1 − p( x0 )) H (Y | x1 ) = Ω(ε )
H (Y | x0 ) = H (Y | x1 ) = ε log 2
1
+ (1 − ε ) log 2
– H(Y) è massima e vale 1 nel caso equiprobabile
(per la simmetria del canale che conserva
l’equiprobabilità degli ingressi sulle uscite)
z
canale
invertito
Quindi per un canale BSC
Cs
= 1 − Ω(ε )
= 1 + ε log2 ε + (1 − ε ) log2 (1 − ε )
© Alberto Signoroni - Università di Brescia
ε
25
05/11/2008
Capacità di un canale gaussiano
Proprietà del canale additivo gaussiano:
• il segnale è trasmesso senza distorsioni
nella banda B con compensazione
dell’attenuazione
• il canale forza l’ingresso ad essere un
segnale a banda limitata B e potenza P
• il segnale ricevuto è contaminato da rumore
AWGN a banda limitata B e potenza N0B
• segnale e rumore sono indipendenti
© Alberto Signoroni - Università di Brescia
Legge di Hartley-Shannon
⎛
P ⎞
⎟⎟
C = B log 2 ⎜⎜1 +
⎝ N0 B ⎠
NB se
B→∞
C → C∞
il canale introduce un limite
rispetto al ritmo di una
comunicazione completamente
affidabile anche avendo a
disposizione una banda illimitata
26
05/11/2008
Codifica di canale
per la trasmissione numerica
© Alberto Signoroni - Università di Brescia
27
05/11/2008
Modelli di sistemi di comunicazione
© Alberto Signoroni - Università di Brescia
28
05/11/2008
Codifica di canale
z
Codifica di canale: orientata ad aumentare l’affidabilità della
trasmissione di bit
– In questa introduzione vediamo solo casi semplici (modello di canale BSC,
codici lineari)
z
Strategie per la codifica di canale:
– correzione di errori secondo la capacità di correzione del codice usato
– rilevazione di errori secondo la capacità di rilevazione del codice usato
z
Codici lineari: utilizzo di cifre di parità ottenute tramite
combinazioni lineari di bit all’interno della parola trasmessa
– codici a blocco: parola di codice formata da k bit di informazione e (n-k)
bit di parità (vedremo esempi semplici ed i codici di Hamming)
– codici convoluzionali: introduzione di memoria tra simboli adiacenti (non li
vedremo)
– altri…
© Alberto Signoroni - Università di Brescia
29
05/11/2008
Codici a blocco
Parole u costituite da k bit utili di informazione
rappresentate su parole x di codice di n bit.
2k parole di codice ( parola inviata)
2n - 2k parole esterne al codice
parola ricevuta
correzione
rilevazione
© Alberto Signoroni - Università di Brescia
30
05/11/2008
Codici a blocco lineari
z
Codici lineari C
z
Codici a blocco: schema
– semplificano la decodifica
– se x p , x q ∈ C, ( x p + x q ) ∈ C, ∀p, q
– 0∈C
– NB: “+” è la somma mod 2
z
Codici sistematici
– k bit di informazione in
posizione nota e n-k bit di parità
z
Distanza di Hamming d tra xp e xq: numero di elementi (bit)
in cui le 2 parole del codice differiscono
– d(xp,xq) = d(xp+xq,0) = numero di elementi non nulli di xp+xq
z
Peso di Hamming w della parola xp: numero di bit=1 in xp
© Alberto Signoroni - Università di Brescia
31
05/11/2008
Codici sistematici
z
Notazione matriciale per la generazione di parole di codice:
x=uG
G è detta matrice generatrice di C
z
z
Nei codici sistematici G=| Ik P|
Matrice di parità H per codici sistematici H =
x H= 0
– infatti
xH = uGH = u , uP
© Alberto Signoroni - Università di Brescia
P
I n−k
P
I n− k
= uP + uP = 0
32
05/11/2008
Codici sistematici
z
In generale se dmin =minp,q{d(xp,xq)} aumenta
aumenta anche la capacità di correzione del codice.
In un codice (n,k) lineare con distanza minima dmin
– capacità di rilevazione: r = dmin-1
– capacità di correzione: t = (dmin-1)/2 per dmin dispari
t = (dmin/2)-1 per dmin pari
z
Proprietà: dmin = wmin (wmin calcolato su C\{0})
x
z
canale
y
Sindrome s del vettore ricevuto y : yH = (x + e)H = eH = s
– la sindrome è nulla se non ci sono errori, e = 0
– in caso di # ≤ t errori la sindrome indica la posizione dell’errore
– in caso di # ≤ r errori si può adottare una opportuna politica di decodifica:
associo alla sindrome il vettore errore di peso minimo che l’ha prodotta
(criterio max. verosimiglianza → minima distanza)
© Alberto Signoroni - Università di Brescia
33
05/11/2008
Codici di Hamming
z
Codici di Hamming:
–
–
–
–
–
codici sistematici (n,k) con n=2n-k-1
capacità di correzione=1
capacità di rivelazione=2
proprietà: dmin = 3
esempi
z
z
z
(3,1) codice banale 000,111
(7,4), (15,11), (31,26) … (127,92)…
…(1023,1013), se n aumenta, k/n → a 1 MA la capacità di correzione è
fissa a 1!
© Alberto Signoroni - Università di Brescia
34
05/11/2008
“Costo” della codifica
sorgente
R
cod. canale
R*
modulatore
bit di
informazione
bit inviati
sul canale
k
*
H =H
n
n
Rb = Rb
k
[bit di informazione/simbolo(utilizzo del canale)]
*
[bit/sec]
Se voglio trasmettere a parità di potenza PT senza ridurre il ritmo
effettivo di trasmissione Rb allora “indebolisco” i simboli utili:
⎛ n ⎞⎛ k ⎞
PT = Rb Eb = ⎜ Rb ⎟⎜ Eb ⎟
⎝ k ⎠⎝ n ⎠
*
*
© Alberto Signoroni - Università di Brescia
35
05/11/2008
“Prestazioni” della codifica
z
z
z
NOTA: Consideriamo per semplicità sorgenti binarie e
canali binari simmetrici (dove quindi la decisione viene fatta
indipendentemente bit per bit: decodifica hard)
Se indebolisco i simboli allora aumento la pb,r(e) in ricezione
MA il codice corregge errori: quindi quali sono le reali
prestazioni in termini di pb,c(e) dopo la decodifica di canale ?
Il codice corregge fino a 1 errore. Nei codici di Hamming in
presenza di errori si finisce con probabilità molto elevata su
una parola a distanza minima dmin. Quindi per ogni simbolo si
sbagliano dmin bit, che si ripartiscono in una frazione k/n sui bit
utili di informazione. La probabilità sul bit sarà quella di
simbolo diviso k.
© Alberto Signoroni - Università di Brescia
36
05/11/2008
“Prestazioni” della codifica
Quindi per un codice di Hamming che corregge 1 errore:
pb ,c (e) = ( pB 2 / k ) ⋅ d min ⋅ (k / n)
– pB2 : prob. di almeno 2 errori su un Blocco di n decisioni sul bit (è una funzione
di pb,r(e), v. sotto);
– k: numero di bit utili (rispetto ai quali calcolo pb,c(e)) per Blocco;
– dmin numero di bit mediamente errati a causa della decodifica di un Blocco
errato per un codice di Hamming;
– k/n frazione di distribuzione di errori tra bit utili e bit del blocco
pB ( t +1)
t
⎤ ⎛ n ⎞ t +1
⎡
⎛n⎞ i
n −i
⎟⎟ε (1 − ε ) n −t −1 , se ε = pb ,r (e) << 1
= ⎢1 − ∑ ⎜⎜ ⎟⎟ε (1 − ε ) ⎥ ≅ ⎜⎜
⎦ ⎝ t + 1⎠
⎣ i =0 ⎝ i ⎠
© Alberto Signoroni - Università di Brescia
37
05/11/2008
Confronto e limiti delle
modulazioni numeriche
© Alberto Signoroni - Università di Brescia
38
05/11/2008
Obiettivi di progetto per un sistema di
trasmission numerica
z
Obiettivi:
–
–
–
–
–
Massimizzare il bit-rate Rb di trasmissione
Minimizzare la probabilità d’errore pb(e)
Minimizzare la potenza richiesta in ricezione PR
Minimizzare la banda di trasmissione BT
Massimizzare l’utilizzo del sistema (rispetto alla
sua capacità)
– Minimizzare la complessità e il costo del sistema
© Alberto Signoroni - Università di Brescia
39
05/11/2008
Prestazioni di pb(e): esempio di modulazioni
coerenti M-PSK e M-FSK (M=2k)
M-PSK
efficiente in BT
M-FSK
k=5
efficiente in PT
k=4
pb(e)
k=1
k=2
k=4
k=3
k=5
k=1,2
E-b Università
/ N 0 [dB]
© Alberto Signoroni
di Brescia
E b / N 0 [dB]
40
05/11/2008
Limiti di progetto
z
Limitazioni:
– I requisiti di banda BT di Nyquist per evitare ISI
– Il limite di Shannon R<C e la capacità del canale
AWGN (legge Shannon-Hartley)
– Normative (BT , PT)
– Limiti tecnologici (PT , Rb ,…)
– Altri requisiti (es. raggio dell’orbita satellitare)
© Alberto Signoroni - Università di Brescia
41
05/11/2008
Minima banda BT (Nyquist, ISI=0)
– In banda base il limite teorco è BT,min=Rs/2 [Hz]
– In banda passante BT,min=Rs [Hz]
P( f )
p (t ) = sinc( t / T )
1
T
−1
2T
0
1
2T
© Alberto Signoroni - Università di Brescia
f
− 2T − T
0
T 2T
t
42
05/11/2008
Limite di Shannon
z
z
Capacità di canale: limite teorico di ritmo di trasferimento
di informazione su un canale con pb(e) piccola a piacere.
Capacità di un canale AWGN (Hartley-Shannon):
⎛ PR ⎞
Rb ≤ C = BT log 2 ⎜1 + ⎟
N⎠
⎝
BT
[bit/s]
[ Hz ]
PR ≤ E b C
[Watt]
N = N 0 BT
[Watt]
⎛
Rb
E b Rb ⎞
E b 2 R b / BT − 1
⎟⎟ ;
≤ log 2 ⎜⎜ 1 +
≥
BT
N 0 BT ⎠
N0
Rb / BT
⎝
Eb
se BT → ∞ ,
→ ln 2 = 0,693 (-1,6 dB)
N0
© Alberto Signoroni - Università di Brescia
43
05/11/2008
BT/Rb [Hz/bits/s]
Regione utile
R<C
Regione
non utile
-1.6 [dB]
E b / N 0 [dB]
Il limite minimo di rapporto segnale rumore Eb/N0 relativo a un canale AWGN con
banda infinita per poter trasmettere informazione con pb(e) piccola a piacere ad un
ritmo massimo C∞ è pari a -1,6 dB.
© Alberto Signoroni - Università di Brescia
44
05/11/2008
Confronto tra sistemi di modulazione
z
Le due maggiori risorse per le TLC: PT e BT
z
A seconda dei casi una delle due può essere più
“preziosa”, ed i sistemi si possoni classificare in
– Sistemi con limitazioni in potenza:
z
risparmiano potenza alle spese della banda (es. segnali ortogonali,
M-FSK, utilizzo di sistemi di codifica di canale (aumento della
banda))
– Sistemi con limitazioni in banda:
z
risparmiano banda alle spese della potenza (es. M-PAM, M-PSK,
M-QAM, sistemi di modulazione avanzati ad elevata efficienza
spettrale)
© Alberto Signoroni - Università di Brescia
45
05/11/2008
Modulazioni numeriche con M simboli
z
Efficienza di banda:
ρ=
Rb log 2 M
1
=
=
BT
BT Ts
BT Tb
[bits/s/Hz ]
– Assumendo impulsi di Nyquist ideali (sinc), in banda passante:
BT , min = 1 / Ts = R s [Hz]
z
M-PSK and M-QAM (sistemi con limitazioni in banda)
ρ = log 2 M
[bits/s/Hz ]
– L’efficienza di banda aumenta con l’aumentare di M.
z
M-FSK (sistemi con limitazioni in potenza)
ρ ≅ log 2 M / M
[bits/s/Hz ]
– L’efficienza di banda diminuisce con l’aumentare di M.
© Alberto Signoroni - Università di Brescia
46
05/11/2008
−5
Grafico di confronto ( p b ( e ) = 10 )
Rb/BT [bits/s/Hz]
R=C
R>C
M=256
Regione non utile
M=64
S. con limitazione in banda
M=16
M=8
M=4
uso di
codifica
di canale
M=2
M=4
R<C
M=2
Regione utile
(di utilizzo pratico)
M=8
M=16
Limite di Shannon
-1.6 dB
S. con limitazione in potenza
E b / N 0 [dB]
© Alberto Signoroni - Università di Brescia
MPSK
MQAM
MFSK*
p b ( e ) = 10 −5
*segnali ortogonali, ricezione coerente
47
05/11/2008
Applicazioni
delle modulazioni numeriche
© Alberto Signoroni - Università di Brescia
48
05/11/2008
z
Trasmissioni satelitari
– QAM, 8-PSK
z
Telefonia cellulare GSM
– GMSK (versione ad elevata efficienza in banda del FSK binario)
z
LAN Wireless (IEEE 802.11/WiFi)
– IEEE 802.11b WiFi (1-11Mb/s; 2,4GHz)
z
z
z
1 Mb/s DBPSK (differential 2-PSK) + spread spectrum
2 Mb/s DQPSK + spread spectrum
5.5-11 Mb/s QPSK (QAM)
– IEEE 802.11a/g HyperLAN2 (6-54Mb/s)
z
z
z
•
•
•
6;9 Mb/s BPSK (2-ASK) + OFDM
12;18 Mb/s QPSK + OFDM
24-54 Mb/s M-QAM + OFDM
Bluetooth2 π / 4-DQPSK (2 Mbit/s) 8-DPSK (3 Mbit/s)
Bluetooth 1 GMSK (versione modificata del FSK binario)
ZigBee (IEEE 802.15.4) PSK.
© Alberto Signoroni - Università di Brescia
49
05/11/2008
z
OFDM: set di segnali PSK o M-QAM in multiplati in
bande ortogonali
– ADSL and VDSL broadband access via telephone network copper
wires.
– IEEE 802.11a and 802.11g Wireless LANs.
– The Digital audio broadcasting systems EUREKA 147, Digital Radio
Mondiale, HD Radio, T-DMB and ISDB-TSB.
– The terrestrial digital TV systems DVB-T, DVB-H, T-DMB and ISDBT.
– The IEEE 802.16 or WiMax Wireless MAN standard.
– The IEEE 802.20 or Mobile Broadband Wireless Access (MBWA)
standard.
– The Flash-OFDM cellular system.
– Some Ultra wideband (UWB) systems.
– Power line communication (PLC).
– Point-to-point (PtP) and point-to-multipoint (PtMP) wireless
applications.
© Alberto Signoroni - Università di Brescia
50
05/11/2008
Fly UP