CDI – Comunicação Digital

Propaganda
CDI – Comunicação Digital
Revisão de Sinais e Espectro
“Digital Communications – Fundamentals and Applications”
Bernard Sklar
2ª edição – Prentice Hall
Marcio Doniak
www.sj.ifsc.edu.br/~mdoniak
[email protected]
CDI 20705 – Comunicação Digital
1/35
1. Introdução
A principal característica de um sistema de comunicação digital (DCS) é o envio de uma
forma de onda, selecionada dentro de um grupo, com uma duração de tempo predeterminada. Ao
contrário de um sistema analógico, que envia uma forma de onda, selecionada a partir de uma
infinidade de outras, com resolução infinita do ponto de vista teórico. Em um DCS o objetivo no
receptor não é reproduzir exatamente a forma de onda transmitida, mas sim determinar a partir
da relação sinal-ruído qual foi a forma de onda transmitida dentre as possíveis. Para isso, uma
importante medida de desempenho de um DCS é a probabilidade de erro.
É sempre bom lembrar o que levou os sistemas de comunicação serem todos digitais:
•
A principal vantagem é a facilidade com que os sistemas digitais conseguem
regenerar o sinal, conforme está ilustrado na Figura 1. Essa distorção ocorre porque
tanto os circuitos quanto as linhas de transmissões possuem uma função de
tranferência que não é ideal, além do ruído elétrico e outros sinais interferentes.
Figura 1: Degradação e Regeneração.
•
DCS são menos susceptíveis a interferência e distorções, devido a sua forma, por
exemplo, ligado e desligado, a perturbação deve ser grande o suficiente para
conseguir modificar a informação transmitida.
CDI 20705 – Comunicação Digital
2/35
DCS são mais confiáveis e podem ser produzidos com custos mais baixos. Podem ser
•
usados diversos componentes de propósito geral produzidos e testados em larga
escala.
DCS oferecem uma maior segurança para a informação. Esta pode ser agrupada em
•
pacotes.
Entretando, DCS exigem um maior processamento do sinal, e necessitam alocar
•
muitos recursos para estabelecer o sincronismo.
2. Revisão de Sinais
2.1. Série de Fourier:
Considere um conjunto de funções { e jw t },
n ∈ ℤ,
n
w n=(2 π/T ) n ,
T ∈ℝ
+.
e
duas importantes propriedades:
1ª) e jw (t+ kT ) = e jw t ⋅e jw
n
n
n
kT
Como, w n=2 /T n , então:
e
e
jwn (t+ kT )
j
2π
nkT
T
= e
j
2π
nt
T
⋅e
j
2π
nkT
T
= e j 2 πnk = cos(2 πnk )+ jsen(2 πnk ) = cos( 2 πnk )
Logo, e jw (t+ kT ) = e jw t → as funções são periódicas!
n
n
T/2
2ª)
T /2
∫
e
jw n t
− jwm t
e
dt =
1
j
= T
e
dt =
−T / 2
−T /2
=
∫
T/2
j w n− w m t
2π
(n−m)
T
(e j π(n−m )−e− j π(n−m )) =
∫
e
j
2
n −m t
T
dt =
−T / 2
1
π
( n−m)
T
sen [n−m]
= T sinc [ n−m] =
n−m
( e j π(n−m)−e− j π(n− m))
=
2j
0, p / n ≠ m
1, p / n = m
Seja f(t) uma função periódica com período T. Assim, f(t) pode ser expressa por:
f (t) =
1
T
+∞
∑
n=−∞
c n e jw
CDI 20705 – Comunicação Digital
n
t
(1)
3/35
T/2
cn =
∫
f (t )e− jw t dt
(2)
n
−T /2
Exemplo 1:
Figura 2: Exemplo 1, sinal no tempo.
T/2
cn =
∫
 /2
− jw n t
A.e
dt =
−/ 2
−T /2
=
2A e jw
.
wn
∫
n
/ 2
A. e− jw t dt =
n
−A − jw
e
jw n
n
/2
−e jw
n
/ 2
 =
sen w n /2
−e− jw  /2 
2A
=
. sen  wn /2 = A. .
=
2j
wn
w n /2
n
= A. . sinc wn  /2
Figura 3: Função sinc.
 w n = wn − wn−1 =
CDI 20705 – Comunicação Digital
2
2
. n − n−1 =
=  wn
T
T
(3)
4/35
Esse valor é válido para qualquer f(t), e não apenas para esse exemplo.
Exemplo 2:
2
1 j
f t = cos
. t = e
T
2
2
.t
T
−j
e
2
.t
T

w n=2 /T n ,
Neste caso:
c1 =
T
,
2
c−1 =
T
2
e
c n = 0,
para n ≠ ±1.
2.2. Transformada de Fourier
Aplicando a equação (3) em (1) e (2), temos:
∞
1
f t =
. ∑ cn . e jw t .  w
2  n=−∞
n
No limite, quando T ∞ , temos:
 w  dw ,
wn  w ,
c n  F  w , assim, temos a Transformada de Fourier para
um sinal não periódico.
∞
f t =
1
. ∫ F w .e jwt . dw
2  −∞
∞
F w =
∫ f t. e− jwt . dt
−∞
Exemplo 3:
Se, f t =  t , qual é a F(w)?
∞
F w =
∫ t .e− jwt . dt
= 1.
−∞
CDI 20705 – Comunicação Digital
5/35
Figura 4: Transformada de Fourier da função impulso unitário.
Algumas propriedades:
a) Dualidade:
f t
F t
F  w
2  f −w


∞
Ƒ {2πf(-w)} =
-1
1
. ∫ 2  f −w .e jwt . dw , fazendo  = −w
2  −∞
∞
Ƒ {2πf(-w)} =
-1
∫ f . e− j  t . d 
−∞
b) Deslocamento no tempo e na frequência
f t
↔
F w
f t − t 0 
↔
e− jwt . F w 
0
Exemplo 4: Foi visto que:
f t =  t  F w = 1
− jwt 0
f t − t 0  = t − t 0   F w = 1. e
Da propriedade da dualidade:
t 0 = w 0 , então, e jw t
0
ou de forma geral:
f t e jw t
0
↔
2   w−w 0 
↔
F w−w 0 
Aplicando em Série de Fourier:
Seja f(t) periódico com período T. Então,
∞
f t =
1
. ∑ c . e jw t
T n=−∞ n
n
↔
F w
∞
F w =
2
∑ c  w−w n 
T n=−∞ n
Assim, o espectro de um sinal periódico é discreto no tempo e contém impulsos. O
espaçamento entre os impulsos é  w =
CDI 20705 – Comunicação Digital
2
, conforme está ilustrado na Figura 3.
T
6/35
c) Simetria da Amplitude e da Fase
F w = ∣F  w∣. e j  w apresenta as seguintes
Considere um sinal f(t) real, então,
simetrias:
∣F w ∣ → é par; e w → é ímpar.
∞
∫ f t. e− jwt . dt
F w =
−∞
∞
∞
∫ f t. cos  wt . dt − j ∫
F w =
−∞
f t . sen  wt . dt
−∞
∞
∞
2
∣F w∣ = [ ∫ f t . cos wt . dt ]  [− j ∫ f t . sen wt  . dt ]
2
−∞
2
−∞
∞
2
∞
2
∣F w ∣ = [ ∫ f t . cos wt . dt ]  [ ∫ f t. sen wt . dt]
2
−∞
→ é par
−∞
∞
∫
w = − arctan 
f t. sen wt . dt
−∞
∞
 → é ímpar
∫ f t. cos  wt . dt
−∞
d) Convolução
f t∗g t ↔
f t . g t 
F w. G w
1
F  w∗G w
2
↔
Exemplo 5:
igual
*
Figura 5: Exemplo 5, propriedade da convolução.
Em t = 0, a amplitude é
CDI 20705 – Comunicação Digital
A2  , que é a amplitude máxima do sinal.
7/35
M = A2  
A =


M


A partir da propriedade da convolução:
x t ∗x t = y t
↔
G w2
M 2 sen2  w /2
sen 2  w /2
G w =
. .
= A
= Y  w

w  /2
w / 2
2.3. Amostragem
Seja x(t) um sinal contínuo no tempo e em amplitude, com energia finita. Considere suas
amostras nos instantes de tempo: t=0, ±Ts, ±2Ts, … Onde,
Ts → é o intervalo entre as amostras
fs =
1
→ é a taxa de amostragem dada em amostras/segundo.
Ts
Figura 6: Sinal x(t) contínuo.
Figura 7: Sinal x(t) amostrado.
O sinal amostrado será:
CDI 20705 – Comunicação Digital
8/35
∞
∑
x δ (t ) =
n=−∞
∞
δT (t ) =
∑
s
n =−∞
x(nT s). δ(t−nT s ) = x (t ). δT ( t) , onde
s
δ(t−nT s ).
δT (t) é um sinal periódico, com período Ts. Vamos recorrer a Série de
Observe que
s
Fourier:
s
T s/ 2
∫
cn =
∞
1
Ts
δT (t ) =
∑
n=−∞
c n e jw t , onde, w n =
n
2π
. n = 2 π. f s . n
Ts
δT (t). e jw t dt = 1
n
s
−T s / 2
Realizando a Transformada de Fourier para δT (t ) , obtemos:
s
2π
∑ δ(w−w n ),
T s n=−∞
∞
1
=
Ts
∞
∑
n =−∞
cn = 1
w = 2π f
e
δ( f −nf s)
x (t ). δT = x δ (t )
↔
s
X δ( f )
Aplicando a propriedade da convolução na frequência em x(t), obtemos:
X δ( f ) = X ( f ) ∗
1
X δ( f ) =
Ts
1
Ts
∞
∑
n=−∞
δ( f −nf s)
∞
∑
n=−∞
X ( f −nf s)
Figura 8: Transformada de Fourier do sinal periódico.
Se
f m < f s / 2 é possível recuperar o sinal original a partir das amostras.
CDI 20705 – Comunicação Digital
9/35
Para reconstruir o sinal original, considere novamente
x δ (t ):
∞
∑
x δ (t ) =
n=−∞
x( nT s)δ(t−nT s)
Realizando a Transformada de Fourier em ambos os lados, temos:
∞
∑
X δ( f ) =
n=−∞
x (nT s ) e− j2 πnfT
s
que pode ser visto como a Série de Fourier para a função periódica no domínio da frequência,
X δ( f ) , sendo
x ( nT s ) os coeficientes da série.
Se a taxa de amostragem for 1/T s = 2f m , temos:
∞
∑
X δ( f ) =
n − j πnf / f
)e
2f m
x(
n=−∞
m
X δ( f ) :
E o sinal original corresponde a um período de
X ( f ) = T s X δ( f ) =
1
X (f) ,
2fm δ
∣ f ∣< f m
∞
X( f ) =
1
n
x(
). e− j πnf / f
∑
2f m n=−∞ 2f m
m
Logo, X ( f ) é completamente determinada pelas amostras
x(
n
).
2f m
Tomando-se a Transformada Inversa de Fourier, temos:
fm
x (t ) =
∫
X ( f )e j2 π ft df
−fm
fm
x (t ) =
∫
−fm
1
2f m
1
x (t ) =
2f m
∞
∑
n=−∞
∞
x(
n
) .e− j πnf / f
2f m
fm
. e j2 π ft df
m
n
j2π f (t −
)
2f
df
∑ x ( 2fn ) ∫ e
n=−∞
m −f
m
m
Aplicando a fórmula da interpolação:
n sen  2f m t−n
x t  = ∑ x 

=
2f m
 2f m t−n
n=−∞
∞
CDI 20705 – Comunicação Digital
∞
∑
n=−∞
x
n
 sinc 2f m t−n
2f m
10/35
Algumas considerações importantes:
•
Todo sinal com duração finita vai ter espectro infinito.
•
Pelo Teorema de Nyquist, o espectro deve ser finito.
•
Isso gera um conflito, pois, os sinais possuem duração finita.
•
A rigor a energia do sinal deve ser finita, portanto, seu espectro deve ser finito.
Exemplo 6:
Seja
x t  = 2
sen 2t−1
, com
2t−1
f s = 2f m = 2.
Figura 9: Função sinc no tempo.
Figura 10: Transformada de Fourier da função sinc.
•
Duração no tempo é infinita
CDI 20705 – Comunicação Digital
11/35
•
Espectro é finito
•
Energia:
∞
∞
∫ ∣x t ∣2 dt =
∫ ∣X  f ∣2 df
−∞
−∞
(Teorema de Parseval), assim, a energia é
finita.
Alguns Aspectos Práticos da Amostragem
Impulsos não são fisicamente realizáveis, mas pulsos curtos, sim.
Figura 11: Exemplo de amostragem com pulsos curtos.
Amostras de duração finita,
s1 t  = x t c t. Expressando c(t) pela Série de Fourier,
temos:
TA
c t =
Ts
TA
c t  =
Ts
∞
∑
n=−∞
sen nT /T s  j2 n TT t
e
,
 nT /T s
∞
∑
fs =
s
cn e
j2  n
1
,
Ts
cn =
sen nT /T s
 nT /T s
T
t
Ts
n=−∞
Então:
s1 t = x t 
TA
Ts
∞
∑
n=−∞
sen nT /T s  j2 n TT t
e
 nT /T s
s
Tomando-se a Transformada de Fourier de s1(t), temos:
CDI 20705 – Comunicação Digital
12/35
x t−t 0 
↔
e j2 ft X  f 
jw0 t
↔
X w−w 0 
x t e
0
∞
S 1  f  = f s TA
∑
m =−∞
sen  m f s T 
X  f −mf s 
m f sT
Figura 12: Sinal amostrado.
Como
sen  m f s T 
não depende de f, não haverá distorção, e X(f) pode ser recuperado
 m f sT
por uma filtragem, assim como no caso ideal.
No caso de empregar amostas com pulso plano, Sample and Hold:
Figura 13: Sample and Hold.
s 2 t = [x t T t ] ∗ h t = x  ∗ ht 
s
CDI 20705 – Comunicação Digital
13/35
∞
s 2 t = [
∑
n=−∞
x  nT s  t−nT s ] ∗ ht 
∞
s 2 t =
∑
n =−∞
x nT s  ht −nT s 
Tomando-se a Transformada de Fourier, temos:
∞
S2 f  = X   f  H  f  = f s
onde,
H f = T
∑
m =−∞
X  f −mf s H  f 
sen  fT  − j  fT
e
 fT
Neste caso, haverá distorção em amplitude devido ao efeito de abertura. Para contornar ou
minimizar essa distorção, a solução é aplicar um equalizador. Sendo que se,
T /T s0,1 a
equalização não é necessária.
3. Sinais Aleatórios
O principal objetivo de um sistema de comunicação é transmitir informação através de um
canal. Ao transmitir uma mensagem o transmissor a seleciona aleatoriamente, ou seja, o receptor
não sabe, a priori, qual mensagem, dentre as diversas possíveis, será transmitida. Associada a isto,
o canal impõe um ruído onde, normalmente, é variante no tempo. Ou seja, a cada nova
transmissão temos que considerar uma nova condição de ruído.
3.1 Variáveis Aleatórias
Seja:
Ω → espaço amostral que contém todos os possíveis pontos amostrais;
ξ → classe de eventos.
Por exemplo, o evento A consiste de 1 ponto amostral ou um conjunto de pontos amostrais.
A medida de probabilidade associada a cada evento A é definida como:
a) P(Ω) = 1;
b) 0  P  A  1 ;
c) P  A ∪ B = P  A  P  B ,
CDI 20705 – Comunicação Digital
se A ∩ B = ∅
14/35
Variável aleatória:
É uma função do espaço amostral em uma faixa dos Reais.
Exemplo 1: moeda
→
Ω = {cara, coroa}
Seja A = cara e B = coroa
X(A) = 0 e X(B) = 1
→
X(Ω) = {0, 1}
Exemplo 2: variável aleatória contínua
A = tensão > 5 V
X(A) > 5
Função Distribuição:
A função distribuição de uma variável aleatória X é dada por:
F X  x = P  X  x ,
onde
P  X  x  é a probabilidade de que o valor tomado pela variável aleatória X ser menor ou
igual ao número real x.
A função distribuição possui as seguintes propriedades:
a) 0  F X  x 1 ;
b) F X  x 1  F X  x 2  , se
x1  x2 ;
c) F X −∞ = 0 ;
d) F X ∞ = 1.
Função Densidade de Probabilidade (PDF):
pX x =
dF X  x 
dx
Da mesma forma que a função distribuição, a função densidade de probabilidade é uma
função do número real x.
Seja:
CDI 20705 – Comunicação Digital
15/35
P  x 1  x  x 2  = P  X  x 2  − P  X  x 1
P  x1  x  x2 = F X  x2  − F X  x1 
x2
P  x1  x  x2 =
x1
∫ p X  x dx − ∫ p X  x  dx
−∞
−∞
x2
P  x1  x  x2 =
∫ p X  x dx
x1
Propriedades:
a)
p X  x   0 → função não decrescente.
b)
∫ p X  x dx
∞
= F X ∞ − F X −∞ = 1 − 0 = 1
−∞
Desta forma, a função densidade de probabilidade é sempre uma função não-negativa com
área total igual a 1.
Variáveis Aleatórias Discretas
∑ P  X = x i
= 1
i
Valor Médio
O valor médio ou valor esperado da variável aleatória X é:
∞
m X = E {X } =
∫ x . p X  x dx ,
onde
E {⋅} é chamado de valor esperado.
−∞
O n-ésimo momento da PDF de uma variável aleatória X é:
∞
n
E {X } =
∫ xn .
p X  x  dx
−∞
Para os propósitos de sistemas de comunicação, os momentos mais importantes são os dois
primeiros. O primeiro momento, quando n = 1, resulta na média e, quando n = 2, temos a variância
da variável aleatória X, definida como:
∞
2
var  X  = E { X − m X  } =
∫  x − m X 2 .
p X  x  dx
−∞
CDI 20705 – Comunicação Digital
16/35
E { X − m X 2 } = E { X 2 − 2Xm X  m2X }
2
2
2
E { X − m X  } = E {X } − E {2Xm X }  E {m X }
E { X − m X 2 } = E {X 2 } − 2m X E {X }  m2X ,
2
2
2
como
E { X } = mX
2
E { X − m X  } = E {X } − 2m X  m X
E { X − m X 2 } = E {X 2 } − m2X =  2X
∞
2
 X → variância de X,
E {X 2 } =
∫ x2 .
p X  x dx
−∞
4. Processos Estocásticos
Um processo aleatório X(A, t) pode ser visto como uma função de duas variáveis: um evento
A e o tempo. A Figura 14 ilustra um processo aleatório. Nesta figura existem N funções amostra no
tempo, {Xj(t)}. Cada uma das funções amostra pode ser considerada a saída para um determinado
ruído. Para um evento específico Aj, temos uma única função no tempo X(A j, t) = Xj(t). O total de
funções amostras possíveis é chamado de conjunto (ensemble). Para um tempo específico tk, X(A,
tk) é uma variável aleatória X(t k) cujo valor depende do evento. E para um evento específico A = A j,
e para um tempo específico t = tk, X(Aj, tk) é um valor determinístico, ou seja, apenas um número.
CDI 20705 – Comunicação Digital
17/35
Figura 14: Processos aleatórios com ruído.
Média Estatística de um Processo Estocástico
De maneira geral, a forma da PDF de um processo estocástico será diferente para os
diferentes instantes de tempo. Em muitas situações não é conveniente determinar empiricamente
a PDF de um processo estocástico. Embora, uma descrição parcial consistindo da média e da
função de autocorrelação normalmente já são suficientes para as necessidades dos sistemas de
comunicações. A média de um processo estocástico pode ser definida como:
∞
E {X t k } =
∫x
p X  x  dx = m X t k  ,
k
−∞
onde
X t k  é a variável aleatória obtida amostrando-se o processo estocástico em
e a PDF de
t = tk ,
X t k  , a densidade dentre o conjunto de eventos no tempo tk, é denominado
pX x .
k
A função de autocorrelação de um processo estocástico X(t) é definida como uma função de
CDI 20705 – Comunicação Digital
18/35
duas variáveis, t1 e t2, dada por:
R X t 1 , t 2 = E {X t 1 X t 2 } = E { X 1 X 2}
∞
R X t 1 , t 2 =
∞
∫∫x
y pX
1
,X2
 x , y  dx dy
−∞ −∞
R X t 1 , t 2 mede o quanto as variáveis aleatórias X1 e X2 são correlacionadas.
Estacionaridade
a) No sentido estrito
Um processo estocástico X(t) é estacionário no sentido estrito se:
•
X t 1  , X t 2 , ... , X t N  tem a mesma densidade de probabilidade. Ou seja,
P X  x  é a mesma para todos instantes de tempo;
k
•
pX
1
, X 2 ,... , X N
 x 1 , x 2 ,... , x N  independe dos instantes de tempo t 1 , t 2 , ... , t N e de
N.
b) No sentido amplo
Um processo estocástico X(t) é estacionário no sentido amplo se:
•
apenas os dois primeiros momentos independem do deslocamento no tempo,
E {X t} = m X = constate
•
∀t
R X t 1 , t 2 = R X 0, t 2−t 1  = R X t 2−t 1
R X t 1 , t 2 = R X  ,  = t 2 − t 1
Estacionaridade no sentido estrito implica em estacionaridade no sentido amplo. Mas o
inverso não é necessariamente verdade. Um processo estocástico estacionário no sentido amplo
nem sempre é estacionário no sentido estrito. Uma exceção é o processo estocástico Gaussiano.
Pois, ele é caracterizado apenas pela média e variância.
Autocorrelação de um Processo Estocástico Estacionário no Sentido Amplo
Assim como a variância proporciona uma medida de aleatoridade para variáveis aleatórias,
a função de autocorrelação proporciona uma medida similar para processos estocásticos. Em um
processo estacionário em sentido amplo, a função de autocorrelação é apenas uma função da
CDI 20705 – Comunicação Digital
19/35
diferença de tempo  = t 2 − t 1 .
R X  = E {X t X t} , para −∞    ∞
Para um processo estacionário no sentido amplo (WSS) com média zero, R X  indica a
extensão nos quais os valores do processo separados por  segundos são estaticamente
R X  nos traz uma ideia da resposta em frequência que está
correlacionados. Ou seja,
associada com o processo estocástico. Se R X  muda vagarosamente com o aumento de  ,
isto indica que, na média, os valores amostrados de X(t) para t = t 1 e t = t 1   são
aproximadamente iguais. Assim, nós esparamos uma representação no domínio da frequência de
X(t) contendo preponderadamente baixas frequências. Por outro lado, se R X  decrescer
rapidamente com o aumento de  , nós esparamos que X(t) mude rapidamente com o tempo e
consequentemente, contenha predominantemente altas frequências.
Propriedades da função de Autocorrelação de um Processo Estacionário no Sentido Amplo
Seja X(t) um processo estocástico real:
(1)
R X  = R X −
(2)
R X   R X 0 , ∀ 
(3)
R X 
(4)
R X 0 = E {X 2 t } → valor médio quadrático ou potência do processo estocástico
G X  f  , densidade espectral de potência
↔
∞
∫ R X . e− j2  f  . d 
= GX f 
−∞
∞
∫ R X . e− j2  f  . d 
= GX f 
−∞
∞
R X 0 =
∫ G X  f  . df
→ potência do processo estocástico
−∞
Médias Temporais e Ergodicidade
Para calcular m X e R X  de um processo estocástico estacionário, precisamos
conhecer
pX x e PX
1
,X 2
 x 1 , x 2 . Mas na prática, isso nem sempre é possível. Então,
recorremos as médias temporais.
CDI 20705 – Comunicação Digital
20/35
Um processo estocástico é dito ERGÓTICO se suas médias temporais, a partir de qualquer
função amostra, são iguais as suas médias estatísticas.
Processo ergótico em média:
T/2
1
∫ X t  . dt
T
T ∞
−T /2
m X = lim
Processo ergótico em função de autocorrelação:
1
R X  = lim
T ∞ T
T/2
∫
X t . X t−. dt
−T / 2
Uma vez que um processo é dito ergótico, algumas relações entre os valores de parâmetros
elétricos do sinal, tais como, o valor da componente dc, valor rms, e potência média do sinal,
podem ser relacionadas aos momentos de um processo ergótico.
•
O valor m X = E {X t} é igual ao nível dc do sinal.
•
2
A quantidade m X é igual a potência normalizada da componente dc.
•
O segundo momento de X(t),
E {X 2 t}, é igual a potência média total
normalizada.
•
 E {X 2 t}
é igual ao valor médio quadrático (rms) do sinal de tensão (ou de
corrente).
•
A variância,
 2X , é igual a potência média normalizada no tempo ou da
componente ac do sinal.
•
Se o processo tem média zero,
m X = m2X = 0 , então
 2X = E {X 2 t }, e a
variância é igual ao valor rms, ou a variância representa a potência total
normalizada.
•
O desvio médio padrão,  X , é o valor rms da componente ac do sinal.
•
Se m X = 0 , então, o desvio médio padrão,  X , é o valor rms do sinal.
Densidade Espectral de Potência de um Processo Estocástico
Um processo estocástico X(t) pode normalmente ser classificado como um sinal de potência
CDI 20705 – Comunicação Digital
21/35
G X  f  , na forma:
com densidade espectral de potência,
G X  f  = lim
T ∞
1
2
∣X T  f ∣ .
T
G X  f  é muito útil na análise de sistemas de comunicações, porque ela descreve a distribuição
de potência do sinal no domínio da frequência.
Propriedades para um processo estocástico real:
(1)
GX  f  ≥ 0
(2)
G X  f  = G X − f  , para X t real
(3)
GX  f 
(4)
PX =
↔
R X 
∞
∫ G X  f  df
→ potência média total
−∞
O que significa o termo correlação? Quando nós indagamos sobre a correlação entre dois
fenômenos, nós estamos perguntando o quão próximo eles se correspondem em comportamento
ou aparência, o quão bem eles correspondem um ao outro. Matematicamente, uma função de
autocorrelação de um sinal (no domínio do tempo) descreve a correspondência do sinal consigo
mesmo. Assim, uma cópia exata do sinal é feita e posicionada no tempo em menos infinito. Então,
nós movemos a cópia no sentido positivo, e a cada incremento, perguntamos: “Como a cópia e o
sinal se correspondem agora?”. E assim por diante.
A Figura 15-1 (a) ilustra uma forma de onda amostrada de um processo estocástico (PE)
estacionário em sentido amplo (WSS), X(t). A forma de onda é uma sequência binária aleatória
com pulsos de amplitude unitária positiva e negativa, pulsos bipolar. A duração de cada pulso é de
T segundos, e a média m X  , ou valor dc da sequência aleatória é zero. A Figura 15-1 (b) ilustra a
mesma sequência deslocada de 1 segundos, sendo definida como X t −1 . Vamos assumir
que o processo é ergótico na função de autocorrelação, assim, nós podemos trabalhar com a
média temporal ao invés da média estatística para encontrar R X . O valor de R X 1  é
obtido fazendo o produto das duas sequências X t e X t−1 , e encontrando o valor
médio entre elas, usando a equação:
1
R X  = lim
T ∞ T
T/2
∫
X t . X t−. dt
. O resultado
−T / 2
desta equação é válido para um processo ergótico apenas no limite. Embora, integrá-la sobre um
número inteiro de períodos nos dá uma boa estimativa de R X . Note que R X 1  pode ser
CDI 20705 – Comunicação Digital
22/35
obtido com um deslocamento positivo ou negativo de X t. O cálculo de R X  é mostrado
na Figura 15-1 (c) usando a sequência amostrada e sua réplica deslocada conforme ilustrado
previamente também na Figura 15-1.
Figura 15-1: Exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal lento.
Na Figura 15-1 (c) as áreas com linhas diagonais abaixo do produto X t X t−1  resulta
em valores positivo do produto, já a área pintada de cinza resulta em valores negativo do produto,
e as áreas pintadas de branco indica que o produto é zero. A integral de X t X t−1  sobre
vários períodos de tempo resulta em um valor de área que é definido como R X 1  da função
R X . Então, as sequências podem ser deslocadas de 2 , 3 , ... , sendo que a cada
deslocamento é produzido um novo valor de área da função R X . O resultado de R X  é
mostrado na Figura 15-2 (d), onde o valor de pico ocorre para =0,
CDI 20705 – Comunicação Digital
R X 0. Assim, podemos
23/35
afirmar que R X   R X  0 , ∀  , e
R X  decresce quando ∣∣ cresce.
A expressão analítica para a função de autocorrelação, R X  , é:
Figura 15-2: Continuação do exemplo de Autocorrelação e Densidade Espectral de Potência para
um sinal lento.
Note que a função de autocorrelação nos traz informação sobre a frequência; ela nos diz
algo a respeito da largura de banda do sinal. Entretanto, a função de autocorrelação é uma função
no domínio do tempo, ou seja, não existe uma componente de frequência associada a ela. Então,
como esta função nos dá informação sobre a largura de banda do sinal?
Considere que é um sinal muito lento (pequena largura de banda). Como foi mostrado nas
figuras 15-1 e 15-2, para cada passo de  é feita a pergunta: “O quão boa é a correlação entre a
amostra original e a sua cópia?”, e a correlação será boa por um instante. Ou seja, o formato
triangular da função de autocorrelação vai desacelerar gradualmente com  . Mas se o sinal for
rápido (grande largura de banda) é possível que em um pequeno deslocamento de  resulta na
correlação das funções. Neste caso, a função de autocorrelação terá uma aparência muito
íngreme. Logo, o formato da função de autocorrelação nos diz algo a respeito da largura de banda
CDI 20705 – Comunicação Digital
24/35
do sinal. Assim, se a função for íngreme, trata-se de um sinal com grande largura de banda. Por
outro lado, se a rampa desacelera gentilmente, então, é um sinal com uma pequena largura de
banda. As Figuras 15-1 e 15-2 ilustram o caso do sinal lento e as Figuras 15-3 e 15-4 ilustram o caso
de um sinal com grande largura de banda.
Figura 15-3: Exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal rápido.
A função de autocorrelação nos permite expressar a densidade espectral de potência (PSD)
do sinal aleatório diretamente. Pois, a PSD e a função de autocorrelação são relacionadas pela
Transformada de Fourier. A PSD, G X  f  , da função de autocorrelação definida na Figura 15-2 (d)
é:
CDI 20705 – Comunicação Digital
25/35
sen  fT  2
GX  f  = T 
 = T sinc2  fT  , onde
 fT
sinc x  =
sen  x
x
A PSD está ilustrada na Figura 15-2 (e) e na Figura 15-4 (j).
Figura 15-4: Continuação do exemplo de Autocorrelação e Densidade Espectral de Potência para
um sinal rápido.
Note que a área da função PSD representa a potência média do sinal. Uma medida
conveniente para a largura de banda do sinal é medir o espectro do lóbulo principal. Note também
que a largura de banda do sinal está inversamente relacionada a duração do símbolo ou largura do
pulso, como pode ser visto nas figuras 15-1 até 15-4. Assim, para um pulso de curta duração (taxa
de bit elevada) vai ter uma grande largura de banda.
•
T pequeno → sinal tem uma faixa de frequência larga
•
T grande → sinal tem uma largura de banda estreita
4. Ruído em Sistemas de Comunicação
O ruído se refere a um sinal elétrico indesejado que está sempre presente em sistemas
elétricos. A presença do ruído sobreposto ao sinal tende a mascarar o sinal, limitando o receptor
CDI 20705 – Comunicação Digital
26/35
em tomar a decisão correta sobre o símbolo transmitido, e assim, limita a taxa de informação
transmitida. O ruído surge a partir de uma variedade de fontes, como por exemplo: radiações
eletromagnéticas, variações de temperatura, etc.
Existe um tipo de ruído que não pode se consegue eliminar, ele é chamado de ruído
térmico. Este ruído é causado pela movimentação térmica dos elétrons em todos os componentes
dissipativos, tais como: resistores, cabos, etc. Os mesmos elétrons que são responsáveis pela
condução elétrica do sinal, também são os responsáveis pelo ruído térmico.
O ruído térmico pode ser descrito pelo processo estocástico Gaussiano com média zero. O
processo estocástico n(t), para qualquer instante t é uma variável aleatória Gaussiana com função
densidade de probabilidade (PDF):
2
p (n) =
1
n
exp(− 2 )
σ √2 π
2σ
∞
onde  2 é a variância de n, dada por:  2 =
∫ n 2 pn n dn
−∞
A PDF do ruído Gaussiano normalizado com média nula é obtido assumindo uma variância
unitária. Esta PDF normalizada pode ser visualizada na Figura 17.
A Figura 16 ilustra a informação recebida após passar pelo canal de comunicação.
Figura 16: Sinal após passar pelo canal.
Assim, podemos determinar a média e a variância do sinal recebido, z.
E {z } = E {a+ n } = E {a }+ E {n }, mas como o ruído possui média nula,
E {n} = 0
E {z } = E {a} = a , ou seja, o valor médio de z é o próprio sinal de informação.
E {(z−a) } = E {[(a+ n)−a ] } = E {n } = σ n = σ z
2
2
2
2
2
Logo, a PDF do sinal recebido, z, é dada por:
CDI 20705 – Comunicação Digital
27/35
(z −a )2
p(z) =
exp(−
)
σz √ 2 π
2 σ2z
1
Neste caso, a PDF ilustrada na Figura 17, está deslocada de a, ou seja, o valor de pico ocorre
quando z = a.
Figura 17: PDF do ruído Gaussiano normalizado.
Ruído Branco
Um modelo simplificado do ruído apresenta uma densidade espectral de potência (
G n( f ) ) plana para todas as frequências. Na pratica vai até a faixa de terahertz (10 12 Hz).
G n( f ) =
N0
2
[Watts / Hz]
O fator 2 na divisão de G n( f ) indica a PSD de dois lóbulos, ou dois lados. Assim, se uma
largura de banda B for alocada para as frequências positivas, terá uma banda B alocada também
nas frequências negativas.
Como as funções de autocorrelação e densidade espectral de potência estão relacionadas
pela Transformada de Fourier, podemos definir a função de autocorrelação para o ruído Gaussiano
CDI 20705 – Comunicação Digital
28/35
branco:
Rn ( τ ) =
N0
δ( τ )
2
As funções de densidade espectral de potência e de autocorrelação são apresentadas na
Figura 18.
Figura 18: (a) Densidade espectral de potência do ruído branco; (b) autocorrelação do ruído
branco.
Note que a potência média é infinita porque a largura de banda é infinita.
∞
Pn =
∫
−∞
N0
df = ∞
2
Como fica a função de autocorrelação do ruído para uma dada largura de banda B?
Rn ( τ ) =
∫ Gn ( f ) df
B
=
N0
2B = N 0 B
2
Embora a abstração do ruído branco seja muito útil, nenhum processo com ruído consegue
ser verdadeiramente branco. Entretanto, o ruído encontrado em muitos sistemas reais podem
assumir para serem aproximadamente branco, simplificando a análise. Para isso, basta observar o
ruído após este passar por um sistema real com largura de banda finita. Então, quanto maior for a
largura de banda do ruído, sendo muito maior do que a largura de banda do sistema, o ruído pode
ser considerado ter uma largura de banda infinita.
Na função de autocorrelação do ruído branco, a função delta que expressa que o ruído, n(t),
é totalmente descorrelacionado da sua cópia deslocada no tempo para qualquer τ > 0. Como
essas amostras são variáveis aleatórias (v.a.) podemos fazer as seguintes afirmações:
CDI 20705 – Comunicação Digital
29/35
•
v.a. descorrelacionadas
→
v.a. independentes
•
v.a. Gaussianas descorrelacionadas →
•
O ruído afeta cada símbolo transmitido independentemente → canal sem memória
•
Usamos a sigla AWGN (Additive White Gaussian Noise).
v.a. Gaussianas independentes
5. Transmissão de Sinais e Processos Estocásticos através de Sistemas Lineares
Um sistema linear pode ser igualmente caracterizado tanto no domínio do tempo quanto
no domínio da frequência. O sinal de entrada, mostrado na Figura 19, pode descrito tanto no
domínio do tempo, x(t), como no domínio da frequência, X(f), tendo como sinal de saída,
respectivamente, y(t) e Y(f). O sistema linear é definido no domínio do tempo como a resposta ao
impulso, h(t); e no domínio da frequência é chamado de função de transferência, H(f). O sistema
além de ser linear, também é invariante no tempo.
Figura 19: Sistema linear considerando um sinal qualquer na entrada.
h(t) → resposta ao impulso
H(f) → função de transferência
∞
y t = x t∗ht  =
∫ x  ht− d 
−∞
Y  f  = X  f H f 
H f  =
Y f 
Xf 
CDI 20705 – Comunicação Digital
30/35
Figura 20: (a) Sinal de entrada x(t) igual a função impulso; (b) sinal de saída y(t) é a resposta ao
impulso do sistema h(t).
Figura 21: Sistema linear de um processo estocástico.
Se um processo estocástico está na entrada de um sistema linear invariante no tempo, a
saída também será um processo estocástico, como ilustra a Figura 21. Logo, para cada função
amostra na entrada terá uma função amostra na saída. A densidade espectral de potência na
entrada G X  f  e a densidade espectral de potência na saída GY  f  são relacionada da
seguinte forma:
R X  = E {x t x t−}
RY  = E {y t  y t−} = E {x t ∗h t x t−∗h t}
RY  = R X ∗ht ∗conj h t = R X ∗ht ∗h −t
GY  f  = G X  f  H  f conj  H  f 
2
GY  f  = G X  f  ∣H  f ∣
Propriedade: Se x(t) for um processo estocástico (PE) Gaussiano, então y(t) também será
um PE Gaussiano. E se a média na entrada for zero, também será na saída.
CDI 20705 – Comunicação Digital
31/35
6. Canal de Comunicação Ideal (sem distorção)
O sinal de saída de uma transmissão por um canal ideal pode apresentar um certo atraso
comparado com o sinal de entrada, e também, uma amplitude diferente com relação à entrada,
sendo apenas uma mudança de escala. Mas de forma alguma deve apresentar distorção, ou seja, o
sinal de saída deve manter a mesma forma que o sinal de entrada. Assim, a saída pode ser descrita
da seguinte forma:
y t = K x t−t 0 
onde K e t0 são constantes. Realizando a Transformada de Fourier em ambos os lados, temos:
Y  f  = K X  f  e− j2  ft
0
Substituindo Y(f) em H  f  =
Y f 
, a função de transferência de um canal ideal pode
Xf 
ser definida como:
K X  f  e− j2  ft
− j2 ft
H f  =
= K e
Xf
0
0
Para alcançar uma transmissão ideal sem distorção a resposta sobre todo o sistema deve
ser uma resposta de magnitude constante e o deslocamento de fase deve ser linear com a
frequência. Assim, não é suficiente o sistema amplificar ou atenuar todas as componentes de
frequência igualmente. Mas todas as componentes de frequência devem também chegar ao
mesmo tempo, ou seja, com o mesmo atraso. Tendo em vista que o deslocamento de atraso do
sinal, t0, está relacionada a um deslocamento de fase e da frequência angular, w = 2  f , logo:
t0 =
 [radianos ]
[ segundo]
radianos
2 f [
]
segundo
A resposta em frequência de um canal ideal é mostrada na Figura 22.
É claro que o deslocamento de fase deve ser proporcional a frequência para que o atraso de
todas as componentes do sinal seja o mesmo. Uma característica normalmente utilizada para
medir a distorção de atraso de um sinal é chamado de atraso de grupo, que é definido como:
 f  = −
1 d  f 
2 df
CDI 20705 – Comunicação Digital
32/35
Figura 22: Resposta em frequência de um canal ideal.
Figura 23: (a) Filtro ideal passa-banda; (b) filtro ideal passa-baixa; (c) filtro ideal passa-alta.
CDI 20705 – Comunicação Digital
33/35
Logo, para um canal de comunicação sem distorção (ideal), uma forma de caracterizar a
fase para ser linear com a frequência é caracterizar o atraso de grupo para ser constante.
Na prática, um sinal será distorcido ao passar por algumas partes do circuito, assim,
correções de fase e de amplitude são introduzidas, equalização, para corrigir as distorções
impostas ao sinal.
Infelizmente um sistema com canal de comunicação ideal não é realizável, devido a função
de transferência do canal, H  f  = K e− j2 ft = ∣H  f ∣e− j  f  , necessitar de uma função de
0
transferência infinita. Uma aproximação de um canal ideal, com largura de banda infinita, é truncar
a banda entre fl e fu de forma que todas as componentes de frequência entre estas passem sem
distorção. Sendo fl a frequência de corte mais baixa e f u a frequência de corte mais alta. Esta
técnica implementamos o filtro ideal, como é ilustrado na Figura 23 os filtros ideiais passa-bada,
passa-baixa e passa-alta.
A resposta ao impulso de um filtro ideal passa-baixa, ilustrado na Figura 24 é:
fu
∞
h t =
∫ H  f e
j2  ft
df =
∫ H  f e j2 ft df
−fu
−∞
onde:
− j  f 
H  f  = ∣H  f ∣e
∣H  f ∣ = 1
,
para∣ f ∣  f u ,
e− j   f  = e− j2  ft
e = 0
para o resto
0
Assim:
fu
h t =
f
∫e
− j2  ft 0
−f u
h t = 2f u
e
j2  ft
df =
u
∫ e j2  f  t−t  df
0
−fu
sen 2  f u t−t 0 
= 2f u sinc 2f u t−t 0 
2  f u t−t 0 
A resposta ao impulso é não causal, o que significa que a saída é zero antes de ser aplicado
qualquer valor na entrada no instante t = 0.
Deve ficar claro, que o filtro ideal não é realizável.
CDI 20705 – Comunicação Digital
34/35
Figura 24: Resposta ao impulso de um filtro ideal passa-baixa.
Qual efeito de um filtro ideal em um ruído branco? Seja um ruído branco com densidade
espectral de potência
Gn f  =
N0
na entrada de um filtro ideal passa-baixa. A densidade
2
espectral de potência e a função de autocorrelação na saída deste filtro são:
2
GY  f  = G n  f  ∣H  f ∣
GY  f  = 2
para ∣ f ∣  f u , e zero para o restante
RY  = N 0 f u
Note que
sen2  f u 
= N 0 f u sinc 2  f u 
2  f u
RY  tem o mesmo formato que a resposta ao impulso do filtro ideal, h(t). O
filtro ideal passa-baixa a função de autocorrelação do ruído branco, definida como a função delta,
em uma função sinc. Após o filtro, não teremos mais ruído branco. O sinal de ruído na saída terá
correlação zero com as suas cópias deslocadas, apenas para os deslocamentos de
 = n/2f u ,
sendo n um valor inteiro qualquer diferente de zero.
CDI 20705 – Comunicação Digital
35/35
Download