CDI – Comunicação Digital Revisão de Sinais e Espectro “Digital Communications – Fundamentals and Applications” Bernard Sklar 2ª edição – Prentice Hall Marcio Doniak www.sj.ifsc.edu.br/~mdoniak [email protected] CDI 20705 – Comunicação Digital 1/35 1. Introdução A principal característica de um sistema de comunicação digital (DCS) é o envio de uma forma de onda, selecionada dentro de um grupo, com uma duração de tempo predeterminada. Ao contrário de um sistema analógico, que envia uma forma de onda, selecionada a partir de uma infinidade de outras, com resolução infinita do ponto de vista teórico. Em um DCS o objetivo no receptor não é reproduzir exatamente a forma de onda transmitida, mas sim determinar a partir da relação sinal-ruído qual foi a forma de onda transmitida dentre as possíveis. Para isso, uma importante medida de desempenho de um DCS é a probabilidade de erro. É sempre bom lembrar o que levou os sistemas de comunicação serem todos digitais: • A principal vantagem é a facilidade com que os sistemas digitais conseguem regenerar o sinal, conforme está ilustrado na Figura 1. Essa distorção ocorre porque tanto os circuitos quanto as linhas de transmissões possuem uma função de tranferência que não é ideal, além do ruído elétrico e outros sinais interferentes. Figura 1: Degradação e Regeneração. • DCS são menos susceptíveis a interferência e distorções, devido a sua forma, por exemplo, ligado e desligado, a perturbação deve ser grande o suficiente para conseguir modificar a informação transmitida. CDI 20705 – Comunicação Digital 2/35 DCS são mais confiáveis e podem ser produzidos com custos mais baixos. Podem ser • usados diversos componentes de propósito geral produzidos e testados em larga escala. DCS oferecem uma maior segurança para a informação. Esta pode ser agrupada em • pacotes. Entretando, DCS exigem um maior processamento do sinal, e necessitam alocar • muitos recursos para estabelecer o sincronismo. 2. Revisão de Sinais 2.1. Série de Fourier: Considere um conjunto de funções { e jw t }, n ∈ ℤ, n w n=(2 π/T ) n , T ∈ℝ +. e duas importantes propriedades: 1ª) e jw (t+ kT ) = e jw t ⋅e jw n n n kT Como, w n=2 /T n , então: e e jwn (t+ kT ) j 2π nkT T = e j 2π nt T ⋅e j 2π nkT T = e j 2 πnk = cos(2 πnk )+ jsen(2 πnk ) = cos( 2 πnk ) Logo, e jw (t+ kT ) = e jw t → as funções são periódicas! n n T/2 2ª) T /2 ∫ e jw n t − jwm t e dt = 1 j = T e dt = −T / 2 −T /2 = ∫ T/2 j w n− w m t 2π (n−m) T (e j π(n−m )−e− j π(n−m )) = ∫ e j 2 n −m t T dt = −T / 2 1 π ( n−m) T sen [n−m] = T sinc [ n−m] = n−m ( e j π(n−m)−e− j π(n− m)) = 2j 0, p / n ≠ m 1, p / n = m Seja f(t) uma função periódica com período T. Assim, f(t) pode ser expressa por: f (t) = 1 T +∞ ∑ n=−∞ c n e jw CDI 20705 – Comunicação Digital n t (1) 3/35 T/2 cn = ∫ f (t )e− jw t dt (2) n −T /2 Exemplo 1: Figura 2: Exemplo 1, sinal no tempo. T/2 cn = ∫ /2 − jw n t A.e dt = −/ 2 −T /2 = 2A e jw . wn ∫ n / 2 A. e− jw t dt = n −A − jw e jw n n /2 −e jw n / 2 = sen w n /2 −e− jw /2 2A = . sen wn /2 = A. . = 2j wn w n /2 n = A. . sinc wn /2 Figura 3: Função sinc. w n = wn − wn−1 = CDI 20705 – Comunicação Digital 2 2 . n − n−1 = = wn T T (3) 4/35 Esse valor é válido para qualquer f(t), e não apenas para esse exemplo. Exemplo 2: 2 1 j f t = cos . t = e T 2 2 .t T −j e 2 .t T w n=2 /T n , Neste caso: c1 = T , 2 c−1 = T 2 e c n = 0, para n ≠ ±1. 2.2. Transformada de Fourier Aplicando a equação (3) em (1) e (2), temos: ∞ 1 f t = . ∑ cn . e jw t . w 2 n=−∞ n No limite, quando T ∞ , temos: w dw , wn w , c n F w , assim, temos a Transformada de Fourier para um sinal não periódico. ∞ f t = 1 . ∫ F w .e jwt . dw 2 −∞ ∞ F w = ∫ f t. e− jwt . dt −∞ Exemplo 3: Se, f t = t , qual é a F(w)? ∞ F w = ∫ t .e− jwt . dt = 1. −∞ CDI 20705 – Comunicação Digital 5/35 Figura 4: Transformada de Fourier da função impulso unitário. Algumas propriedades: a) Dualidade: f t F t F w 2 f −w ∞ Ƒ {2πf(-w)} = -1 1 . ∫ 2 f −w .e jwt . dw , fazendo = −w 2 −∞ ∞ Ƒ {2πf(-w)} = -1 ∫ f . e− j t . d −∞ b) Deslocamento no tempo e na frequência f t ↔ F w f t − t 0 ↔ e− jwt . F w 0 Exemplo 4: Foi visto que: f t = t F w = 1 − jwt 0 f t − t 0 = t − t 0 F w = 1. e Da propriedade da dualidade: t 0 = w 0 , então, e jw t 0 ou de forma geral: f t e jw t 0 ↔ 2 w−w 0 ↔ F w−w 0 Aplicando em Série de Fourier: Seja f(t) periódico com período T. Então, ∞ f t = 1 . ∑ c . e jw t T n=−∞ n n ↔ F w ∞ F w = 2 ∑ c w−w n T n=−∞ n Assim, o espectro de um sinal periódico é discreto no tempo e contém impulsos. O espaçamento entre os impulsos é w = CDI 20705 – Comunicação Digital 2 , conforme está ilustrado na Figura 3. T 6/35 c) Simetria da Amplitude e da Fase F w = ∣F w∣. e j w apresenta as seguintes Considere um sinal f(t) real, então, simetrias: ∣F w ∣ → é par; e w → é ímpar. ∞ ∫ f t. e− jwt . dt F w = −∞ ∞ ∞ ∫ f t. cos wt . dt − j ∫ F w = −∞ f t . sen wt . dt −∞ ∞ ∞ 2 ∣F w∣ = [ ∫ f t . cos wt . dt ] [− j ∫ f t . sen wt . dt ] 2 −∞ 2 −∞ ∞ 2 ∞ 2 ∣F w ∣ = [ ∫ f t . cos wt . dt ] [ ∫ f t. sen wt . dt] 2 −∞ → é par −∞ ∞ ∫ w = − arctan f t. sen wt . dt −∞ ∞ → é ímpar ∫ f t. cos wt . dt −∞ d) Convolução f t∗g t ↔ f t . g t F w. G w 1 F w∗G w 2 ↔ Exemplo 5: igual * Figura 5: Exemplo 5, propriedade da convolução. Em t = 0, a amplitude é CDI 20705 – Comunicação Digital A2 , que é a amplitude máxima do sinal. 7/35 M = A2 A = M A partir da propriedade da convolução: x t ∗x t = y t ↔ G w2 M 2 sen2 w /2 sen 2 w /2 G w = . . = A = Y w w /2 w / 2 2.3. Amostragem Seja x(t) um sinal contínuo no tempo e em amplitude, com energia finita. Considere suas amostras nos instantes de tempo: t=0, ±Ts, ±2Ts, … Onde, Ts → é o intervalo entre as amostras fs = 1 → é a taxa de amostragem dada em amostras/segundo. Ts Figura 6: Sinal x(t) contínuo. Figura 7: Sinal x(t) amostrado. O sinal amostrado será: CDI 20705 – Comunicação Digital 8/35 ∞ ∑ x δ (t ) = n=−∞ ∞ δT (t ) = ∑ s n =−∞ x(nT s). δ(t−nT s ) = x (t ). δT ( t) , onde s δ(t−nT s ). δT (t) é um sinal periódico, com período Ts. Vamos recorrer a Série de Observe que s Fourier: s T s/ 2 ∫ cn = ∞ 1 Ts δT (t ) = ∑ n=−∞ c n e jw t , onde, w n = n 2π . n = 2 π. f s . n Ts δT (t). e jw t dt = 1 n s −T s / 2 Realizando a Transformada de Fourier para δT (t ) , obtemos: s 2π ∑ δ(w−w n ), T s n=−∞ ∞ 1 = Ts ∞ ∑ n =−∞ cn = 1 w = 2π f e δ( f −nf s) x (t ). δT = x δ (t ) ↔ s X δ( f ) Aplicando a propriedade da convolução na frequência em x(t), obtemos: X δ( f ) = X ( f ) ∗ 1 X δ( f ) = Ts 1 Ts ∞ ∑ n=−∞ δ( f −nf s) ∞ ∑ n=−∞ X ( f −nf s) Figura 8: Transformada de Fourier do sinal periódico. Se f m < f s / 2 é possível recuperar o sinal original a partir das amostras. CDI 20705 – Comunicação Digital 9/35 Para reconstruir o sinal original, considere novamente x δ (t ): ∞ ∑ x δ (t ) = n=−∞ x( nT s)δ(t−nT s) Realizando a Transformada de Fourier em ambos os lados, temos: ∞ ∑ X δ( f ) = n=−∞ x (nT s ) e− j2 πnfT s que pode ser visto como a Série de Fourier para a função periódica no domínio da frequência, X δ( f ) , sendo x ( nT s ) os coeficientes da série. Se a taxa de amostragem for 1/T s = 2f m , temos: ∞ ∑ X δ( f ) = n − j πnf / f )e 2f m x( n=−∞ m X δ( f ) : E o sinal original corresponde a um período de X ( f ) = T s X δ( f ) = 1 X (f) , 2fm δ ∣ f ∣< f m ∞ X( f ) = 1 n x( ). e− j πnf / f ∑ 2f m n=−∞ 2f m m Logo, X ( f ) é completamente determinada pelas amostras x( n ). 2f m Tomando-se a Transformada Inversa de Fourier, temos: fm x (t ) = ∫ X ( f )e j2 π ft df −fm fm x (t ) = ∫ −fm 1 2f m 1 x (t ) = 2f m ∞ ∑ n=−∞ ∞ x( n ) .e− j πnf / f 2f m fm . e j2 π ft df m n j2π f (t − ) 2f df ∑ x ( 2fn ) ∫ e n=−∞ m −f m m Aplicando a fórmula da interpolação: n sen 2f m t−n x t = ∑ x = 2f m 2f m t−n n=−∞ ∞ CDI 20705 – Comunicação Digital ∞ ∑ n=−∞ x n sinc 2f m t−n 2f m 10/35 Algumas considerações importantes: • Todo sinal com duração finita vai ter espectro infinito. • Pelo Teorema de Nyquist, o espectro deve ser finito. • Isso gera um conflito, pois, os sinais possuem duração finita. • A rigor a energia do sinal deve ser finita, portanto, seu espectro deve ser finito. Exemplo 6: Seja x t = 2 sen 2t−1 , com 2t−1 f s = 2f m = 2. Figura 9: Função sinc no tempo. Figura 10: Transformada de Fourier da função sinc. • Duração no tempo é infinita CDI 20705 – Comunicação Digital 11/35 • Espectro é finito • Energia: ∞ ∞ ∫ ∣x t ∣2 dt = ∫ ∣X f ∣2 df −∞ −∞ (Teorema de Parseval), assim, a energia é finita. Alguns Aspectos Práticos da Amostragem Impulsos não são fisicamente realizáveis, mas pulsos curtos, sim. Figura 11: Exemplo de amostragem com pulsos curtos. Amostras de duração finita, s1 t = x t c t. Expressando c(t) pela Série de Fourier, temos: TA c t = Ts TA c t = Ts ∞ ∑ n=−∞ sen nT /T s j2 n TT t e , nT /T s ∞ ∑ fs = s cn e j2 n 1 , Ts cn = sen nT /T s nT /T s T t Ts n=−∞ Então: s1 t = x t TA Ts ∞ ∑ n=−∞ sen nT /T s j2 n TT t e nT /T s s Tomando-se a Transformada de Fourier de s1(t), temos: CDI 20705 – Comunicação Digital 12/35 x t−t 0 ↔ e j2 ft X f jw0 t ↔ X w−w 0 x t e 0 ∞ S 1 f = f s TA ∑ m =−∞ sen m f s T X f −mf s m f sT Figura 12: Sinal amostrado. Como sen m f s T não depende de f, não haverá distorção, e X(f) pode ser recuperado m f sT por uma filtragem, assim como no caso ideal. No caso de empregar amostas com pulso plano, Sample and Hold: Figura 13: Sample and Hold. s 2 t = [x t T t ] ∗ h t = x ∗ ht s CDI 20705 – Comunicação Digital 13/35 ∞ s 2 t = [ ∑ n=−∞ x nT s t−nT s ] ∗ ht ∞ s 2 t = ∑ n =−∞ x nT s ht −nT s Tomando-se a Transformada de Fourier, temos: ∞ S2 f = X f H f = f s onde, H f = T ∑ m =−∞ X f −mf s H f sen fT − j fT e fT Neste caso, haverá distorção em amplitude devido ao efeito de abertura. Para contornar ou minimizar essa distorção, a solução é aplicar um equalizador. Sendo que se, T /T s0,1 a equalização não é necessária. 3. Sinais Aleatórios O principal objetivo de um sistema de comunicação é transmitir informação através de um canal. Ao transmitir uma mensagem o transmissor a seleciona aleatoriamente, ou seja, o receptor não sabe, a priori, qual mensagem, dentre as diversas possíveis, será transmitida. Associada a isto, o canal impõe um ruído onde, normalmente, é variante no tempo. Ou seja, a cada nova transmissão temos que considerar uma nova condição de ruído. 3.1 Variáveis Aleatórias Seja: Ω → espaço amostral que contém todos os possíveis pontos amostrais; ξ → classe de eventos. Por exemplo, o evento A consiste de 1 ponto amostral ou um conjunto de pontos amostrais. A medida de probabilidade associada a cada evento A é definida como: a) P(Ω) = 1; b) 0 P A 1 ; c) P A ∪ B = P A P B , CDI 20705 – Comunicação Digital se A ∩ B = ∅ 14/35 Variável aleatória: É uma função do espaço amostral em uma faixa dos Reais. Exemplo 1: moeda → Ω = {cara, coroa} Seja A = cara e B = coroa X(A) = 0 e X(B) = 1 → X(Ω) = {0, 1} Exemplo 2: variável aleatória contínua A = tensão > 5 V X(A) > 5 Função Distribuição: A função distribuição de uma variável aleatória X é dada por: F X x = P X x , onde P X x é a probabilidade de que o valor tomado pela variável aleatória X ser menor ou igual ao número real x. A função distribuição possui as seguintes propriedades: a) 0 F X x 1 ; b) F X x 1 F X x 2 , se x1 x2 ; c) F X −∞ = 0 ; d) F X ∞ = 1. Função Densidade de Probabilidade (PDF): pX x = dF X x dx Da mesma forma que a função distribuição, a função densidade de probabilidade é uma função do número real x. Seja: CDI 20705 – Comunicação Digital 15/35 P x 1 x x 2 = P X x 2 − P X x 1 P x1 x x2 = F X x2 − F X x1 x2 P x1 x x2 = x1 ∫ p X x dx − ∫ p X x dx −∞ −∞ x2 P x1 x x2 = ∫ p X x dx x1 Propriedades: a) p X x 0 → função não decrescente. b) ∫ p X x dx ∞ = F X ∞ − F X −∞ = 1 − 0 = 1 −∞ Desta forma, a função densidade de probabilidade é sempre uma função não-negativa com área total igual a 1. Variáveis Aleatórias Discretas ∑ P X = x i = 1 i Valor Médio O valor médio ou valor esperado da variável aleatória X é: ∞ m X = E {X } = ∫ x . p X x dx , onde E {⋅} é chamado de valor esperado. −∞ O n-ésimo momento da PDF de uma variável aleatória X é: ∞ n E {X } = ∫ xn . p X x dx −∞ Para os propósitos de sistemas de comunicação, os momentos mais importantes são os dois primeiros. O primeiro momento, quando n = 1, resulta na média e, quando n = 2, temos a variância da variável aleatória X, definida como: ∞ 2 var X = E { X − m X } = ∫ x − m X 2 . p X x dx −∞ CDI 20705 – Comunicação Digital 16/35 E { X − m X 2 } = E { X 2 − 2Xm X m2X } 2 2 2 E { X − m X } = E {X } − E {2Xm X } E {m X } E { X − m X 2 } = E {X 2 } − 2m X E {X } m2X , 2 2 2 como E { X } = mX 2 E { X − m X } = E {X } − 2m X m X E { X − m X 2 } = E {X 2 } − m2X = 2X ∞ 2 X → variância de X, E {X 2 } = ∫ x2 . p X x dx −∞ 4. Processos Estocásticos Um processo aleatório X(A, t) pode ser visto como uma função de duas variáveis: um evento A e o tempo. A Figura 14 ilustra um processo aleatório. Nesta figura existem N funções amostra no tempo, {Xj(t)}. Cada uma das funções amostra pode ser considerada a saída para um determinado ruído. Para um evento específico Aj, temos uma única função no tempo X(A j, t) = Xj(t). O total de funções amostras possíveis é chamado de conjunto (ensemble). Para um tempo específico tk, X(A, tk) é uma variável aleatória X(t k) cujo valor depende do evento. E para um evento específico A = A j, e para um tempo específico t = tk, X(Aj, tk) é um valor determinístico, ou seja, apenas um número. CDI 20705 – Comunicação Digital 17/35 Figura 14: Processos aleatórios com ruído. Média Estatística de um Processo Estocástico De maneira geral, a forma da PDF de um processo estocástico será diferente para os diferentes instantes de tempo. Em muitas situações não é conveniente determinar empiricamente a PDF de um processo estocástico. Embora, uma descrição parcial consistindo da média e da função de autocorrelação normalmente já são suficientes para as necessidades dos sistemas de comunicações. A média de um processo estocástico pode ser definida como: ∞ E {X t k } = ∫x p X x dx = m X t k , k −∞ onde X t k é a variável aleatória obtida amostrando-se o processo estocástico em e a PDF de t = tk , X t k , a densidade dentre o conjunto de eventos no tempo tk, é denominado pX x . k A função de autocorrelação de um processo estocástico X(t) é definida como uma função de CDI 20705 – Comunicação Digital 18/35 duas variáveis, t1 e t2, dada por: R X t 1 , t 2 = E {X t 1 X t 2 } = E { X 1 X 2} ∞ R X t 1 , t 2 = ∞ ∫∫x y pX 1 ,X2 x , y dx dy −∞ −∞ R X t 1 , t 2 mede o quanto as variáveis aleatórias X1 e X2 são correlacionadas. Estacionaridade a) No sentido estrito Um processo estocástico X(t) é estacionário no sentido estrito se: • X t 1 , X t 2 , ... , X t N tem a mesma densidade de probabilidade. Ou seja, P X x é a mesma para todos instantes de tempo; k • pX 1 , X 2 ,... , X N x 1 , x 2 ,... , x N independe dos instantes de tempo t 1 , t 2 , ... , t N e de N. b) No sentido amplo Um processo estocástico X(t) é estacionário no sentido amplo se: • apenas os dois primeiros momentos independem do deslocamento no tempo, E {X t} = m X = constate • ∀t R X t 1 , t 2 = R X 0, t 2−t 1 = R X t 2−t 1 R X t 1 , t 2 = R X , = t 2 − t 1 Estacionaridade no sentido estrito implica em estacionaridade no sentido amplo. Mas o inverso não é necessariamente verdade. Um processo estocástico estacionário no sentido amplo nem sempre é estacionário no sentido estrito. Uma exceção é o processo estocástico Gaussiano. Pois, ele é caracterizado apenas pela média e variância. Autocorrelação de um Processo Estocástico Estacionário no Sentido Amplo Assim como a variância proporciona uma medida de aleatoridade para variáveis aleatórias, a função de autocorrelação proporciona uma medida similar para processos estocásticos. Em um processo estacionário em sentido amplo, a função de autocorrelação é apenas uma função da CDI 20705 – Comunicação Digital 19/35 diferença de tempo = t 2 − t 1 . R X = E {X t X t} , para −∞ ∞ Para um processo estacionário no sentido amplo (WSS) com média zero, R X indica a extensão nos quais os valores do processo separados por segundos são estaticamente R X nos traz uma ideia da resposta em frequência que está correlacionados. Ou seja, associada com o processo estocástico. Se R X muda vagarosamente com o aumento de , isto indica que, na média, os valores amostrados de X(t) para t = t 1 e t = t 1 são aproximadamente iguais. Assim, nós esparamos uma representação no domínio da frequência de X(t) contendo preponderadamente baixas frequências. Por outro lado, se R X decrescer rapidamente com o aumento de , nós esparamos que X(t) mude rapidamente com o tempo e consequentemente, contenha predominantemente altas frequências. Propriedades da função de Autocorrelação de um Processo Estacionário no Sentido Amplo Seja X(t) um processo estocástico real: (1) R X = R X − (2) R X R X 0 , ∀ (3) R X (4) R X 0 = E {X 2 t } → valor médio quadrático ou potência do processo estocástico G X f , densidade espectral de potência ↔ ∞ ∫ R X . e− j2 f . d = GX f −∞ ∞ ∫ R X . e− j2 f . d = GX f −∞ ∞ R X 0 = ∫ G X f . df → potência do processo estocástico −∞ Médias Temporais e Ergodicidade Para calcular m X e R X de um processo estocástico estacionário, precisamos conhecer pX x e PX 1 ,X 2 x 1 , x 2 . Mas na prática, isso nem sempre é possível. Então, recorremos as médias temporais. CDI 20705 – Comunicação Digital 20/35 Um processo estocástico é dito ERGÓTICO se suas médias temporais, a partir de qualquer função amostra, são iguais as suas médias estatísticas. Processo ergótico em média: T/2 1 ∫ X t . dt T T ∞ −T /2 m X = lim Processo ergótico em função de autocorrelação: 1 R X = lim T ∞ T T/2 ∫ X t . X t−. dt −T / 2 Uma vez que um processo é dito ergótico, algumas relações entre os valores de parâmetros elétricos do sinal, tais como, o valor da componente dc, valor rms, e potência média do sinal, podem ser relacionadas aos momentos de um processo ergótico. • O valor m X = E {X t} é igual ao nível dc do sinal. • 2 A quantidade m X é igual a potência normalizada da componente dc. • O segundo momento de X(t), E {X 2 t}, é igual a potência média total normalizada. • E {X 2 t} é igual ao valor médio quadrático (rms) do sinal de tensão (ou de corrente). • A variância, 2X , é igual a potência média normalizada no tempo ou da componente ac do sinal. • Se o processo tem média zero, m X = m2X = 0 , então 2X = E {X 2 t }, e a variância é igual ao valor rms, ou a variância representa a potência total normalizada. • O desvio médio padrão, X , é o valor rms da componente ac do sinal. • Se m X = 0 , então, o desvio médio padrão, X , é o valor rms do sinal. Densidade Espectral de Potência de um Processo Estocástico Um processo estocástico X(t) pode normalmente ser classificado como um sinal de potência CDI 20705 – Comunicação Digital 21/35 G X f , na forma: com densidade espectral de potência, G X f = lim T ∞ 1 2 ∣X T f ∣ . T G X f é muito útil na análise de sistemas de comunicações, porque ela descreve a distribuição de potência do sinal no domínio da frequência. Propriedades para um processo estocástico real: (1) GX f ≥ 0 (2) G X f = G X − f , para X t real (3) GX f (4) PX = ↔ R X ∞ ∫ G X f df → potência média total −∞ O que significa o termo correlação? Quando nós indagamos sobre a correlação entre dois fenômenos, nós estamos perguntando o quão próximo eles se correspondem em comportamento ou aparência, o quão bem eles correspondem um ao outro. Matematicamente, uma função de autocorrelação de um sinal (no domínio do tempo) descreve a correspondência do sinal consigo mesmo. Assim, uma cópia exata do sinal é feita e posicionada no tempo em menos infinito. Então, nós movemos a cópia no sentido positivo, e a cada incremento, perguntamos: “Como a cópia e o sinal se correspondem agora?”. E assim por diante. A Figura 15-1 (a) ilustra uma forma de onda amostrada de um processo estocástico (PE) estacionário em sentido amplo (WSS), X(t). A forma de onda é uma sequência binária aleatória com pulsos de amplitude unitária positiva e negativa, pulsos bipolar. A duração de cada pulso é de T segundos, e a média m X , ou valor dc da sequência aleatória é zero. A Figura 15-1 (b) ilustra a mesma sequência deslocada de 1 segundos, sendo definida como X t −1 . Vamos assumir que o processo é ergótico na função de autocorrelação, assim, nós podemos trabalhar com a média temporal ao invés da média estatística para encontrar R X . O valor de R X 1 é obtido fazendo o produto das duas sequências X t e X t−1 , e encontrando o valor médio entre elas, usando a equação: 1 R X = lim T ∞ T T/2 ∫ X t . X t−. dt . O resultado −T / 2 desta equação é válido para um processo ergótico apenas no limite. Embora, integrá-la sobre um número inteiro de períodos nos dá uma boa estimativa de R X . Note que R X 1 pode ser CDI 20705 – Comunicação Digital 22/35 obtido com um deslocamento positivo ou negativo de X t. O cálculo de R X é mostrado na Figura 15-1 (c) usando a sequência amostrada e sua réplica deslocada conforme ilustrado previamente também na Figura 15-1. Figura 15-1: Exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal lento. Na Figura 15-1 (c) as áreas com linhas diagonais abaixo do produto X t X t−1 resulta em valores positivo do produto, já a área pintada de cinza resulta em valores negativo do produto, e as áreas pintadas de branco indica que o produto é zero. A integral de X t X t−1 sobre vários períodos de tempo resulta em um valor de área que é definido como R X 1 da função R X . Então, as sequências podem ser deslocadas de 2 , 3 , ... , sendo que a cada deslocamento é produzido um novo valor de área da função R X . O resultado de R X é mostrado na Figura 15-2 (d), onde o valor de pico ocorre para =0, CDI 20705 – Comunicação Digital R X 0. Assim, podemos 23/35 afirmar que R X R X 0 , ∀ , e R X decresce quando ∣∣ cresce. A expressão analítica para a função de autocorrelação, R X , é: Figura 15-2: Continuação do exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal lento. Note que a função de autocorrelação nos traz informação sobre a frequência; ela nos diz algo a respeito da largura de banda do sinal. Entretanto, a função de autocorrelação é uma função no domínio do tempo, ou seja, não existe uma componente de frequência associada a ela. Então, como esta função nos dá informação sobre a largura de banda do sinal? Considere que é um sinal muito lento (pequena largura de banda). Como foi mostrado nas figuras 15-1 e 15-2, para cada passo de é feita a pergunta: “O quão boa é a correlação entre a amostra original e a sua cópia?”, e a correlação será boa por um instante. Ou seja, o formato triangular da função de autocorrelação vai desacelerar gradualmente com . Mas se o sinal for rápido (grande largura de banda) é possível que em um pequeno deslocamento de resulta na correlação das funções. Neste caso, a função de autocorrelação terá uma aparência muito íngreme. Logo, o formato da função de autocorrelação nos diz algo a respeito da largura de banda CDI 20705 – Comunicação Digital 24/35 do sinal. Assim, se a função for íngreme, trata-se de um sinal com grande largura de banda. Por outro lado, se a rampa desacelera gentilmente, então, é um sinal com uma pequena largura de banda. As Figuras 15-1 e 15-2 ilustram o caso do sinal lento e as Figuras 15-3 e 15-4 ilustram o caso de um sinal com grande largura de banda. Figura 15-3: Exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal rápido. A função de autocorrelação nos permite expressar a densidade espectral de potência (PSD) do sinal aleatório diretamente. Pois, a PSD e a função de autocorrelação são relacionadas pela Transformada de Fourier. A PSD, G X f , da função de autocorrelação definida na Figura 15-2 (d) é: CDI 20705 – Comunicação Digital 25/35 sen fT 2 GX f = T = T sinc2 fT , onde fT sinc x = sen x x A PSD está ilustrada na Figura 15-2 (e) e na Figura 15-4 (j). Figura 15-4: Continuação do exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal rápido. Note que a área da função PSD representa a potência média do sinal. Uma medida conveniente para a largura de banda do sinal é medir o espectro do lóbulo principal. Note também que a largura de banda do sinal está inversamente relacionada a duração do símbolo ou largura do pulso, como pode ser visto nas figuras 15-1 até 15-4. Assim, para um pulso de curta duração (taxa de bit elevada) vai ter uma grande largura de banda. • T pequeno → sinal tem uma faixa de frequência larga • T grande → sinal tem uma largura de banda estreita 4. Ruído em Sistemas de Comunicação O ruído se refere a um sinal elétrico indesejado que está sempre presente em sistemas elétricos. A presença do ruído sobreposto ao sinal tende a mascarar o sinal, limitando o receptor CDI 20705 – Comunicação Digital 26/35 em tomar a decisão correta sobre o símbolo transmitido, e assim, limita a taxa de informação transmitida. O ruído surge a partir de uma variedade de fontes, como por exemplo: radiações eletromagnéticas, variações de temperatura, etc. Existe um tipo de ruído que não pode se consegue eliminar, ele é chamado de ruído térmico. Este ruído é causado pela movimentação térmica dos elétrons em todos os componentes dissipativos, tais como: resistores, cabos, etc. Os mesmos elétrons que são responsáveis pela condução elétrica do sinal, também são os responsáveis pelo ruído térmico. O ruído térmico pode ser descrito pelo processo estocástico Gaussiano com média zero. O processo estocástico n(t), para qualquer instante t é uma variável aleatória Gaussiana com função densidade de probabilidade (PDF): 2 p (n) = 1 n exp(− 2 ) σ √2 π 2σ ∞ onde 2 é a variância de n, dada por: 2 = ∫ n 2 pn n dn −∞ A PDF do ruído Gaussiano normalizado com média nula é obtido assumindo uma variância unitária. Esta PDF normalizada pode ser visualizada na Figura 17. A Figura 16 ilustra a informação recebida após passar pelo canal de comunicação. Figura 16: Sinal após passar pelo canal. Assim, podemos determinar a média e a variância do sinal recebido, z. E {z } = E {a+ n } = E {a }+ E {n }, mas como o ruído possui média nula, E {n} = 0 E {z } = E {a} = a , ou seja, o valor médio de z é o próprio sinal de informação. E {(z−a) } = E {[(a+ n)−a ] } = E {n } = σ n = σ z 2 2 2 2 2 Logo, a PDF do sinal recebido, z, é dada por: CDI 20705 – Comunicação Digital 27/35 (z −a )2 p(z) = exp(− ) σz √ 2 π 2 σ2z 1 Neste caso, a PDF ilustrada na Figura 17, está deslocada de a, ou seja, o valor de pico ocorre quando z = a. Figura 17: PDF do ruído Gaussiano normalizado. Ruído Branco Um modelo simplificado do ruído apresenta uma densidade espectral de potência ( G n( f ) ) plana para todas as frequências. Na pratica vai até a faixa de terahertz (10 12 Hz). G n( f ) = N0 2 [Watts / Hz] O fator 2 na divisão de G n( f ) indica a PSD de dois lóbulos, ou dois lados. Assim, se uma largura de banda B for alocada para as frequências positivas, terá uma banda B alocada também nas frequências negativas. Como as funções de autocorrelação e densidade espectral de potência estão relacionadas pela Transformada de Fourier, podemos definir a função de autocorrelação para o ruído Gaussiano CDI 20705 – Comunicação Digital 28/35 branco: Rn ( τ ) = N0 δ( τ ) 2 As funções de densidade espectral de potência e de autocorrelação são apresentadas na Figura 18. Figura 18: (a) Densidade espectral de potência do ruído branco; (b) autocorrelação do ruído branco. Note que a potência média é infinita porque a largura de banda é infinita. ∞ Pn = ∫ −∞ N0 df = ∞ 2 Como fica a função de autocorrelação do ruído para uma dada largura de banda B? Rn ( τ ) = ∫ Gn ( f ) df B = N0 2B = N 0 B 2 Embora a abstração do ruído branco seja muito útil, nenhum processo com ruído consegue ser verdadeiramente branco. Entretanto, o ruído encontrado em muitos sistemas reais podem assumir para serem aproximadamente branco, simplificando a análise. Para isso, basta observar o ruído após este passar por um sistema real com largura de banda finita. Então, quanto maior for a largura de banda do ruído, sendo muito maior do que a largura de banda do sistema, o ruído pode ser considerado ter uma largura de banda infinita. Na função de autocorrelação do ruído branco, a função delta que expressa que o ruído, n(t), é totalmente descorrelacionado da sua cópia deslocada no tempo para qualquer τ > 0. Como essas amostras são variáveis aleatórias (v.a.) podemos fazer as seguintes afirmações: CDI 20705 – Comunicação Digital 29/35 • v.a. descorrelacionadas → v.a. independentes • v.a. Gaussianas descorrelacionadas → • O ruído afeta cada símbolo transmitido independentemente → canal sem memória • Usamos a sigla AWGN (Additive White Gaussian Noise). v.a. Gaussianas independentes 5. Transmissão de Sinais e Processos Estocásticos através de Sistemas Lineares Um sistema linear pode ser igualmente caracterizado tanto no domínio do tempo quanto no domínio da frequência. O sinal de entrada, mostrado na Figura 19, pode descrito tanto no domínio do tempo, x(t), como no domínio da frequência, X(f), tendo como sinal de saída, respectivamente, y(t) e Y(f). O sistema linear é definido no domínio do tempo como a resposta ao impulso, h(t); e no domínio da frequência é chamado de função de transferência, H(f). O sistema além de ser linear, também é invariante no tempo. Figura 19: Sistema linear considerando um sinal qualquer na entrada. h(t) → resposta ao impulso H(f) → função de transferência ∞ y t = x t∗ht = ∫ x ht− d −∞ Y f = X f H f H f = Y f Xf CDI 20705 – Comunicação Digital 30/35 Figura 20: (a) Sinal de entrada x(t) igual a função impulso; (b) sinal de saída y(t) é a resposta ao impulso do sistema h(t). Figura 21: Sistema linear de um processo estocástico. Se um processo estocástico está na entrada de um sistema linear invariante no tempo, a saída também será um processo estocástico, como ilustra a Figura 21. Logo, para cada função amostra na entrada terá uma função amostra na saída. A densidade espectral de potência na entrada G X f e a densidade espectral de potência na saída GY f são relacionada da seguinte forma: R X = E {x t x t−} RY = E {y t y t−} = E {x t ∗h t x t−∗h t} RY = R X ∗ht ∗conj h t = R X ∗ht ∗h −t GY f = G X f H f conj H f 2 GY f = G X f ∣H f ∣ Propriedade: Se x(t) for um processo estocástico (PE) Gaussiano, então y(t) também será um PE Gaussiano. E se a média na entrada for zero, também será na saída. CDI 20705 – Comunicação Digital 31/35 6. Canal de Comunicação Ideal (sem distorção) O sinal de saída de uma transmissão por um canal ideal pode apresentar um certo atraso comparado com o sinal de entrada, e também, uma amplitude diferente com relação à entrada, sendo apenas uma mudança de escala. Mas de forma alguma deve apresentar distorção, ou seja, o sinal de saída deve manter a mesma forma que o sinal de entrada. Assim, a saída pode ser descrita da seguinte forma: y t = K x t−t 0 onde K e t0 são constantes. Realizando a Transformada de Fourier em ambos os lados, temos: Y f = K X f e− j2 ft 0 Substituindo Y(f) em H f = Y f , a função de transferência de um canal ideal pode Xf ser definida como: K X f e− j2 ft − j2 ft H f = = K e Xf 0 0 Para alcançar uma transmissão ideal sem distorção a resposta sobre todo o sistema deve ser uma resposta de magnitude constante e o deslocamento de fase deve ser linear com a frequência. Assim, não é suficiente o sistema amplificar ou atenuar todas as componentes de frequência igualmente. Mas todas as componentes de frequência devem também chegar ao mesmo tempo, ou seja, com o mesmo atraso. Tendo em vista que o deslocamento de atraso do sinal, t0, está relacionada a um deslocamento de fase e da frequência angular, w = 2 f , logo: t0 = [radianos ] [ segundo] radianos 2 f [ ] segundo A resposta em frequência de um canal ideal é mostrada na Figura 22. É claro que o deslocamento de fase deve ser proporcional a frequência para que o atraso de todas as componentes do sinal seja o mesmo. Uma característica normalmente utilizada para medir a distorção de atraso de um sinal é chamado de atraso de grupo, que é definido como: f = − 1 d f 2 df CDI 20705 – Comunicação Digital 32/35 Figura 22: Resposta em frequência de um canal ideal. Figura 23: (a) Filtro ideal passa-banda; (b) filtro ideal passa-baixa; (c) filtro ideal passa-alta. CDI 20705 – Comunicação Digital 33/35 Logo, para um canal de comunicação sem distorção (ideal), uma forma de caracterizar a fase para ser linear com a frequência é caracterizar o atraso de grupo para ser constante. Na prática, um sinal será distorcido ao passar por algumas partes do circuito, assim, correções de fase e de amplitude são introduzidas, equalização, para corrigir as distorções impostas ao sinal. Infelizmente um sistema com canal de comunicação ideal não é realizável, devido a função de transferência do canal, H f = K e− j2 ft = ∣H f ∣e− j f , necessitar de uma função de 0 transferência infinita. Uma aproximação de um canal ideal, com largura de banda infinita, é truncar a banda entre fl e fu de forma que todas as componentes de frequência entre estas passem sem distorção. Sendo fl a frequência de corte mais baixa e f u a frequência de corte mais alta. Esta técnica implementamos o filtro ideal, como é ilustrado na Figura 23 os filtros ideiais passa-bada, passa-baixa e passa-alta. A resposta ao impulso de um filtro ideal passa-baixa, ilustrado na Figura 24 é: fu ∞ h t = ∫ H f e j2 ft df = ∫ H f e j2 ft df −fu −∞ onde: − j f H f = ∣H f ∣e ∣H f ∣ = 1 , para∣ f ∣ f u , e− j f = e− j2 ft e = 0 para o resto 0 Assim: fu h t = f ∫e − j2 ft 0 −f u h t = 2f u e j2 ft df = u ∫ e j2 f t−t df 0 −fu sen 2 f u t−t 0 = 2f u sinc 2f u t−t 0 2 f u t−t 0 A resposta ao impulso é não causal, o que significa que a saída é zero antes de ser aplicado qualquer valor na entrada no instante t = 0. Deve ficar claro, que o filtro ideal não é realizável. CDI 20705 – Comunicação Digital 34/35 Figura 24: Resposta ao impulso de um filtro ideal passa-baixa. Qual efeito de um filtro ideal em um ruído branco? Seja um ruído branco com densidade espectral de potência Gn f = N0 na entrada de um filtro ideal passa-baixa. A densidade 2 espectral de potência e a função de autocorrelação na saída deste filtro são: 2 GY f = G n f ∣H f ∣ GY f = 2 para ∣ f ∣ f u , e zero para o restante RY = N 0 f u Note que sen2 f u = N 0 f u sinc 2 f u 2 f u RY tem o mesmo formato que a resposta ao impulso do filtro ideal, h(t). O filtro ideal passa-baixa a função de autocorrelação do ruído branco, definida como a função delta, em uma função sinc. Após o filtro, não teremos mais ruído branco. O sinal de ruído na saída terá correlação zero com as suas cópias deslocadas, apenas para os deslocamentos de = n/2f u , sendo n um valor inteiro qualquer diferente de zero. CDI 20705 – Comunicação Digital 35/35