1 Universidade Tecnológica Federal do Paraná Departamento de

Propaganda
1
Universidade Tecnológica Federal do Paraná
Departamento de Eletrônica
Disciplina: Teoria da Informação
Professor: Dyson Pereira Junior
Exercícios para a Primeira avaliação
1) Considere uma fonte que produz os símbolos
(A, B, C, D) com as probabilidades de
ocorrência de, respectivamente (1/3, 1/3, 1/4,
1/12).
a) Calcule a entropia da fonte.
b) Determine uma codificação de Huffman para
esta fonte.
c) Calcule a eficiência do código obtido em b.
2) Seja A uma fonte sem memória que emite os
símbolos a, b e c com as probabilidades de,
respectivamente, 0,5; 0,3; 0,2.
a) Calcule a entropia da fonte.
b) Suponha que os símbolos sejam codificados da
seguinte forma: a - 0, b - 10, c - 11. Quais são
as características deste código?
c) Calcule a eficiência do código.
d) Agrupam-se os símbolos produzidos por A em
blocos de dois símbolos. Produza um código de
Huffman para esta situação.
3) Seja A uma fonte sem memória que emite os
símbolos a, b, c, d, e, f com as probabilidades
de, respectivamente, 0,25; 0,25; 0,125; 0,125;
0,125; 0,125.
a) Calcule a entropia da fonte.
b) Suponha que os símbolos são codificados da
seguinte forma: a - 10, b - 11, c - 010, d - 011, e000, f - 001. Trata-se de um código com prefixo?
Justifique.
c) Calcule a eficiência desta codificação.
4) Considere a fonte A do exercício anterior.
Produza um código de Huffman para esta fonte.
5) Considere um código para transmissão de 4
símbolos diferentes com a codificação seguinte:
símbolo A B C D com os códigos 0000 0011
1100 1111. Qual é a distância de Hamming
deste código? Quais as capacidades deste
código em termos de detecção e correção de
erros?
6) Diz-se que um código é de decodificação
instantânea quando o decodificador reconhece o
símbolo emitido logo que recebe o último bit
que o compõe. Diga, justificando, se um código
obtido pelo método de Huffman é de
decodificação instantânea.
7) O segundo teorema de Shannon aplica-se a
canais com ruído. Explique a relevância deste
teorema para a área da construção de códigos
de detecção e correção de erros.
8) Considere uma fonte discreta e sem memória
que pode emitir quatro símbolos diferentes (A, B,
C, D). Dê um exemplo de uma distribuição de
probabilidades de ocorrência dos símbolos que
permita uma codificação de Huffman com
eficiência igual a 1. Justifique.
9) Diga o que é um código de decodificação
instantânea. Um código de Huffman é um
código de decodificação instantânea? Justifique.
10) Considere que se pretende codificar uma fonte
que emite os símbolos (A, B e C). Foram
propostas as seguintes quatro codificações:
C1: (A-0 B-1 C-01);
C2: (A-0 B-11 C-01);
C3: (A-00 B-01 C-10); C4: (A-00 B-01 C-1).
Diga, justificando, qual/quais destes códigos são
de decodificação única e qual/quais são de
decodificação instantânea.
11) Construa um código com prefixo, univocamente
decodificável, para um alfabeto A de 9 símbolos
e um alfabeto-código de 2 símbolos (B = {0,1}).
Calcule a entropia deste código e mostre a
árvore correspondente. Considere as seguintes
probabilidades, em relação ao alfabeto A:
p(1) = 0,3
p(2) = p(3) = p(4) = 0,15
p(5) = p(6) = p(7) = 0,06
p(8) = p(9) = 0,035
12) Uma fonte gera letras de um alfabeto a = {A, E, I,
O, U} com as probabilidades P(A)=P(I)=0,2,
P(E)=0,4 e P(O)=P(U)=0,1.
a) Codifique as letras com um código de Huffman
binário e determine o número médio de bits
usado para cada letra.
b) Determine a variância do comprimento das
palavras de código.
c) Repita o item a, procurando obter um código de
Huffman de variância mínima.
d) Determine a variância do novo código.
2
13) Considere os dois códigos de Huffman da tabela
seguinte:
Letras Probabilidades Código I
X1
0,2
01
X2
0,4
1
X3
0,2
000
X4
0,1
0010
X5
0,1
0011
Código II
10
00
11
010
011
Poderá verificar que o número médio de
bits/símbolo, n , é igual em ambos os códigos e
que a variância do código 2 é a menor das duas.
a) A seqüência x2x1x3x2x1x2x4 codificada com o
código 1 e enviada através de um canal, que
provocou um erro no primeiro bit da seqüência
binária (em vez de se receber um “1” recebeuse um “0”, ou vice-versa). Quantos caracteres
errados ocorrem antes do primeiro corretamente
decodificado?
b) Repita o mesmo para o código 2.
c) Repita as alíneas anteriores, mas supondo
agora que é o terceiro bit recebido que está
errado.
14) Um alfabeto de entrada (por exemplo, um
teclado de um processador de texto) consiste
em 100 caracteres.
a) Se as teclas forem codificadas através de um
código de comprimento fixo, determine o
número requerido de bits para a codificação de
cada tecla.
b) Suponhamos que 10 das teclas são
equiprováveis e que cada uma ocorre com
probabilidade 0,05. Suponhamos também que
as restantes 90 teclas são batidas com igual
probabilidade. Determine o número médio de
bits requerido para codificar este alfabeto
usando um código de Huffman.
15) Uma palavra foi codificada usando o código de
Huffman, tendo-se obtido a seqüência binária:
10111011010111001110100
O alfabeto original era constituído pelas letras A,
B, C, D, E, I, L, R e T e a letra I foi codificada
como "00". Supondo que estas letras ocorriam
com as probabilidades
P(A) = 0,26 P(B) = 0,09
P(C) = 0,08 P(D) = 0,01
P(E) = 0,07
P(I) = 0,22 P(L) = 0,01
P(R) = 0,23 P(T) = 0,03
qual terá sido a palavra codificada?
16) Uma fonte discreta possui um alfabeto de 10
símbolos X1, X2, …, X10 que ocorrem com as
seguintes probabilidades:
{1/50, 2/50, 3/50, 4/50, 5/50, 5/50, 6/50, 7/50,
8/50, 9/50}.
a) Codifique os símbolos da fonte com um código
de Huffman ternário.
b) Determine o comprimento médio das palavras
do código.
Download