Módulo 2 - LAC

Propaganda
JDSS-LAC/INPE
Adaptive Linear Element - Adaline/Madaline
•Concebido por Widrow e Hoff (1960)
•Máquina adaptável para classificação de padrões
•Usa o algoritmo LMS para sua operação.
JDSS-LAC/INPE
Adaptive Linear Element - Adaline/Madaline
w0
x1
w1
x2
w2
Entradas
x0= -1
¦
.
.
.
xp
wp
v
y
Função
Sinal
-
e
d v
¦
+
d
Objetivo do processo na Adaline:
Dado um conjunto de padrões e de saídas desejadas, encontrar
o conjunto de pesos ótimos wi que minimiza o valor quadrático
médio do erro.
1
JDSS-LAC/INPE
LMS - Regra Delta - Regra de Aprendizagem de Widrow-Hoff
(Lin e Lee, 1996)
Dado: ^( x (1), d (1)), ( x ( 2), d ( 2)),/ , ( x ( p ), d ( p ))`
Função Custo:
H ( n)
Linearmente
separáveis
p
·
1§
¨ d ( n) ¦ w j (n) x j (n) ¸
¸
2 ¨©
j 0
¹
w j (n 1)
2
w j ( n ) 'w j ( n )
JDSS-LAC/INPE
LMS - Regra Delta - Regra de Aprendizagem de Widrow-Hoff
(Lin e Lee, 1996)
Gradiente Descendente
w j (n 1)
'w j ( n )
w j ( n ) 'w j ( n )
'w j (n)
K
wH (n)
ww j (n)
p
·
§
K ¨¨ d ( n ) ¦ w j ( n ) x j ( n ) ¸¸ x j ( n ) j 0
¹
©
p
§
·
¨
K ¨ d ( n ) ¦ w j ( n ) x j ( n ) ¸¸ x j ( n )
j 0
©
¹
2
JDSS-LAC/INPE
Exemplo 1:
Padrões
Pesos e Limiar iniciais
ª 1 1º
« 1 1»
«
»
«¬ 1 1»¼
P
d
> 1
1@
Parâmetros
K 0.2
ª0.7266º
«0.8353»
«
»
«¬0.0972»¼
w
0.3662
b
S oma dos e rros qua drá ticos
0.2
Erro _ alvo 0.01
Max _ epoca 200
0.18
0.16
0.14
0.12
JDSS-LAC/INPE
Fonte de
Informação
Erro
Pesos Finais
ª0.6415º
w ««0.9860»»
«¬0.1823»¼
b 0.4513
0.1
0.08
0.06
0.04
0.02
0
1
1.5
2.5
3
Cancelamento de Ruído (Filtro Adaptativo)
Sinal de
Informação
+
+
Sinal de
Interferência
filtrado
Filtro
Interferência
p
Sinal de
Informação
Restaurado
Sinal de Informação
Contaminado +
x
Fonte de
Interferência
2
e poca s
w1
¦
Sinal
de Erro
y
w0
-1
Entrada
da Adaline
Saída da
Adaline
Adaptado de Hagan et ali., 1996
Capítulo 10, pp. 10-15
3
JDSS-LAC/INPE
JDSS-LAC/INPE
4
JDSS-LAC/INPE
Madaline
W1
Camada
de entrada
x1
1
x2
2
x3
3
W2
Camada
de Saída
y1
y2
MRI (Widrow e Hoff, 1960): W1 ajustáveis e W2 fixos
MRII (Widrow, Winter e Baxter, 1987): W1 e W2 ajustáveis
Fonte: Fausett, 1994
JDSS-LAC/INPE
Algoritmo - LMS
Algoritmo LMS - bloco processamento adaptável de sinais
baseado no uso das estimativas instantâneas da autocorrelação e
da correlação cruzada das entradas.
•Simplicidade de Implementação
•Habilidade de operação em ambiente desconhecido
•Habilidade para acompanhar no tempo as variações nas
estatísticas das entradas
5
JDSS-LAC/INPE
LMS - Inspiração na teoria de filtragem adaptativa
Entradas
produzidas
pelos
sensores
x1
w1
x2
w2
¦
.
.
.
xp
p
y
wp
Relação
entre a
entrada e a
saída
¦w x
k
k
k 1
Pesos
Filtro Espacial
Problema: Encontrar os pesos ótimos que minimizam o erro
quadrático
e dy
J
> @
1
E e2
2
d - saída desejada ou alvo
Solução: Uso das equações de Wiener-Hopf
JDSS-LAC/INPE
Problema da Filtragem Linear Ótima
•Performance ou função custo - Erro Quadrático Médio
J
> @
1
E e2
2
•Determinar os pesos ótimos que minimizem J
•Solução: Filtro de Wiener
J
> @
1
E e2
2
>
1
E (d y) 2
2
@
>
1
E d 2 2dy y 2
2
@
6
JDSS-LAC/INPE
Problema da Filtragem Linear Ótima
> @
>
1
E (d y) 2
2
@
>
J
1
E e2
2
J
1
1
1
E d 2 E>2dy @ E y 2
2
2
2
> @
1
E d 2 2dy y 2
2
@
> @
> @
> @
1
1
E d 2 E>dy @ E y 2
2
2
º
ª p
º 1 ª p p
1
E d 2 E «¦ wk xk d » E «¦¦ w j wk x j xk »
2
¬k 1
¼ 2 ¬j 1 k
¼
> @
JDSS-LAC/INPE
> @
>
p
1
1 p p
E d 2 ¦ wk E> xk d @ ¦¦ w j wk E x j xk
2
2 j1 k
k 1
J
@
•Valor quadrático médio da resposta desejada
rd
E[d 2 ]
•Correlação cruzada entre a entrada e a saída desejada
rdx (k )
E > xk d @,
k 1,2,..., p
•Autocorrelação entre as entradas
rx ( j , k )
J
E[ x j xk ],
j, k
1,2,..., p
p
1
1 p p
rd ¦ wk rdx (k ) ¦¦ w j wk rx ( j , k )
2
2 j1 k
k 1
7
JDSS-LAC/INPE
Gráfico de J
w1,w2,...,wp ==> Superfície de erro do filtro
X
•Forma de tigela (parabolóide) com um mínimo global bem
definido => o filtro é ótimo no sentido de que o erro
quadrático atinge o valor mínimo Jmin
Solução:
wJ
,
wwk
’ wk J
<=
Gradiente
da
superfície em relação
ao peso
k 1,2,..., p
JDSS-LAC/INPE
’ wk J
p
rdx (k ) ¦ w j rx ( j , k )
0
<= Condição ótima do filtro
j 1
p
¦ w r ( j, k )
rdx (k ),
j x
k 1,2,..., p
j 1
• wok - conjunto de pesos ótimos:
p
¦w
r ( j, k )
oj x
rdx (k ),
k 1,2,..., p
j 1
•Sistema de equações de Wiener-Hopf.
•Filtro de Wiener satisfaz estas equações.
8
JDSS-LAC/INPE
Método do Gradiente Descendente
Solução para o sistema de equações de Wiener-Hopf:
•É um conjunto de pesos ótimos para o filtro espacial.
•Necessita do cálculo da inversa de uma matriz p x p dos valores
da função de autocorrelação rx(j,k), j,k = 1,2,...,p
•Método do Gradiente Descendente evita o cálculo
•Procura iterativa pelo o ponto de mínimo da superfície de erro
•Os ajustes dos pesos acontece na direção do passo descendente
da superfície de erro, ou seja, em direção oposta ao vetor gradiente
JDSS-LAC/INPE
Método do Gradiente Descendente
J
’ wk J
p
rdx ( k ) ¦ w j rx ( j , k )
j 1
wJ
ww
'w K
Jmin
0
wo
w(n)
wJ
ww
w
w(n+1)
Adaptação de Haykin, 1994, p. 124
9
JDSS-LAC/INPE
Método do Gradiente Descendente
’ wk J ( n)
p
rdx ( k ) ¦ w j ( n) rx ( j , k )
Diferente sensores
no espaço
j 1
'w(n)
w(n 1)
K’ wk J (n)
k 1,2,..., p
w(n) K’ wk J (n)
Método da descida íngrime:
“O valor atualizado do k-ésimo peso de um filtro de Wiener
(projetado para operar no sentido do erro quadrático médio
mínimo) é o valor do peso atual mais um correção proporcional ao
negativo do gradiente da superfície de erro em relação ao peso
particular.”
JDSS-LAC/INPE
Método do Gradiente Descendente
’ wk J ( n)
p
rdx ( k ) ¦ w j ( n) rx ( j , k )
j 1
w(n 1)
p
·
§
w(n) K ¨¨ rdx (k ) ¦ w j (n)rx ( j , k ) ¸¸
j 1
¹
©
p
·
§
w(n) K ¨¨ rdx (k ) ¦ w j (n)rx ( j , k ) ¸¸
j 1
¹
©
Método exato - não há aproximações
10
Deficiências (Haykin, 1994)
•Análise difícil pela presença de não linearidade
•Visualização difícil do processo de aprendizagem devido as
camadas internas.
LMS
Usa estimativas instantâneas da função de autocorrelação
rˆx ( j , k ; n)
x j ( n ) xk ( n )
e da função de correlação cruzada.
rˆdx (k ; n)
xk (n)d (n)
11
LMS
wˆ (n 1)
p
·
§
wˆ (n) K ¨¨ xk (n)d (n) ¦ wˆ j (n) x j (n) xk (n) ¸¸
j 1
¹
©
p
·
§
wˆ (n) K ¨¨ d (n) ¦ wˆ j (n) x j (n) ¸¸ xk (n)
j 1
¹
©
wˆ (n) K >d (n) y (n)@xk (n) , k 1,2,..., p
Resumo do algoritmo LMS
•
Inicialização.
wˆ k (1) 0,
•
k 1,2,..., p
Filtragem.
p
y ( n)
¦ wˆ (n) x (n)
j
j
j 1
e( n )
d ( n ) y ( n)
wˆ k (n 1)
wk (n) Ke(n) xk (n),
k 1,2,..., p
12
Considerações
•Método do gradiente descendente (para um ambiente
conhecido):
•Partindo de uma configuração inicial, o vetor de pesos
segue
uma
trajetória
definida
precisamente
e
eventualmente atinge uma solução ótima.
Considerações
•LMS (para um ambiente desconhecido):
Estimativa inicial do vetor de pesos segue uma trajetória
aleatória.
•LMS:
•conhecido como um algoritmo de gradiente estocástico
•se o número de alterações tende a infinito, o vetor de
peso faz uma busca aleatória (random walk) sobre a
superfície de erro.
13
Download