Mínimas Médias Quadráticas Normalizadas - ece

Propaganda
Universidade Federal do Rio Grande do Sul
Escola de Engenharia
Departamento de Engenharia Elétrica
ENG04020-Tópicos Especiais em Automação e Controle I
Mı́nimas Médias Quadráticas Normalizadas
Prof. Walter Fetter Lages
26 de junho de 2002
I
Introdução
Um método para evitar a possı́vel divisão por zero no algoritmo da projeção
é adicionar uma constante no denominador, resultando em um algoritmo
denomindado Mı́nimas Médias Quadráticas Normalizadas. Este algorimo
possui algumas propriedades interessantes para uma classe importante de
algoritmos de controle adaptativo.
II
Mı́nimas Médias Quadráticas Normalizadas
Este algoritmo possui a seguinte forma:
θ̂(t) = θ̂(t − 1) +
h
i
aφ(t − 1)
T
y(t)
−
φ(t
−
1)
θ̂(t
−
1)
c + φ(t − 1)T φ(t − 1)
(1)
com θ̂(0) dado, c > 0 e 0 < a < 21 .
As propriedades deste algoritmo serão estabelecidas utilizando-se a seguinte
notação:
4
θ̃(t) = θ̂(t) − θ0
4
e(t) = y(t) − φ(t − 1)T θ̂(t − 1)
1
Usualmente a é escolhido de forma que 0 < a 1.
1
(2)
(3)
= −φ(t − 1)T θ̃(t − 1)
(4)
(5)
Lema 1 Para o algoritmo (1), sujeito à
y(t) = φ(t − 1)T θ0
(6)
tem-se que:
1.
kθ̂(t) − θ0 k ≤ kθ̂(t − 1) − θ0 k ≤ kθ̂(0) − θ0 k ; t ≥ 1
2.
N
X
e(t)2
<∞
T
N →∞
t=1 c + φ(t − 1) φ(t − 1)
lim
(7)
(8)
o que implica:
(a)
lim
t→∞
e(t)
[c + φ(t − 1)T φ(t − 1)]1/2
=0
(9)
(b)
lim
N →∞
N
X
φ(t − 1)T φ(t − 1)e(t)2
[c + φ(t − 1)T φ(t − 1)]2
t=1
<∞
(10)
(c)
lim
N →∞
N
X
kθ̂(t) − θ̂(t − 1)k2 < ∞
(11)
N
X
kθ̂(t) − θ̂(t − k)k2 < ∞
(12)
t=1
(d)
lim
N →∞
t=k
(e)
lim kθ̂(t) − θ̂(t − k)k = 0
t→∞
para qualquer k finito.
2
(13)
Prova 1
1. Subtraindo-se θ0 de ambos os lados de (1), usando (6) e (2),
obtém-se
θ̃(t) = θ̃(t − 1) −
aφ(t − 1)
φ(t − 1)T θ̃(t − 1)
T
c + φ(t − 1) φ(t − 1)
Portanto, utilizando-se (4)
aφ(t − 1)T φ(t − 1
e(t)2
kθ̃(t)k −kθ̃(t−1)k = a −2 +
c + φ(t − 1)T φ(t − 1) c + φ(t − 1)T φ(t − 1)
(14)
2
"
2
#
E como 0 < a < 2, c > 0, tem-se
aφ(t − 1)T φ(t − 1
a −2 +
<0
c + φ(t − 1)T φ(t − 1)
"
#
(15)
logo,
kθ̂(t) − θ0 k ≤ kθ̂(t − 1) − θ0 k ≤ kθ̂(0) − θ0 k
2. Somando-se (14), tem-se
t
X
e(j)2
aφ(j − 1)T φ(j − 1
kθ̃(t)k = kθ̃(0)k+ a −2 +
c + φ(j − 1)T φ(j − 1) c + φ(j − 1)T φ(j − 1)
j=1
2
#
"
Como kθ̃(t)k2 é uma funcão limitada, não crescente e não negativa e
considerando-se (15), conclui-se:
N
X
e(t)2
<∞
T
N →∞
t=1 c + φ(t − 1) φ(t − 1)
lim
(a) A expressão (9) é coneseqüência direta de (8)
(b) Notando que:
h
i
c + φ(t − 1)T φ(t − 1) e(t)2
e(t)2
=
c + φ(t − 1)T φ(t − 1)
[c + φ(t − 1)T φ(t − 1)]2
estabelece-se (10) utilizando-se (8).
3
(c) Pela forma do algoritmo (1), a expressão (10) implica (11).
(d) Sabe-se que
kθ̂(t)−θ̂(t−k)k2 = kθ̂(t)−θ̂(t−1)+θ̂(t−1)−θ̂(t−2) · · · θ̂(t−k+1)−θ̂(t−k)k2
Então, utilizando-se a desigualdade de Schwarz, tem-se
kθ̂(t)−θ̂(t−k)k2 ≤ k kθ̂(t) − θ̂(t − 1)k2 + · · · + kθ̂(t − k + 1) − θ̂(t − k)k2
Logo, o resultado (12) é conseqüência direta de (11), pois k é
finito.
(e) A expressão (13) é conseqüência de (12).
Note-se que θ̂(t) não necessariamente converge para θ0 . Na realidade,
nem a convergência de θ̂(t), para qualquer valor, foi provada. No entanto,
as propriedades acima são de grande importância, pois são obtidas a partir
de condiçẽs bastante fracas2 . Por exemplo, nenhuma condição foi imposta
à natureza dos dados. Em particular, φ(t) não precisa ser necessariamente
limitado.
A propriedade (7) garante que θ̂(t) não está mais distante de θ0 do que
θ̂(0). A propriedade (8) implica o erro de modelagem, e(t), quando adequadamente normalizado, ser quadraticamente somável. Esta é uma condição suficiente para provar a convergência global de uma classe importante de algoritmos de controle adaptativo. A propriedade (13) mostra que as estimativas
dos parâmtros aproximam-se umas das outras quanto t → ∞. Note-se porém,
que isto não significa que θ̂(t) é uma seqüência de Cauchy, e portanto não
significa que θ̂(t) necessariamente converge.
2
Condições fracas são condições pouco restritivas.
4
Download