Econometria: 4 - Regressão Múltipla em Notação Matricial

Propaganda
Econometria:
4 - Regressão Múltipla em
Notação Matricial
Prof. Marcelo C. Medeiros
[email protected]
Prof. Marco A.F.H. Cavalcanti
[email protected]
Pontifícia Universidade Católica do Rio de Janeiro
PUC-Rio
Sumário
„
O modelo de regressão linear múltipla em
notação matricial
„
„
Definição e terminologia
„
Estimação
„
Qualidade do ajuste
„
Propriedades Algébricas
„
Propriedades Estatísticas
Referências bibliográficas
„
Wooldridge, apêndice E
„
Stock e Watson, capítulo 16
2
Regressão Múltipla
Definição e Terminologia
„
Considere o modelo de regressão linear
múltipla
y i = β 0 + β 1 x 1 i + β 2 x 2 i + L + β k x ki + u i
onde:
„
y é a variável dependente;
„
x1, ..., xk são variáveis explicativas;
„
u é o erro (ou distúrbio); e
„
βo, ..., βk são parâmetros a serem estimados.
3
Regressão Múltipla
Definição e Terminologia
„
O modelo anterior pode ser escrito na seguinte
forma matricial:
 y1 
y 
 2
M 
y 
 n
=
1 x11
1 x
12

M M
1 x

1n
n ×1
L
L
O
L
xk 1 
xk 2 

M 
xkn 
n × ( k +1 )
 β0 
β 
 1
 M 
β 
 k
( k +1)×1
+
 u1 
u 
 2
M
u 
 n
n ×1
ou
y = Xβ + u
onde:
„
X é a matriz de dados.
„
Observe que a 1a coluna de X é um vetor de 1’s,
referente ao termo constante (intercepto) de cada
equação.
4
Regressão Múltipla
Definição e Terminologia
„
Nosso objetivo será, como antes, obter as
“melhores estimativas possíveis” do vetor de
parâmetros desconhecidos.
„
O critério a ser usado continua sendo o de
minimização da soma dos quadrados dos
resíduos.
„
Definindo o vetor de valores ajustados:
ˆ = Xβˆ
Y
e o vetor de resíduos:
ˆ = Y−Y
ˆ = Y − Xβˆ
U
o problema consiste em minimizar
n
2
ˆ
ˆ
ˆ
u
=
U
'
U
∑ i
i =1
5
Regressão Múltipla
Definição e Terminologia
„
Note que a matriz X é formada por k+1 vetorescoluna:
1 x11
1 x
12
X=
M M

1 x1n
L xk 1 
L xk 2 
 = [x 0
O M 

L xkn 
x 1 ... x k ]
Logo, o vetor de valores ajustados pode ser
reescrito assim:
ˆ = x βˆ + x βˆ + ...+ x βˆ
Y
0 0
1 1
k k
ou seja, o vetor de valores ajustados é dado por
uma combinação linear dos (k+1) vetores-coluna
da matriz X.
6
Regressão Múltipla
Definição e Terminologia
„
Em termos geométricos, fica claro que os pesos
de cada vetor xi nessa combinação linear devem
ser escolhidos de modo a gerar a projeção de y
no (sub)espaço vetorial definido pelas colunas da
matriz X.
„
No gráfico abaixo, qual das 2 combinações
lineares consideradas gera o menor vetor de
resíduos na regressão de y em x1 e x2?
y
û
û
x1
^
y
^
y
x2
7
Regressão Múltipla
Hipóteses de Gauss-Markov
„
Algumas hipóteses importantes:
„
(H1) Modelo populacional é linear
y = β 0 + β 1 x1 + β 2 x 2 + L + β k x k + u
„
(H2) Uma amostra aleatória de tamanho n
{( x1 i , x 2 i , K , x ki y i ) : i = 1, K , n }
pode ser construída a partir do modelo
populacional.
„
(H3) Média condicional nula
E( U | X ) = E( U ) = 0
 u1   E(u1 | X)  0
 E(u | X)  0
u
= =0
E(U | X) = E  2 | X =  2
 :
 
:
:
  
 

u
u
X
E(
|
)
 0 
 n   n
8
Regressão Múltipla
Hipóteses de Gauss-Markov (continuação)
„
(H4) O posto de X é k+1.
„
As colunas de X são linearmente independentes.
„
Não há multicolinearidade perfeita
„
Os valores observados de x1,... , xk não são
todos
iguais
(caso
contrário,
a
coluna
correspondente de X seria um múltiplo da
primeira)
„
n > k+1 (número de observações > número
de variáveis explicativas)
„
(H5) Homocedasticidade
cov(u1 , u 2 )
 var(u1 )
cov(u , u )
var(u 2 )
2
1
Var(U) = 

M
M

cov(u n , u1 ) cov(un , u 2 )
L cov(u1 , u n ) 
L cov(u 2 , u n )

O
M

L
var(un ) 

L E[u1 − E(u1 )][u n − E(un )]
E[u1 − E(u1 )]2


M
O
M
=

2
E[un − E(u n )][u1 − E(u1 )] L

E[un − E(u n )]


= E[U − E(U)][U − E(U)]' = E(UU' )
σ 2

M
=
0

 0
0

σ2 L M 
= σ 2I n
L O 0

L 0 σ 2 
0
L
9
Regressão Múltipla
Estimação
„
Da mesma forma que na regressão linear
simples os estimadores
βˆ 0 , βˆ 1 , βˆ 2 , K , βˆ k
são chamados de estimadores de mínimos
quadrados e podem ser estimados por meio
da minimização da soma do quadrado dos
resíduos:
n
∑
i =1
„
n
uˆ i2 = ∑ ( y i − βˆ 0 − βˆ 1 x1 i − L − βˆ k x ki ) 2
i =1
As condições de primeira ordem são
n
∑ ( y i − βˆ 0 − βˆ 1 x1i − L − βˆ k x ki ) = 0
i =1
n
∑
i =1
x1 i ( y i − βˆ 0 − βˆ 1 x 1 i − L − βˆ k x ki ) = 0
M
n
∑
i =1
x ki ( y i − βˆ 0 − βˆ 1 x 1 i − L − βˆ k x ki ) = 0
10
Regressão Múltipla
Estimação (continuação)
„
Em notação matricial, as condições de
primeira ordem podem ser escritas da
seguinte forma:
(
)
X' y − Xβˆ = 0
ou
(X' X )βˆ = X' y
„
Estas são as “equações normais”.
„
Verifique que se trata exatamente do
mesmo sistema de k+1 equações visto
anteriormente.
11
Regressão Múltipla
Estimação (continuação)
„
Vejamos as “equações normais” em maior
detalhe:
 n

∑ x1i
 :

∑ xki
„
∑x
∑x
1i
2
1i
:
∑ x1i xki
∑x
∑x x
 βˆ 0   ∑ yi 
 ˆ  

x1i yi 
∑
1i ki  β1 

=
:  :   : 


2  ˆ 
∑ xki  βk  ∑ xki yi 
..
ki
..
:
..
Para o caso de apenas um regressor (além
do intercepto):
 n

∑ x1i
„
∑x
∑x
ˆ





y
β
∑
1i
i
0
=

2 ˆ 
1i  β1 
∑ x1i yi 
Você reconhece essa expressão?
12
Regressão Múltipla
Estimação (continuação)
„
Note que, pelas equações normais:
(
)
X' uˆ = X' y − Xβˆ = 0
o que significa que o vetor de resíduos é
ortogonal em relação a todos os vetorescoluna de X. Isso faz sentido? (Lembre que
se trata de um problema de projeção)
„
Finalmente, obtemos:
ˆβ = (X' X )−1 X' y
„
Importante: para que a matriz X’X seja
invertível é necessário que o posto de X
seja k+1.
13
Mínimos Quadrados Ordinários
Propriedades Estatísticas dos Estimadores
„
Teorema 1: sob as hipóteses (H1) - (H4) os
estimadores
de
mínimos
quadrados
ordinários são não-tendenciosos, isto é
(
)
E βˆ | X = β
Prova:
ˆβ = (X' X )−1 X' Y = (X' X )−1 X' (Xβ + U )
= (X' X ) (X' X )β + (X' X ) X' U
−1
−1
= β + (X' X ) X' U
−1
( )
−1
E βˆ | X = β + (X' X ) X' E(U | X ) = β
14
Mínimos Quadrados Ordinários
Propriedades Estatísticas dos Estimadores
„
Teorema 2: sob as hipóteses (H1) - (H5)
( )
−1
2
ˆ
Var β | X = σ (X' X )
Prova:
( )
[
= Var[(X' X )
]
[
−1
−1
Var βˆ | X = Var (X' X ) X' Y | X = Var (X' X ) X' (Xβ + U ) Var
−1
(X' X )β + (X' X )−1 X' U | X]
[
= Var[β | X] + Var (X' X ) X' U | X
[
= Var (X' X ) X' U | X
−1
−1
]
]
= (X' X ) X' Var[U | X]X(X' X )
−1
−1
( )
= (X ' X ) X ' σ 2 I X (X ' X )
−1
−1
= σ 2 (X' X ) X' X(X' X )
−1
−1
= σ 2 (X ' X )
−1
15
]
Download