SUMÁRIO 1 Métodos de Estimação e Propridades dos Estimadores 1.1 Estimação Pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Método da Máxima Verossimilhança . . . . . . . . . . . . . . . . . 1.1.1.1 Método da Máxima Verossimilhança -caso multiparamétrico 1.1.2 Método dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Propriedades dos Estimadores . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Estimadores Não-Viesados . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Consistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Eficiência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Estatística Suficiente . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Exercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 4 7 9 9 11 12 14 17 1 MÉTODOS DE ESTIMAÇÃO E PROPRIDADES DOS ESTIMADORES Estimação é o processo que consiste em utilizar dados amostrais para estimar valores para os parâmetros populacionais desconhecidos. Assumindo que uma característica dos elementos numa população pode ser representada por uma variável aleatória X cuja função de densidade ou probabilidade é f (x|θ ), , temos que: θ é um parâmetro com valores desconhecidos. f (x|θ ) tem uma forma conhecida, exceto pelo parâmetro θ Como θ ∈ Θ, sendo Θ o espaço paramétrico, temos uma familia de densidades, sendo cada valor de θ correspondente a um membro da familia. Considerando x1 , ..., xn valores de uma amostra aleatória X1 , ..., Xn da variável aleatória X, com f.d.p. ou f.p. f (x|θ ) O objetivo é a partir dos dados observados estimar um valor parâmetro θ. As estatísticas amostrais são utilizadas como estimativas de um parâmetro θ pode ser feita por duas maneiras • Estimação pontual - consiste na estimativa um única valor para o parâmetro θ • Estimação intervalar - consiste na estimativa que especifica um intervalo de valores possíveis, no qual se admite que esteja o parâmetro θ . Definição 1.1 (Estimação Pontual): Uma estimativa pontual de um parâmetro desconhecido θ é um valor obtido a partir da amostra (através de uma estatística) que se destina a fornecer valores aproximados do parâmetro. Definição 1.2 (Estimador): Um estimador θ̂ é uma estatística (i.e. função da amostra) que fornece estimativas pontuais. 1.1 ESTIMAÇÃO PONTUAL Seja uma amostra aleatoria X1 , ..., Xn com f.d.p. ou f.p. f (x|θ ) O problema é definir uma estatística T = T (X1 , ..., Xn ) de tal modo que, após observarmos X1 = x1 , ..., Xn = xn , T = T (X1 , ..., Xn ) seja uma boa estimativa pontual de θ Para definir a estatística T = T (X1 , ..., Xn ), é utilizado métodos de estimação, sendo os principais: Métodos de Estimação e Propridades dos Estimadores 2 • Método da Máxima Verossimilhança • Método dos momentos • Método dos Mínimos Quadrados. 1.1.1 Método da Máxima Verossimilhança Definição 1.3 (Função de Verossimilhança): Se uma amostra aleatória X1 , ..., Xn são variáveis aleatórias independentes e identicamente distruídas (i.i.d) com f.d.p. ouf.p.) f (x|θ ), sua função de verossimilhança é dada por: n L(θ ; x) = f (x1 , ..., xn |θ ) = f (x1 |θ )... f (xn |θ ) = ∏ f (xi |θ ) i=1 Definição 1.4 (Função de Log-Verossimilhança): O logaritmo natural da função de verossimilhança é denominado função de log-verossimilhança e é denotado por l(θ ; x) = lnL(θ ; x) A função de densidade (ou de probabilidade) é função da variável aleatória X, assumindo que o parâmetro θ é conhecido. Distribuição Poisson f (x|λ ) = e−λ λx , x = 0, 1, 2, 3, ..., λ ≥ 0 x! Distribuição Normal (x−µ)2 1 − f (x|µ, σ 2 ) = √ e 2σ 2 , −∞ < x < ∞ 2πσ 2 A função de densidade se torna uma função de verossimilhança quando os valores da variável X são conhecidos e o valor de parâmetro é desconhecido os valores da variável X são conhecidos, a função passa a depender do valor do parâmetro desconhecido θ Distribuição Poisson - considerando X = 10 L(λ |X = 10) = e−λ λ 10 10! Distribuição Normal - considerando X = 2, 5 (2,5−µ)2 1 − e 2σ 2 L(µ, σ 2 |X = 2, 5) = √ 2πσ 2 Métodos de Estimação e Propridades dos Estimadores 3 A função de densidade se torna uma função de verossimilhança quando os valores da variável X são conhecidos e o valor de parâmetro é desconhecido Definição 1.5 (Função Escore): A função escore, denotada por U(θ ), é definida como a primeira derivada da função de log-verossimilhança em relação θ U(θ ) = ∂ l(θ ; x) ∂θ Definição 1.6 (Função de Informação): A função de informação, denotada por I(θ ), é definida como menos a segunda derivada da função de log-verossimilhança em relação θ ∂ 2 l(θ ; x) I(θ ) = − ∂θ2 Definição 1.7 (Estimador de Máxima Verossimilhança): O estimador de máxima verossimilhança de θ é o valor θ̂ que maximiza a função de verossimilhança L(θ ; x) O valor de θ que maximiza a função de verossimilhança L(θ ; x), também maximiza l(θ ; x), assim pode-se utilizar a função de log-verossimilhança. Como encontrar o estimador de máxima verossimilhança 1. Encontrar a função de verossimilhança L(θ ; x) e log-verossimilhança l(θ ; x); 2. Encontrar a função Escore U(θ ) e iguala-la a zero para obter o estimador 3. Encontrar a função de informação e verificar se o estimador é ponto de máximo. Exemplo 1.1 (Bernoulli): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ Bernoulli(θ ). Obter o estimador de máxima verossimilhança para θ . Função de probabilidade f (x) = θ x (1 − θ )1−x , x = 0, 1 Θ = θ ; 0 < θ < 1 Função de verossimilhança e log-verossimilhança n n L(θ ; x) = θ ∑i=1 xi (1 − θ )n−∑i=1 xi n l(θ ; x) = ∑ xilnθ + i=1 ! n n − ∑ xi ln(1 − θ ) i=1 Função escore n n n − ∑ xi ∑ xi U(θ ) = ∂ l(θ ; x) i=1 = ∂θ θ − i=1 1−θ Métodos de Estimação e Propridades dos Estimadores 4 Igualando a função escore a zero e resolvendo em relação θ , temos n n n n − ∑ xi ∑ xi i=1 i=1 − 1 − θ̂ θ̂ ∑ xi = 0 ⇒ θ̂ = i=1 n Função de Informação n ∑ xi I(θ ) = − n n − ∑ xi ∂ 2 l(θ ; x) i=1 i=1 = 2 + >0 ∂θ2 θ (1 − θ )2 Assim, o estimador de maxima verossimilhança é dador por: n ∑ xi θ̂ = i=1 n Exemplo 1.2 (Uniforme continua): Sejam X1 , ..., Xn uma amostra aleatória da variável ale atória X ∼ Uni f orme θ − 21 , θ + 12 . Obter o estimador de máxima verossimilhança para θ . Função de probabilidade f (x) = 1 I (x), a ≤ x ≤ b b − a [a,b] Função de verossimilhança n L(θ ; x) = n ∏ I[θ − 12 ,θ + 12 ](xi) = ∏ I[x(n)− 12 ,x(1)+ 21 ](θ ) i=1 i=1 Como a função de verossimilhança é constante no intervalo de x(n) − 12 , x(1) + 12 , qualquer ponto desse intervalo é um estimado de maxima verossimilhança para θ Assim, o estimador de maxima verossimilhança é dador por: 1 2 1 θ̂ = x(1) + 2 x(n) + x(1) θ̂ = 2 θ̂ = x(n) − 1.1.1.1 Método da Máxima Verossimilhança -caso multiparamétrico Definição 1.8 (Vetor Escore): O vetor escore, denotada por U(θ ), é definida como as derivadas parciais de primeira ordem da função de log-verossimilhança em relação a cada θi ∂ l(θ ; x) ∂ l(θ ; x) U(θ ) = , ..., ∂ θ1 ∂ θk Métodos de Estimação e Propridades dos Estimadores 5 Definição 1.9 (Matrix de Informação de Fisher): A matrix de informação, denotada por I(θ ), é definida como menos das derivadas parciais de segunda ordem da função de logverossimilhança em relação a cada θi ∂ 2 l(θ ;x) 2 ;x) ... − ∂∂ l(θ − ∂θ2 θ θ 1 k 1 .. .. I(θ ) = .. . . . 2 ;x) − ∂∂ l(θ θ θ ... − ∂ k 1 2 l(θ ;x) ∂ θk2 Seja θ = (θ1 , θ2 , ..., θk ) um vetor de parâmetros de dimensão k. O estimador de máxima verossimilhança de θ1 , θ2 , ..., θk ) são obtidos como soluções das equações: ∂ L(θ ; x) =0 ∂ θi Na obtenção do estimador de máxima verossimilhança duas verificações são importantes i) verificar se a solução esta em no espaço paramétrico Θ ii) verificar se a solução é máximo local de l(θ ; x) Para verificar a condição ii, é suficiente que U(θ ) = 0 e que a matriz de informação de fisher I(θ ) seja positiva definida a11 a12 ... a1n a21 a22 ... a2n Uma matriz A = .. . . .. .. é positiva definida se as submatrizes A1 , A2 , A3 , ...An . . . . an1 an2 ... ann têm determinantes forem positivos. " # a11 a12 a13 a11 a12 Sendo: A1 = [a11 ], A2 = , A3 = a21 a22 a23 ,..., An = A a21 a22 a31 a32 a33 Exemplo 1.3 (Normal): Vetor Escore " ∂ l(µ,σ 2 ;x) # U(µ, σ 2 ) = ∂µ ∂ l(µ,σ 2 ;x) ∂σ2 = n 1 σ2 ∑ (xi − µ) i=1 − 2σn 2 + 2(σ12 )2 n ∑ (xi − µ)2 i=1 Igualando o vetor score a zero e resolvendo em relação µ e σ 2 , temos Métodos de Estimação e Propridades dos Estimadores 6 n 1 n ∑ (xi − µ̂) = 0 ⇒ µ̂ = σ̂ 2 i=1 ∑ xi i=1 n =X n n − 1 n + ∑ (xi − µ̂)2 = 0 ⇒ σ̂ 2 = 2 2σ̂ 2(σ̂ 2 )2 i=1 ∑ (xi − X)2 i=1 n Matriz de Informação n ∂ 2 l(µ,σ 2 ;x) ∂ µ2 2 I(µ, σ ) = ∂ 2 l(µ,σ 2 ;x) ∂ σ 2µ n ∂ 2 l(µ,σ 2 ;x) σ2 2 ∂ µσ = ∂ 2 l(µ,σ 2 ;x) n ∂ (σ 2 )2 (x − µ) ∑ i ∑ (xi − µ) i=1 i=1 (σ 2 )2 n 2 (x − µ) ∑ i (σ 2 )2 − 2(σn2 )2 + i=1 (σ 2 )3 n (n−1) ∑ (xi − µ)2 2 i=1 |A1 | = σn2 > 0 |A2 | = − 2(σn 2 )3 > 0 (σ 2 )4 Assim, o estimador de maxima verossimilhança é dador por: n ∑ xi µ̂ = i=1 n =X n ∑ (xi − X)2 σ̂ 2 = i=1 n Teorema 1.1 (Princípio da invariância): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X com função de densidade (ou de probabilidade) f (x|θ ). Se θ̂ é um estimador de máxima verossimilhança de θ , então g(θ̂ ) é um estimador de máxima verossimilhança de g(θ ). Exemplo 1.4: Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ N(µ, σ 2 ), n ∑ (xi − X)2 então o estimador σ 2 = é σ̂ 2 = v u n u (x − X)2 t∑ i dado por σ̂ = i=1 n i=1 n . Assim, o estimador do desvio padrão σ = √ σ2 é Métodos de Estimação e Propridades dos Estimadores 1.1.2 7 Método dos Momentos Definição 1.10 (Momentos Populacionais): Se X é uma variável aleatória, o r-ésimo momento de X é definido como, denotado por µr , é definido como µr = E[X r ] Definição 1.11 (Momentos Amostrais): Seja X1 , ..., Xn uma amostra aleatória da variável aleatória X, com f.d.p. ou f.p. f (x|θ ). Então o r-ésimo momento amostral, denotado por mr , é definido por: n ∑ Xir mr = i=1 n Definição 1.12 (Estimador pelo Método dos Momentos): O estimador pelo método dos momento de θ é o valor θ̂ se ele for solução das equações µr = mr , r = 1, 2, 3, ..., k Exemplo 1.5 (Bernoulli): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ Bernoulli(θ ). Obter o estimador pelo método dos momentos para θ . Função de probabilidade f (x|θ ) = θ x (1 − θ )1−x , x = 0, 1 Θ = θ ; 0 < θ < 1 Momentos populacionais E[X] = θ ⇒ µ1 = θ Assim, n ∑ Xi u1 = m1 ⇒ θ̂ = i=1 n Exemplo 1.6 (Normal): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ N(µ, σ 2 ). Obter o estimador pelo método dos momentos para µ e σ 2 . Função de densidade (x−µ)2 1 − e 2σ 2 , x ∈ R, µ ∈ R, σ 2 > 0 f (x|µ, σ 2 ) = √ 2πσ 2 Métodos de Estimação e Propridades dos Estimadores 8 Momentos populacionais E[X] = µ ⇒ µ1 = µ V (X) = σ 2 ⇒ E[X 2 ] − (E[X])2 = σ 2 E[X 2 ] = σ 2 + (E[X])2 ⇒ σ 2 + µ 2 µ2 = σ 2 + µ12 Assim, n ∑ Xi µ1 = m1 ⇒ µ̂ = i=1 n µ2 = m2 ⇒ σ̂ 2 + µ12 = =X ∑ni=1 Xi2 n n ∑ (Xi − X)2 σ̂ 2 = i=1 n Exemplo 1.7 (Gama): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ Gama(λ , r). Obter o estimador pelo método dos momentos para λ e r. Função de densidade λ (λ x)r−1 e−λ x x ≥ 0, λ > 0, r > 0 f (x|λ , r) = Γ(r) Momentos populacionais r r ⇒ µ1 = λ λ r r 2 V (X) = ⇒ E[X ] − (E[X])2 = 2 2 λ λ r 2 r r + (E[X])2 = 2 + E[X 2 ] = λ2 λ λ 2 r r µ2 = + 2 λ λ E[X] = Assim, Métodos de Estimação e Propridades dos Estimadores 9 n r̂ µ1 = m1 ⇒ ∑ Xi i=1 = n λ̂ r̂ = X ⇒ r̂ = X λ̂ λ̂ n µ2 = m2 ⇒ λ̂ = r̂ λ̂ 2 + 2 r̂ ∑ Xi2 = i=1 λ̂ X r̂ = n 2 ∑ (xi − X) i=1 n X n ∑ (xi − X)2 i=1 n 1.2 2 n PROPRIEDADES DOS ESTIMADORES Existem vários estimadores para um certo parâmetro. Assim surge as seguintes perguntas: • O que é um bom estimador? • Como escolher entre os várias estimadores existentes? • Quais serão os critérios usados para comparar estimadores e caracterizar os bons estimadores? As principais qualidades de um estimador devem ser: • Ausência de vício (estimador não-viciado); • Consistência (estimador consistente); • Eficiência (estimador de variância mínima); • Suficiência (estimador suficiente). 1.2.1 Estimadores Não-Viesados Definição 1.13 (Estimador não-viesado): Um estimador θ̂ é dito não-viesado (viciado) para θ se E[θ̂ ] = θ , para todo θ ∈ Θ Definição 1.14 (Viés ou Vicio): O viés de um estimador θ̂ , denotado por B(θ̂ ), é definido como B(θ̂ ) = E[θ̂ ] − θ . Definição 1.15 (Estimador assintoticamente não-viesado): Um estimador θ̂ é dito ser assintoticamente não-viesado (viciado) se lim B(θ̂ ) = 0, para todo θ ∈ Θ n→∞ Métodos de Estimação e Propridades dos Estimadores 10 Definição 1.16 (Erro Quadrático Médio (EQM)): O erro quadrático médio de um estimador θ̂ é dado por: EQM[θ̂ ] = E (θ̂ − θ )2 O EQM é medida de da qualidade do estimador, sendo uma composição da variância e viés do estimador. 2 EQM[θ̂ ] = V (θ̂ ) + B(θ̂ ) Para estimador não-viesados o EQM coincide com a variância do estimador EQM[θ̂ ] = V (θ̂ ) O Erro quadrático médio é comumente empregado para comparar dois estimadores θ̂1 e θ̂2 . θ̂1 será o melhor estimador se θ̂2 EQM[θ̂1 ] ≤ EQM[θ̂2 ] Exemplo 1.8 (Normal): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ N(µ, σ 2 ). Temos que o estimador de maxima verossimilhança de µ e σ 2 são dados por: n n ∑ (xi − X)2 ∑ xi µ̂ = i=1 n =X σ̂ 2 = i=1 n Para o estimador de µ temos que E X = µ σ2 V X = n Assim, X é um estimador não-viesado para µ Com relação ao estimador da variância temos que: E σ̂ 2 = 1 σ2 n−1 2 2 nσ − n = σ 2 n n n Assim σ̂ 2 é um estimador viesado para σ 2 , sendo o viés dado por: B(σ̂ 2 ) = n−1 2 σ2 σ −σ2 = − n n Fazendo lim B(σ̂ 2 ) = 0, verificamos que σ̂ 2 é assintoticamente não-viesado n→∞ Métodos de Estimação e Propridades dos Estimadores 11 A variância do estimador σ 2 é dada por σ4 (n − 1)S2 V [σ̂ ] = V n2 σ2 2 Como (n − 1)S2 2 ∼ χn−1 σ2 Então σ4 (n − 1)S2 V [σ̂ ] = V n2 σ2 σ4 2(n − 1) 4 = 2(n − 1) = σ 2 n n2 2 Assim o EQM é dado por: 2 2(n − 1) 4 σ2 2n − 1 4 EQM[σ̂ ] = σ + − = σ 2 n n n2 2 Para obter um estimador não viesado para σ 2 que seja função de σ̂ 2 , temos g(σ̂ 2 ) = Assim n σ̂ 2 n−1 n n 2 E σ̂ = E σ̂ 2 = σ 2 n−1 n−1 g(σ̂ 2 ) é um estimador não-viesado para σ 2 , sendo que: n g(σ̂ 2 ) = n σ̂ 2 = n−1 ∑ (Xi − X)2 i=1 n−1 = S2 Desta forma S2 é um estimador não-viesado para σ 2 e sua variância é dada por: σ4 (n − 1)S2 (n − 1) σ 2 2 V [S ] = V S = V (n − 1) σ 2 (n − 1)2 σ2 σ4 2σ 4 = 2(n − 1) = (n − 1)2 n−1 2 1.2.2 Consistência Definição 1.17 (Estimador Consistente): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X que depende do parâmetro θ . Um estimador θ̂ = θ̂ (X1 , ..., Xn ) é dito consistente para o parâmetro θ se lim P |θ̂ − θ | ≥ ε = 0 n→∞ Métodos de Estimação e Propridades dos Estimadores 12 Para verificar essa propriedade em geral utiliza-se a desigualdade de Chebychev. Consistência não implica em não-viés assintótico. As condições gerais para a consistência de um estimador θ̂ são: lim E[θ̂ ] = θ n→∞ lim V [θ̂ ] = 0 n→∞ Exemplo 1.9 (Normal): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ N(µ, σ 2 ). Considerando X e S2 estimadores para µ e σ 2 ,verificar a consistência dos estimadores Pela desigualdade de Chebychev, temos que: σ2 V (X) = P |X − µ| ≥ ε ≤ ε2 nε 2 2 σ lim P |X − µ| ≥ ε ≤ lim 2 = 0 n→∞ n→∞ nε Assim X é consistente para µ Para S2 pela desigualdade de Chebychev, temos que: V (S2 ) 2σ 4 P |S2 − σ 2 | ≥ ε ≤ = ε2 (n − 1)ε 2 2σ 4 =0 lim P |S2 − σ 2 | ≥ ε ≤ lim n→∞ n→∞ (n − 1)ε 2 Assim S2 é consistente para σ 2 1.2.3 Eficiência Definição 1.18 (Informação de Fisher): O informação de Fisher, denotado por IF (θ ), é definida a como : " # ∂ l(θ ; x) 2 IF (θ ) = E ∂θ Propriedade da função escore e da Informação de Fisher • A média da função escore é 0, E [U(θ )] = 0 • A informação de Fisher de θ é igual a variância da função escore V [U(θ )] = E (U(θ ))2 = E " ∂ l(θ ; x) ∂θ 2 # = IF (θ ) Métodos de Estimação e Propridades dos Estimadores 13 • Se a verossimilhança é duas vezes diferenciável então a informação de Fisher também pode ser obtida como " IF (θ ) = E ∂ l(θ ; x) ∂θ 2 # 2 ∂ l(θ ; x) =E − ∂θ2 Teorema 1.2 (Desigualdade Informação ou Desigualdade de Cramér-Rao): Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X e θ̂ um estimador não-viesado de θ . Sob condições de regularidade 1 V [θ̂ ] ≥ IF (θ ) A parte direita de desigualdade é denominada cota inferior de Cramer-Rao e expressa uma cota inferior para a variância de um estimador não-viesado. Definição 1.19 (Eficiência): A eficiência de um estimador θ̂ , não viesado para o parâmetroθ é dada pelo quociente LI(θ ) e(θ̂ ) = V [θ̂ ] 1 sendo LI(θ ) = IF (θ ) Definição 1.20 (Estimador Eficiente): Um estimador θ̂ é dito eficiente se for não viesado e sua variância atingir o limite inferior da desigualdede de Cramer-Rao para todos os possíveis valores de θ . • Se V [θ̂ ] = LI(θ ) então e(θ̂ ) = 1 Definição 1.21 (Estimador Não-Viesado de Variância Uniformemente Mínima (ENVVUM)): Sejam X1 , ..., Xn uma amostra aleatória da distribuição da variável aleatória X com função de densidade (ou de probabilidade) f (x|θ ). Um estimador T = t(X1 , ..., Xn ) de g(θ ) é dito ser um estimador não-viesado de variância uniformemente mínima de g(θ ) se, somente se, i) E[T ] = g(θ ), isto é um estimador não-viesado para g(θ ), e ii) V [T ] ≤ V [U] para qualquer outro estimador U não-viesado de g(θ ) • Se variância de um estimador atingir o limite inferior da desigualdade de Cramer-Rao, então o estimador é um ENVVUM. Exemplo 1.10: Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ Bernoulli(θ ), n ∑ xi e seja θ̂ = i n um estimador para θ . Métodos de Estimação e Propridades dos Estimadores 14 • A Variância do estimador n n n − ∑ xi ∑ xi V [θ̂ ] = ∂ l(θ ; x) i=1 = ∂θ θ i=1 − 1−θ • Função escore n n n − ∑ xi ∑ xi U(θ ) = ∂ l(θ ; x) i=1 = ∂θ θ − i=1 1−θ • Função de Informação n I(θ ) = − ∂ 2 l(θ ; x) ∂θ2 n n − ∑ xi ∑ xi = i=1 θ2 + i=1 (1 − θ )2 • Informação de Fisher n n ∑ xi ∑i xi n − i=1 n = IF I(θ ) = E[I(θ )) = 2 + 2 θ (1 − θ ) θ (1 − θ ) • Assim temos que θ̂ é eficiente e ENVVUM : V [θ̂ ] = 1.2.4 1 IF I(θ ) Estatística Suficiente Definição 1.22 (Princípio da Suficiência): Seja X uma variável aleatória e seja T (.) uma estatística obtida como função dos valores amostrais de X, assim, • T (X1 , ..., Xn ) é suficiente para θ , então qualquer inferência sobre θ dependerá apenas da amostra X1 , ..., Xn somente através de T (X1 , ..., Xn ). • Isto é dadas duas realizações amostrais distintas X1 , ..., Xn e X10 , ..., Xn0 , tais que T (X1 , ..., Xn ) = T (X10 , ..., Xn0 ) então as inferências sobre θ são as mesmas, independente de observamos X1 , ..., Xn ou X10 , ..., Xn0 . Definição 1.23 (Estatística suficiente): Dizemos que a estatística T (X1 , ..., Xn ) é suficiente para θ , quando a distribuição condicional de X1 , ..., Xn dado T for independente de θ Métodos de Estimação e Propridades dos Estimadores 15 Exemplo 1.11: Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ Bernoulli(θ ). n Verificar se T = ∑ Xi é suficiente para θ i=1 P[X1 = x1 , ..., Xn = xn , T = t] P[T = t] P[X1 = x1 , ..., Xn = xn ] = n t n−t t θ (1 − θ ) θ t (1 − θ )n−t = n t n−t t θ (1 − θ ) 1 = n f (X1 , ..., Xn = xn |T = t) = t n Assim, T = ∑ Xi é suficiente para θ i=1 Exemplo 1.12: Sejam X1 , X2 , X3 uma amostra aleatória de tamanho 3 da variável aleatória n X ∼ Bernoulli(θ ). Verificar se T = ∑ X1 X2 + X3 é suficiente para θ i=1 As probabilidades condicionais podem ser calculadas da seguinte forma: P[X1 = 0, X2 = 0, X3 = 0, T = 0] P[T = 0] p(1 − p)3 = (1 − p)3 + 2(1 − p)2 p f (X1 = 0, X2 = 0, X3 = 0|T = 0) = Sendo P[T = 0] = P[X1 = 0X2 = 0, X3 = 0] + P[X1 = 0, X2 = 1, X3 = 0] + +P[X1 = 1, X2 = 0, X3 = 0] Assim Métodos de Estimação e Propridades dos Estimadores (X1 , X2 , X3 ) T (0, 0, 0) 0 (0, 0, 1) 1 (0, 1, 0) 0 (1, 0, 0) 0 (0, 1, 1) 1 (1, 0, 1) 1 (1, 1, 0) 1 (1, 1, 1) 2 16 f (X1 , X2 , X3 |T ) 1− p 1+ p 1− p 1 + 2p p 1+ p p 1+ p p 1 + 2p p 1 + 2p p 1 + 2p 1 Como a distribuição de depende θ conclui-se que T não é uma estatística suficiente para θ Teorema 1.3 (Critério da Fatoração): Sejam X1 , ..., Xn uma amostra aleatória da distribuição da variável aleatória X com função de densidade (ou de probabilidade) f (x|θ ), em que e a função de verosimilhança L(θ |x). Temos, então, que a estatística T = T (X1 , ..., Xn ) é suficiente para θ , se e somente se pudermos escrever L(θ |x) = h(x1 , ..., xn )gθ (T (x1 , ..., xn )) em que h(x1 , ..., xn ) é uma função que só depende de x1 , ..., xn e gθ (T (x1 , ..., xn )) é uma função que depende de θ e de x1 , ..., xn somente através da função t. As funções h e g são funções não-negativas. Exemplo 1.13: Sejam X1 , ..., Xn ma amostra aleatória da variável aleatória X ∼ Poisson(θ ). Temos que n n n θ xi 1 L(θ |x) = e−nθ ∏ = ∏ e−nθ θ ∑ i=1 xi i=1 xi ! i=1 xi ! Tomando n 1 i=1 xi ! h(x1 , ..., xn ) = ∏ e gθ (T (x1 , ..., xn )) = e−nθ θ ∑ i=1 nx i n Temos, pelo critério da fatoração, temos que T = ∑ Xi é suficiente para θ . i=1 Teorema 1.4 (Critério da Fatoração - caso multiparamétrico): Sejam X1 , ..., Xn uma amostra aleatória da distribuição da variável aleatória X com função de densidade (ou de probabilidade) f (x|θ ), em que θ pode ser um vertor, e a função de verosimilhança L(θ |x). Seja as estatística Ti = ti (X1 , ..., Xn ), com i = 1, 2, ..., r. Então a estatística T = (T1 , T 2, ...Tr ) é conjun- Métodos de Estimação e Propridades dos Estimadores 17 tamente suficiente para θ , se e somente se pudermos escrever L(θ |x) = h(x1 , ..., xn )gθ (T1 (x), ..., Tr (x)) em que h(x1 , ..., xn ) é uma função que só depende de x1 , ..., xn e gθ (T1 (x), ..., Tr (x) é uma função que depende de θ e de x1 , ..., xn somente através das funções t1 , ...,tn . As funções h e g são funções não-negativas. Exemplo 1.14: Sejam X1 , ..., Xn uma amostra aleatória da variável aleatória X ∼ N(µ, σ 2 ). Temos, então que θ = (µ, σ 2 ). Nesta caso, a função de verossimilhança pode ser escrita como: n n 2 − 1 ∑ (x −µ)2 1 2 2σ 2 i=1 i e L(µ, σ ; x) = 2πσ 2 n 2 n n 1 2 1 − 2σ1 2 ∑ xi2 + σµ2 ∑ xi2 −n σµ 2 i=1 i=1 = n e 2π σ2 com −∞ < µ < ∞ e σ 2 > 0 Sendo h(x1 , ..., xn ) = 1 2π n 2 − gθ (t1 (x),t2 (x)) = e µ2 1 n 2 µ n 2 ∑ x + ∑ x −n 2 2σ 2 i=1 i σ 2 i=1 i σ Assim, pelos critério da fatoração temos que a estatística T = (∑ni=1 Xi , ∑ni=1 Xi2 ) é conjuntamente suficiente para θ = (µ, σ 2 ). 1.3 EXERCICIOS 1.1) Uma variável aleatória X tem função de densidade de probabilidade dada por: f (x) = (θ + 1)xθ , 0 < x < 1 θ > −1 Foi retirada uma amostra amostra de tamanho 6, x1 = 0, 3; x2 = 0, 8; x3 = 0, 27; x4 = 0, 35; x5 = 0, 62 e x6 = 0, 55 a) Obtenha o estimador de máxima de verossimilhança e calcule a estimativa de θ para a amostra. baseado numa amostra de tamanho n. b) Obtenha o estimador pelo método dos momentos e calcule a estimativa de θ para a amostra. 1.2) Uma amostra de tamanho n1 é obtida de uma população com distribuição normal com média µ1 e variancia σ12 . Uma segunda amostra de tamanho n2 é obtida de uma população com distribuição normal com média µ2 e variancia σ22 . a) Qual o estimador de máxima de verossimilhança de θ = µ1 − µ2 . Métodos de Estimação e Propridades dos Estimadores 18 b) Verifique a consistência do estimador obtido no item a 1.3) O raio do círculo é medido com um erro de medição, que tem distribuição normal N(0, σ 2 ), sendo σ 2 desconhecido. Dado que n medições independentes do raio, encontrar um estimador não viesado da área do círculo. 1.4) Seja X uma observação simples de Bernoulli. Seja dois estimadores de θ T1 (X) = X e T2 (X) = 12 . a) Ambos os estimadores são não viesados: b) Compare os erros quadráticos médios dos estimadores 1.5) Sejam X1 , ..., Xn uma amostra aleatória de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com função de densidade dada por: f (x|θ ) = θ x−2 x>θ θ >0 a) Obtenha o estimador de máxima de verossimilhança de θ b) Verifique se o estimador do item a é não viesado 1.6) Sejam X1 , ..., Xn uma amostra aleatória de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com distribuição gamma(r, λ ), considere que o parametro r é conhecido. a) Encontre uma estatística suficiente para λ b) Encontre o estimador de máxima de verossimilhança para λ 1.7) Sejam X1 , ..., Xn uma amostra aleatória de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com distribuição dada por: f (x|θ ) = θ xθ −1 , 0 < x < 1, θ >0 a) Encontre o estimador de máxima de verossimilhança para µ = θ 1+θ b) Encontre o estimador UMVUE para θ c) Encontre o estimador pelo método dos mínimos quadrados para θ e verifique sua consistencia 1.8) Sejam X1 , ..., Xn uma amostra aleatória de uma distribuição uniforme no intervalo (θ , θ + 1). Seja 1 n θ̂1 = X − e θ̂2 = X(n) − 2 n+1 a) Verifique se os estimadores são viesados. Métodos de Estimação e Propridades dos Estimadores b) Compare os estimadores pelo erro quadrático médio. c) Compare a eficiência dos estimadores. 19