3 - UERN

Propaganda
TEORIA ELEMENTAR DA PROBABILIDADE
Da Origem às Aplicações:
As origens do cálculo de probabilidade remontam ao século XVI e suas aplicações referiam-se
sempre a jogos de azar. Os jogadores ricos aplicavam o conhecimento da teoria das probabilidades para
planejar estratégias de apostas. Ainda hoje há muitas aplicações envolvendo tais jogos, como as loterias, os
cassinos, as corridas de cavalos e os esportes organizados.
Com o decorrer do tempo, a utilização das probabilidades ultrapassou o âmbito desses jogos e, atualmente, os
governos as empresas e as organizações profissionais incorporam esta teoria em seus processos diários de
deliberações.
Independente de sua aplicação, a utilização de probabilidade indica que existe um elemento de acaso (ou de
incerteza), quanto à ocorrência ou não de um evento futuro. Em muitas situações pode ser impossível afirmar, por
antecipação, o que ocorrerá, mas é possível dizer o que pode ocorrer. O estudo das probabilidades é útil porque
auxilia a desenvolver estratégias e na tomada de decisões.
Conceitos:
O ponto central da teoria das probabilidades é quantificar quão provável é a ocorrência de determinado
evento. Em geral, é possível determinar ou exprimir a probabilidade de um evento, mediante uma combinação de
experiência, julgamento e dados históricos.
Exemplos:
a)
b)
c)
d)
e)
f)
previsão da procura de um novo produto;
previsão de safras agrícolas;
previsão de tempo em várias regiões;
compra de apólices de seguro;
avaliação do impacto de um projeto do governo;
aplicação de investidores que depende das chances de lucro.
Experimento Aleatório: (E)
É todo fenômeno ou ação que geralmente pode ser repetido e cujo resultado é casual ou aleatório.
Espaço Amostral: (S)
É o conjunto de todos os resultados possíveis de um experimento aleatório.
Evento: (A, B, C, D, F,..., R, T,...)
É um subconjunto do espaço amostral, ou seja, são alguns resultados do experimento claramente especificados.
Exemplos:
a) E: Lançar um dado e observar o nº da face voltada para cima.
S: {1; 2; 3; 4; 5; 6}
Evento A: ocorrer um número par. A = {2; 4; 6}
Evento B: ocorrer um número maior que 4. B = {5; 6}
Evento C: ocorrer um número primo e par. C = {2}
b) E: Lançar duas moedas e observar o resultado: c = (cara) e k = (coroa).
S: {(cc) ; (ck ) ; (kc) ; (kk )}
Evento A: ocorrer mais de uma coroa. A = {(kk)}
Evento B: ocorrer pelo menos uma cara. B = {(cc); (ck); (kc)}
Evento C: ocorrer apenas uma coroa. C = {(ck); (kc)}
Tipos de Eventos:
A determinação de probabilidade leva em conta a maneira como os vários eventos podem relacionar-se entre si.
Essas relações são descritas pelos os seguintes eventos:
1. Mutuamente excludentes (exclusivos) ou disjuntos;
2. Não mutuamente excludentes ou conjuntos;
3. Coletivamente exaustivos;
4. Complementares;
5. Independentes;
6. Dependentes
Mutuamente Excludentes ou Disjuntos
São aqueles em que a ocorrência de um evento impede ou exclui a ocorrência do outro.
Exemplo: a) Lances de uma moeda (cara ou coroa)
b) Lances de um dado
c) Sexo de um animal (masc. ou femin.)
d) Artigos produzidos (bons ou defeit.)
Não mutuamente excludentes ou Conjuntos
São os eventos que podem ocorrer ao mesmo tempo. A ocorrência de um evento não exclui a ocorrência do
outro.
Exemplo: a) Sistema Econômico
Evento A: inflação.
b) Tempo chuvoso
Evento A: relâmpago
Evento B: recessão
Evento B: chuva
Eventos Coletivamente Exaustivos
É quando ao menos um dos eventos tem de ocorrer durante um dado experimento. Nenhum outro resultado é possível,
porque se esgotam todas as possibilidades.
Exemplo: a) Jogo de futebol
Evento A: ganhar; Evento B: perder;
Evento C: empatar
b) Loteria esportiva
Evento A: coluna 1; Evento B: coluna do meio; Evento C: coluna 2
_
Eventos Complementares ( A )
O complemento de um evento A consiste de todos os resultados possíveis que não fazem parte de A.
_
Exemplo: a) Lance de moedas: A = cara ; A = coroa
_
b) Inspeção de um lote de peças produzidas: A = peças perfeitas;
A = peças defeituosas.
Eventos Independentes
São aqueles em que a ocorrência de um deles não afeta de maneira alguma a probabilidade de ocorrência do outro
evento.
Exemplo: a) Dois lances sucessivos de um dado ou de uma moeda.
b) Extração de bolas de uma urna, com reposição.
Eventos Dependentes
São aqueles em que a ocorrência de um evento afeta a probabilidade de ocorrência do outro.
Exemplo: a) Extração de bolas de uma urna, sem reposição.
Obs: Eventos mutuamente exclusivos são altamente dependentes.
Probabilidade a Priori ou Clássica
Dada uma experiência aleatória definida num espaço amostral S, a probabilidade de ocorrer em evento E, contido em
S, é o quociente entre o número de elementos do evento E e o número de elementos do espaço amostral S. Em outras
palavras, é o valor calculado com base em considerações teóricas, dispensando uma experimentação sobre o objeto
estudado. É de grande importância como referencial ou termo de comparação.
Para um espaço S, a probabilidade de um evento E é dado por: P (E ) =
n( E )
n(S )
Exemplo: Suponha-se que desejamos determinar a probabilidade do aparecimento de 1 coroa em uma jogada de uma
moeda. Como existe dois resultados igualmente prováveis, a saber, “cara” e “coroa”, e como só há uma maneira de
aparecer “coroa”, dizemos que a probabilidade do evento “coroa” na jogada de uma moeda é 1 . Considerando que
2
tal moeda seja “honesta”, ou “não-viciada”.
Probabilidade a Posteriori ou Frequencialista
Trata-se da probabilidade avaliada, empírica. Ela tem por objetivo estabelecer um modelo adequado à
interpretação de certa classe de fenômeno observados (não todos). Portanto, ela depende da amostra
considerada: quando maior a amostra (e de melhor qualidade), mais confiável é o valor da probabilidade a
posteriori.
Com base no conceito de freqüência relativa podemos então definir a probabilidade a posteriori para dado evento E:
Número de ocorrências de E
P(E) = -----------------------------------------------------------
Número total de provas ou ocorrências
Exemplo: Se jogarmos uma moeda 1.000 vezes e aparecer “cara” 653 vezes, estimamos a probabilidade de “cara”
em 653
1.000
= 0,653 = 65,3%
Axiomas da Probabilidade
- Para todo evento E do espaço amostral S temos 0 ≤ P(E) ≤ 1, ou seja, a probabilidade está sempre no
intervalo fechado 0 e 1.
- Para todo evento certo S temos P(S) = 1
- Para um número qualquer de eventos mutuamente excludentes E1, E2, ..., En pertencentes ao espaço
amostral S, temos:
P(E1 ∪ E2 ∪ E3 ... En) = P(E1) + P(E2) + ... + P(En)
Principais Teoremas sobre Probabilidade
- O evento impossível possui probabilidade 0 (zero),
P(∅
∅) = 0
- Se Ec é o evento complementar de E, então
P(Ec) = 1 – P(E)
- Para quaisquer eventos A e B,
c
P(A) = P(A ∩ B) + P(A ∩ B )
- Se A ⊆ B então P(A) ≤ P(B)
- Se A e B são dois eventos quaisquer associados a um espaço amostral S, então:
P( A ∪ B ) = P(A) + P(B) – P( A ∩ B )
- Se os eventos A e B forem mutuamente exclusivos, isto é, A ∩ B = ∅, o teorema supra é
simplificado:
P( A ∪ B ) = P(A) + P(B)
Probabilidade Condicional
Sejam dois eventos A e B associados a um espaço amostral S. A probabilidade de A ocorrer dado que o evento B
ocorreu é definida por:
P(A B ) =
P(A I B )
onde P(B) > 0
P(B )
Portanto, quando calculamos P(A/B), tudo se passa como se o evento B fosse um novo espaço amostral reduzido
dentro do qual queremos calcular a probabilidade do evento A.
Exemplo: Duas bolas são retiradas de uma urna que contém 2 bolas brancas, 3 bolas pretas e 4 bolas verdes. Qual a
probabilidade de que ambas: a) sejam Verdes?
b) sejam de mesma cor?
( V )= 4 9 . 3 8 = 16
Resolução: a) P (V ∩ V ) = P (V ). P V
b) P ( MC ) = P (B ∩ B ) + P ( P ∩ P ) + P (V ∩ V ) = 2 . 1 + 3 . 2 + 4 . 3
9
8
9
8
9
8
= 20
72
=5
18
Teorema do Produto
Sejam dois eventos A e B associados a um espaço amostral S. Então a probabilidade de ocorrer o evento
( A )• P(A ) ou
P(A ∩ B) = P B
( B)• P(B) . Que pode ser generalizada para vários eventos segundo
P(A ∩ B) = P A
uma regra baseada na associatividade de eventos:
(
P(A ∩ B ∩ C ∩ D ) = P D
) (
) ( )
PC
• P B • P(A ) .
A∩ B∩C •
A∩B
A
Exemplo: Uma urna contém as letras A, A, A, R, R, S. Retira-se letra por letra. Qual a probabilidade de sair a palavra
ARARAS ?
Resolução:
P(A ∩ R ∩ A ∩ R ∩ A ∩ S ) =
P ( A). P ( R A). P ( A A ∩ R ). P ( R A ∩ R ∩ A). P ( A A ∩ R ∩ A ∩ R ). P ( S A ∩ R ∩ A ∩ R ∩ A) =
3 .2 .2 .1 .1 .1 = 1
6 5 4 3 2 1
60
Eventos Independentes
Sejam dois eventos A e B associados a um espaço amostral S. Se A e B são eventos independentes então
( B) = P(A ) e P(B A ) = P(B) logo pelo teorema do produto temos:
PA
P(A ∩ B) = P(B) • P(A ) ou P(A ∩ B ∩ C ∩ D ) = P(D ) • P(C ) • P(B) • P(A ) .
Exemplo: Sendo S = {1,2,3,4} um espaço-amostral equiprovável e A = {1,2} ; B = {1,3}; C = {1,4} três eventos de
S. Verificar se os eventos A, B, C são independentes.
Resolução: Para A e B. P(A) =1/2; P(B) =1/2 e P(A∩B) = 1/4 pelo Teorema do produto P(A∩B) = P(A).P(B) =1/4.
Para A e C. P(A) =1/2 ; P(C) =1/2 e P(A∩C) = 1/4 pelo Teorema do produto P(A∩C) = P(A).P(C) =1/4.
Para B e C. P(B) =1/2 ; P(C) = 1/2 e P(B∩C) = 1/4 pelo Teorema do produto P(B∩C) = P(B).P(C) =1/4.
Para A, B e C. P(A) =1/2; P(B) =1/2; P(C) =1/2 e P(A∩B∩C) =1/4; mas P(A∩B∩C) ≠ P(A).P(B).P(C) portanto
os eventos A, B e C não são independentes.
Teorema da Probabilidade Total
Sejam A1, A2, A3, ..., An eventos que formam uma partição do espaço amostral S. Seja B um evento desse espaço.
Então
P (B ) =
n
n
(
)
P
A
∩
B
=
∑ i
∑ P  B Ai  • P ( Ai ) .
i =1
i =1
Teorema de Bayes
Sejam A1, A2, A3, ..., An eventos que formam uma partição do espaço amostral S. Seja B ⊂ S. Sejam conhecidas
P(A i ) e P B  , i = 1, 2, 3, ..., n. Então
 Ai 
( )


P A j • P B 
A
j
A 

P j  = n
, j = 1, 2, 3, ..., n.
 B


B
P
• P(A i )
∑
A i 
i =1 
Exemplo : Observando a seguinte tabela:
urnas
cores
Pretas
Brancas
Vermelhas
u1
u2
u3
4
2
6
5
4
3
3
2
4
Escolheu-se uma urna ao acaso e dela extraiu-se uma bola ao acaso, verificando-se que a bola é vermelha. Qual a
probabilidade de a bola ter vindo da urna 3.
Resolução: Probabilidade a priori: P(u1) = 1/3; P(u2) = 1/3; P(u3) = 1/3
Probabilidades Condicionais: P(vr/u1) = 6/12 = 1/2; P(vr/u2) = 3/12 = 1/4; P(vr/u3) = 4/ 9
Desejamos calcular P(u3/vr). Logo :
P (u3 vr ) =
P (u3 ). P (vr u3 )
P (u1 ). P (vr u1 ) + P (u2 ). P (vr u2 ) + P (u3 ). P (vr u3 )
P (u3 vr ) =
1 3.4 9
= 16 43 = 0,372093 ≅ 37,21%
1 3 .1 2 + 1 3 .1 4 + 1 3 . 4 9
VARIÁVEIS ALEATÓRIAS DISCRETAS
Variáveis Aleatórias Discretas
É a variável que pode assumir, com probabilidade diferente de zero, um número finito de valores dentro de um
intervalo finito (caso típico é quando efetuamos contagem)
Exemplo: E: lançamento de duas moedas; (c = coroa; k = cara)
X: número de caras obtidos nas duas moedas;
S: {(c, c); (c, k); (k, c); (k, k)}
X = 0 → corresponde ao evento (c, c) com probabilidade 1/4
X = 1 → corresponde ao evento (k, c); (c, k) com probabilidade 2/4
X = 2 → corresponde ao evento (k, k) com probabilidade 1/4
Esperança Matemática ou Valor Esperado
Se X representa uma variável aleatória discreta assumindo valores X1, X2, X3, ..., Xn com probabilidades
n
p 1 , p 2 , p 3 , ..., p n , respectivamente, sendo
por:
∑ p i = 1 , a esperança matemática de X, representada por E(X) é dada
i =1
n
E( X ) =
∑ Xipi
i =1
O valor esperado, a exemplo da média aritmética para distribuição de freqüências, é uma medida de tendência central
ou posição, só que utiliza a freqüência relativa ou probabilidade.
Exemplo: 1º- A Empresa Eletrotel Ltda vende três produtos, cujos lucros e probabilidades de venda estão
anotado na seguinte tabela:
Produto
A B C
Lucro Unitário R$
27 45 32
Probabilidade de venda (%) 20 30 50
Qual o lucro médio por unidade vendida.
Resolução: Seja a variável aleatória X = lucro unitário e P(X) sua probabilidade respectiva de
venda como mostra a tabela logo: E( X ) =
3
∑ X i P( X i ) = (27x0,20) + (45x0,30) + (32x0,50) = 34,9
i =1
Teoremas sobre a Esperança Matemática
- Se k é uma constante, E(k) = k
- Se X é uma variável aleatória e k uma constante, E (kX) = kE(X)
- Se X e Y são variáveis aleatórias no mesmo espaço amostral, então E (X ± Y) = E(X) ± E(Y)
- Se X e Y são variáveis aleatórias independentes, então E (XY) = E(X) E(Y)
Exemplo: 2º- Considere X a importância em dinheiro que podemos receber de prêmio em um certo jogo
De azar. Se para participar do jogo temos de pagar a quantia de R$ 4, 00, pede-se
determinar o ganho esperado, supondo E(X) = R$ 3,00.
Resolução: Se pagarmos R$ 4,00 para participar do jogo, o ganho líquido é representado pela variável
aleatória L = X – 4, cujo valor esperado de ganho será:
E(L) = E (X – 4) = E(X) – 4 → E(L) = 3 – 4 = − 1,00 , com este resultado chegamos à
conclusão que há uma perda esperada de R$ 1,00.
Variância
A variância de uma variável aleatória discreta é um número não negativo definido como:
[
]
( )
( )
σ x2 = E ( X − µ ) 2 ou ainda, σ x2 = E X 2 − [E ( X )]2 lembramos que E X 2 =
n
∑ X i2 P(X i )
i =1
A variância é uma medida de dispersão dos valores da variável aleatória em torno da média µ. Quando os valores
tendem a concentrar-se próximos da média, a variância é pequena, caso contrário a variância é grande.
Teoremas sobre a Variância
- Se k é uma constante, σ 2x (k) = 0 ou Var(k)= 0
- Se X é uma variável aleatória e k uma constante, σ 2x (kX) = k σ 2x ou Var(kX)= k2 Var(X)
- Se X e Y são variáveis aleatórias independentes, então Var(X ± Y) = Var(X) +Var(Y)
2
- Se X é uma variável aleatória e a e b constantes, Var(aX ± b) = a Var(X)
2
Exemplo: 3º- Um de processo fabricação produz peças com peso médio de 20g e desvio-padrão de 0,5g .
Essas Peças são acondicionadas em pacotes de uma dúzia cada. As embalagens pesam em
média 30g com desvio-padrão de 1,2g . Determinar a média e o desvio-padrão do peso total do
pacote.
Resolução: Suponha que o peso das peças (X) e o peso da embalagem (Y) sejam duas variáveis
independentes, isto é, o peso do material empacotado não é influenciado pelo peso do pacote.
Chamando o peso total do pacote por T, temos:
T = 12X + Y
Logo E(T) = 12 x E(X) + E(Y) e Var(T) = 122 x Var(X) + Var(Y) como E(X) = 20,
E(Y) = 30, Var(X) = 0,25, Var(Y) = 1,44 teremos
Cálculo do peso médio: E(T) = (12 x 20) + 30 = 270g
Cálculo do desvio-padrão: Var(T) = 122 x 0,25 + 1,44 = 37,44 logo Dp(T) = 37,44 ≅ 6,12g
Distribuição Binomial
É a distribuição que envolve um número finito de tentativas; os resultados das diversas tentativas são independentes
de tal modo que a probabilidade de que certo resultado seja a mesma em cada tentativa; cada tentativa admite somente
dois resultados, mutuamente exclusivos, tecnicamente chamados sucesso e fracasso. A distribuição binomial é
caracterizada por dois parâmetros, p e n. Onde p é o parâmetro contínuo n é o parâmetro discreto. Quando p = 1 - q a
distribuição é chamada simétrica, caso contrário assimétrica.
A variável “X”, correspondente ao número de sucessos num experimento Binomial, tem Distribuição Binomial B(n,
p), cuja função de probabilidade é dada por:
 n
 x
B(K: n, p) = P ( X = K ) =   p x q n − x = C
n x n− x
p q
onde: n = número de tentativas; X = número de sucessos
x
entre n tentativas;
Parâmetros Característicos da Distribuição Binomial
Cada par de valores “p” – Probabilidade de sucessos e “n” – nº de provas ou observações, caracteriza uma única
Distribuição Binomial ou um único espaço amostral:
Valor esperado: µ = E(X) = n.p
Variância: Var(x) = n.p.q , com (q = 1 – p)
Desvio Padrão: Dp(X)=
n. p.q
Exemplo: 4º-Um caça Americano dispara quatro torpedos, em cadência rápida, contra o povoado do
afeganistão. Cada torpedo tem probabilidade igual a 90% de atingir o alvo. Qual a
probabilidade de o povoado receber pelo menos um torpedo ?
Resolução: Consideremos a variável aleatória X = nº de torpedos que atingem o alvo, com
parâmetros n = 4, p = 0,90 e q = 0,10.
Sabemos que P(X = 0) + P(X ≥ 1) = 1, ou seja, P(X ≥ 1) = 1 – P(X = 0) mas
P ( X = 0) = C
4
0
(0,9)0 (0,1)4 − 0 = 0,0001 logo P(X ≥ 1) = 1 – 0,0001 = 0,999 = 99,9%
Distribuição de Poisson
Trata-se do caso limite da distribuição binomial quando o número de provas n tende para o infinito e a probabilidade
p do evento em cada prova é vizinha de zero. Em essência, a Distribuição de Poisson é a distribuição binomial
adequada para eventos independentes e raros, ocorrendo em um intervalo de tempo, superfície ou volume. Cumpre
destacar que a unidade de medida é contínua (em geral tempo, superfície ou volume), mas a variável aleatória
(número de ocorrências) é discreta.
É também chamada Distribuição de eventos raros, como por exemplo:
•
•
•
•
•
Número de chamadas telefônicas recebidas por um PABX durante um pequeno intervalo de tempo;
Número de falhas de um computador por dia de operação;
Número de clientes por hora que chegam a um guichê de caixa;
Número de defeitos/m2 de tecidos produzidos por uma indústria;
Número de acidentes de trânsito/dia numa rodovia.
O processo de Poisson é similar ao de Binomial, exceto que os eventos ocorrem num intervalo contínuo de tempo,
superfície ou volume, ao invés de ocorrerem em tentativas ou observações fixadas.
Somente um valor é necessário para determinar a probabilidade de determinado número de sucessos, pelo processo de
Poisson: o número médio de sucessos para especifica dimensão de tempo, superfície ou volume, representado por
“λ”. Dizemos que a variável aleatória “X” tem Distribuição de Poisson, dado “λ”, cuja função de
probabilidade é:
n x n−x λ x e − λ
P(X = K ) = lim n→ ∞ C p q
=
x
x!
onde: X = nº de ocorrências ou sucessos; ℮ = base
neperiana; λ = valor esperado;
Parâmetros característicos da Distribuição Poisson
Valor esperado: E(X) = λ = n.p
Variância: Var(X) = λ
Desvio Padrão: Dp(X) =
λ
Exemplo: 5º- Calcular a probabilidade de passarem exatamente dois carros por minuto em um posto de
pedágio em que passam, em média, quatro carros por minuto.
Resolução: Sabemos que a variável aleatória X = nº de carros por minuto com média λ = 4. Teremos
então:
4 2 l −4
P( X = 2) =
≅ 0,147 = 14,7%
2!
Distribuição de Poisson utilizada como aproximação das Probabilidades Binomiais
Quando o número de observações ou experimentos num processo de Binomial for muito grande, os cálculos de
probabilidade se tornam extremamente exaustivos, além de não serem disponíveis probabilidades tabeladas para
pequenos valores de “p”. A Distribuição de Poisson é apropriada como aproximação das probabilidades Binomiais
quando “n”for grande e “p” ou “q = 1-p” for pequeno. Tal aproximação pode ser feita quando:
• n ≥ 30
• n.p < 5 ou n(1-p) < 5, nesse caso, µ = n.p
Variáveis Aleatórias Contínuas
Vamos ampliar a idéia de variável aleatória para o caso em que os possíveis resultados do experimento são
representados pelos infinitos valores de um intervalo contínuo. Para que os métodos estatísticos possam ser aplicados
a uma grande variedade de problemas é necessário trabalhar com distribuições teóricas, que representem
satisfatoriamente as distribuições obtidas com dados de observação. Para as variáveis contínuas isto significa
substituir o histograma/polígono de freqüência obtido com os dados amostrais vão crescendo indefinidamente,
tendendo, portanto, para a população. As probabilidades assumidas pela variável contínua poderão ser determinadas
com o conhecimento da distribuição de probabilidade contínua correspondente.
A distribuição contínua será caracterizada por uma Função densidade de Probabilidade, designada por f(x), a qual
deverá obedecer às seguintes Propriedades:
• f(x) ≥ 0
b
•
∫a f ( x ) dx = p(a < x ≤ b), b > a
•
∫− ∞ f ( x ) dx = 1
+∞
A primeira propriedade decorre do fato de não haver probabilidade negativa. A segunda indica que a probabilidade da
variável aleatória assumir valor num intervalo será dada pela integral da função nesse intervalo. Interpretada
geometricamente, será dada pela área delimitada por esse intervalo sob o gráfico da função. A terceira propriedade,
uma decorrência da segunda, diz que a área total sob o gráfico da função é unitária.
Exemplo: 6º- Seja a variável aleatória contínua, definida pela seguinte função densidade de
probabilidade:
f(x) = Kx, para 0≤ x ≤ 2
f(x) = 0, caso contrário.
Vamos determinar o valor da constante “K”, de modo que f(x) seja uma função densidade de probabilidade e a
probabilidade P(0 ≤ x ≤ 1)
Para que f(x) = Kx seja uma função densidade de probabilidade a terceira propriedade deverá ser satisfeita. Então
2
∫0 kx .dx = 1 ⇔ k . x
2
2
1 cuja solução temos K = 1 logo:
2 0=
2
f(x) = 1 .x, para 0 ≤ x ≤ 2.
2
Para determinarmos a probabilidade P(0 ≤ x ≤ 1) precisamos integrar a função densidade f(x) = 1 .x nesse intervalo,
2
Logo: P(0 ≤ x ≤ 1) =
1
∫0 1 2 . x.dx = 1 4 .
Observações Importantes
•
•
Note-se que f(x), a função densidade, não é probabilidade. Somente quando função for integrada entre dois
limites, ela produzirá uma probabilidade, que será a área sob a curva da função no intervalo considerado. A
função densidade é um indicador da concentração de “massa” (probabilidade) nos possíveis valores de “x”.
Sendo “x” uma variável aleatória contínua as probabilidades abaixo são equivalentes:
P(a < x ≤ b) = P(a ≤ x ≤ b) = P(a ≤ x < b) = P(a < x < b).
Parâmetros da Variável Aleatória Contínua
•
Média ou Esperança Matemática
É definida por: µ
•
= E(X) =
+∞
∫− ∞ x. f ( x ).dx
Variância
+∞
 +∞

2
É definida por: σ 2x (k) = Var(X) =
x 2 . f ( x ).dx − 
x . f ( x ).dx  ou
−∞
 −∞

∫
∫
Var(X) = E (x2) – [E(x)]2
•
Desvio Padrão
É definido por: Dp(X) =
Var ( x )
Exemplo: 7º- Vamos determinar a média, a variância e o desvio padrão da função densidade f(x) = x ,
2
no intervalo 0 ≤ x ≤ 2 e f(x) = 0, para outros valores de x.
Cálculo da média
E(X) =
+∞
2
∫− ∞ x. f ( x ).dx = ∫0 x . x 2 .dx = 4 3
Cálculo da Variância
Var(X) = E(x2) – [E(x)]2 = 2
9
= 0,2222...
Cálculo do Desvio Padrão
Dp(X) =
Var ( x ) ≅ 0,47
Distribuição Uniforme de Probabilidade
Se uma variável aleatória “x” assume valores no intervalo [a, b] com Função Densidade de Probabilidade
dada por,
f (x) =
1
b−a
Diremos que “x” admite distribuição uniforme de probabilidade.
Exemplo: Um ponto é escolhido ao acaso no intervalo [2, 6], como sendo uma variável aleatória com distribuição
uniforme. Qual a probabilidade de que um ponto escolhido esteja entre 3,5 e 5,5? Determine E(x); Var(x); cuja F.D.P
é dada por
 1

se 2 ≤ x ≤ 6
f (x) =  b − a
0
se x < 2 ou x > 6
f (x) =
1
1
1
=
= se 2 ≤ x ≤ 6
b−a 6− 2 4
f ( x ) = 0 se x < 2 ou x > 6
a) P (3,5 ≤ x ≤ 5,5 ) =
b) E ( x ) =
σ x2
∫3,5 f ( x ).dx = ∫3,5
5,5
∫2 x . f ( x )dx =
6
5,5
1
1 5,5
1
1
dx = ∫ dx = [ x ]53,,55 = (5,5 − 3,5) = 50%
4
4 3, 5
4
4
b+a 6+ 2
=
=4
2
2
(
b − a )2 (6 − 2)2
= Var ( x ) =
=
12
12
=
16 4
=
12 3
Distribuição Normal
A curva normal é a distribuição contínua mais importante tanto do ponto de vista teórico quanto nas aplicações
práticas da estatística. Ela foi estudada por Laplace no tratamento analítico de probabilidade e por Gauss nos erros
acidentais. Por isso, é também conhecida por curva de Laplace-Gauss, curva normal de probabilidades, curva normal
de erros ou distribuição gaussiana.
Vale salientar que em uma distribuição normal:
- a probabilidade de um valor singular é zero;
- só há sentido em determinar probabilidade de intervalos.
A probabilidade de a variável assumir valores no intervalo [x1, x2] corresponde à área sob a curva
limitada por x1 e x2.
f(x)
→p(x1 ≤ x ≤ x2)
µ x1 x2
x
Os valores dessas áreas podem ser obtidos por integração, mas na prática são facilmente calculados por meio de uma
tabela que fornece diretamente a área entre a média e determinado valor da variável. Em essência, trabalha-se com
uma curva normalmente padronizada, onde a variável X é substituída pelo escore reduzido Z. onde:
Z=
X−µ
Dp( X)
em que µ é a média e Dp(X) o desvio padrão. Pode ser verificado que a variável reduzida Z possui média zero e
desvio padrão um.
A função de densidade para esta distribuição é dada por:
f ( X) =
1
Dp( X) 2π
 x −µ 

− 0,5
Dp( X ) 

l
2
possuindo as características que se seguem:
- f(X) é simétrica em relação à origem X = µ;
- f(X) possui máximo para X = µ;
- f(X) tende para zero quando X tende para + ∞ ou - ∞ ;
- f(X) possui dois pontos de inflexão cujas abscissas valem µ + Dp(X) e µ - Dp(X).
Exemplo: 8º-A distribuição de freqüência do período de internação no Hospital regional de Pau dos
Ferros é em média µ = 4,6 dias com um desvio-padrão de 2,7 dias (medindo-se frações de
dias). Qual a probabilidade de que um paciente escolhido aleatoriamente esteja internado:
a) a mais de 3 dias?
b) menos de 4 dias?
Resolução: Sabemos que µ = 4,6 e DP(x) = 2,7.
Fazendo X a variável Normal, tempo de internamento, Então:
a) Z1 =
3 − 4 ,6
≅ - 0,59 na tabela encontramos para Z = 0,59 o valor 0, 2224 logo
2 ,7
P (X > 3) = P (Z > 0, 59) = 0, 5 + 0, 2224 ≅ 72, 24%
4 − 4 ,6
≅ - 0,22 na tabela encontramos para Z = 0,22 o valor 0, 0871 logo
2 ,7
P (X< 4) = P (Z < - 0,22) = 0,5 – 0,0871 = 0,4129 ≅ 41,29%
b) Z2 =
TEORIA DA AMOSTRAGEM
NOÇÕES SOBRE AMOSTRAGEM POPULAÇÃO E AMOSTRAS:
População ou Universo: É o grupo onde podemos extrair a amostra cujos elementos que compõem a população
podem ser: Indivíduos, Firmas, Escolas, Preços, ou qualquer coisa que possa ser mensurada (medida), contada ou
ordenada.
Amostragem: É o conjunto de técnicas utilizadas par a seleção de uma amostra. Este conjunto de técnicas pode ser
subdividida em dois grupos básicos: Amostragem aleatória e a Amostragem não aleatória.
Amostragem Aleatória inclui técnicas como:
1 – Amostragem Aleatória simples: É aquela em que se atribui aos grupos de mesma quantidade de elementos a
mesma probabilidade de participar da amostra. Em particular cada elemento da população tem a mesma probabilidade
de participar da amostra.
2 – Amostragem Sistemática: Quando se conhece uma listagem dos elementos da população pode-se obter uma
amostra aleatória de “n” elementos dividindo-se o número de elementos da população pelo tamanho da amostra.
3- Amostragem Estratificada: É aquela onde pode ocorrer que a população seja formada por subgrupos diferentes,
mas cada um deles homogêneos. Neste caso, vamos selecionar aleatoriamente uma quantidade de cada grupo para
formar a amostra, proporcional ao tamanho desse grupo.
4 – Amostragem por Conglomerados: É quando podemos identificar um grupo de elementos que tenham
aproximadamente a mesma composição de população. Neste caso, pode ser interessante realizar a amostragem usando
somente os elementos desse grupo.
Amostragem não Aleatória inclui técnicas como:
1 – Amostragem Intencional: É aquela que ocorre quando o pesquisador seleciona intencionalmente (proposital) os
componentes da amostra.
2 – Amostragem Voluntária: É quando o componente da população se oferece voluntariamente para participar da
amostra independentemente do julgamento do pesquisador.
Estas amostras não permitem o controle da variabilidade amostral, o que invibializa o controle da qualidade da
estimação.
DISTRIBUIÇÃO DE MÉDIAS AMOSTRAIS
É uma distribuição de probabilidade que indica quão prováveis são diversas médias amostrais. A distribuição é função
da média e do desvio padrão da população e do tamanho da amostra. Para cada combinação de média, desvio padrão e
tamanho da amostra, haverá uma única distribuição de médias amostrais.
MÉDIA AMOSTRAL: Sejam x1 , x 2 , ....., x n variáveis aleatórias para uma amostra de tamanho “n” tal como
descrita anteriormente. Então, a média da amostra, ou a média amostral, é uma variável aleatória definida por:
−−
−
X =
Se
−
x1 , x 2 , ....., x n
−
x=
−
x1 + x 2 + ....... + x n
n
denotam valores obtidos numa determinada amostra é dada por
x1 + x 2 + ..... + x n
n
Exemplo: Se uma amostra de tamanho 8 tem para valores 5; 8; 7; 9; 3; 6; 10; 2, então a média amostral é:
−
x=
5 + 8 + 7 + 9 + 3 + 6 + 10 + 2 50
=
= 6,25
8
8
DISTRIBUIÇÃO AMOSTRAL DE MÉDIAS
São importantes os seguintes teoremas:
Teorema I – A média da distribuição amostral de médias, representada por
µ− é dada por
x
−
E ( x ) = µ− = µ
µ
, onde
é a média da população. Podemos concluir que o valor esperado da média
x
amostral é a média da população.
Teorema II – Se a população é infinita, ou se a amostragem é com reposição, então a variância da distribuição
amostral de médias, representada por
σ −2
σ −2 =
é dada por
x
x
σ2
n
; onde
σ 2 é a variância da população.
Teorema III – Se a população é finita e tem tamanho “N”, se a amostragem é sem reposição, e se o tamanho da
amostra é n > 0,05 N , então o desvio-padrão do Teorema II será
σ −=
x
σ
n
N −n
, onde
N −1
N −n
é chamado fator de correção finita
N −1
DISTRIBUIÇÃO AMOSTRAL DE PROPORÇÃO
Seja uma população infinita binomialmente distribuída, com p e q = 1 – p representado respectivamente as
probabilidades de determinado elemento acusa, ou não, certa propriedade P. Obtemos então uma distribuição amostral
de proporções cuja média
µp = P
µ p e desvio-padrão σ p são dados por
σ p=
pq
n
=
p(1− p )
n
Download