TEORIA ELEMENTAR DA PROBABILIDADE Da Origem às Aplicações: As origens do cálculo de probabilidade remontam ao século XVI e suas aplicações referiam-se sempre a jogos de azar. Os jogadores ricos aplicavam o conhecimento da teoria das probabilidades para planejar estratégias de apostas. Ainda hoje há muitas aplicações envolvendo tais jogos, como as loterias, os cassinos, as corridas de cavalos e os esportes organizados. Com o decorrer do tempo, a utilização das probabilidades ultrapassou o âmbito desses jogos e, atualmente, os governos as empresas e as organizações profissionais incorporam esta teoria em seus processos diários de deliberações. Independente de sua aplicação, a utilização de probabilidade indica que existe um elemento de acaso (ou de incerteza), quanto à ocorrência ou não de um evento futuro. Em muitas situações pode ser impossível afirmar, por antecipação, o que ocorrerá, mas é possível dizer o que pode ocorrer. O estudo das probabilidades é útil porque auxilia a desenvolver estratégias e na tomada de decisões. Conceitos: O ponto central da teoria das probabilidades é quantificar quão provável é a ocorrência de determinado evento. Em geral, é possível determinar ou exprimir a probabilidade de um evento, mediante uma combinação de experiência, julgamento e dados históricos. Exemplos: a) b) c) d) e) f) previsão da procura de um novo produto; previsão de safras agrícolas; previsão de tempo em várias regiões; compra de apólices de seguro; avaliação do impacto de um projeto do governo; aplicação de investidores que depende das chances de lucro. Experimento Aleatório: (E) É todo fenômeno ou ação que geralmente pode ser repetido e cujo resultado é casual ou aleatório. Espaço Amostral: (S) É o conjunto de todos os resultados possíveis de um experimento aleatório. Evento: (A, B, C, D, F,..., R, T,...) É um subconjunto do espaço amostral, ou seja, são alguns resultados do experimento claramente especificados. Exemplos: a) E: Lançar um dado e observar o nº da face voltada para cima. S: {1; 2; 3; 4; 5; 6} Evento A: ocorrer um número par. A = {2; 4; 6} Evento B: ocorrer um número maior que 4. B = {5; 6} Evento C: ocorrer um número primo e par. C = {2} b) E: Lançar duas moedas e observar o resultado: c = (cara) e k = (coroa). S: {(cc) ; (ck ) ; (kc) ; (kk )} Evento A: ocorrer mais de uma coroa. A = {(kk)} Evento B: ocorrer pelo menos uma cara. B = {(cc); (ck); (kc)} Evento C: ocorrer apenas uma coroa. C = {(ck); (kc)} Tipos de Eventos: A determinação de probabilidade leva em conta a maneira como os vários eventos podem relacionar-se entre si. Essas relações são descritas pelos os seguintes eventos: 1. Mutuamente excludentes (exclusivos) ou disjuntos; 2. Não mutuamente excludentes ou conjuntos; 3. Coletivamente exaustivos; 4. Complementares; 5. Independentes; 6. Dependentes Mutuamente Excludentes ou Disjuntos São aqueles em que a ocorrência de um evento impede ou exclui a ocorrência do outro. Exemplo: a) Lances de uma moeda (cara ou coroa) b) Lances de um dado c) Sexo de um animal (masc. ou femin.) d) Artigos produzidos (bons ou defeit.) Não mutuamente excludentes ou Conjuntos São os eventos que podem ocorrer ao mesmo tempo. A ocorrência de um evento não exclui a ocorrência do outro. Exemplo: a) Sistema Econômico Evento A: inflação. b) Tempo chuvoso Evento A: relâmpago Evento B: recessão Evento B: chuva Eventos Coletivamente Exaustivos É quando ao menos um dos eventos tem de ocorrer durante um dado experimento. Nenhum outro resultado é possível, porque se esgotam todas as possibilidades. Exemplo: a) Jogo de futebol Evento A: ganhar; Evento B: perder; Evento C: empatar b) Loteria esportiva Evento A: coluna 1; Evento B: coluna do meio; Evento C: coluna 2 _ Eventos Complementares ( A ) O complemento de um evento A consiste de todos os resultados possíveis que não fazem parte de A. _ Exemplo: a) Lance de moedas: A = cara ; A = coroa _ b) Inspeção de um lote de peças produzidas: A = peças perfeitas; A = peças defeituosas. Eventos Independentes São aqueles em que a ocorrência de um deles não afeta de maneira alguma a probabilidade de ocorrência do outro evento. Exemplo: a) Dois lances sucessivos de um dado ou de uma moeda. b) Extração de bolas de uma urna, com reposição. Eventos Dependentes São aqueles em que a ocorrência de um evento afeta a probabilidade de ocorrência do outro. Exemplo: a) Extração de bolas de uma urna, sem reposição. Obs: Eventos mutuamente exclusivos são altamente dependentes. Probabilidade a Priori ou Clássica Dada uma experiência aleatória definida num espaço amostral S, a probabilidade de ocorrer em evento E, contido em S, é o quociente entre o número de elementos do evento E e o número de elementos do espaço amostral S. Em outras palavras, é o valor calculado com base em considerações teóricas, dispensando uma experimentação sobre o objeto estudado. É de grande importância como referencial ou termo de comparação. Para um espaço S, a probabilidade de um evento E é dado por: P (E ) = n( E ) n(S ) Exemplo: Suponha-se que desejamos determinar a probabilidade do aparecimento de 1 coroa em uma jogada de uma moeda. Como existe dois resultados igualmente prováveis, a saber, “cara” e “coroa”, e como só há uma maneira de aparecer “coroa”, dizemos que a probabilidade do evento “coroa” na jogada de uma moeda é 1 . Considerando que 2 tal moeda seja “honesta”, ou “não-viciada”. Probabilidade a Posteriori ou Frequencialista Trata-se da probabilidade avaliada, empírica. Ela tem por objetivo estabelecer um modelo adequado à interpretação de certa classe de fenômeno observados (não todos). Portanto, ela depende da amostra considerada: quando maior a amostra (e de melhor qualidade), mais confiável é o valor da probabilidade a posteriori. Com base no conceito de freqüência relativa podemos então definir a probabilidade a posteriori para dado evento E: Número de ocorrências de E P(E) = ----------------------------------------------------------- Número total de provas ou ocorrências Exemplo: Se jogarmos uma moeda 1.000 vezes e aparecer “cara” 653 vezes, estimamos a probabilidade de “cara” em 653 1.000 = 0,653 = 65,3% Axiomas da Probabilidade - Para todo evento E do espaço amostral S temos 0 ≤ P(E) ≤ 1, ou seja, a probabilidade está sempre no intervalo fechado 0 e 1. - Para todo evento certo S temos P(S) = 1 - Para um número qualquer de eventos mutuamente excludentes E1, E2, ..., En pertencentes ao espaço amostral S, temos: P(E1 ∪ E2 ∪ E3 ... En) = P(E1) + P(E2) + ... + P(En) Principais Teoremas sobre Probabilidade - O evento impossível possui probabilidade 0 (zero), P(∅ ∅) = 0 - Se Ec é o evento complementar de E, então P(Ec) = 1 – P(E) - Para quaisquer eventos A e B, c P(A) = P(A ∩ B) + P(A ∩ B ) - Se A ⊆ B então P(A) ≤ P(B) - Se A e B são dois eventos quaisquer associados a um espaço amostral S, então: P( A ∪ B ) = P(A) + P(B) – P( A ∩ B ) - Se os eventos A e B forem mutuamente exclusivos, isto é, A ∩ B = ∅, o teorema supra é simplificado: P( A ∪ B ) = P(A) + P(B) Probabilidade Condicional Sejam dois eventos A e B associados a um espaço amostral S. A probabilidade de A ocorrer dado que o evento B ocorreu é definida por: P(A B ) = P(A I B ) onde P(B) > 0 P(B ) Portanto, quando calculamos P(A/B), tudo se passa como se o evento B fosse um novo espaço amostral reduzido dentro do qual queremos calcular a probabilidade do evento A. Exemplo: Duas bolas são retiradas de uma urna que contém 2 bolas brancas, 3 bolas pretas e 4 bolas verdes. Qual a probabilidade de que ambas: a) sejam Verdes? b) sejam de mesma cor? ( V )= 4 9 . 3 8 = 16 Resolução: a) P (V ∩ V ) = P (V ). P V b) P ( MC ) = P (B ∩ B ) + P ( P ∩ P ) + P (V ∩ V ) = 2 . 1 + 3 . 2 + 4 . 3 9 8 9 8 9 8 = 20 72 =5 18 Teorema do Produto Sejam dois eventos A e B associados a um espaço amostral S. Então a probabilidade de ocorrer o evento ( A )• P(A ) ou P(A ∩ B) = P B ( B)• P(B) . Que pode ser generalizada para vários eventos segundo P(A ∩ B) = P A uma regra baseada na associatividade de eventos: ( P(A ∩ B ∩ C ∩ D ) = P D ) ( ) ( ) PC • P B • P(A ) . A∩ B∩C • A∩B A Exemplo: Uma urna contém as letras A, A, A, R, R, S. Retira-se letra por letra. Qual a probabilidade de sair a palavra ARARAS ? Resolução: P(A ∩ R ∩ A ∩ R ∩ A ∩ S ) = P ( A). P ( R A). P ( A A ∩ R ). P ( R A ∩ R ∩ A). P ( A A ∩ R ∩ A ∩ R ). P ( S A ∩ R ∩ A ∩ R ∩ A) = 3 .2 .2 .1 .1 .1 = 1 6 5 4 3 2 1 60 Eventos Independentes Sejam dois eventos A e B associados a um espaço amostral S. Se A e B são eventos independentes então ( B) = P(A ) e P(B A ) = P(B) logo pelo teorema do produto temos: PA P(A ∩ B) = P(B) • P(A ) ou P(A ∩ B ∩ C ∩ D ) = P(D ) • P(C ) • P(B) • P(A ) . Exemplo: Sendo S = {1,2,3,4} um espaço-amostral equiprovável e A = {1,2} ; B = {1,3}; C = {1,4} três eventos de S. Verificar se os eventos A, B, C são independentes. Resolução: Para A e B. P(A) =1/2; P(B) =1/2 e P(A∩B) = 1/4 pelo Teorema do produto P(A∩B) = P(A).P(B) =1/4. Para A e C. P(A) =1/2 ; P(C) =1/2 e P(A∩C) = 1/4 pelo Teorema do produto P(A∩C) = P(A).P(C) =1/4. Para B e C. P(B) =1/2 ; P(C) = 1/2 e P(B∩C) = 1/4 pelo Teorema do produto P(B∩C) = P(B).P(C) =1/4. Para A, B e C. P(A) =1/2; P(B) =1/2; P(C) =1/2 e P(A∩B∩C) =1/4; mas P(A∩B∩C) ≠ P(A).P(B).P(C) portanto os eventos A, B e C não são independentes. Teorema da Probabilidade Total Sejam A1, A2, A3, ..., An eventos que formam uma partição do espaço amostral S. Seja B um evento desse espaço. Então P (B ) = n n ( ) P A ∩ B = ∑ i ∑ P B Ai • P ( Ai ) . i =1 i =1 Teorema de Bayes Sejam A1, A2, A3, ..., An eventos que formam uma partição do espaço amostral S. Seja B ⊂ S. Sejam conhecidas P(A i ) e P B , i = 1, 2, 3, ..., n. Então Ai ( ) P A j • P B A j A P j = n , j = 1, 2, 3, ..., n. B B P • P(A i ) ∑ A i i =1 Exemplo : Observando a seguinte tabela: urnas cores Pretas Brancas Vermelhas u1 u2 u3 4 2 6 5 4 3 3 2 4 Escolheu-se uma urna ao acaso e dela extraiu-se uma bola ao acaso, verificando-se que a bola é vermelha. Qual a probabilidade de a bola ter vindo da urna 3. Resolução: Probabilidade a priori: P(u1) = 1/3; P(u2) = 1/3; P(u3) = 1/3 Probabilidades Condicionais: P(vr/u1) = 6/12 = 1/2; P(vr/u2) = 3/12 = 1/4; P(vr/u3) = 4/ 9 Desejamos calcular P(u3/vr). Logo : P (u3 vr ) = P (u3 ). P (vr u3 ) P (u1 ). P (vr u1 ) + P (u2 ). P (vr u2 ) + P (u3 ). P (vr u3 ) P (u3 vr ) = 1 3.4 9 = 16 43 = 0,372093 ≅ 37,21% 1 3 .1 2 + 1 3 .1 4 + 1 3 . 4 9 VARIÁVEIS ALEATÓRIAS DISCRETAS Variáveis Aleatórias Discretas É a variável que pode assumir, com probabilidade diferente de zero, um número finito de valores dentro de um intervalo finito (caso típico é quando efetuamos contagem) Exemplo: E: lançamento de duas moedas; (c = coroa; k = cara) X: número de caras obtidos nas duas moedas; S: {(c, c); (c, k); (k, c); (k, k)} X = 0 → corresponde ao evento (c, c) com probabilidade 1/4 X = 1 → corresponde ao evento (k, c); (c, k) com probabilidade 2/4 X = 2 → corresponde ao evento (k, k) com probabilidade 1/4 Esperança Matemática ou Valor Esperado Se X representa uma variável aleatória discreta assumindo valores X1, X2, X3, ..., Xn com probabilidades n p 1 , p 2 , p 3 , ..., p n , respectivamente, sendo por: ∑ p i = 1 , a esperança matemática de X, representada por E(X) é dada i =1 n E( X ) = ∑ Xipi i =1 O valor esperado, a exemplo da média aritmética para distribuição de freqüências, é uma medida de tendência central ou posição, só que utiliza a freqüência relativa ou probabilidade. Exemplo: 1º- A Empresa Eletrotel Ltda vende três produtos, cujos lucros e probabilidades de venda estão anotado na seguinte tabela: Produto A B C Lucro Unitário R$ 27 45 32 Probabilidade de venda (%) 20 30 50 Qual o lucro médio por unidade vendida. Resolução: Seja a variável aleatória X = lucro unitário e P(X) sua probabilidade respectiva de venda como mostra a tabela logo: E( X ) = 3 ∑ X i P( X i ) = (27x0,20) + (45x0,30) + (32x0,50) = 34,9 i =1 Teoremas sobre a Esperança Matemática - Se k é uma constante, E(k) = k - Se X é uma variável aleatória e k uma constante, E (kX) = kE(X) - Se X e Y são variáveis aleatórias no mesmo espaço amostral, então E (X ± Y) = E(X) ± E(Y) - Se X e Y são variáveis aleatórias independentes, então E (XY) = E(X) E(Y) Exemplo: 2º- Considere X a importância em dinheiro que podemos receber de prêmio em um certo jogo De azar. Se para participar do jogo temos de pagar a quantia de R$ 4, 00, pede-se determinar o ganho esperado, supondo E(X) = R$ 3,00. Resolução: Se pagarmos R$ 4,00 para participar do jogo, o ganho líquido é representado pela variável aleatória L = X – 4, cujo valor esperado de ganho será: E(L) = E (X – 4) = E(X) – 4 → E(L) = 3 – 4 = − 1,00 , com este resultado chegamos à conclusão que há uma perda esperada de R$ 1,00. Variância A variância de uma variável aleatória discreta é um número não negativo definido como: [ ] ( ) ( ) σ x2 = E ( X − µ ) 2 ou ainda, σ x2 = E X 2 − [E ( X )]2 lembramos que E X 2 = n ∑ X i2 P(X i ) i =1 A variância é uma medida de dispersão dos valores da variável aleatória em torno da média µ. Quando os valores tendem a concentrar-se próximos da média, a variância é pequena, caso contrário a variância é grande. Teoremas sobre a Variância - Se k é uma constante, σ 2x (k) = 0 ou Var(k)= 0 - Se X é uma variável aleatória e k uma constante, σ 2x (kX) = k σ 2x ou Var(kX)= k2 Var(X) - Se X e Y são variáveis aleatórias independentes, então Var(X ± Y) = Var(X) +Var(Y) 2 - Se X é uma variável aleatória e a e b constantes, Var(aX ± b) = a Var(X) 2 Exemplo: 3º- Um de processo fabricação produz peças com peso médio de 20g e desvio-padrão de 0,5g . Essas Peças são acondicionadas em pacotes de uma dúzia cada. As embalagens pesam em média 30g com desvio-padrão de 1,2g . Determinar a média e o desvio-padrão do peso total do pacote. Resolução: Suponha que o peso das peças (X) e o peso da embalagem (Y) sejam duas variáveis independentes, isto é, o peso do material empacotado não é influenciado pelo peso do pacote. Chamando o peso total do pacote por T, temos: T = 12X + Y Logo E(T) = 12 x E(X) + E(Y) e Var(T) = 122 x Var(X) + Var(Y) como E(X) = 20, E(Y) = 30, Var(X) = 0,25, Var(Y) = 1,44 teremos Cálculo do peso médio: E(T) = (12 x 20) + 30 = 270g Cálculo do desvio-padrão: Var(T) = 122 x 0,25 + 1,44 = 37,44 logo Dp(T) = 37,44 ≅ 6,12g Distribuição Binomial É a distribuição que envolve um número finito de tentativas; os resultados das diversas tentativas são independentes de tal modo que a probabilidade de que certo resultado seja a mesma em cada tentativa; cada tentativa admite somente dois resultados, mutuamente exclusivos, tecnicamente chamados sucesso e fracasso. A distribuição binomial é caracterizada por dois parâmetros, p e n. Onde p é o parâmetro contínuo n é o parâmetro discreto. Quando p = 1 - q a distribuição é chamada simétrica, caso contrário assimétrica. A variável “X”, correspondente ao número de sucessos num experimento Binomial, tem Distribuição Binomial B(n, p), cuja função de probabilidade é dada por: n x B(K: n, p) = P ( X = K ) = p x q n − x = C n x n− x p q onde: n = número de tentativas; X = número de sucessos x entre n tentativas; Parâmetros Característicos da Distribuição Binomial Cada par de valores “p” – Probabilidade de sucessos e “n” – nº de provas ou observações, caracteriza uma única Distribuição Binomial ou um único espaço amostral: Valor esperado: µ = E(X) = n.p Variância: Var(x) = n.p.q , com (q = 1 – p) Desvio Padrão: Dp(X)= n. p.q Exemplo: 4º-Um caça Americano dispara quatro torpedos, em cadência rápida, contra o povoado do afeganistão. Cada torpedo tem probabilidade igual a 90% de atingir o alvo. Qual a probabilidade de o povoado receber pelo menos um torpedo ? Resolução: Consideremos a variável aleatória X = nº de torpedos que atingem o alvo, com parâmetros n = 4, p = 0,90 e q = 0,10. Sabemos que P(X = 0) + P(X ≥ 1) = 1, ou seja, P(X ≥ 1) = 1 – P(X = 0) mas P ( X = 0) = C 4 0 (0,9)0 (0,1)4 − 0 = 0,0001 logo P(X ≥ 1) = 1 – 0,0001 = 0,999 = 99,9% Distribuição de Poisson Trata-se do caso limite da distribuição binomial quando o número de provas n tende para o infinito e a probabilidade p do evento em cada prova é vizinha de zero. Em essência, a Distribuição de Poisson é a distribuição binomial adequada para eventos independentes e raros, ocorrendo em um intervalo de tempo, superfície ou volume. Cumpre destacar que a unidade de medida é contínua (em geral tempo, superfície ou volume), mas a variável aleatória (número de ocorrências) é discreta. É também chamada Distribuição de eventos raros, como por exemplo: • • • • • Número de chamadas telefônicas recebidas por um PABX durante um pequeno intervalo de tempo; Número de falhas de um computador por dia de operação; Número de clientes por hora que chegam a um guichê de caixa; Número de defeitos/m2 de tecidos produzidos por uma indústria; Número de acidentes de trânsito/dia numa rodovia. O processo de Poisson é similar ao de Binomial, exceto que os eventos ocorrem num intervalo contínuo de tempo, superfície ou volume, ao invés de ocorrerem em tentativas ou observações fixadas. Somente um valor é necessário para determinar a probabilidade de determinado número de sucessos, pelo processo de Poisson: o número médio de sucessos para especifica dimensão de tempo, superfície ou volume, representado por “λ”. Dizemos que a variável aleatória “X” tem Distribuição de Poisson, dado “λ”, cuja função de probabilidade é: n x n−x λ x e − λ P(X = K ) = lim n→ ∞ C p q = x x! onde: X = nº de ocorrências ou sucessos; ℮ = base neperiana; λ = valor esperado; Parâmetros característicos da Distribuição Poisson Valor esperado: E(X) = λ = n.p Variância: Var(X) = λ Desvio Padrão: Dp(X) = λ Exemplo: 5º- Calcular a probabilidade de passarem exatamente dois carros por minuto em um posto de pedágio em que passam, em média, quatro carros por minuto. Resolução: Sabemos que a variável aleatória X = nº de carros por minuto com média λ = 4. Teremos então: 4 2 l −4 P( X = 2) = ≅ 0,147 = 14,7% 2! Distribuição de Poisson utilizada como aproximação das Probabilidades Binomiais Quando o número de observações ou experimentos num processo de Binomial for muito grande, os cálculos de probabilidade se tornam extremamente exaustivos, além de não serem disponíveis probabilidades tabeladas para pequenos valores de “p”. A Distribuição de Poisson é apropriada como aproximação das probabilidades Binomiais quando “n”for grande e “p” ou “q = 1-p” for pequeno. Tal aproximação pode ser feita quando: • n ≥ 30 • n.p < 5 ou n(1-p) < 5, nesse caso, µ = n.p Variáveis Aleatórias Contínuas Vamos ampliar a idéia de variável aleatória para o caso em que os possíveis resultados do experimento são representados pelos infinitos valores de um intervalo contínuo. Para que os métodos estatísticos possam ser aplicados a uma grande variedade de problemas é necessário trabalhar com distribuições teóricas, que representem satisfatoriamente as distribuições obtidas com dados de observação. Para as variáveis contínuas isto significa substituir o histograma/polígono de freqüência obtido com os dados amostrais vão crescendo indefinidamente, tendendo, portanto, para a população. As probabilidades assumidas pela variável contínua poderão ser determinadas com o conhecimento da distribuição de probabilidade contínua correspondente. A distribuição contínua será caracterizada por uma Função densidade de Probabilidade, designada por f(x), a qual deverá obedecer às seguintes Propriedades: • f(x) ≥ 0 b • ∫a f ( x ) dx = p(a < x ≤ b), b > a • ∫− ∞ f ( x ) dx = 1 +∞ A primeira propriedade decorre do fato de não haver probabilidade negativa. A segunda indica que a probabilidade da variável aleatória assumir valor num intervalo será dada pela integral da função nesse intervalo. Interpretada geometricamente, será dada pela área delimitada por esse intervalo sob o gráfico da função. A terceira propriedade, uma decorrência da segunda, diz que a área total sob o gráfico da função é unitária. Exemplo: 6º- Seja a variável aleatória contínua, definida pela seguinte função densidade de probabilidade: f(x) = Kx, para 0≤ x ≤ 2 f(x) = 0, caso contrário. Vamos determinar o valor da constante “K”, de modo que f(x) seja uma função densidade de probabilidade e a probabilidade P(0 ≤ x ≤ 1) Para que f(x) = Kx seja uma função densidade de probabilidade a terceira propriedade deverá ser satisfeita. Então 2 ∫0 kx .dx = 1 ⇔ k . x 2 2 1 cuja solução temos K = 1 logo: 2 0= 2 f(x) = 1 .x, para 0 ≤ x ≤ 2. 2 Para determinarmos a probabilidade P(0 ≤ x ≤ 1) precisamos integrar a função densidade f(x) = 1 .x nesse intervalo, 2 Logo: P(0 ≤ x ≤ 1) = 1 ∫0 1 2 . x.dx = 1 4 . Observações Importantes • • Note-se que f(x), a função densidade, não é probabilidade. Somente quando função for integrada entre dois limites, ela produzirá uma probabilidade, que será a área sob a curva da função no intervalo considerado. A função densidade é um indicador da concentração de “massa” (probabilidade) nos possíveis valores de “x”. Sendo “x” uma variável aleatória contínua as probabilidades abaixo são equivalentes: P(a < x ≤ b) = P(a ≤ x ≤ b) = P(a ≤ x < b) = P(a < x < b). Parâmetros da Variável Aleatória Contínua • Média ou Esperança Matemática É definida por: µ • = E(X) = +∞ ∫− ∞ x. f ( x ).dx Variância +∞ +∞ 2 É definida por: σ 2x (k) = Var(X) = x 2 . f ( x ).dx − x . f ( x ).dx ou −∞ −∞ ∫ ∫ Var(X) = E (x2) – [E(x)]2 • Desvio Padrão É definido por: Dp(X) = Var ( x ) Exemplo: 7º- Vamos determinar a média, a variância e o desvio padrão da função densidade f(x) = x , 2 no intervalo 0 ≤ x ≤ 2 e f(x) = 0, para outros valores de x. Cálculo da média E(X) = +∞ 2 ∫− ∞ x. f ( x ).dx = ∫0 x . x 2 .dx = 4 3 Cálculo da Variância Var(X) = E(x2) – [E(x)]2 = 2 9 = 0,2222... Cálculo do Desvio Padrão Dp(X) = Var ( x ) ≅ 0,47 Distribuição Uniforme de Probabilidade Se uma variável aleatória “x” assume valores no intervalo [a, b] com Função Densidade de Probabilidade dada por, f (x) = 1 b−a Diremos que “x” admite distribuição uniforme de probabilidade. Exemplo: Um ponto é escolhido ao acaso no intervalo [2, 6], como sendo uma variável aleatória com distribuição uniforme. Qual a probabilidade de que um ponto escolhido esteja entre 3,5 e 5,5? Determine E(x); Var(x); cuja F.D.P é dada por 1 se 2 ≤ x ≤ 6 f (x) = b − a 0 se x < 2 ou x > 6 f (x) = 1 1 1 = = se 2 ≤ x ≤ 6 b−a 6− 2 4 f ( x ) = 0 se x < 2 ou x > 6 a) P (3,5 ≤ x ≤ 5,5 ) = b) E ( x ) = σ x2 ∫3,5 f ( x ).dx = ∫3,5 5,5 ∫2 x . f ( x )dx = 6 5,5 1 1 5,5 1 1 dx = ∫ dx = [ x ]53,,55 = (5,5 − 3,5) = 50% 4 4 3, 5 4 4 b+a 6+ 2 = =4 2 2 ( b − a )2 (6 − 2)2 = Var ( x ) = = 12 12 = 16 4 = 12 3 Distribuição Normal A curva normal é a distribuição contínua mais importante tanto do ponto de vista teórico quanto nas aplicações práticas da estatística. Ela foi estudada por Laplace no tratamento analítico de probabilidade e por Gauss nos erros acidentais. Por isso, é também conhecida por curva de Laplace-Gauss, curva normal de probabilidades, curva normal de erros ou distribuição gaussiana. Vale salientar que em uma distribuição normal: - a probabilidade de um valor singular é zero; - só há sentido em determinar probabilidade de intervalos. A probabilidade de a variável assumir valores no intervalo [x1, x2] corresponde à área sob a curva limitada por x1 e x2. f(x) →p(x1 ≤ x ≤ x2) µ x1 x2 x Os valores dessas áreas podem ser obtidos por integração, mas na prática são facilmente calculados por meio de uma tabela que fornece diretamente a área entre a média e determinado valor da variável. Em essência, trabalha-se com uma curva normalmente padronizada, onde a variável X é substituída pelo escore reduzido Z. onde: Z= X−µ Dp( X) em que µ é a média e Dp(X) o desvio padrão. Pode ser verificado que a variável reduzida Z possui média zero e desvio padrão um. A função de densidade para esta distribuição é dada por: f ( X) = 1 Dp( X) 2π x −µ − 0,5 Dp( X ) l 2 possuindo as características que se seguem: - f(X) é simétrica em relação à origem X = µ; - f(X) possui máximo para X = µ; - f(X) tende para zero quando X tende para + ∞ ou - ∞ ; - f(X) possui dois pontos de inflexão cujas abscissas valem µ + Dp(X) e µ - Dp(X). Exemplo: 8º-A distribuição de freqüência do período de internação no Hospital regional de Pau dos Ferros é em média µ = 4,6 dias com um desvio-padrão de 2,7 dias (medindo-se frações de dias). Qual a probabilidade de que um paciente escolhido aleatoriamente esteja internado: a) a mais de 3 dias? b) menos de 4 dias? Resolução: Sabemos que µ = 4,6 e DP(x) = 2,7. Fazendo X a variável Normal, tempo de internamento, Então: a) Z1 = 3 − 4 ,6 ≅ - 0,59 na tabela encontramos para Z = 0,59 o valor 0, 2224 logo 2 ,7 P (X > 3) = P (Z > 0, 59) = 0, 5 + 0, 2224 ≅ 72, 24% 4 − 4 ,6 ≅ - 0,22 na tabela encontramos para Z = 0,22 o valor 0, 0871 logo 2 ,7 P (X< 4) = P (Z < - 0,22) = 0,5 – 0,0871 = 0,4129 ≅ 41,29% b) Z2 = TEORIA DA AMOSTRAGEM NOÇÕES SOBRE AMOSTRAGEM POPULAÇÃO E AMOSTRAS: População ou Universo: É o grupo onde podemos extrair a amostra cujos elementos que compõem a população podem ser: Indivíduos, Firmas, Escolas, Preços, ou qualquer coisa que possa ser mensurada (medida), contada ou ordenada. Amostragem: É o conjunto de técnicas utilizadas par a seleção de uma amostra. Este conjunto de técnicas pode ser subdividida em dois grupos básicos: Amostragem aleatória e a Amostragem não aleatória. Amostragem Aleatória inclui técnicas como: 1 – Amostragem Aleatória simples: É aquela em que se atribui aos grupos de mesma quantidade de elementos a mesma probabilidade de participar da amostra. Em particular cada elemento da população tem a mesma probabilidade de participar da amostra. 2 – Amostragem Sistemática: Quando se conhece uma listagem dos elementos da população pode-se obter uma amostra aleatória de “n” elementos dividindo-se o número de elementos da população pelo tamanho da amostra. 3- Amostragem Estratificada: É aquela onde pode ocorrer que a população seja formada por subgrupos diferentes, mas cada um deles homogêneos. Neste caso, vamos selecionar aleatoriamente uma quantidade de cada grupo para formar a amostra, proporcional ao tamanho desse grupo. 4 – Amostragem por Conglomerados: É quando podemos identificar um grupo de elementos que tenham aproximadamente a mesma composição de população. Neste caso, pode ser interessante realizar a amostragem usando somente os elementos desse grupo. Amostragem não Aleatória inclui técnicas como: 1 – Amostragem Intencional: É aquela que ocorre quando o pesquisador seleciona intencionalmente (proposital) os componentes da amostra. 2 – Amostragem Voluntária: É quando o componente da população se oferece voluntariamente para participar da amostra independentemente do julgamento do pesquisador. Estas amostras não permitem o controle da variabilidade amostral, o que invibializa o controle da qualidade da estimação. DISTRIBUIÇÃO DE MÉDIAS AMOSTRAIS É uma distribuição de probabilidade que indica quão prováveis são diversas médias amostrais. A distribuição é função da média e do desvio padrão da população e do tamanho da amostra. Para cada combinação de média, desvio padrão e tamanho da amostra, haverá uma única distribuição de médias amostrais. MÉDIA AMOSTRAL: Sejam x1 , x 2 , ....., x n variáveis aleatórias para uma amostra de tamanho “n” tal como descrita anteriormente. Então, a média da amostra, ou a média amostral, é uma variável aleatória definida por: −− − X = Se − x1 , x 2 , ....., x n − x= − x1 + x 2 + ....... + x n n denotam valores obtidos numa determinada amostra é dada por x1 + x 2 + ..... + x n n Exemplo: Se uma amostra de tamanho 8 tem para valores 5; 8; 7; 9; 3; 6; 10; 2, então a média amostral é: − x= 5 + 8 + 7 + 9 + 3 + 6 + 10 + 2 50 = = 6,25 8 8 DISTRIBUIÇÃO AMOSTRAL DE MÉDIAS São importantes os seguintes teoremas: Teorema I – A média da distribuição amostral de médias, representada por µ− é dada por x − E ( x ) = µ− = µ µ , onde é a média da população. Podemos concluir que o valor esperado da média x amostral é a média da população. Teorema II – Se a população é infinita, ou se a amostragem é com reposição, então a variância da distribuição amostral de médias, representada por σ −2 σ −2 = é dada por x x σ2 n ; onde σ 2 é a variância da população. Teorema III – Se a população é finita e tem tamanho “N”, se a amostragem é sem reposição, e se o tamanho da amostra é n > 0,05 N , então o desvio-padrão do Teorema II será σ −= x σ n N −n , onde N −1 N −n é chamado fator de correção finita N −1 DISTRIBUIÇÃO AMOSTRAL DE PROPORÇÃO Seja uma população infinita binomialmente distribuída, com p e q = 1 – p representado respectivamente as probabilidades de determinado elemento acusa, ou não, certa propriedade P. Obtemos então uma distribuição amostral de proporções cuja média µp = P µ p e desvio-padrão σ p são dados por σ p= pq n = p(1− p ) n