Probabilidade e Estatística UNIVERSIDADE FEDERAL DA PARAÍBA Reitora MARGARETH DE FÁTIMA FORMIGA MELO DINIZ Vice-Reitor EDUARDO RAMALHO RABENHORST EDITORA DA UFPB Diretora IZABEL FRANÇA DE LIMA Vice-Diretor JOSÉ LUIZ DA SILVA Supervisão de Editoração ALMIR CORREIA DE VASCONCELLOS JÚNIOR Supervisão de Produção JOSÉ AUGUSTO DOS SANTOS FILHO CONSELHO EDITORIAL Prof Dr. Lucídio Cabral ..................................(UFPB) Prof Dr. Danielle Rousy..................................(UFPB) Prof. Ms. Eduardo de Santana Medeiros..........(UFPB) Andrea Vanessa Rocha Probabilidade e Estatística Editora da UFPB João Pessoa 2014 Capa - Projeto gráfico: Renato Arrais e Eduardo Santana Editoração eletrônica: Eduardo de Santana Medeiros Alexandre Catalogação na publicação Universidade Federal da Paraíba Biblioteca Setorial do CCEN R672p Rocha , Andrea Vanessa. Probabilidade e Estatística / Andrea Vanessa Rocha; editor: Eduardo de Santana Medeiros Alexandre. – João Pessoa: Editora da UFPB, 2014. - João Pessoa: Curso de Licenciatura em Computação na Modalidade à Distância / UFPB, Junho de 2014. 154. : il. – ISBN: XXX-XX-XXX-XXXX-X (PENDENTE) Curso de Licenciatura em Computação na Modalidade à Distância. Universidade Federal da Paraíba. 1. Estatística. 2. Teoria dos Conjuntos. 3. Probabilidade. 4. Variáveis Aleatórias. 5. Esperança de Variável. 5. Distribuições discretas. 6. Distribuições Contínuas. 7. Inferência estatística. I. Título. BS-CCEN Todos os direitos e responsabilidades dos autores. Este livro e sua versão mais recente pode ser baixado em: https://github.com/edusantana/estatistica-livro/releases/latest EDITORA DA UFPB Caixa Postal 5081 – Cidade Universitária João Pessoa – Paraíba – Brasil CEP: 58.051 – 970 http://www.editora.ufpb.br Impresso no Brasil Printed in Brazil CDU 519.2 Probabilidade e Estatística Probabilidade e Estatística i Probabilidade e Estatística Sumário 1 Estatística Descritiva 1 1.1 Conceitos Básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1 Definições importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Tabelas Estatísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Série Cronológica ou Temporal . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.2 Série Geográfica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.3 Série Específica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Distribuição de Frequência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3.1 Construção de uma distribuição de frequência . . . . . . . . . . . . . . . . . 4 Gráficos Estatísticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.1 Histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.2 Polígono de Frequência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.3 Gráfico de Linhas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.4 Gráfico de Colunas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.4.5 Gráfico em Barras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.4.6 Gráfico de Setores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Medidas de Posição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5.1 Média Aritmética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5.2 Moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.5.3 Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Medidas de Dispersão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.6.1 Amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6.2 Desvio Médio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.6.4 Desvio Padrão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.6.5 Coeficiente de Variação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.2 1.3 1.4 1.5 1.6 1.7 ii Probabilidade e Estatística 2 Teoria dos Conjuntos e Contagem 23 2.1 Teoria dos Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.1.1 Comparação entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.2 União de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.3 Interseção de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1.4 Diferença entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.1.5 Complementar de um conjunto . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.1.6 Propriedades entre as relações entre conjuntos . . . . . . . . . . . . . . . . . 27 Contagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 Regra da multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.2 Regra da adição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.3 Permutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.4 Arranjos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2.5 Combinações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2.6 Binômio de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2 2.3 3 4 Definições Básicas 33 3.1 Fundamentos de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2 Noções de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.3 Espaços Amostrais Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.4 Resultados Equiprováveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.5 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.5.1 Teorema da Multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.5.2 Teorema da Probabilidade Total . . . . . . . . . . . . . . . . . . . . . . . . 40 3.5.3 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.6 Eventos Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.7 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Variáveis Aleatórias e Suas Distribuições 46 4.1 Variáveis Aleatórias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.2 Variáveis Aleatórias Contínuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.3 Função de Distribuição Acumulada . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.4 Variáveis Aleatórias Mistas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.5 Funções de Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.6 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 iii Probabilidade e Estatística 5 6 Esperança de uma Variável Aleatória 60 5.1 Variáveis aleatórias independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.2 Esperança matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.3 Esperança de uma Função de Variável Aleatória . . . . . . . . . . . . . . . . . . . . 62 5.4 Propriedades da Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.5 Variância de uma variável aleatória . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.6 Propriedades da variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.7 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Principais Distribuições Discretas 71 6.1 A Distribuição Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.2 A Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 6.3 A Distribuição Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6.3.1 Perda de Memória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 A Distribuição Pascal (ou Binomial Negativa) . . . . . . . . . . . . . . . . . . . . . 78 6.4.1 Generalização do Binômio de Newton . . . . . . . . . . . . . . . . . . . . . 78 6.4.2 Distribuição Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 6.5 Distribuição Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 6.6 Distribuição Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 6.6.1 Aproximação da distribuição binomial pela Poisson . . . . . . . . . . . . . . 86 6.6.2 Distribuição Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 6.4 6.7 7 Principais Distribuições Contínuas 92 7.1 Distribuição Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 7.2 A Distribuição Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.2.1 Padronização e Tabulação da Distribuição Normal . . . . . . . . . . . . . . 94 7.2.2 Aproximação da Distribuição Binomial pela Normal . . . . . . . . . . . . . 96 A Distribuição Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 7.3.1 99 7.3 7.4 7.5 Perda de Memória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Distribuição Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 7.4.1 A Função Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 7.4.2 Distribuição Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 iv Probabilidade e Estatística 8 Introdução à Inferência Estatística 8.1 Definições Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 8.2 Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 8.3 8.4 8.2.1 Tipos de Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 8.2.2 Distribuição Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 8.2.2.1 Distribuição Amostral da Média . . . . . . . . . . . . . . . . . . . 107 8.2.2.2 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . 108 8.2.2.3 Distribuição Amostral da Proporção . . . . . . . . . . . . . . . . 109 8.2.2.4 Distribuição Amostral da Diferença entre Médias . . . . . . . . . 110 8.2.2.5 Distribuição Amostral da Diferença entre Proporções . . . . . . . 110 Inferência Estatística . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 8.3.1 Estimação Pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 8.3.2 Propriedades dos Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . 111 8.3.3 Alguns Estimadores Pontuais Importantes . . . . . . . . . . . . . . . . . . . 112 8.3.3.1 Estimador para a Média . . . . . . . . . . . . . . . . . . . . . . . 112 8.3.3.2 Estimador para a Variância . . . . . . . . . . . . . . . . . . . . . 113 8.3.3.3 Estimador para a Proporção . . . . . . . . . . . . . . . . . . . . . 113 8.3.4 Estimação Intervalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 8.3.5 Intervalo de Confiança para a Média . . . . . . . . . . . . . . . . . . . . . . 114 8.3.6 Intervalo de Confiança para a Proporção . . . . . . . . . . . . . . . . . . . . 115 8.3.7 Intervalo de Confiança para a Diferença de Médias . . . . . . . . . . . . . . 115 Regressão e Correlação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 8.4.1 8.4.2 Correlação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 8.4.1.1 Diagrama de Dispersão . . . . . . . . . . . . . . . . . . . . . . . 117 8.4.1.2 Coeficiente de Correlação de Pearson . . . . . . . . . . . . . . . . 119 Regressão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 8.4.2.1 8.5 9 104 O Poder Explicativo do Modelo . . . . . . . . . . . . . . . . . . . 123 Atividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 Respostas das Atividades 128 9.1 Capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 9.2 Capítulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 9.3 Capítulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 9.4 Capítulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 9.5 Capítulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 9.6 Capítulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 9.7 Capítulo 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 9.8 Capítulo 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 v Probabilidade e Estatística A Apêndice - Tabela da Distribuição Normal 135 10 Índice Remissivo 137 vi Probabilidade e Estatística Prefácio Este livro foi desenvolvido para a introdução do tema Probabilidade e Estatística, não tendo a ambição de englobar toda esta vasta área do conhecimento humano. Probabilidade e Estatística são as áreas do conhecimento humano que lidam com a incerteza. Ambas lidam com experimentos em que existe alguma variável (ou variáveis) que não temos controle, e portanto, mesmo mantendo as mesmas condições, um experimento pode fornecer vários resultados diferentes. Probabilidade e Estatística podem ser vistas como ciências inversas. Quando se estuda probabilidade, conhecemos o modelo em estudo completamente, e estamos interessados em saber como os resultados do experimento se comportam (por exemplo, saber qual a probabilidade de sair um resultado específico). Já na estatística, temos um conjunto de dados, mas não sabemos qual o modelo probabilístico que gerou estes dados, e portanto, tenta-se descobrir, a partir destes dados, qual o modelo probabilístico que gerou estes dados. Fenômenos aleatórios estão cada vez mais presentes em nossas vidas, e cada vez mais estamos interessados em tentar entender estes fenômenos. Gráficos estatísticos estão cada vez mais presentes em notícias, e é importante saber interpretar esses gráficos corretamente. Quando vemos os resultados de uma pesquisa eleitoral, é bom sabermos interpretar o seu significado, etc.. Vale a pena citar também que ferramentas estatísticas são utilizadas pelos bancos, para definir o rendimento em fundos de investimento ou poupança, também são utilizadas pelas seguradoras para definir qual o valor do seguro que você tem que pagar (na prática eles calculam o seu risco), etc.. Para um aluno, probabilidade e estatística podem ser úteis da seguinte forma: i) são úteis para realizar pesquisa científica; ii) são úteis caso o aluno queira trabalhar em banco, seguradora, montadoras, instituições financeiras em geral, controle de qualidade da produção de algum item, etc..; iii) são úteis no dia-a-dia. Finalizamos essa primeira parte do prefácio mostrando um exemplo de como a probabilidade pode mostrar como a nossa intuição nos engana. Suponha que temos uma sala com 50 pessoas. Qual a probabilidade de que pelo menos duas delas façam aniversário no mesmo dia do ano? Quando falamos dia do ano, estamos falando dia e mês, não apenas dia. Temos 365 dias (vamos desconsiderar o ano bissexto) e 50 pessoas. A intuição nos diz que essa probabilidade não deve ser muito grande. Entretanto, esta probabilidade é de 97%! Público alvo O público alvo desse livro são os alunos de Licenciatura em Computação, na modalidade à distância 1 . Ele foi concebido para ser utilizado numa disciplina de Probabilidade e Estatística. 1 Embora ele tenha sido feito para atender aos alunos da Universidade Federal da Paraíba, o seu uso não se restringe a esta universidade, podendo ser adotado por outras universidades do sistema UAB. vii Probabilidade e Estatística Como você deve estudar cada capítulo • Leia a visão geral do capítulo • Estude os conteúdos das seções • Realize as atividades no final do capítulo • Verifique se você atingiu os objetivos do capítulo NA SALA DE AULA DO CURSO • Tire dúvidas e discuta sobre as atividades do livro com outros integrantes do curso • Leia materiais complementares eventualmente disponibilizados • Realize as atividades propostas pelo professor da disciplina Caixas de diálogo Nesta seção apresentamos as caixas de diálogo que poderão ser utilizadas durante o texto. Confira os significados delas. Nota Esta caixa é utilizada para realizar alguma reflexão. Dica Esta caixa é utilizada quando desejamos remeter a materiais complementares. Importante Esta caixa é utilizada para chamar atenção sobre algo importante. Cuidado Esta caixa é utilizada para alertar sobre algo que exige cautela. Atenção Esta caixa é utilizada para alertar sobre algo potencialmente perigoso. Os significados das caixas são apenas uma referência, podendo ser adaptados conforme as intenções dos autores. viii Probabilidade e Estatística Contribuindo com o livro Você pode contribuir com a atualização e correção deste livro. A tabela a seguir resume os métodos de contribuições disponíveis: Tabela 1: Métodos para contribuição do livro Método de contribuição Habilidades necessárias Descrição • Inscrição no site do github Consiste em acessar o repositório do livro e submeter um erro, uma sugestão ou uma crítica — através da criação de um Issue. Quando providências forem tomadas você será notificado disso. Issue track • Preenchimento de um formulário Submissão de correção • Realizar fork de projetos • Atualizar texto do livro Consiste em acessar os arquivos fontes do livro, realizar a correção desejada e submetê-la para avaliação. Este processo é o mesmo utilizado na produção de softwares livres. • Realizar PullRequest Importante Quando for enviar sua contribuição lembre-se de informar qual a versão e página do livro que está se referindo. Contribuição através do Issue track Para contribuir com um erro, sugestão ou crítica através de um envio de uma mensagem acesse: https://github.com/edusantana/estatistica-livro/issues/new ix Probabilidade e Estatística Figura 1: Exemplo de contribuição através do Issue track Atividades No final de cada capítulo há uma seção Atividades com exercícios para serem resolvidos. O significado dos ícones relativos aos exercícios são: Resposta disponível a reposta do exercício se encontra disponível no Capítulo 9 [128]. Nota Você pode contribuir enviando respostas ou soluções dos exercícios. Baixando a edição mais nova deste livro Nós estamos constantemente atualizando o nosso material didático. Todas as versões deste livro encontram-se disponíveis para download. Dica Acesse https://github.com/edusantana/estatistica-livro/releases para baixar a versão mais nova deste livro. x Probabilidade e Estatística Capítulo 1 Estatística Descritiva O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Conhecer os conceitos básicos da estatística e, principalmente, a diferença entre população e amostra • Construir uma tabela estatística • Conhecer os tipos de variáveis estatísticas • Construir um histograma • Identificar e entender o significado dos gráficos estatísticos • Conhecer e saber calcular as principais medidas de posição • Conhecer e saber calcular as principais medidas de dispersão 1.1 Conceitos Básicos A Estatística é a ciência voltada para a construção de técnicas e métodos que permitem tomar decisões nos mais deferentes setores do conhecimento. O que hoje se conhece por Estatística, é justamente esse conjunto de ferramentas de pesquisa que envolve, entre outros, o planejamento do experimento a ser realizado, a coleta qualificada dos dados, os processos de inferência estatística, bem como a análise e o processamento das informações coletadas. 1.1.1 Definições importantes Na estatística temos algumas definições importantes: • População: Qualquer conjunto de informação que tenha entre si uma característica comum que delimite os elementos pertencentes a ela. • Amostra: É um subconjunto de elementos pertencentes a uma população. • Variável: Dados referêntes a uma característica de interesse, coletados a partir de uma amostra. • Censo: Exame de todos os elementos da população. 1 / 140 Probabilidade e Estatística Amostra População Figura 1.1: População e Amostra Variável Figura 1.2: Exemplo de variável Temos dois tipos de variáveis: Qualitativa Nominal : sexo, cor dos olhos. Ordinal : classe social, grau de instrução. Quantitativa Discreta : número de filhos. Continua : altura, peso, salário. 2 / 140 Probabilidade e Estatística 1.2 Tabelas Estatísticas Na estatística é fundamental aprendermos a representar os dados que serão analisados por meio de tabelas. Uma tabela deve apresentar a seguinte estrutura: • Cabeçalho; • Corpo; • Rodapé. O cabeçalho deve conter o suficiente para que sejam respondidas as questões: • O que está representado? • Onde ocorreu? • Quando ocorreu? Além disso, a tabela é um quadro que resume um conjunto de dados dispostos segundo linhas e colunas de maneira sistemática. 1.2.1 Série Cronológica ou Temporal Um exemplo muito comum e muito útil de tabela é dado pelas séries temporais. Uma série temporal consiste em uma sequência numérica cujos valores variam com o tempo. Abaixo vemos como inserir os dados de uma série temporal em uma tabela: Vendas da Companhia Alfa: 2007-2009 Anos 2007 2008 2009 Vendas em R$ 1.000,00 11.425 18.258 15.798 Fonte: Departamento de Marketing. 1.2.2 Série Geográfica Muitas vezes o dado de interesse pode depender a posição geográfica de onde foram coletados. Assim, uma série geográfica consiste em uma sequência numérica obtidas em diferentes regiões em um determinado instante do tempo. Empresas Fiscalizadas em 2008 Regiões Norte Nordeste Sudeste Sul Centro-Oeste Número de Empresas 11.425 18.258 28.157 15.798 9.236 Fonte: Mensário Estatístico. 3 / 140 Probabilidade e Estatística 1.2.3 Série Específica Uma série importante é formada por dados agrupados por alguma espécie ou característica comum. Assim, uma série específica é uma série numérica agrupada por tipo. Temos o exemplo abaixo: Matrículas na Pós-graduação da UFPB - 2008 Áreas de Ensino Ciências Biológicas Ciências Exatas e Tecnologia Ciências Humanas Matrículas 125 158 128 Fonte: Serviço de Educação e Cultura. 1.3 Distribuição de Frequência Uma distribuição de frequência é uma tabela que contém um resumo dos dados obtido em uma amostra. A distribuição é organizada em formato de tabela, e cada entrada da tabela contém a frequência dos dados em um determinado intervalo, ou em um grupo. Abaixo vemos um exemplo simplificado de tabela de distribuição de frequência: Altura dos Alunos da UFPB - 2008 Alturas em metros 1,50 |− 1,60 1,60 |− 1,70 1,70 |− 1,80 1,80 |− 1,90 Número dos Alunos 5 15 17 3 Fonte: Serviço de Saúde. Na próxima subseção aprenderemos a construir uma distribuição de frequência completa. 1.3.1 Construção de uma distribuição de frequência Para ilustrar como se constrói uma distribuição de frequência, nós vamos considerar um exemplo específico. Assim, suponha que uma pesquisa foi feita, e o seguinte conjunto de dados foi obtido: • Dados Brutos: 24-23-22-28-35-21-23-33-34-24-21-25-36-26-22-30-32-25-26-33-34-21-31-25-31-26-25-35-33-31. A primeira coisa que fazemos é ordenar os dados do menor para o maior, formando o rol de dados: • Rol de dados: 21-21-21-22-22-23-23-24-25-25-25-25-26-26-26-28-30-31-31-31-32-33-33-33-34-34-34-35-35-36. Em seguida, calculamos a amplitude total, ou seja, o maior valor obtido na amostra subtraído do menor valor obtido na amostra: 4 / 140 Probabilidade e Estatística • Amplitude Total R: R = 36 − 21 = 15. Vamos agora definir as variáveis de interesse, ou seja, para cada valor distinto obtido na amostra, atribuiremos uma variável diferente: • Variável Xi : X1 = 21, X2 = 22, X3 = 23, X4 = 24, etc. O próximo passo é calcular a frequência absoluta das variáveis, ou seja, vamos calcular quantas vezes cada valor aparece na sequência. Por exemplo, o valor 21 aparece 3 vezes, o valor 22 aparece 2 vezes, etc.. Assim, obtemos: • Frequência Absoluta Fi F1 = 3, F2 = 2, F3 = 2, F4 = 1, etc. Vamos calcular, agora, o tamanho amostral, ou seja, o número de observações obtidas na amostra. Desta forma, temos: • Tamanho Amostral n: n = 30. Queremos, agora, dividir a amostra em uma quantidade de grupos que formarão os intervalos. Cada grupo é chamado de classe, assim, queremos definir o número de classes a ser considerado na tabela de distribuição de frequência: • Número de Classes K: – K = 5 para n ≤ 25 e K ≈ √ n, para n > 25. – Fórmula de Sturges K ≈ 1 + 3, 22 log n. √ Logo, pela primeira regra temos K = 30 ≈ 5, 48 ≈ 6, e pela segunda regra K ≈ 1 + 3, 22 log 30 ≈ 5, 75 ≈ 6. Desta forma, em ambos os casos temos K = 6, que será o valor considerado. O próximo passo é saber o comprimento de cada intervalo a ser considerado, ou seja, calcular a amplitude de cada classe. Queremos que todas as classes tenham a mesma amplitude e portanto, temos: • Amplitude das Classes h: h= Daí, para o nosso caso, h = 15 6 R . K = 2, 5 ≈ 3. Vamos agora definir os limites das classes. Ou seja, definir os intervalos propriamente ditos. Para tanto, começamos com o menor valor obtido da amostra, ou equivalentemente, o primeiro valor do rol de dados, e vamos somando a amplitude para definir cada limite de intervalo: 5 / 140 Probabilidade e Estatística • Limites das Classes: 21|− 24 24|− 27 27|− 30 30|− 33 33|− 36 36|− 39 Em seguida, calculamos os pontos médios das classes, que nada mais é que a média aritmética entre os limites das classes: • Pontos Médios das Classes pmi : pm1 = 21 + 24 = 22, 5, 2 pm2 = 24 + 27 = 25, 5, 2 , etc. Agora, calculamos as frequências dos dados em cada intervalo e, chamada de frequência absoluta, e também a frequência acumulada, chamada de frequência absoluta acumulada, que considera a soma das frequências dos intervalos anteriores até o intervalo considerado: • Frequência Absoluta Acumulada Fac : Classes 21|− 24 24|− 27 27|− 30 30|− 33 33|− 36 36|− 39 Total pmi 22,5 25,5 28,5 31,5 34,5 37,5 - Fi 7 8 2 4 8 1 30 Fac 7 15 17 21 29 30 - Em seguida, inclui-se as frequências relativas dos dados, ou seja, para cada intervalo calcula-se fi = Fi /n. A frequência relativa, nos informa a proporção dos dados que pertencem a um determinado intervalo. • Frequência Relativa fi : Classes 21|− 24 24|− 27 27|− 30 30|− 33 33|− 36 36|− 39 Total pmi 22,5 25,5 28,5 31,5 34,5 37,5 - Fi 7 8 2 4 8 1 30 Fac 7 15 17 21 29 30 - fi 0,23 0,27 0,07 0,13 0,27 0,03 1,00 Para finalizar, calculamos a frequência acumulada relativa, ou seja, calculamos para cada intervalo fac = Fac /n: 6 / 140 Probabilidade e Estatística • Frequência Relativa Acumulada fac : Classes 21|− 24 24|− 27 27|− 30 30|− 33 33|− 36 36|− 39 Total 1.4 1.4.1 pmi 22,5 25,5 28,5 31,5 34,5 37,5 - Fi 7 8 2 4 8 1 30 Fac 7 15 17 21 29 30 - fi 0,23 0,27 0,07 0,13 0,27 0,03 1,00 fac 0,23 0,50 0,57 0,70 0,97 1,00 - Gráficos Estatísticos Histograma O histograma é uma representação gráfica da distribuição de frequência. O histograma é formado por uma justaposição de retângulos de bases com mesmo comprimento. O comprimento da base é justamente a amplitude do intervalo e a altura do retângulo é dada pela frequência absoluta do intervalo. Assim, uma vez feita a distribuição de frequência, a construção do histograma é uma tarefa muito simples. 2 0 1 Fi 3 4 Abaixo vemos um exemplo de histograma: 0 5 10 15 20 25 30 35 Classes Figura 1.3: Histograma 1.4.2 Polígono de Frequência O polígono de frequência é uma representação gráfica obtida após ligar os pontos médios de cada classe entre si. Se já tivermos um histograma, basta ligar os pontos médios das bases superiores dos retângulos. 7 / 140 Probabilidade e Estatística 4 0 2 Fi 6 8 Abaixo vemos um exemplo de polígono de frequência obtido a partir de um histograma: 5 10 15 20 Classes Figura 1.4: Polígono de Frequência Obtido a Partir de um Histograma 4 0 2 Fi 6 8 Abaixo vemos um exemplo contendo apenas o polígono de frequência: 6 8 10 12 14 16 18 Classes Figura 1.5: Polígono de Frequência Obtido a Partir de um Histograma 1.4.3 Gráfico de Linhas Suponha que temos duas variáveis, por exemplo, podemos ter os dados de uma série temporal, donde uma variável seria o valor obtido, e a outra variável seria a data em que o valor foi obtido. Outra 8 / 140 Probabilidade e Estatística possibilidade seria colocar dados de uma série geográfica, onde uma variável seria formada pelos dados e a outra seria a localização geográfica. O gráfico de linhas então é formado construindo pontos no plano (a partir das duas variáveis) e, em seguida, estes pontos são ligados por segmentos de retas. 60 0 20 −40 Rendimento 100 Abaixo vemos um exemplo de gráfico de linhas de uma série temporal 2006 2008 2010 2012 2014 Período Figura 1.6: Gráfico de linhas 1.4.4 Gráfico de Colunas Um gráfico de colunas é formado por uma coleção de colunas, com bases de mesmo comprimento, e igualmente espaçados. O eixo horizontal do gráfico consiste das diferentes categorias consideradas, e o eixo vertical é proporcional ao valor do dado. Abaixo vemos um exemplo de gráfico de colunas: 9 / 140 Probabilidade e Estatística 0 2 4 6 8 10 14 Pessoas por categoria 3 4 5 Categorias Figura 1.7: Gráfico de colunas 1.4.5 Gráfico em Barras O gráfico em barras pode ser entendido como uma variação do gráfico de colunas. De fato, o gráfico em barras é formado por uma coleção de barras, de mesma altura e igualmente espaçadas. Entretanto, neste caso o eixo vertical representa as diferentes categorias consideradas e o eixo horizontal é proporcional ao valor dado. Abaixo vemos um exemplo de gráfico em barras: Baixa Média Alta Pessoas por classe 0 2 4 6 8 10 Figura 1.8: Gráfico em barras 10 / 140 12 14 Probabilidade e Estatística 1.4.6 Gráfico de Setores O gráfico de setores, que também é popularmente conhecido como gráfico pizza, é um gráfico em que um círculo é dividido em setores (que podem ser pensados como as fatias da pizza), onde cada setor representa uma categoria considerada pelo conjunto de dados, e os ângulos dos setores são proporcionais aos valores dos dados em cada categoria. Assim, quanto maior o valor obtido, maior será o ângulo do setor (e assim, maior será a fatia da pizza). Abaixo vemos um exemplo de gráfico de setores: Sudeste Centro−Oeste Sul Nordeste Norte Figura 1.9: Gráfico de setores 1.5 Medidas de Posição As medidas de posição são valores que representam a tendência de concentração dos dados observados. As mais importantes são as medidas de tendência central. As três medidas de tendência central mais utilizadas são: média aritmética, moda e mediana. 1.5.1 Média Aritmética É um valor que representa uma característica do conjunto de dados. Essa característica é tal que a soma dos dados é preservada. A média é obtida a partir de todos os elementos da distribuição e do tamanho da amostra n. Notação: representamos a média de um conjunto de dados por X (lê-se x barra). Cálculo da Média Aritmética + • Dados não agrupados (brutos) - média aritmética simples. 11 / 140 Probabilidade e Estatística No caso de uma lista de dados não-agrupados, calculamos a média aritmética pela fórmula: n Xi . i=1 n X=∑ Exemplo 1.1 Exemplo de cálculo de média aritmética com dados brutos Considere os dados 2, 3, 7 e 8. Então, n = 4 e X= 2 + 3 + 7 + 8 20 = = 5. 4 4 • Dados agrupados - média aritmética ponderada. No caso em que temos os dados agrupados, ou seja, sabemos a frequência de cada observação, o cálculo da média aritmética pode ser simplificado. Assim, a média aritmética pode ser cálculada pela fórmula: n Xi · Fi X=∑ . i=1 n Exemplo 1.2 Exemplo de cálculo de média aritmética ponderada Considere a seguinte tabela: Tempo de Serviço (Xi ) 4 6 8 Total Assim, X = 122 18 Fi 3 5 10 18 Xi · Fi 12 30 80 122 = 6, 78. • Dados agrupados em intervalos - média aritmética ponderada No caso em que temos os dados agrupados em intervalos, utilizamos a média aritmética ponderada, onde os pesos são dados pelo ponto médio do intervalo. Assim, a média aritmética é calculada pela fórmula: n Xi · pmi X=∑ , n i=1 Exemplo 1.3 Exemplo de cálculo de médias com dados agrupados em intervalos Considere a seguinte tabela: Anos (Xi ) Fi pmi Xi · pmi 0`4 4 2 8 10 6 60 4`8 8 ` 12 7 10 70 Total 21 138 Assim, X = 138 21 = 6, 57. 12 / 140 Probabilidade e Estatística 1.5.2 Moda Definimos a moda de um conjunto de dados como o valor mais frequente deste conjunto. Notação: representamos a moda de um conjunto de dados por Mo. Exemplo 1.4 Exemplo de modas • 1, 2, 4, 5 e 8 - não existe valor mais frequente - não existe moda (Amodal). • 2, 2, 3, 7 e 8 - Mo = 2 (Unimodal). • 1, 1, 10, 5, 5, 8, 7, 2 - Mo = 1 e 5 (Bimodal). • Dados agrupados - Neste caso, a moda é definida como “classe modal”, isto é, a classe com a maior frequencia. Exemplo 1.5 Exemplo de cálculo de classe modal Considere a seguinte tabela: Tempo de Serviço (Xi ) 4 6 8 Total Fi 3 5 10 18 Assim, Mo = 8 (F3 ). • Dados agrupados em intervalos: Neste caso, utiliza-se a fórmula de Czuber: h(FMo − Fant ) Mo = lMo + , 2FMo − (Fant + FPos ) onde: • h é a amplitude intervalar, • FMo é a frequência da classe modal, • lMo é o limite inferior da classe modal, • Fant é a frequência da classe anterior à classe modal, • FPos é a frequência da classe posterior à classe modal. 13 / 140 Probabilidade e Estatística Exemplo 1.6 Exemplo de cálculo de moda pela fórmula de Czuber Considere a seguinte tabela: Anos (Xi ) Fi 0`4 4 4`8 10 7 8 ` 12 Total 21 Assim, h = 4, FMo = 10, lMo = 4, Fant = 4 e Fpos = 7. Daí 4 · (10 − 4) = 6, 67. Mo = 4 + 2 · 10 − (4 + 7) 1.5.3 Mediana Definimos a mediana de um conjunto de dados como o valor que divide um conjunto de dados (ordenados) em duas partes com a mesma quantidade de dados. Notação: representamos a mediana de um conjunto de dados por Md. O elemento mediano (EMd ) aponta o local (nos dados) onde a mediana está localizada. A mediana será o valor assumido na posição EMd . • Dados não agrupados (brutos) – No caso de dados brutos, se o tamanho amostral (n) é ímpar, temos que EMd = (n + 1)/2. – Note que no caso tamanho amostral é par, teremos dois valores possíveis para o elemento mediano: n/2 e n/2 + 1. Neste caso a mediana será a média dos valores assumidos nestas posições. Exemplo 1.7 Exemplo de cálculo de mediana para dados brutos • 1, 2, 4, 5 e 8. Como n é ímpar, temos EMd = 3, e Md = 4. • 2, 2, 3, 7, 8 e 10. Aqui n é par, assim EMd,1 = 6/2 = 3 e EMd,2 = 6/2 + 1 = 4. Daí Md = (3 + 7)/2 = 5. • Dados agrupados Neste caso, olhar a frequência acumulada ajuda a encontrar a médiana. • Caso 1: n ímpar. 14 / 140 Probabilidade e Estatística Exemplo 1.8 Exemplo de cálculo de mediana com dados agrupados para n ímpar Considere a seguinte tabela:\vfill Faltas (Xi ) Fi Fac 2 1 1 3 7 8 3 11 4 Total 11 Como n = 11, temos que EMd = (11 + 1)/2 = 6. Daí Md = 3. Note que a frequência acumulada indica que nas posições de 2 até 8 temos o valor 3. • Caso 2: n par. Exemplo 1.9 Exemplo de cálculo de mediana com dados agrupados para n par Considere a seguinte tabela: Tempo de Serviço (Xi ) 4 6 8 Total Fi 3 5 10 18 Fac 3 8 18 Neste caso n = 18, daí temos EMd,1 = 18/2 = 9 e EMd,2 = 18/2 + 1 = 10. Portanto Md = (8 + 8)/2 = 8. Note, novamente, que a frequência acumulada indica que nas posições de 9 até 18 temos o valor 8. • Dados agrupados em intervalos Neste caso, utilizamos EMd = n/2 independentemente de n ser par ou ímpar. A classe mediana é a primeira classe tal que Fac ≥ EMd . Portanto, definimos a mediana pela fórmula EMd − Fac,ant Md = lMd + h · , FMd onde, • lMd é o limite inferior da classe mediana, • h é a amplitude do intervalo, • Fac,ant é a frequência acumulada da classe anterior à classe mediana, • FMd é a frequência da classe mediana. 15 / 140 Probabilidade e Estatística Exemplo 1.10 Exemplo do cálculo da mediana para dados agrupados em intervalos Considere a seguinte tabela: Anos (Xi ) Fi Fac 0`4 4 4 4`8 10 14 7 21 8 ` 12 Total 21 Assim, EMd = 21/2 = 10, 5, e desta forma temos que a segunda classe é a classe mediana. Daí lMd = 4, h = 4, Fac,ant = 4 e FMd = 10. Portanto, 10, 5 − 4 = 6, 6. Md = 4 + 4 · 10 1.6 Medidas de Dispersão • As medidas de dispersão medem o grau de variabilidade dos elementos de uma distribuição; • O valor zero indica ausência de dispersão; • A dispersão aumenta à medida que aumenta o valor da medida de dispersão. Exemplo 1.11 Exemplo de motivação para as medidas de dispersão Notas de alunos em cinco avaliações, UFPB, 2009. Alunos Antônio João José Pedro 5 6 10 10 5 4 5 10 Notas 5 5 5 5 4 6 5 5 0 5 0 0 Média 5 5 5 5 Observa-se que: * As notas de Antônio não variaram; • As notas de João variaram menos do que as notas de José; • As notas de Pedro variaram mais do que as notas de todos os outros alunos. Principais Medidas de Dispersão: • Amplitude, • Desvio Médio, • Variância, • Desvio Padrão, • Coeficiente de Variação. 16 / 140 Probabilidade e Estatística 1.6.1 Amplitude A amplitude nos fornece uma idéia do campo de variação dos elementos. Mais precisamente, ela fornece a maior variação possível dos dados. A amplitude é dada pela fórmula A = Xmax − Xmin . Exemplo 1.12 Exemplo de cálculo de amplitude No exemplo anterior: AAntônio = 0; AJoão = 2; AJosé = 10; APedro = 10. Nota A amplitude não mede bem a dispersão dos dados porque, usam-se apenas os valores extremos, ao invés de utilizar todos os elementos da distribuição. 1.6.2 Desvio Médio Desejando-se medir a dispersão dos dados em relação a média, parece interessante a análise dos desvios em torno da média. Isto é, análise dos desvios: di = (Xi − X). Mas a soma de todos os desvios é igual a zero. Isto é: n n ∑ di = ∑ (Xi − X) = 0. i=1 i=1 Logo, será preciso encontrar uma maneira de se trabalhar com os desvios sem que a soma dê zero. Dessa forma, define-se o desvio médio. • Dados não agrupados (brutos): Neste caso, calculamos o desvio médio como: n |di | |Xi − X| =∑ . n i=1 n i=1 n DM = ∑ Nota Veja que os desvios foram considerados em módulo, evitando-se assim que a soma fosse nula. • Dados agrupados: 17 / 140 Probabilidade e Estatística n |Xi − X| · Fi |di | · Fi =∑ . n n i=1 i=1 n DM = ∑ Nota Xi representa um valor individual, no caso de uma distribuição de frequência simples, ou o ponto médio da classe ( pmi ), no caso de uma distribuição de frequência em classes. Importante • O desvio médio é mais vantajoso que a amplitude, visto que leva em consideração todos os valores da distribuição. • No entanto, não é tão frequentemente empregado, pois não apresenta propriedades matemáticas interessantes. 1.6.3 Variância A variância é a medida de dispersão mais utilizada. É o quociente entre a soma dos quadrados dos desvios e o número de elementos. Assim, temos a seguinte definição de variância populacional: • Dados não agrupados - (brutos): Neste caso, a variância é dada pela fórmula: N di2 (Xi − X)2 =∑ . N N i=1 i=1 N σ2 = ∑ • Dados agrupados: Aqui, podemos utilizar a frequência para simplificar a fórmula: N N di2 · Fi (Xi − X)2 · Fi σ =∑ =∑ . N i=1 N i=1 2 Nota σ 2 indica a variância populacional e lê-se sigma ao quadrado ou sigma dois. Neste caso, X e N da formúla representam a média populacional e o tamanho populacional, respectivamente. Temos ainda a seguinte definição de variância amostral: • Dados não agrupados - (brutos): Neste caso, a fórmula é dada por n n di2 (Xi − X)2 =∑ i=1 n − 1 i=1 n − 1 S2 = ∑ 18 / 140 Probabilidade e Estatística • Dados agrupados: Podemos, novamente, utilizar as frequências para simplificar a fórmula: n n di2 · Fi (Xi − X)2 · Fi =∑ . n−1 i=1 n − 1 i=1 S2 = ∑ Nota Xi representa um valor individual, no caso de uma distribuição de frequência simples, ou o ponto médio da classe ( pmi ), no caso de uma distribuição de frequência em classes. Importante Fórmulas práticas para os cálculos das variâncias são dadas a seguir: 2i (∑N 1h N 2 i=1 Xi · Fi ) σ = ∑ Xi · Fi − N i=1 N 2 ou (∑ni=1 Xi · Fi )2 i 1 h n 2 S = ∑ Xi · Fi − n − 1 i=1 n 2 que foram obtidas por transformações nas respecitivas fórmulas originais. 1.6.4 Desvio Padrão Temos também outra medida de dispersão, que é a raiz quadrada da variância, chamada de desvio padrão. Assim, √ σ = σ 2 é o desvio desvio padrão populacional e S= √ S2 é o desvio desvio padrão amostral. Nota Para o cálculo do desvio padrão deve-se primeiramente determinar o valor da variância e, em seguida, extrair a raiz quadrada desse resultado. Exemplo 1.13 Exemplo de cálculo das medidas de dispersão Calcular a amplitude, o desvio médio, a variância e o desvio padrão da seguinte distribuição amostral: Xi 5 7 8 9 11 Total Fi 2 3 5 4 2 16 19 / 140 Probabilidade e Estatística • Cálculo da amplitude: A = Xmax − Xmin = 11 − 5 = 6. • Cálculo do desvio médio: Primeiramente é preciso do valor da média. Assim, Xi 5 7 8 9 11 Total Fi 2 3 5 4 2 16 Xi · Fi 10 21 40 36 22 129 n Xi · Fi 129 = = 8, 06. 16 i=1 n X=∑ Para o cálculo do DM são abertas novas colunas: Xi 5 7 8 9 11 Total Fi 2 3 5 4 2 16 Xi · Fi 10 21 40 36 22 129 Portanto, |Xi − X| = |di | |5 − 8, 06| = 3, 06 |7 − 8, 06| = 1, 06 |8 − 8, 06| = 0, 06 |9 − 8, 06| = 0, 94 |11 − 8, 06| = 2, 94 - |di | · Fi 6,12 3,18 0,30 3,76 5,88 19,24 n |di | 19, 24 = = 1, 20. 16 i=1 n DM = ∑ • Cálculo do variância amostral: Observe que o cálculo será facilitado, pois sabe-se que: n = 16; ∑ Xi · Fi = 129. Resta encontrar ∑ Xi2 · Fi . Para tanto, uma nova coluna é considerada na tabela. Xi 5 7 8 9 11 Total Fi 2 3 5 4 2 16 Xi · Fi 10 21 40 36 22 129 Portanto, Xi2 · Fi 50 147 320 324 242 1083 (∑ni=1 Xi · Fi )2 i 1 h n 2 = ∑ Xi · Fi − n − 1 i=1 n h i 2 1 (129) 1h 16641 i = 1083 − = 1083 − 16 h− 1 16i 15 16 1 17328 − 16641 687 = = 2, 86. = 15 16 15 · 16 Logo, a variância amostral S2 = 2, 86. S2 20 / 140 Probabilidade e Estatística • Cálculo do desvio padrão amostral: √ √ Como S = S2 , logo S = 2, 86 = 1, 69. Dessa forma, podemos observar que a distribuição possui média 8, 06. Isto é, seus valores estão em torno de 8, 06 e seu grau de concentração é de 1, 2, medido pelo desvio médio e de 1, 69, medido pelo desvio padrão. 1.6.5 Coeficiente de Variação Trata-se de uma medida relativa de dispersão útil para a comparação em termos relativos do grau de concentração em torno da média de séries distintas. É dado por CV = S × 100. X onde, S é o desvio padrão amostral e X é a média amostral. O coeficiente de variação é expresso em porcentagens. Exemplo 1.14 Exemplo de cálculo do coeficiente de variação Numa empresa, o salário médio dos homens é de R$ 4.000,00, com desvio padrão de R$ 1.500,00, e o das mulheres é em média de R$ 3.000,00, com um desvio padrão de R$ 1.200,00. Então: • Para os homens: CV = 1.500 × 100 = 37, 5%. 4.000 • Para as mulheres: 1.200 × 100 = 40%. 3.000 Logo, podemos concluir que os salários da mulheres apresenta maior dispersão relativa do que o dos homens. CV = Diz-se que a distribuição possui pequena variabilidade, ou dispersão, quando o coeficiente der até 10%; média dispersão quando estiver acima de 10% até 20%; e grande dispersão quando superar 20%. Alguns analistas consideram: • Baixa dispersão: CV ≤ 15%; • Média dispersão: 15% < CV < 30%; 1.7 Atividades 1. Em um estado, foram pedidos para 35 empresas os números de empregados demitidos no ano de 2013. Os resultados informados pelas empresas estão dados abaixo: 35-30-30-45-41-48-64-41-47-56-43-36-45-40-33-49-37-34-56 40-41-37-45-48-34-52-25-53-41-38-41-37-45-35-41. a) Construa uma tabela de distribuição de frequência para estes dados. 21 / 140 Probabilidade e Estatística b) Construa um histograma para estes dados. 2. Construa uma tabela de distribuição de frequência e histograma para o seguinte conjunto de dados: 26-9-7-5-9-6-3-4-19-25-5-20-21-9-30-8-18-3-22-14-25-1-18-14-24. 3. Calule a média aritmética dos dados da questão 1. 4. Calcule a média aritmética dos dados da questão 2. 5. Calcule a moda dos dados da questão 1. 6. Calcule a moda dos dados da questão 2. 7. Calcule a mediana dos dados da questão 1. 8. Calcule a mediana dos dados da questão 2. 9. Calcule o desvio médio dos dados da questão 1. 10. Calcule o desvio médio dos dados da questão 2. 11. Calcule a variância amostral e populacional dos dados da questão 1. 12. Calcule a variância amostral e populacional dos dados da questão 2. 13. Calcule o coeficiente de variação dos dados da questão 1. 14. Calcule o coeficiente de variação dos dados da questão 2. Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 22 / 140 Probabilidade e Estatística Capítulo 2 Teoria dos Conjuntos e Contagem O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Entender o que é um conjunto, um elemento de um conjunto • Entender as relações entre conjuntos • Conhecer os principais métodos de contagem • Saber a diferença entre combinação e arranjo e como aplicar essas definições em problemas práticos • Conhecer o binômio de Newton O objetivo deste capítulo é apresentar os pré-requisitos necessários para estudar probabilidade. 2.1 Teoria dos Conjuntos Conjunto é uma coleção de objetos. A natureza desses objetos é arbitrária, ou seja, podemos ter conjunto de qualquer coisa. Por exemplo, podemos ter conjuntos de pessoas; conjuntos de números; conjuntos de letras; podemos ter até conjuntos de conjuntos! Nós representaremos conjuntos por letras maiúsculas A, B,C, . . .. Chamamos os objetos que formam o conjunto de elementos. Assim, para descrever um conjunto, basta listar seus elementos. Existem três maneiras de descrever os elementos de um conjunto A: • Listando os elementos. Por exemplo, A = {1, 2, 3, 4, . . .}; • Descrevendo os elementos. Por exemplo, A é o conjunto de todos os números inteiros; • Colocando condições. A = {x; x é número real e 0 ≤ x ≤ 1}. Nota É importante observar a notação. Sempre escreveremos os elementos que formam um conjunto entre chaves. O ponto-e-vírgula, quando estiver entre chaves deve ser lido como “tal que”. Por exemplo, no conjunto A = {x; x é número real e 0 ≤ x ≤ 1}, lemos, A é o conjunto dos números reais tais que 0 ≤ x ≤ 1. 23 / 140 Probabilidade e Estatística Quando o objeto x é elemento do conjunto A, dizemos que x pertence a A, e escrevemos x ∈ A. Analogamente, se x não é elemento do conjunto A, dizemos que x não pertence a A, e escrevemos x∈ / A. Existe um conjunto que não possui nenhum elemento. Esse conjunto especial é chamado de conjunto vazio e é denotado por 0. / Importante É muito importante notar que o conjunto vazio 0/ não possui nenhum elemento, portanto não há chaves na sua notação. O conjunto {0} / NÃO é o conjunto vazio, e sim um conjunto com um elemento, e esse elemento é o conjunto vazio. 2.1.1 Comparação entre conjuntos Sejam A e B dois conjuntos. Dizemos que A é subconjunto de B, e escrevemos, A ⊂ B se todo elemento de A é elemento de B. Ou seja, se sempre que x ∈ A, temos que x ∈ B. Se existe x ∈ A tal que x ∈ / B, dizemos que A não é subconjunto de B, e escrevemos A 6⊂ B. Exemplo 2.1 Exemplo de comparação entre conjuntos Sejam A = {1, 2, 3, 4, 5}, B = {2, 4} e C = {3, 5, 7}. Então, temos que B ⊂ A, mas C 6⊂ A, A 6⊂ C, A 6⊂ B, C 6⊂ B e B 6⊂ C. Exercício Mostre que para todo conjunto A, o conjunto vazio é subconjunto de A, ou seja, que 0/ ⊂ A. Solução Suponha que 0/ 6⊂ A, então por definição, isso significa que existe x ∈ 0/ tal que x 6∈ A. Como 0/ não possui nenhum elemento, é impossível encontrar o tal elemento x. Portanto, a afirmação 0/ 6⊂ A é falsa. Isso mostra que 0/ ⊂ A. Definição: Igualdade de conjuntos Dizemos que os conjuntos A e B são iguais, e escrevemos A = B, se todo elemento de A é elemento de B e todo elemento de B é elemento de A. Equivalentemente, temos que A = B se, e somente se, A ⊂ B e B ⊂ A. 2.1.2 União de conjuntos Suponha que temos dois conjuntos A e B. Podemos definir um terceiro conjunto, chamado de conjunto união de A e B, formado pelos elementos de A e pelos elementos de B. Matematicamente, escrevemos A ∪ B = {x; x ∈ A ou x ∈ B}. 24 / 140 Probabilidade e Estatística Exemplo 2.2 Exemplo de união de conjuntos Sejam A = {1, 2, 3, 4, 5}, B = {2, 4} e C = {3, 5, 7}. Então, A ∪ B = {1, 2, 3, 4, 5}, Nota Se A ⊂ B, então todo elemento de A já é elemento de B, e portanto A ∪ B = B. De maneira geral, dados conjuntos A1 , A2 , A3 , . . ., definimos o conjunto formado pela união dos conjuntos A1 , A2 , . . ., como o conjunto que contém todos os elementos de A1 , de A2 , etc.. Matematicamente, temos: ∞ [ Ai = {x; existe i tal que x ∈ Ai }. i=1 Exercício Forneça a definição da união de n conjuntos A1 , A2 , . . . , An . Solução Definimos a união de n conjuntos A1 , . . . , An , como o conjunto formado pelos elementos de A1 , . . . , An , ou seja, é o conjunto n [ Ai = {x; x ∈ A1 ou x ∈ A2 , . . . , ou x ∈ An }. i=1 2.1.3 Interseção de conjuntos Suponha que temos dois conjuntos A e B. Considere agora o conjunto formado pelos objetos que são elementos de A e também são elementos de B. Este conjunto é chamado de conjunto interseção de A e B. Escrevemos este conjunto, matematicamente, como A ∩ B = {x; x ∈ A e x ∈ B}. Exemplo 2.3 Exemplo de interseção de conjuntos Sejam A = {1, 2, 3, 4, 5}, B = {2, 4} e C = {3, 5, 7}. Então, A ∩ B = {2, 4}, A ∩C = {3, 5} e B ∩C = 0. / Nota Se A ⊂ B, então todo elemento de A é elemento de B, assim os elementos que estão em A e B, são os elementos de A. Ou seja, A ∩ B = A. 25 / 140 Probabilidade e Estatística De maneira geral, dados conjuntos A1 , A2 , A3 , . . ., definimos a interseção entre os conjuntos A1 , A2 , A3 , . . . como o conjunto formado pelos elementos que estão simultaneamente em todos os conjuntos. Escrevemos esse conjunto matematicamente como ∞ \ Ai = {x; x ∈ A1 , x ∈ A2 , . . .}. i=1 Exercício Forneça a definição da interseção de n conjuntos A1 , A2 , . . . , An . Solução Definimos a interseção de n conjuntos A1 , . . . , An , como o conjunto formado pelos elementos que estão simultaneamente A1 , . . . , An , ou seja, é o conjunto n \ Ai = {x; x ∈ A1 e x ∈ A2 , . . . , e x ∈ An }. i=1 2.1.4 Diferença entre conjuntos Suponha que temos dois conjuntos A e B. Considere agora o conjunto formado por objetos que são elementos de B, mas não são elementos de A. Esse conjunto é chamado de B menos A, e é denotado por B \ A. Matematicamente, temos B \ A = {x; x ∈ B e x ∈ / A}. Exemplo 2.4 Exemplo de diferença de conjuntos Sejam A = {1, 2, 3, 4, 5}, B = {2, 4} e C = {3, 5, 7}. Então, A \ B = {1, 3, 5}, A \C = {1, 2, 4}, B \C = {2, 4}, B \ A = 0, / C \ A = {7} e C \ B = {3, 5, 7}. 2.1.5 Complementar de um conjunto Um caso particular e importante de diferenças de conjunto é o complementar. Esta definição é particularmente útil no curso de probabilidade. Suponha que temos um conjunto de referência, digamos M. Dado qualquer conjunto A ⊂ M, definimos o complementar de A (em M), como o conjunto Ac = M \ A. Atenção Quando está claro no contexto quem é o conjunto de referência, o conjunto Ac é referido apenas como complementar de A. O complementar de A é descrito como o conjunto dos elementos que não pertencem a A. Fica claro que é o conjunto dos elementos que não pertencem a A, mas pertencem ao conjunto de referência M. 26 / 140 Probabilidade e Estatística 2.1.6 Propriedades entre as relações entre conjuntos Valem as seguintes identidades entre união, interseção e complementação entre conjuntos:\\ • A ∪ (B ∩C) = (A ∪ B) ∩ (A ∪C); • A ∩ (B ∪C) = (A ∩ B) ∪ (A ∩C); • A ∩ 0/ = 0; / • A ∪ 0/ = A; • (A ∩ B)c = Ac ∪ Bc ; • (A ∪ B)c = Ac ∩ Bc ; • (Ac )c = A. 2.2 Contagem Vamos agora introduzir técnicas de contagem. 2.2.1 Regra da multiplicação A primeira técnica é conhecida como regra da multiplicação. Para ilustrar a técnica, considere o seguinte exemplo: Exemplo 2.5 Exemplo para ilustrar a regra da multiplicação Fernando possui 10 pares de meias e 3 pares de sapatos. Sabendo que Fernando pode utilizar qualquer par de meia com qualquer sapato, de quantas formas diferentes, ele pode combinar pares de meias com sapatos? Vamos começar colocando rótulos nos sapatos: sapato 1, sapato 2 e sapato 3. O sapato 1 pode ser usado com 10 pares de meias; o sapato 2 também pode ser usado com 10 pares de meias; e o sapato 3 também pode ser usado com 10 pares de meias. Portanto, como Fernando pode utilizar o sapato 1, o sapato 2 e o sapato 3, ele poderá fazer 10+10+10 = 30 combinações diferentes entre pares de meias e sapatos. Resumindo, cada sapato pode ser associado a 10 pares de meias, e como temos 3 sapatos, o total de combinações é 30 = 3 · 10. Por isso o nome regra da multiplicação. Pois multiplicamos o número de sapatos pelo número de pares de meias. A regra geral é dada por: Regra da multiplicação Suponha que temos 2 tipos de objetos: tipo 1 e tipo 2. Suponha que cada objeto do tipo 1 pode ser combinado com todos os objetos do tipo 2. Assim, se temos n objetos de tipo 1 e m objetos de tipo 2, teremos n · m combinações possíveis entre objetos de tipo 1 e objetos de tipo 2. 27 / 140 Probabilidade e Estatística 2.2.2 Regra da adição Vamos agora ilustrar outra técnica de contagem, que é conhecida como a regra da adição. Para motivar, considere o seguinte exemplo: Exemplo 2.6 Exemplo para ilustrar a regra da adição Paulo tem 15 blusas de manga comprida e 10 blusas de manga curta e apenas uma calça. Sabendo que Paulo não usa duas blusas ao mesmo tempo, de quantas formas ele pode se vestir? Como Paulo só possui uma calça, o que determina a quantidade de formas de se vestir é a quantidade de blusas. Como Paulo possui 25 = 10+15 blusas, segue que Paulo pode se vestir de 25 formas diferentes. Assim, como Paulo não pode usar uma blusa de manga comprida e outra de manga curta ao mesmo tempo, segue que temos que escolher uma única blusa entre o total de blusas que é dada pela soma entre a quantidades de blusas de manga comprida e blusas de manga curta. A regra geral é dada por: Regra da adição Suponha que temos objetos de dois tipos, digamos tipo 1 e tipo 2. Suponha que temos n objetos do tipo 1 e m objetos do tipo 2. Temos então n + m formas de escolher um objeto (de qualquer tipo) entre os objetos disponíveis. Outra forma de escrever essa regra é a seguinte: suponha que temos n formas de executar uma tarefa usando o procedimento 1, e m formas de executar essa mesma tarefa usando o procedimento 2. Sabendo que não podemos usar os dois procedimentos conjuntamente, esta tarefa pode ser realizada de n + m formas diferentes. 2.2.3 Permutação Suponha que temos k objetos organizados em uma determinada ordem. Se mudarmos a ordem em que estes objetos estão colocados, dizemos que fizemos uma permutação entre esses objetos. Uma pergunta importante é saber qual o número de permutações possíveis entre estes k objetos. Para ilustrarmos a ideia considere o seguinte exemplo: Exemplo 2.7 Exemplo de permutações Quantas filas diferentes podemos formar com Pedro, Paulo, Carlos e João? Também poderíamos escrever a pergunta como: Qual o número de permutações possíveis entre quatro pessoas? Vamos enumerar as posições: primeira, segunda, terceira e quarta. Para a primeira posição temos 4 escolhas possíveis. Agora, supondo que já escolhemos a primeira posição, qualquer que seja a primeira pessoa escolhida, temos possibilidades para a segunda posição. Analogamente, temos 2 possibilidades para a terceira posição e apenas uma para a quarta. Pela regra da multiplicação, temos 4 · 3 · 2 · 1 = 24 possibilidades. 28 / 140 Probabilidade e Estatística Notação O número n! é chamado de fatorial de n e é dado por n! = n · (n − 1) · (n − 2) · · · 3 · 2 · 1. Por exemplo, 6! = 6 · 5 · 4 · 3 · 2 · 1. No exemplo anterior, o número de possibilidades é 4! = 24. Finalmente, temos a regra da permutação: Permutações Suponha que temos n objetos, então o número de permutações desses n objetos é n!. 2.2.4 Arranjos Suponha que temos n objetos, de quantas formas podemos escolher k objetos entre esses n objetos, sabendo que a ordem em que esses objetos são escolhidos importa? O número de formas é chamado de número de arranjos. Considere o seguinte exemplo: Exemplo 2.8 Exemplo de arranjos Suponha que uma corrida de rua tem 1000 atletas inscritos. Quantos pódios podemos formar com esses 1000 atletas? Um pódio consiste de três pessoas, ordenadas pelo campeão, vice-campeão e terceiro lugar. Assim, temos 1000 formas de escolher o campeão, 999 formas de escolher o vice-campeão e 998 formas de escolher o terceiro lugar. Portanto, temos 1000 · 999 · 998 pódios possíveis. Note que 1000 · 999 · 998 = 1000! 997! . Assim, a regra dos arranjos é: Arranjo Suponha que temos n objetos disponíveis. Então, o número de formas de escolher k objetos, onde a ordem em que os objetos foram escolhidos importa, é dada por An,k = n! . (n − k)! No exemplo anterior, podemos pensar nas pessoas como 1000 objetos, e queríamos escolher 3 objetos, onde a ordem importa (a ordem determina o campeão, vice-campeão e terceiro lugar), e portanto o número de formas é A1000,3 = 1000! 997! . 2.2.5 Combinações Suponha que estamos no mesmo cenário dos arranjos, ou seja, temos n objetos e queremos escolher k objetos. Entretanto, suponha que a ordem não importa mais. Assim, só estamos interessados no número de formas de escolher os k objetos, mas a ordem em particular pela qual os objetos foram escolhidos não importa. O número de tais formas é dado pelo número de combinações possíveis. Considere o seguinte exemplo: 29 / 140 Probabilidade e Estatística Exemplo 2.9 Exemplo de combinações Suponha que uma empresa possui 1000 funcionários, e que o presidente da empresa gostaria de saber o número de equipes de 3 pessoas que podem ser formadas com esses 1000 funcionários. Qual o número que o presidente procura? Note que este exemplo é muito parecido com o dos arranjos, inclusive temos 1000 “objetos” e queremos escolher 3. Entretanto o fato da ordem não importar muda tudo. Como em uma equipe a ordem das pessoas não importa, devemos levar essa informação em consideração. Vamos então fingir que a ordem importa, então a quantidade de formas seria A1000,3 = 1000! 997! . Observe agora que para cada equipe de formada por 3 pessoas, temos 3! pódios possíveis a se formar. Desta forma, se C é o número de equipes de 3 pessoas que podemos formar com 1000 funcionários, então 3! · C é o número de pódios que podemos formar com 1000 pessoas, pois cada equipe fornece 3! pódios (aqui utilizamos a regra da multiplicação). Como sabemos que o número de pódios possíveis é A1000,3 = 1000! 997! , segue que C = A1000,3 3! = 1000! 3!997! . Assim, temos a regra geral das combinações: Combinação Suponha que temos n objetos e queremos escolher k objetos, onde a ordem em que os objetos n! formas de escolher esses k objetos. foram escolhidos não importa. Então temos Cn,k = k!(n−k)! Cn,k é chamado o número de combinações de n, k-a-k. Nota n! Este número de combinações possui uma notação especial, a saber, nk = k!(n−k)! , e são chamados de coeficientes binomiais. Cuidado Observe que em geral o número de arranjos é bem maior que o número de combinações. De fato, temos que An,k = k!Cn,k . Portanto, é importante não confundir arranjos com combinações porque os resultados podem ser muito diferentes. 2.2.6 Binômio de Newton Sejam a, b números reais, e seja n um número natural. Então, temos que (a + b)n = (a + b)(a + b) · · · (a + b) . | {z } n termos 30 / 140 Probabilidade e Estatística É fácil saber, pela distributividade, que o resultado da multiplicação será uma soma da forma: (a + b)n = (a + b) · · · (a + b) = C0 an +C1 an−1 b + · · ·Cn bn . Assim, queremos determinar quais são os valores de Ci , para i = 0, . . . , n. Observe que Ci é o número de termos da forma an−i bi que aparecem após a expansão do termo (a + b)n . Este número é dado pelo número de formas em que podemos escolher (n − i) parcelas da multiplicação iguais a a (automaticamente as i parcelas restantes serão de termos iguais a b). Como a ordem das parcelas não importa, o número de formas é justamente o número de combinações de n, (n − i)-a-(n − i), e é dado n n! por Ci = Cn,(n−i) = (n−i)!i! = Cn,i = i . Portanto, temos a fórmula do binômio de Newton: n n n n n−i i n n n n−i i n (a + b) = a +···+ a b +···+ b =∑ a b. 0 i n i=0 i 2.3 Atividades 1. Verdadeiro ou Falso? a. {a, a, b, c} = {a, b, c}; b. {a, {a}} = {a}; c. {a} ∈ {a, {a}}; d. {a} ⊂ {a, {a}}; e. {{a}} ⊂ {a, {a}}; f. {a, b} ⊂ {a, {a, b}}; g. {a, b} ∈ {a, {a, b}}; h. b ∈ {a, {a, b}}; i. 0/ ∈ {0}; / j. 0/ = {0}; / k. 0/ ⊂ {0}; / l. {0} / ⊂ {{0}}; / m. {0} / ∈ {{0}}; / n. {0} / = {{0}}. / 2. Sejam A = {1, 2, 3, 4, {5}, {6, 7}}, B = {4, {5}, 6, 7} e C = {5, 6, 7}. Determine os seguintes conjuntos: a. A \ 0; / b. A \ A; 31 / 140 Probabilidade e Estatística c. A \C; d. C \ A; e. A \ B; f. B \ A; g. B \C. 3. Seja M = {1, 2, 3, 4, {1}, {2}, {3}, {4}}. Sejam A = {1, {2}, 3, {4}} e B = {{1}, 2, {3}, 4}. a. Mostre que A e B são subconjuntos de M, e conclua que podemos falar sobre o complementar de A e sobre o complementar de B (ambos com relação a M); 4. b. Determine os conjuntos: Ac , Bc , A ∪ Bc , Ac ∪ B, Ac ∪ Bc , A ∪ B, A ∪ Ac e B ∪ Bc . c. Determine os conjuntos: A ∩ B, Ac ∩ B, Ac ∩ Bc , A ∩ Bc , A ∩ Ac e B ∩ Bc . Quantas palavras contendo 3 letras diferentes podem ser formadas com um alfabeto de 26 letras? 5. Para fazer uma viagem João Pessoa-Salvador-João Pessoa, posso ir de carro, ônibus ou avião. De quantos modos posso escolher os transportes se não desejo usar na volta o mesmo meio de transporte da ída? 6. Quantos são os gabaritos possíveis de um teste de 10 questões de múltipla escolha, com cinco alternativas por questão? 7. De quantos modos 3 pessoas podem sentar-se em 5 cadeiras em fila? 8. O departamento de computação científica de uma universidade possui 20 professores. De quantos modos podem ser escolhidos um chefe de departamento, um coordenador da gradução e um coordenador de pós-graduação? 9. Quantos são os anagramas da palavra CAPÍTULO? 10. Quantos são os anagramas da palavra CAPÍTULO que têm a letra C no primeiro lugar E a letra A no segundo lugar E a letra P no terceiro lugar? 11. João tem 10 frutas diferentes e deseja fazer vários tipos de saladas de frutas, onde cada salada contém exatamente 4 frutas. Quantos tipos de saladas de frutas ele pode fazer? 12. Em uma prova, o estudante deve escolher exatamente 7 questões entre 10 disponíveis. Quantas escolhas ele tem? 13. De quantos modos podemos escolher 6 pessoas, incluindo pelo menos duas mulheres, em um grupo de 7 homens e 4 mulheres? Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 32 / 140 Probabilidade e Estatística Capítulo 3 Definições Básicas O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • As principais definições da probabilidade • Reconhecer um modelo com resultados equiprováveis e modelos com resultados que não são equiprováveis • Entender e saber aplicar o conceito de probabilidade condicional • Saber enunciar e aplicar o teorema da probabilidade total e o teorema de Bayes • Saber a definição e intuição de eventos independentes Modelos Matemáticos • Modelo Determinístico: Um modelo no qual as condições impostas ao modelo determinam o resultado do experimento. • Modelo Probabilístico: Modelos nos quais, mesmo mantendo as mesmas condições, o resultado do experimento pode variar. Isso se deve a um fator aleatório o qual não podemos controlar. Experimento aleatório Consiste em um experimento em que, mesmo mantendo as mesmas condições, o resultado do experimento pode variar. Exemplo 3.1 Exemplos de experimentos aleatórios 1. Lançar um dado e observar o resultado. 2. Jogar três moedas e contar o número de vezes que o resultado foi cara. 3. Medir o número de nascimentos na cidade de João Pessoa na última hora. 33 / 140 Probabilidade e Estatística 3.1 Fundamentos de Probabilidade Definição: Espaço amostral Espaço amostral é o conjunto de todos os resultados possíveis de um experimento. Denotamos o conjunto de todos os resultados por Ω. Exemplo 3.2 Espaços amostrais associados aos exemplos anteriores 1. Ω = {1, 2, 3, 4, 5, 6}; 2. Ω = {0, 1, 2, 3}; 3. Ω = {0, 1, 2, 3, . . .}, Ω = {0, 1, 2, ..., 7000000000}, . . .. Nota Observe que no último exemplo tivemos mais de uma opção de espaço amostral. Isto não contradiz a definição de espaço amostral. De fato, podemos ter mais de uma opção de espaços amostrais, o importante é que cada uma dessas opções contenha todos os resultados possíveis. Definição: Evento Seja Ω o espaço amostral de um experimento. Todo conjunto A ⊂ Ω tal que podemos calcular a probabilidade de A é chamado de evento. Destacamos dois eventos importantes: 1. Ω é chamado de evento certo; 2. 0/ é chamado de evento impossível. Nota O conjunto de todos os eventos possui uma estrutura chamada de σ -álgebra. Apesar da definição de σ -álgebra ser muito simples, não há necessidade de estudarmos σ -álgebras, pois todos os conjuntos que utilizaremos ao longo do livro serão eventos. Além disso, as aplicações onde é realmente necessário o uso de σ -álgebras fogem do escopo deste livro. Como cada evento é um conjunto, vale a pena descrever os eventos obtidos após realizarmos as operações clássicas de conjuntos entre eventos. 34 / 140 Probabilidade e Estatística Exemplo 3.3 Eventos • A ∪ B: é o evento “A ou B”; • A ∩ B: é o evento “A e B”; • Ac : é o evento “não ocorrência de A”; • A ⊂ B: significa que se o evento A ocorre, então o evento B ocorre. • A ∩ B = 0: / significa que A e B são eventos mutuamente excludentes, ou seja, a ocorrência de A implica que B não ocorre, e a ocorrência de B implica que A não ocorre. Definição: Partição Dado um espaço amostral Ω, uma partição P = {Aα , α ∈ I} de Ω é uma coleção de eventos, Aα , indexados por α, tais que: • Para todo α 6= β , Aα ∩ Aβ = 0; / • S α∈I Aα = Ω. Portanto, temos que os eventos de uma partição são dois-a-dois mutuamente excludentes e sua união é todo o espaço amostral. Exemplo 3.4 Exemplo de partição Se Ω = {1, 2, 3, 4}, então {A1 , A2 }, onde A1 = {1, 2, 3} e A2 = {4}, é uma partição de Ω. 3.2 Noções de Probabilidade Definição: Medida de Probabilidade Seja E um experimento. Seja Ω um espaço amostral, e seja E um evento de Ω. Dizemos que P é uma medida probabilidade em Ω se para todo evento A, temos que P(A) é um número não-negativo, chamado de probabilidade de A, tal que • 0 ≤ P(A) ≤ 1; • P(Ω) = 1; • (Aditividade finita) Se A e B forem eventos mutuamente excludentes, temos que P(A ∪ B) = P(A) + P(B); • (Aditividade contável) Se Ai , i = 1, 2, 3, . . . forem eventos dois-a-dois mutuamente excludentes, então, ∞ [ ∞ P Ai = ∑ P(Ai ). i=1 i=1 Provaremos agora algumas consequências desta definição. Teorema Seja 0/ o conjunto vazio, então P(0) / = 0. 35 / 140 Probabilidade e Estatística Demonstração Para qualquer evento A, podemos escrever A = A ∪ 0. / Como A e 0/ são mutuamente excludentes, decorre da aditividade finita que P(A) = P(A ∪ 0) / = P(A) + P(0). / Desta forma, P(0) / = 0. Teorema Seja Ac o evento complementar de A. Então P(Ac ) = 1 − P(A). Demonstração Podemos escrever Ω = A ∪ Ac . Além disso, A e Ac são mutuamente excludentes. Portanto, pela aditividade finita, temos que 1 = P(Ω) = P(A ∪ Ac ) = P(A) + P(Ac ). Desta forma, segue que P(Ac ) = 1 − P(A). Teorema Sejam A e B dois eventos quaisquer. Então P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Demonstração Temos que A ∪ B = A ∪ (B ∩ Ac ) (faça um desenho) e B = (A ∩ B) ∪ (B ∩ Ac ). Desta forma, temos que como A e B ∩ Ac são mutuamente excludentes, vale P(A ∪ B) = P(A) + P(B ∩ Ac ). Por outro lado, temos que A ∩ B e B ∩ Ac também são mutuamente excludentes. Portanto, segue que P(B) = P(A ∩ B) + P(B ∩ Ac ) ⇒ P(B ∩ Ac ) = P(B) − P(A ∩ B). Juntando as duas equações, obtemos que P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Mais geralmente temos o Teorema (Princípio da inclusão e exclusão) Sejam A1 , A2 , . . . , An n eventos quaisquer. Então, n P(A1 ∪ A2 ∪ · · · ∪ An ) = ∑ P(Ai) − ∑ P(Ai ∩ A j ) i=1 + ∑ i< j P(Ai ∩ A j ∩ Ak ) + · · · + (−1)n−1 P(A1 ∩ · · · ∩ An ). i< j<k Teorema Sejam A e B dois eventos. Suponha que A ⊂ B, então P(A) ≤ P(B). Demonstração Temos que B = A ∪ (B ∩ Ac ), com A e B ∩ Ac sendo mutuamente excludentes. Desta forma,P(B) = P(A) + P(B ∩ Ac ). Por outro lado, P(B ∩ Ac ) ≥ 0. Portanto, temos que P(B) ≥ P(A). Exercício Mostre que a coleção de intervalos {(n, n + 1] : n ∈ R} é uma partição do conjunto dos números reais R. Solução Denote por [x] a parte inteira do número real x. Temos que para todo x real, vale x ∈ ([x] − 1, [x]] ∪ ([x], [x] + 1]. 36 / 140 Probabilidade e Estatística Portanto, vale x ∈ [ (n, n + 1], ou seja, R ⊂ n∈Z [ (n, n + 1]. n∈Z [ Por outro lado, ∀n ∈ Z, (n, n + 1] ⊂ R. Daí (n, n + 1] ⊂ R. Portanto, concluímos que n∈Z [ R= (n, n + 1]. n∈Z 3.3 Espaços Amostrais Finitos Seja Ω um espaço amostral associado a um experimento aleatório E com um número finito de resultados possíveis. Então Ω pode ser escrito da seguinte forma: Ω = {ω1 , . . . , ωn }, para algum número natural n. A cada evento simples {ωi }, i = 1, . . . , n, associamos um número pi , i = 1, . . . , n de tal forma que duas condições sejam satisfeitas: 1. pi ≥ 0 para todo i = 1, . . . , n; 2. p1 + · · · + pn = 1. Assim, definimos a probabilidade da ocorrência do resultado ωi , i = 1, . . . , n como sendo P({ωi }) = pi . Suponha que tenhamos um evento A consistindo de k resultados possíveis, ou seja, A = {ω j1 , . . . , ω jk }, onde j1 , . . . , jk assumem valores entre 1 e n. Pela propriedade da aditividade contável, a probabilidade do evento A é dada por P(A) = P({ω j1 }) + · · · + P({ω jk }) = p j1 + · · · + p jk . Exercício Suponha que somente três resultados sejam possíveis em um experimento, a saber, a1 , a2 e a3 . Além disso, suponha que a1 seja duas vezes mais provável de ocorrer do que a2 , o qual, por sua vez, é duas vezes mais provável de ocorrer do que a3 . Determine as probabilidades de ocorrência de a1 , a2 e a3 . Solução Sejam p1 , p2 e p3 as probabilidades de ocorrências de a1 , a2 e a3 , respectivamente. Então, temos do enunciado que p1 = 2p2 e que p2 = 2p3 . Como sabemos que p1 + p2 + p + 3 = 1, temos que 4p3 + 2p3 + p3 = 1, ou seja, p3 = 1/7. Isto fornece p1 = 4/7, p2 = 2/7 e p3 = 1/7. 3.4 Resultados Equiprováveis Suponha que temos um experimento com n resultados possíveis e que todos esses resultados sejam equiprováveis, isto é, todos os resultados possuem a mesma probabilidade de ocorrência. Neste caso, dizemos que o experimento possui resultados equiprováveis. Digamos que os resultados possíveis do experimento são a1 , . . . , an . 37 / 140 Probabilidade e Estatística Sejam p1 , p2 , . . . , pn as probabilidades de ocorrências dos eventos a1 , a2 , . . . , an , respectivamente. Então, como todos os resultados possuem a mesma probabilidade de ocorrência, temos que p1 = p2 = · · · = pn = p. Além disso, sabemos que p1 + · · · + pn = 1, ou seja, np = 1, o que por sua vez implica que p = 1/n. Utilizando a propriedade de aditividade contável da probabilidade podemos concluir o seguinte resultado: Seja A um evento que contém k resultados possíveis, então P(A) = k/n. Este método de avaliar a probabilidade do evento A normalmente é enunciado da seguinte maneira: P(A) = número de resultados favoráveis a A . número de resultados possíveis Exercício Um dado é lançado e todos os resultados são igualmente prováveis. O evento A ocorrerá se, e somente se, um número maior do que 4 aparecer, isto é, A = {5, 6}. Calcule P(A). Solução Como temos 6 resultados possíveis e 2 resultados favoráveis, temos que P(A) = 2/6 = 1/3. 3.5 Probabilidade Condicional Suponha que temos a seguinte situação: Um lote é formado por 100 monitores de computador. Foi verificado que neste lote, temos 80 monitores em perfeito estado e 20 monitores defeituosos. Suponha que dois monitores são retirados do lote ao acaso. Considere então os eventos: A = O primeiro monitor é defeituoso e B = O segundo monitor é defeituoso. Suponha que a retirada dos monitores seja com reposição. Isto é, o primeiro monitor é retirado, verifica-se se é defeituoso ou não, e é colocado de volta ao lote. Neste cenário, temos 20 casos favoráveis ao evento A, entre 100 casos possíveis, e 20 casos favoráveis ao evento B, também entre 100 casos possíveis. Desta forma, no cenário com reposição, temos que P(A) = P(B) = 1/5. Entretanto temos um segundo cenário possível: que a retirada dos monitores seja feita sem reposição, isto é, o primeiro monitor é retirado, verifica-se se este é defeituoso, e em seguida um segundo monitor é retirado (sem que o primeiro seja devolvido ao lote), donde após a retirada, verifica-se se o segundo monitor é defeituoso ou não. Neste cenário, ainda temos 20 casos favoráveis ao evento A e 100 casos possíveis. No entanto, para o evento B o problema não se torna fácil, pois não sabemos se no momento da retirada do segundo monitor teremos 19 casos favoráveis ou 20 casos favoráveis. Isto dependerá se o evento A ocorreu ou não. A única coisa certa é que temos 99 casos possíveis para o evento B. A fim de resolver este problema vamos introduzir um novo conceito, o de probabilidade condicional. Assim que tivermos desenvolvido a teoria o suficiente para resolver o problema acima, terminaremos a solução dele. Definição: Probabilidade condicional Sejam agora, A e B dois eventos associados a um experimento E. Suponha que P(A) > 0, então denotamos por P(B|A) a probabilidade do evento B ocorrer condicionada à ocorrência do evento A. Esta probabilidade condicional é definida como P(B|A) = P(A ∩ B) . P(A) 38 / 140 Probabilidade e Estatística Cuidado Vale a pena relembrar que na probabilidade condicional P(B|A) estamos supondo que P(A) > 0. Importante Sempre que calculamos a probabilidade condicional P(B|A), o que estamos fazendo na prática é reduzir o espaço amostral original Ω para um espaço amostral de eventos favoráveis à ocorrência do evento A. Esse espaço amostral é chamado de espaço amostral reduzido. Exercício Dois dados equilibrados (onde todos os resultados são equiprováveis) são lançados. Os resultados são registrados como o par ordenado (x1 , x2 ), onde x1 representa o resultado obtido no lançamento do primeiro dado, e x2 representa o resultado do lançamento do segundo dado. Consideremos os eventos: A = {(x1 , x2 ); x1 + x2 = 10} e B = {(x1 , x2 ); x1 > x2 }. Calcule P(A|B) e P(B|A). Solução Escrevendo os eventos A, B e A ∩ B explicitamente, temos que A = {(5, 5), (4, 6), (6, 4)}, B = {(2, 1), (3, 1), (4, 1), (5, 1), (6, 1), (3, 2), (4, 2), (5, 2), (6, 2), (4, 3), (5, 3), (6, 3), (5, 4), (6, 4), (6, 5)} e A ∩ B = {(6, 4)}. O número de casos totais é 36, pois temos 6 casos possíveis para o primeiro lançamento e 6 casos possíveis para o segundo lançamento. Assim, como os resultados são todos equiprováveis, temos que P(A) = 3 36 = 1 15 12 , P(B) = 36 = 5 12 1 15 e P(B|A) = e P(A ∩ B) = 1 36 . Assim, segue que P(A|B) = 3.5.1 P(A∩B) P(B) = 1/36 5/12 = P(A∩B) P(A) = 1/36 1/12 = 31 . Teorema da Multiplicação A mais importante consequência da definição da probabilidade condicional é obtida ao escrevermos: P(A ∩ B) = P(A|B)P(B) ou equivalentemente, P(A ∩ B) = P(B|A)P(A). Estas igualdades são chamadas de Teorema da multiplicação ou Teorema do produto. Existe uma generalização para mais de dois eventos e ela é a seguinte: Dados eventos A1 , A2 , . . . , An , temos que P(A1 ∩ A2 ∩ · · · ∩ An ) = P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 ) · · · P(An |A1 ∩ · · · ∩ An−1 ). 39 / 140 Probabilidade e Estatística Exercício Uma caixa contém 4 lâmpadas boas e 2 queimadas. Retira-se ao acaso 3 lâmpadas sem reposição. Calcule a probabilidade dessas 3 lâmpadas serem boas. Solução Sejam os eventos Ai = {A i-ésima lâmpada é boa}, para i = 1, 2, 3. Queremos calcular a probabilidade do evento A1 ∩ A2 ∩ A3 . Sabemos, pelo teorema da multiplicação, que P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 ). Vamos então calcular cada uma dessas probabilidades separadamente. Inicialmente, temos 4 resultados favoráveis ao evento A1 , entre 6 resultados possíveis, logo P(A1 ) = 46 = 23 . Agora, vamos considerar o espaço amostral reduzido para calcular P(A2 |A1 ). Dado que A1 ocorreu, e como estamos sem reposição, para a retirada da segunda lâmpada teremos 3 lâmpadas boas, e um total de 5 lâmpadas. Logo, P(A2 |A1 ) = 35 . Analogamente, para calcular P(A3 |A1 ∩ A2 ), observe que se $A_1$ e $A_2$ ocorreram, então para a retirada da terceira lâmpada, teremos 2 lâmpadas boas e um total de 4 lâmpadas. Desta forma, P(A3 |A1 ∩ A2 ) = 2 4 = 12 . Finalmente, juntando estas probabilidades obtemos que P(A1 ∩ A2 ∩ A3 ) = 3.5.2 231 352 = 15 . Teorema da Probabilidade Total Seja Ω o espaço amostral de um experimento E, e seja B1 , B2 , . . . , Bk uma partição de Ω. Assim, dado um evento A qualquer, temos que A = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ · · · ∪ (A ∩ Bk ). Observe que como os eventos A ∩ B1 , A ∩ B2 , . . . , A ∩ Bk são dois-a-dois mutuamente excludentes, podemos aplicar a aditividade contável da probabilidade, que é válida para eventos mutuamente excludentes, e escrever P(A) = P(A ∩ B1 ) + · · · + P(A ∩ Bk ). Essa forma acima é chamada a primeira forma do Teorema da probabilidade total. Vamos agora para a segunda forma. Escrevendo cada termo P(A ∩ Bi ) = P(A|Bi )P(Bi ) e, daí, obtemos a segunda forma do teorema da probabilidade total: P(A) = P(A|B1 )P(B1 ) + · · · + P(A|Bk )P(Bk ). Agora já temos teoria suficiente para resolver o problema dos monitores apresentado no início da seção: Exercício Consideremos o exemplo do lote com 20 monitores defeituosos e 80 monitores em perfeito estado, no qual extraímos duas peças sem reposição, e queremos calcular a probabilidade do evento B = {O segundo monitor é defeituoso}. 40 / 140 Probabilidade e Estatística Solução Relembre a definição do evento A: A ={O primeiro monitor é defeituoso}. Pelo teorema da probabilidade total, segue que P(B) = P(B|A)P(A) + P(B|Ac )P(Ac ). Já sabemos que P(A) = 15 . Isto fornece também, pela propriedade do complementar P(Ac ) = 1 − P(A) = 45 . Vamos calcular agora P(B|A) e P(B|Ac ) separadamente. Dado que o evento A ocorreu, e sabendo que estamos sem reposição, para o segundo monitor, teremos 99 monitores disponíveis e entre eles, apenas 19 são defeituosos. Assim, P(B|A) = 19 99 . Analogamente, temos que se Ac ocorreu, então o primeiro monitor escolhido estava em perfeito estado. Assim, neste cenário, para a escolha do segundo monitor, teremos 20 monitores defeituosos disponíveis entre o total de 99 monitores. Assim P(B|Ac ) = 20 99 . Juntando todas as informações, temos que 19 1 20 4 80 + 19 1 + = = . 99 5 99 5 99 · 5 5 Então, curiosamente, apesar das contas serem completamente diferentes, e de estarmos sem reposição, neste caso, as probabilidades também são iguais. Note que isso é uma coincidência e não ocorre em geral. P(B) = Cuidado Note que embora no exemplo acima as probabilidades com reposição e sem reposição coincidiram, isto não ocorre sempre! 3.5.3 Teorema de Bayes Assim como no teorema da probabilidade total, seja Ω um espaço amostral associado a um experimento E, e seja B1 , B2 , . . . , Bk uma partição de Ω. Temos então, pela definição da probabilidade condicional que P(Bi |A) = P(A ∩ Bi ) , i = 1, 2, . . . , k. P(A) Usando o teorema da multiplicação, temos que P(A ∩ Bi ) = P(A|Bi )P(Bi ). Além disso, pelo teorema da probabilidade total, temos que P(A) = ∑kj=1 P(A|B j )P(B j ). Portanto, juntando essas fórmulas com a definição da probabilidade condicional, obtemos: P(Bi |A) = P(A|Bi )P(Bi ) , i = 1, . . . , k. ∑ j=1 P(A|B j )P(B j ) Esta fórmula é conhecida como Teorema de Bayes. Exercício Numa turma de ciências da computação da UFPB, 1% dos homens e 4% das mulheres possuem menos de 1,60m de altura. Além disso, 60% dos estudantes são homens. Se um estudante é selecionado ao acaso e é verificado que tem menos de 1,60m de altura. Qual é a probabilidade desse estudante ser homem? 41 / 140 Probabilidade e Estatística Solução Defina os eventos A = {Estudantes com menos de 1,60m}, M = {Estudantes do sexo feminino} e H = {Estudantes do sexo masculino}. Pelo enunciado, sabemos que P(A|H) = 0, 01, P(A|M) = 0, 04, P(H) = 0, 6 e P(M) = 1 − P(H) = 0, 4. Além disso, pelo teorema de Bayes, segue que P(H|A) = 3.6 0, 01 · 0, 6 3 P(A|H)P(H) = = . P(A|H)P(H) + P(A|M)P(M) 0, 01 · 0, 6 + 0, 04 · 0, 4 11 Eventos Independentes Considere dois eventos A e B quaisquer de um mesmo espaço amostral Ω. Dois eventos A e B são independentes quando a probabilidade de ocorrer um dos eventos não é modificada pela ocorrência do outro. Ou seja, dizemos que A e B são independentes quando P(A|B) = P(A) ou P(B|A) = P(B). Assim, se A e B são eventos independentes, então P(A ∩ B) = P(A)P(B). Nota Observe que se vale a recíproca dessa última afirmação, ou seja, se vale a identidade acima, então os eventos são independentes. Exercício Suponha que um dado equilibrado seja jogado duas vezes. Sejam os eventos: A = {o primeiro dado mostra um número par} e B = {o segundo dado mostra o número 5 ou 6}. Calcule P(A), P(B), P(A ∩ B), P(A|B) e P(B|A). Solução Escrevendo explicitamente, temos que Ω = {(1, 1), (1, 2), (1, 3), . . . , (6, 6)}, onde Ω possui 36 elementos, A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)}, onde A possui 18 elementos, B = {(1, 5), (2, 5), (3, 5), (4, 5), (5, 5), (6, 5), (1, 6), (2, 6), (3, 6), (4, 6), (5, 6), (6, 6)}, onde B possui 12 elementos, e A ∩ B = {(2, 5), (2, 6), (4, 5), (4, 6), (6, 5), (6, 6)}, onde A ∩ B possui 6 elementos. Portanto, temos que P(A) = 18 36 = 12 , P(B) = 12 36 = 1 3 1 6 e P(A ∩ B) = 6 36 = 16 . Observemos que P(A ∩ B) = = 12 13 = P(A)P(B). Logo, pelo que vimos acima, os eventos são independentes e desta forma, P(A|B) = P(A) = 12 , e P(B|A) = P(B) = 13 . Podemos também verificar diretamente: P(A|B) = P(A∩B) P(B) = 1/6 1/3 = 1 2 e P(B|A) = P(A∩B) P(A) = 42 / 140 1/6 1/2 = 13 . Probabilidade e Estatística Podemos generalizar este resultado para n eventos. Isto fornece a seguinte definição: Definição: n eventos independentes Sejam A1 , A2 , . . . , An eventos em um mesmo espaço amostral Ω. Dizemos que A1 , . . . , An são eventos independentes se, e somente se, para k = 2, 3, . . . , n, e todas as escolhas possíveis de índices i1 , . . . , ik , onde cada i j é um número entre 1 e n, e eles são diferentes, vale a igualdade P(Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P(Ai1 ) · · · P(Aik ). Nota Neste caso, temos 2n − n − 1 relações a serem verificadas. Exercício Suponha que um par de moedas honestas sejam lançadas. Considere os eventos: A = {cara na primeira moeda}, B = {cara na segunda moeda} e C = {cara em exatamente uma moeda}. Mostre que os eventos A, B e C são dois-a-dois independentes, mas não são independentes. Solução Observe que Ω = {(cara,cara),(cara,coroa),(coroa,cara),(coroa,coroa)}. Note que Ω possui 4 elementos. Temos que A = {(cara,cara),(cara,coroa)}, B = {(cara,cara), (coroa,cara)}, C = {(cara,coroa),(coroa,cara)}. Além disso, segue que A ∩ B = {(cara,cara)}, A ∩ C = {(cara,coroa)}, B ∩C = {(coroa,cara)}. Portanto, temos que P(A) = 42 = 21 , P(B) = 24 = 12 , P(C) = 24 = 12 . Por outro lado, temos que latexmath:[P(A ∩ B) = 41 = 12 · 12 = P(A)P(B), P(A ∩C) = 14 = 12 · 21 = P(A)P(C) e P(B ∩C) = 1 1 1 4 = 2 · 2 = P(B)P(C). Isso mostra que os eventos A, B e C são dois-a-dois independentes. Entretanto, temos que A ∩ B ∩C = 0, / e desta forma, P(A ∩ B ∩C) = 0 6= 1 8 = P(A)P(B)P(C). Logo, os eventos A, B e C não são independentes. 3.7 Atividades 1. Sejam A, B e C três eventos em um espaço de probabilidade. Expresse os seguintes eventos em termos de A, B e C: a) Apenas A ocorre; b) A e B ocorrem, mas C não ocorre; c) Os três eventos ocorrem; d) Pelo menos um dos três ocorrem; e) Nenhum dos três ocorrem; f) Exatamente um dos três ocorre; 43 / 140 Probabilidade e Estatística 2. Extraem-se 4 cartas de um baralho com 52 cartas. Qual é a probabilidade de que 2 sejam vermelhas e 2 sejam pretas? 3. Qual a probabilidade de que os aniversários de 12 pessoas sejam em meses diferentes? 4. Quatro números são sorteados ao acaso, sem reposição, do conjunto {0, 1, 2, . . . , 9}. Calcule a probabilidade de que: a) Os quatro números sorteados podem ser ordenados de forma consecutiva, por exemplo, {1, 2, 3, 4}. b) Todos sejam maiores do que 5. c) O número 0 seja escolhido. d) Pelo menos um seja maior do que 7. e) Todos sejam ímpares. 5. Sejam A e B dois eventos em um espaço de probabilidade tais que P(A) = 1/2, P(B) = 1/4 e P(A ∩ B) = 1/5. Calcule as probabilidades dos seguintes eventos: a) A não ocorre; b) B não ocorre; c) Pelo menos um entre A e B ocorrem; d) A não ocorre e B sim; e) B não ocorre e A sim; f) Ocorre exatamente um de A e B; g) Não ocorre nenhum de A e B; h) Pelo menos um de A e B não ocorre. 6. Escolhe-se ao acaso um número entre 1 e 50. Sabendo que o número é primo, qual é a probabilidade de que seja ímpar? 7. Em um programa de auditório o participante lança um dado honesto 6 vezes. Ele ganha um prêmio de participação se obtiver o mesmo número pelo menos duas vezes, e ganha um prêmio milionário se a face 6 aparecer pelo menos quatro vezes. Qual a probabilidade de que o participante: a) Ganhe o prêmio de participação? b) Ganhe o prêmio milionário? c) Tenha ganho o prêmio milionário dado que ganhou o prêmio de participação? 8. Em um curso preparatório para o vestibular, 1/3 dos estudantes são do sexo masculino e 2/3 são do sexo feminino. A proporção dos rapazes que estudam matemática é 20% e apenas 10% das moças estudam matemática. Obtenha as probabilidades de que: a) Um estudante escolhido ao acaso estude matemática. b) Um estudante de matemática escolhido ao acaso seja do sexo feminino. 9. Lança-se um dado duas vezes. Considere os eventos: A = {Foi obtido 2 ou 5 no primeiro lançamento} e B = {A soma das faces obtidas nos dois primeiros lançamentos é pelo menos 7}. 44 / 140 Probabilidade e Estatística A e B são independentes? 10. Dois estudantes, Pedro e Paulo, estão matriculados na turma de Probabilidade e Estatística. Pedro comparece a 80% das aulas e Paulo comparece a 60%. Suas presenças nas aulas são independentes. Calcule a probabilidade de que, em determinado dia: a) pelo menos um dos estudantes compareça a aula. b) apenas um deles esteja presente. Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 45 / 140 Probabilidade e Estatística Capítulo 4 Variáveis Aleatórias e Suas Distribuições O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Saber a definição de variável aleatória • Saber identificar variáveis aleatórias discretas • Entender o que é e como calcular a função de probabilidade de uma variável aleatória discreta • Saber identificar variáveis aleatórias contínuas • Entender o que é e como calcular a função de densidade de uma variável aleatória contínua • Saber a definição e como calcular a função de distribuição acumulada • Saber a relação entre a função de distribuição acumulada e função de probabilidade (no caso de variáveis aleatórias discretas) • Saber a relação entre a função de distribuição acumulada e função de densidade (no caso de variáveis aleatórias contínuas) • Saber a definição e exemplos de variáveis aleatórias mistas • Entender o que são e como trabalhar com funções de variáveis aleatórias Imaginemos que existe a definição de que a temperatura de João Pessoa é considerada quente se é maior do que 27 graus Celsius, é considerada confortável se está entre 20 e 27 graus Celsius, e é considerada fria se é menor do que 20 graus Celsius. Suponha que nosso espaço amostral para o experimento medir a temperatura de João Pessoa pela manhã. Suponha que nosso espaço amostral, que contém todos os resultados possíveis para a temperatura, é Ω = R. Se queremos determinar se a temperatura é fria, confortável ou quente, a melhor ferramenta para isso é definir uma função X : Ω → {fria,confortável,quente}. Ou seja, uma função que associa a cada valor de temperatura, a quantidade fria, confortável ou quente. Por exemplo, X(10) = frio; X(34) = quente, e X(22) = confortável. Neste exemplo, foram medidas temperaturas, 10, 34 e 22, respectivamente. Essa função X que utilizamos é o que chamamos de uma variável aleatória. Ou seja, é um rótulo que damos para os valores possíveis no espaço amostral. Na prática, o mais comum é utilizar variáveis aleatórias, onde associamos cada valor do espaço amostral a um número real, ao invés de um conjunto arbitŕario. Isso se deve ao fato, de que existem muitas 46 / 140 Probabilidade e Estatística distribuições de probabilidade conhecidas tomando como valores números reais. Portanto, ao considerar uma variável aleatória que toma valores reais, estamos pegando um problema de probabilidade genérico, e transformando num problema de probabilidade de números reais, e assim podemos utilizar toda a teoria de distribuições discretas e contínuas para resolver o problema. Desta forma, mais precisamente, temos a Definição: Variável Aleatória Seja Ω um espaço amostral e seja X : Ω → R uma função X que associa a cada elemento ω ∈ Ω um número real X(ω) ∈ R. Exemplo 4.1 Exemplo de variável aleatória Suponha que sorteamos 3 pessoas em João Pessoa e observamos se é homem ou mulher. Suponha que queremos saber o número de mulheres sorteadas. Para isso, defina a variável aleatória X : Ω → R, onde X pode assumir os valores, 0,1,2 e 3. Se denotamos homem por H e mulher por M, temos que Ω = {MMM, MMH, MHM, HMM, MHH, HMH, HHM, HHH}, e portanto X(MMM) = 3, X(MMH) = X(MHM) = X(HMM) = 2, X(MHH) = X(HMH) = X(HHM) = 1, X(HHH) = 0. Definição: Imagem Inversa Seja Ω um espaço amostral e seja X : Ω → R uma variável aleatória. Dado qualquer subconjunto B ⊂ R, definimos a imagem inversa de B pela variável aleatória X como o conjunto X −1 (B) = {ω ∈ Ω; X(ω) ∈ B}. Ou seja, X −1 (B) consiste dos elementos de Ω que são levados no conjunto B pela variável aleatória X. A partir da imagem inversa de X −1 (B) podemos construir uma nova medida de probabilidade induzida pela variável aleatória X. Definição: Probabilidade induzida pela variável aleatória X Definimos a probabilidade P(X ∈ B) como sendo P(X −1 (B)), ou seja, como a probabilidade do evento X −1 (B). Da mesma forma, definimos P(X = a) como sendo P(X −1 ({a})), ou seja, a probabilidade da variável aleatória assumir o valor a. Exercício Escreva o que significa P(X ≤ b) para algum número real b. Solução Seguindo a mesma ideia da definição, temos que P(X ≤ b) deve ser definido como a probabilidade de X ser menor ou igual a b, assim, é a probabilidade de X pertencer ao intervalo da reta (−∞, b]. Portanto, P(X ≤ b) = P(X −1 ((−∞, b])). Exercício Suponha que na cidade de João Pessoa, temos a mesma quantidade de homens e de mulheres, e que cada sorteio de pessoas é feito com reposição e independentemente do(s) sorteio(s) anterior(es). Seja X a variável aleatória que indica o número de mulheres sorteadas. Calcule: P(X = 0), P(X = 1), P(X = 2) e P(X ≤ 2). Solução Temos que P(X = 0) = P(HHH) = 18 ; P(X = 1) = P({HHM, HMH, MHH}) = P(HHM) + P(HMH) + P(MHH) = 83 ; P(X = 2) = P(HMM, MHM, MMH) = P(HMM) + P(MHM) + P(MMH) = 38 . Finalmente, P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2) = 47 / 140 1 3 3 7 + + = . 8 8 8 8 Probabilidade e Estatística Poderíamos também ter resolvido utilizando a técnica de tomar complementares. Como X só pode assumir valores 0, 1, 2 e 3, temos que, P(X ≤ 2) = 1 − P(X > 2) = 1 − P(X = 3) = 1 − P(MMM) = 1 − 4.1 1 7 = . 8 8 Variáveis Aleatórias Discretas Como falamos anteriormente, nosso objetivo em considerar variáveis aleatórias tomando como valores números reais, se deve ao fato de haver uma teoria bem completa em torno dessas variáveis aleatórias. Dentre as variáveis aleatórias reais, existem dois grandes grupos: as variáveis aleatórias discretas e as variáveis aleatórias contínuas. Nosso objetivo nesta seção consiste em definir, e apresentar vários exemplos de variáveis aleatórias discretas. Definição: Variável aleatória discreta Seja Ω um espaço amostral e seja X : Ω → R uma variável aleatória. Se existe uma sequência números a1 , a2 , a3 , . . ., tais que X só pode assumir um dos valores dessa sequência. Então dizemos que X é uma variável aleatória discreta. Nota Note que apesar da sequência a1 , a2 , a3 , . . . ser uma sequência infinita, o conjunto de valores possíveis para a variável aleatória X pode ser finito ou infinito enumerável. Por infinito enumerável, nós queremos dizer um conjunto infinito que pode ser indexado pelo conjunto dos números naturais, ou seja, pelo qual podemos escrever uma sequência numérica cobrindo todos os números. No caso de variáveis aleatórias discretas, sabemos que vale a seguinte identidade: P(X ∈ {a1 , a2 , a3 , . . .}) = 1, pois X necessariamente só assume valores nesse conjunto {a1 , a2 , a3 , . . .}. Portanto, utilizando a aditividade contável da medida de probabilidade, obtemos ∞ 1 = P(X ∈ {a1 , a2 , a3 , . . .}) = ∑ P(X = ai ), i=1 e portanto temos que ∑∞ i=1 P(X = ai ) = 1, e além disso, sabemos que para cada i, vale P(X = ai ) ≥ 0. Estes fatos motivam a seguinte definição: Definição: Função de probabilidade Seja Ω um espaço amostral e seja X : Ω → R uma variável aleatória discreta, e seja a1 , a2 , a3 , . . . , o conjunto de valores possíveis de X. Definimos a função de probabilidade da variável aleatória X como uma função p(ai ), que associa a cada ai a probabilidade da variável aleatória X assumir o valor ai , isto é, definimos p(ai ) = P(X = ai ). Nota Pelo que já vimos, uma função de probabilidade satisfaz as seguintes propriedades: . para todo i, p(xi ) ≥ 0; . ∑∞ i=1 p(xi ) = 1. 48 / 140 Probabilidade e Estatística Exercício Suponha que uma urna contém 6 bolas azuis e 4 bolas vermelhas. Quatro bolas são tiradas aleatoriamente da urna, com reposição, e é observada a cor da bola, antes da bola ser devolvida à urna. Seja X a variável aleatória que indica o número de bolas vermelhas que foram retiradas da urna. Obtenha a função de probabilidade de X. Solução Denote por V a bola vermelha e por A, a bola azul. Pelas informações do problema, temos que 6 4 e a de se retirar uma bola azul é 10 . a probabilidade de se retirar uma bola vermelha é 10 Assim, P(V ) = 4 10 = 0, 4 e P(A) = 6 10 = 0, 6. O espaço amostral do problema é dado por Ω = {VVVV,VVVA,VVAV,VAVV, AVVV,VVAA,VAVA, VAAV, AVAV, AAVV, AVVA,VAAA, AVAA, AAVA, AAAV, AAAA}. É fácil ver que o conjunto de valores possíveis para a variável aleatória X é {0, 1, 2, 3, 4}. Assim: p(0) = P(X = 0) = P(AAAA) = (0, 6)4 ; p(1) = P(X = 1) = P(AAAV, AAVA, AVAA,VAAA) = P(AAAV ) + P(AAVA) + P(AVAA) + P(VAAA) = (0, 6)3 0, 4 + (0, 6)3 0, 4 + (0, 6)3 0, 4 + (0, 6)3 0, 4 = 4(0, 6)3 0, 4; p(2) = = = + = P(X = 2) = P(VVAA,VAVA,VAAV, AVAV, AAVV, AVVA) P(VVAA) + P(VAVA) + P(VAAV ) + P(AVAV ) + P(AAVV ) + P(AVVA) (0, 6)2 (0, 4)2 + (0, 6)2 (0, 4)2 + (0, 6)2 (0, 4)2 (0, 6)2 (0, 4)2 + (0, 6)2 (0, 4)2 + (0, 6)2 (0, 4)2 6(0, 6)2 (0, 4)2 ; p(3) = = = = P(X = 3) = P(VVVA,VVAV,VAVV, AVVV ) P(VVVA) + P(VVAV ) + P(VAVV ) + P(AVVV ) (0, 4)3 0, 6 + (0, 4)3 0, 6 + (0, 4)3 0, 6 + (0, 4)3 0, 6 4(0, 4)3 0, 6; finalmente, p(4) = P(X = 4) = P(VVVV ) = (0, 4)4 . 4.2 Variáveis Aleatórias Contínuas As variáveis contínuas são aquelas na qual a variável aleatória pode assumir uma quantidade nãoenumerável de valores. Isto faz com que a probabilidade de assumir um valor específico seja 0. Ou seja, se X é uma variável aleatória contínua, para todo número real a, temos que P(X = a) = 0. A intuição para este fato inusitado, é que temos tantos valores possíveis para X, que faz com que a probabilidade de assumir um valor em particular seja 0. Neste caso, a probabilidade de X assumir um valor é trocada pela probabilidade de X pertencer a um intervalo da reta. Além disso, no cálculo da probabilidade, a soma é “trocada” por uma integral, conforme veremos na próxima definição. Definição: Variável Aleatória Contínua Dizemos que X é uma variável aleatória contínua se existe uma função real f : R → R, a qual chamamos de função de densidade de X, que satisfaz as seguintes condições: 49 / 140 Probabilidade e Estatística • Para todo x real, f (x) ≥ 0; Z ∞ f (x)dx = 1; • −∞ • Se f (x) satisfaz as duas primeiras condições, então temos que para quaisquer a e b, −∞ < a < b < ∞, vale P(a ≤ X ≤ b) = Z b f (x)dx. a Nota Note portanto, que pela definição, para checar se uma função f (x) é uma função de densidade é suficiente verificar duas coisas: 1. se para todo x real, temos f (x) ≥ 0; Z ∞ 2. se f (x)dx = 1. −∞ Importante Como mencionamos anteriormente, a definição de variável aleatória contínua implica que para todo a real, P(X = a) = 0. De fato, como X possui uma função de densidade f , temos que Z a P(X = a) = f (x)dx = 0. a Uma consequência deste fato é que P(a ≤ X ≤ b) = P(a < x < b) = P(a < x ≤ b) = P(a ≤ X < b). Exercício Suponha que X seja uma variável aleatória contínua com a função de densidade ( 2x, 0 < x < 1; . f (x) = 0, caso contrário. a. Mostre que f (x) é uma função de densidade; b. Calcule P(X ≤ 1/2); c. Calcule P(X ≤ 1/2|1/3 ≤ X ≤ 2/3) (probabilidade condicional). Solução a. Temos da definição de f (x) que para todo x real, f (x) ≥ 0. Basta verificar agora que R∞ −∞ f (x)dx = 1. Note que f (x) = 0 fora do intervalo [0, 1], e portanto Z 1 Z ∞ f (x)dx = −∞ 0 1 2xdx = x2 0 = 1. Assim, f (x) é função de densidade b. P(X ≤ 1/2) = Z 1/2 0 1/2 1 2xdx = x2 = . 4 0 50 / 140 Probabilidade e Estatística c. P(X ≤ 1/2|1/3 ≤ X ≤ 2/3) = = P(1/3≤X≤1/2) P(1/3≤X≤1/2) R 1/2 2xdx 1/3 R 2/3 2xdx 1/3 1/2 x2 1/3 = = 2/3 2 x 5/36 3/9 1/3 = 4.3 5 12 . Função de Distribuição Acumulada Na teoria matemática da probabilidade é possível mostrar que, dada uma variável aleatória X, a probabilidade de qualquer evento pode ser obtida a partir das probabilidades P(X ≤ a), onde a é número real. Ou seja, conhecendo P(X ≤ a) para todo a real, significa dizer que conhecemos P(X ∈ A) para qualquer evento A. Este resultado é um importante resultado de Teoria da Medida, e mostra o quão rica é a função F(a) = P(X ≤ a). Por conta disso, ela recebe um nome: Definição: Função de Distribuição Acumulada Seja Ω um espaço amostral, e seja X : Ω → R uma variável aleatória discreta ou contínua. Defina a função FX : R → R dada por FX (a) = P(X ≤ a), onde a é número real. FX é denominada a função de distribuição acumulada da variável aleatória X, ou simplesmente função de distribuição. • Se X for uma variável aleatória discreta, então FX (a) = p(a j ), ∑ j;a j ≤a onde a soma é feita sobre os indíces j, tais que a j ≤ a. • Se X for uma variável aleatória contínua, então Z a FX (a) = f (x)dx. −∞ Exercício Seja X uma variável aleatória discreta tomando valores 0,1 e 2. Suponha que sua função de probabilidade é dada por p(0) = 1/2, p(1) = 1/3 e p(2) = 1/6. Obtenha FX . Solução Se a < 0, então FX (a) = P(X < a) ≤ P(X < 0) = 0. Como FX (a) = P(X ≤ a) ≥ 0, segue que para todo a < 0, FX (a) = 0. Suponha agora, 0 ≤ a < 1, então FX (a) = P(X ≤ a) = P(X = 0) = p(0) = 1/2. Seja agora, 1 ≤ a < 2. Então, FX (a) = P(X ≤ a) = P(X = 0) + P(X = 1) = p(0) + p(1) = 1/2 + 1/3 = 5/6. Finalmente, se a ≥ 2, então FX (a) = P(X ≤ a) = P(X ≤ 2) = 1. 51 / 140 Probabilidade e Estatística Assim, 0, 1/2, FX (a) = 5/6, 1, a<0 0 ≤ a < 1, . 1 ≤ a < 2, a ≥ 2. Exercício Seja X uma variável aleatória contínua com função de densidade ( 2x, 0 < x < 1; f (x) = . 0, caso contrário. Já sabemos que f é função de densidade por um exercício anterior. Obtenha sua função de distribuição FX . Solução Temos que se a < 0, então P(X ≤ a) ≤ P(X < 0) = 0. Assim, para a < 0, temos FX (a) = 0. Para 0 ≤ a ≤ 1, temos P(X ≤ a) = Z a 0 Assim, para 0 ≤ a ≤ 1, vale FX a 2xdx = x2 0 = a2 . (a) = a2 . Finalmente, se a > 1, então P(X ≤ a) = P(X ≤ 1) = 1. Portanto, para a > 1, segue FX (a) = 1. Desta forma, 0, 0 ≤ a < 0, FX (a) = a2 , 0 ≤ a ≤ 1, . 1, a ≥ 1. Nota Observe que se a ≤ b, então sempre que X(ω) ≤ a, teremos X(ω) ≤ a ≤ b, o que implica, X(ω) ≤ b. Assim, vale a inclusão de conjuntos {ω ∈ Ω; X(ω) ≤ a} ⊂ {ω ∈ Ω; X(ω) ≤ b}. Logo, P(X ≤ a) ≤ P(X ≤ b). Portanto, temos que se a ≤ b, então FX (a) ≤ FX (b), ou seja, FX é uma função nãodecrescente. Nota É possível mostrar que para qualquer variável aleatória X , vale lima→−∞ FX (a) = 0 e lima→∞ FX (a) = 1. Importante Note ainda que se X é uma variável aleatória discreta com conjunto de valores possíveis dado por {a1 , a2 , a3 , . . .}, ordenados de tal forma que a1 < a2 < a3 < a4 < . . ., então temos que p(ai ) = P(X = ai ) = P(X ≤ ai ) − P(X ≤ ai−1 ) = FX (ai ) − FX (ai−1 ). Ou seja, podemos obter a função de probabilidade de X a partir da função de distribuição de X desta forma. 52 / 140 Probabilidade e Estatística Nota Note que esta última observação nos diz que se temos uma função de distribuição de uma variável aleatória discreta, então o conjunto de valores que a variável aleatória X pode assumir é exatamente o conjunto dos pontos de descontinuidade da função de distribuição FX . Assim, se a1 é o menor ponto de descontinuidade de X , então P(X = a1 ) = FX (a1 ), e depois disso, se FX é descontínua no ponto ai , então teremos que P(X = ai ) = FX (ai ) − FX (ai−1 ). Exercício Suponha que X é uma variável aleatória discreta com função de distribuição FX dada por 0, a < 0, 1/4, 0 ≤ a < 1, FX (a) = 1/2, 1 ≤ a < 2, 1, a ≥ 2. Obtenha a função de probabilidade p(ai ). Solução Os pontos de descontinuidade da função de distribuição FX são 0, 1 e 2. Portanto, pelo que vimos, temos que p(0) = FX (0) = 1/4, p(1) = FX (1) − FX (0) = 1/2 − 1/4 = 1/4, e finalmente, p(2) = FX (2) − FX (1) = 1 − 1/2 = 1/2. Temos um resultado análogo para variáveis aleatórias contínuas. Importante Seja agora X uma variável aleatória contínua. Então, vale que Z x FX (x) = f (t)dt. −∞ Ou seja, estamos dizendo que FX é uma primitiva para a função de densidade f . Desta forma, podemos “recuperar” a função de densidade, a partir da função de distribuição, por simples derivação em todos os pontos em que FX for derivável: f (a) = dFX (a) = FX0 (a). da Exercício Suponha que X é uma variável aleatória contínua com função de distribuição FX dada por ( 0, a < 0, FX (a) = . −a 1 − e , a ≥ 0. Obtenha a função de densidade f (x). 53 / 140 Probabilidade e Estatística Solução Sabemos que a função de densidade f (x) é dada pela derivada da função de distribuição em todos os pontos em que esta for derivável. Assim, se x < 0, temos que f (x) = FX0 (x) = 0. Se x > 0, então f (x) = FX0 (x) = e−x . Em x = 0, FX não é derivável, então podemos supor f (x) = 0, já que o valor de uma função em um único ponto não altera o valor da integral. Portanto, a função de densidade f da variável aleatória X é dada por ( 0, 0 ≤ x ≤ 0, f (x) = −x . e , x > 0. 4.4 Variáveis Aleatórias Mistas Podemos ter também um terceiro tipo de variável aleatória: a variável aleatória mista. Ela consiste em uma variável aleatória cuja probabilidade é uma mistura entre as variáveis aleatórias contínuas e discretas. Assim, se X é uma variável aleatória mista, então existem números reais a1 , a2 , a3 , . . . , tais que para algum i, P(X = ai ) > 0, e tais que ∞ ∑ P(X = ai) = p < 1, i=1 ou seja, isso garante que ela tem esse comportamento da variável aleatória discreta, mas não é uma variável aleatória discreta, pois a soma não é igual a 1. Assim, seja FX a função de distribuição da variável aleatória X. Definimos a parte discreta da função de distribuição de X como FXd (x) = ∑i;ai ≤x P(X = ai ). Defina p(ai ) = P(X = ai ), então dizemos que a função p é a função de probabilidade da parte discreta da variável aleatória X. Nota Note que se X fosse uma variável aleatória discreta, teríamos FX = FXd . Agora, defina FXc (x) = FX (x) − FXd (x), a parte contínua da função de distribuição da variável Z aleatória X. Assim, se X é uma variável aleatória mista, existe uma função f (t) ≥ 0, tal que FXc (x) = Z ∞ e x f (t)dt, −∞ f (t)dt = 1 − p. Dizemos que a função f é a função de densidade da parte contínua de X. −∞ Nota Observe então que se X é uma variável aleatória discreta, então FXc (x) = 0, para todo x; e se X é uma variável aleatória contínua, então FXd (x) = 0, donde temos FX (x) = FXc (x). Portanto, podemos concluir que FX (x) = FXc (x) + FXd (x), ou seja, vale: FX (x) = P(X ≤ x) = Z x f (t)dt + −∞ 54 / 140 ∑ i;ai ≤x P(X = ai ). Probabilidade e Estatística Assim, suponha que é dada uma função de distribuição FX de uma variável aleatória mista X, e que queremos encontrar a função de probabilidade da parte discreta de X, e a função de densidade da parte contínua de X. Para tanto, começamos procurando por pontos de descontinuidade de FX . Suponha que temos os pontos a1 , a2 , . . ., então, para encontrar a função de probabilidade da parte discreta de X, basta calcular para cada i, o número p(ai ) = P(X = ai ) = P(X ≤ ai ) − P(X < ai ). Uma vez, encontrada a função de probabilidade da parte discreta de X, definimos FXc (x) = FX (x) − FXd (x), e obtemos a função de densidade da parte contínua de X por derivação: f (x) = FXc 0 (x), ou seja, derivamos a parte contínua da função de distribuição FX . Exercício Seja X uma variável aleatória mista com função de distribuição x ≤ 0, 0, FX (x) = x, 0 < x < 1/2, 1, x ≥ 1/2. Obtenha a função de probabilidade da parte discreta de X e a função de densidade da parte contínua de X. Solução Observe que FX só possui apenas um ponto de descontinuidade no ponto x = 1/2. Assim, temos que a função de probabilidade da parte discreta é dada por p(1/2) = P(X ≤ 1/2) − P(X < 1/2) = FX (1/2) − P(X < 1/2) = 1 − 1/2 = 1/2. Pois, como para x < 1/2, vale, P(X < x) = x, temos, P(X < 1/2) = 1/2. Portanto, temos que se x < 1/2, então FXd (x) = 0, e se x ≥ 1/2, então FXd (x) = 1/2. Daí, se x < 1/2, FXc (x) = FX (x) − FXd (x) = x, e se x ≥ 1/2, temos FXc (x) = FX (x) − FXd (x) = 1 − 1/2 = 1/2. Desta forma, temos que x ≤ 0, 0, c FX (x) = x, 0 < x < 1/2, . 1/2, x ≥ 1/2. Assim, derivando, obtemos que a função de densidade da parte contínua de X é dada por ( 0, x ≤ 0 ou x ≥ 1/2, f (x) = . 1, 0 < x < 1/2. 4.5 Funções de Variáveis Aleatórias Definição: Função de uma Variável Aleatória Seja X uma variável aleatória tomando valores reais. Seja Im(X) = X(Ω) = {X(ω); ω ∈ Ω} a imagem de X, ou seja, o conjunto dos valores que a variável aleatória X pode assumir. Seja g : Im(X) → R uma função real. Então, a função Y = g(X) é uma nova variável aleatória, e dizemos que Y é uma função da variável aleatória X. 55 / 140 Probabilidade e Estatística Relembre a definição de imagem inversa: para um subconjunto dos reais A ⊂ R a imagem inversa de A pela função g é o conjunto g−1 (A) = {x ∈ Im(X); g(x) ∈ A}. Assim, temos que para todo evento A ⊂ R, vale P(Y ∈ A) = P(g(X) ∈ A) = P(X ∈ g−1 (A)). Portanto, podemos calcular probabilidades com relação à variável aleatória Y a partir diretamente de probabilidades envolvendo apenas a variável aleatória X. Exemplo 4.2 Exemplo de função de variável aleatória discreta Seja X uma variável aleatória discreta tomando valores no conjunto 1, 2, 3, . . .. Suponha que P(X = n) = (1/2)n . Defina a função g : {1, 2, 3, . . .} → R dada por f (2k) = 1, k = 1, 2, 3, . . ., e f (2k − 1) = −1, para k = 1, 2, 3, . . .. Ou seja, g(x) é igual a 1 se x é par, e é igual a -1 se x é ímpar. Desta forma, definindo Y = g(X), temos que ( 1, se X for par, Y= −1, se X for ímpar. Assim, temos que P(Y = 1) = P(g(X) = 1) = P(X ∈ g−1 ({1})). Note que g(x) = 1 se, e somente se, x é par, ou seja, g−1 ({1}) = {2, 4, 6, . . .}. Assim, P(Y = 1) = P(X ∈ {2, 4, 6, . . .}) = (1/2)2 + (1/2)4 + (1/2)6 + · · · = 1/4 + (1/4)2 + (1/4)3 + · · · 1/4 = 1−1/4 = 1/3. Por outro lado, P(Y = −1) = 1 − P(Y = 1) = 1 − 1/3 = 2/3. Observe que outra forma equivalente de calcular P(Y = 1), seria observar que Y = 1 se, e somente se, X é par, e portanto {Y = 1} = {X ∈ {2, 4, 6, . . .}}. E portanto, P(Y = 1) = P(X ∈ {2, 4, 6, . . .}). Exemplo 4.3 Exemplo de função de variável aleatória contínua Seja X uma variável aleatória contínua com função de densidade dada por f (x) = 2x, se x ∈ (0, 1), e 0 caso contrário. Seja Y = 3X + 1. Vamos encontrar a função de densidade de Y , que denotaremos por fY (y). Primeiramente, note que como Im(X) = (0, 1), e assim Im(Y ) = (1, 4). Observe, agora, que P(Y ≤ y) = P(3X + 1 ≤ y). Sabemos que 3X + 1 ≤ y se, e somente se, X ≤ (y − 1)/3. Portanto, vale FY (y) = P(3X + 1 ≤ y) = P(X ≤ (y − 1)/3) = FX ((y − 1)/3). Finalmente, se y ≤ 0, então FY (y) = P(Y ≤ y) = 0, e se y ≥ 4, temos FY (y) = P(Y ≤ y) = 1. Portanto, se y < 0, então fY (y) = FY0 (y) = 0, e se y > 4, então fY (y) = FY0 (y) = 0. Agora, se y ∈ (1, 4), temos que FY (y) = FX ((y − 1)/3), e portanto, pela regra da cadeia fY (y) = FY0 (y) = FX0 ((y − 1)/3) · 1/3 = f ((y − 1)/3) · 1/3 = 2((y − 1)/3) 2(y − 1) = . 3 9 Exercício Considere X variável aleatória contínua com a densidade do exemplo anterior. Seja g(x) = e−x . Obtenha a função de densidade de Y = g(X) = e−X , fY (y). Solução Como Im(X) = (0, 1), temos que Im(Y ) = (1/e, 1). Assim, se y < 1/e, então FY (y) = P(Y ≤ y) = 0, e se y > 1, então FY (y) = P(Y ≤ y) = 1. Isto implica que se y < 1/e, fY (y) = FY0 (y) = 0, e se y > 1, temos fY (y) = FY0 (y) = 0. Falta considerarmos y ∈ (1/e, 1). Assim, temos que Y ≤ y se, e somente se, e−X ≤ y, que por sua vez, vale se, e somente se, X ≥ − ln(y). Portanto, FY (y) = P(Y ≤ y) = P(X ≥ − ln(y)) = 1 − FX (− ln(y)). Onde temos que P(X ≥ − ln(y)) = 1 − P(X < − ln(y)) = 1 − P(X ≤ − ln(y)) = 1 − FX (− ln(y)), 56 / 140 Probabilidade e Estatística pois P(X = − ln(y)) = 0, já que X é uma variável aleatória contínua. Desta forma, obtemos, usando a regra da cadeia, que para y ∈ (1/e, 1), fY (y) = FY0 (y) = (1 − FX (− ln(y))0 = − fX (− ln(y)) · −1 −2 ln(y) = . y y Exercício Seja X uma variável aleatória contínua com função de densidade f . Seja Y = X 2 . Encontre a função de densidade da variável aleatória Y , fY . Solução Observe que X 2 ≥ 0. Daí, se y < 0, segue que FY (y) = P(Y ≤ y) = 0, e portanto, para y < 0, vale fY (y) = 0. Suponha agora que y ≥ 0, e note que Y ≤ y se, e somente se, X 2 ≤ y. Esta última desigualdade vale se, e somente se, X 2 − y ≤ 0. Resolvendo essa inequação, obtemos que X 2 − y ≤ 0 se, √ √ e somente se, X ≥ − y e X ≤ y. Assim, vale a igualdade entre os conjuntos {Y ≤ y} = √ √ {− y ≤ X ≤ y}. Portanto, como X é variável aleatória contínua, segue que, √ √ √ √ √ √ FY (y) = P(Y ≤ y) = P(− y ≤ X ≤ y) = P(X ≤ y) − P(X < − y) = FX ( y) − FX (− y). Daí, pela regra da cadeia, vale que 1 −1 1 √ √ √ √ FY0 (y) = f ( y) · √ − f (− y) · √ = √ ( f ( y) + f (− y)) . 2 y 2 y 2 y Portanto, fY (y) = 4.6 1 √ 2 y √ √ f ( y) + f (− y) . Atividades 1. Seja X uma variável aleatória discreta com função de probabilidade dada por p(x) = cx, x = 1, . . . , 6. Encontre: a) o valor de c; b) a probabilidade de X ser um número ímpar. 2. Seja X uma variável aleatória discreta com função de probabilidade dada por p(x) = c , 4x x = 0, 1, . . . . Obtenha: a) o valor de x. b) a probabilidade de X ser um número par. 57 / 140 Probabilidade e Estatística 3. Seja X uma variável aleatória discreta com função de distribuição dada por 0, se x < 0, 1/2, se 0 ≤ x < 1, 3/5, se 1 ≤ x < 2, F(x) = 4/5, se 2 ≤ x < 3, 9/10, se 3 ≤ x < 4, 1, se x ≥ 4. Calcule: a) a função de probabilidade de X. b) P(X = 0|X é par). 4. Uma urna contém cinco bolas numeradas de 1 a 5. Duas bolas são retiradas simultaneamente. Obtenha a função de probabilidade das seguintes variáveis aleatórias: a) o maior número sorteado; b) a soma dos números retirados. 5. Verifique que as seguintes funções são densidades: a) 1/8, se 0 ≤ x ≤ 2, f (x) = 3/4, se 4 ≤ x ≤ 5, 0, caso contrário. b) f (x) = 3(1 − x)2 , 0 ≤ x ≤ 1. c) f (x) = 4xe−2x , x ≥ 0. 6. Seja X uma variável aleatória contínua com densidade dada por c f (x) = 3 , x ≥ 1. x Calcule: a) o valor de c; b) a probabilidade de X ser maior do que 2; c) a função de distribuição de X. 7. Encontre a densidade de Y = e−2X , onde X é uma variável aleatória contínua com densidade dada por f (x) = e−x , x > 0. 8. Encontre a densidade de |X|, se X é uma variável aleatória contínua com densidade dada por 2 1 f (x) = √ e−x /2 , 2π 9. x ∈ R. Seja X uma variável aleatória com densidade dada por se − 1 < x < 0, 1/2, f (x) = e−x /2, se x ≥ 0, 0, caso contrário. Obtenha a densidade de Y = X 2 . 58 / 140 Probabilidade e Estatística Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 59 / 140 Probabilidade e Estatística Capítulo 5 Esperança de uma Variável Aleatória O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Entender o que é a esperança de variáveis aleatórias • Conhecer as propriedades da esperança • Saber calcular a esperança • Entender o que é a variância de variáveis aleatórias • Conhecer as propriedades da variância • Saber calcular a variância Vamos começar introduzindo uma notação que será útil ao estudar o conceito de esperança matemática: variáveis aleatórias independentes. 5.1 Variáveis aleatórias independentes Relembre a definição de eventos independentes: sejam Ω um espaço amostral, A e B eventos de Ω. Então, dizemos que os eventos A e B são independentes se P(A ∩ B) = P(A)P(B). Esta definição motiva a definição de independência entre variáveis aleatórias: Definição: Variáveis Aleatórias Independentes Sejam X : Ω → R e Y : Ω → R duas variáveis aleatórias. Dizemos que X e Y são independentes se para todos os eventos A, B ∈ R, vale a fórmula: P(X ∈ A e Y ∈ B) = P(X ∈ A)P(Y ∈ B). Nota Sejam X e Y são duas variáveis aleatórias discretas. Suponha que X toma valores no conjunto {a1 , a2 , a3 , . . .} e que Y toma valores no conjunto {b1 , b2 , b3 , . . .}. Então, é possível mostrar que X e Y são independentes se, e somente se, para cada ai e b j , temos P(X = ai ,Y = b j ) = P(X = ai )P(Y = b j ). 60 / 140 Probabilidade e Estatística 5.2 Esperança matemática Vamos começar motivando a definição de esperança. A esperança pode ser pensada como uma generalização da média. De fato, suponha que temos 10 pesos. O primeiro possui 1 quilo, o segundo 2 quilos, . . . , o décimo 10 quilos. Suponha que uma pessoa escolhe um peso aleatoriamente, onde todos os pesos possuem a mesma probabilidade de serem escolhidos. Qual o peso médio? Temos 1 quilo com probabilidade 1/10, 2 quilos com probabilidade 1/10, . . . , 10 quilos com probabilidade 1/10. Assim, o peso médio é m = 1/10 + 2/10 + · · · + 10/10 = 5, 5. Mais geralmente temos a Definição: Esperança de Variáveis Aleatórias Discretas Seja X uma variável aleatória discreta tomando valores no conjunto {a1 , a2 , a3 , . . .}. Seja p(ai ) = P(X = ai ) sua função de probabilidade. Então, definimos a esperança, ou valor esperado, de X como: ∞ E(X) = ∑ ai p(ai ), i=1 ∑∞ i=1 |ai |p(ai ) se a série convergir, ou seja, se a série ∑∞ i=1 ai p(ai ) convergir absolutamente. Caso a série em questão não convirja absolutamente, dizemos que a esperança de X não existe. É claro que se X toma apenas uma quantidade finita de valores, digamos a1 , . . . , an , então a esperança de X é dada por n E(X) = ∑ ai p(ai ). i=1 Nota Observe que como a soma p(a1 ) + · · · + p(an ) = 1, podemos pensar nesta esperança como uma média ponderada, entre os valores a1 , . . . , an , com os pesos p(a1 ), . . . , p(an ). Note ainda que se todos os valores forem igualmente possíveis, ou seja, se para cada i, p(ai ) = 1/n, então a esperança será dada simplesmente pela média aritmética entre os valores possíveis: E(X) = 1 n ∑ ai. n i=1 Exemplo 5.1 Exemplo de esperança de variável aleatória discreta Seja X uma variável aleatória que toma valor 1 com probabilidade p, e valor 0 com probabilidade 1 − p. Temos então que E(X) = 0p(0) + 1p(1) = p(1) = P(X = 1) = p. Vamos agora definir esperança para variáveis aleatórias contínuas. Definição: Esperança de Variáveis Aleatórias Contínuas Seja X uma variável aleatória contínua com função de densidade f . Definimos a esperança de X como Z ∞ E(X) = f (x)dx, −∞ 61 / 140 Probabilidade e Estatística se Z ∞ −∞ |x| f (x)dx < ∞. No caso da integral imprópria acima divergir, dizemos que a esperança de X não existe. Exemplo 5.2 Exemplo de esperança de variável aleatória contínua Seja X uma variável aleatória contínua com função de densidade dada por ( 1 , a < x < b, f (x) = b−a 0, caso contrário. Portanto, x 1 x2 b dx = · b−a 2 a a b−a (b+a)(b−a) b2 −a2 = 2(b−a) = 2(b−a) = a+b 2 . Z b E(X) = 5.3 Esperança de uma Função de Variável Aleatória Definição: Esperança de função de variável aleatória Seja X uma variável aleatória e seja Y = H(X), para uma função real H. Temos então dois casos: • Se X for uma variável aleatória discreta tomando valores em {a1 , a2 , . . .}, e se p é a função de probabilidade de X, temos que ∞ ∞ E(Y ) = E(H(X)) = ∑ H(ai )P(X = ai ) = ∑ H(ai )p(ai ). i=1 i=1 • Se X for uma variável aleatória contínua com função de densidade f , então temos que Z ∞ E(Y ) = E(H(X)) = H(x) f (x)dx. −∞ Exemplo 5.3 Exemplo de esperança de função de uma variável aleatória discreta Vamos relembrar um exemplo estudando quando introduzimos funções de variáveis aleatórias: seja X uma variável aleatória discreta tomando valores no conjunto 1, 2, 3, . . .. Suponha que P(X = n) = (1/2)n . Defina a função g : {1, 2, 3, . . .} → R dada por f (2k) = 1, k = 1, 2, 3, . . ., e f (2k − 1) = −1, para k = 1, 2, 3, . . .. Ou seja, g(x) é igual a 1 se x é par, e é igual a -1 se x é ímpar. Desta forma, 62 / 140 Probabilidade e Estatística definindo Y = g(X), temos que ∞ E(Y ) = E(g(X)) = ∑ g(i)P(X = i) i=1 ∞ = ∞ ∑ g(2i)P(X = 2i) + ∑ g(2i − 1)P(X = 2i − 1) i=1 ∞ = ∞ ∑ P(X = 2i) + ∑ (−1)P(X = 2i − 1) i=1 ∞ = 2i ∑ (1/2) i=1 ∞ = ∞ i=1 − ∑ (1/2)2i−1 i=1 ∞ ∑ (1/2)2i − ∑ 2 · (1/2)2i i=1 ∞ = i=1 i=1 ∞ ∑ (1/2)2i − 2 ∑ (1/2)2i i=1 i=1 ∞ = − ∑ (1/2)2i i=1 ∞ = − ∑ (1/4)i i=1 1/4 = − 1−1/4 = −1/3. Portanto, E(Y ) = −1/3. Note que, quando apresentamos o exemplo no Capítulo 4, vimos que Y só assume os valores −1 e 1. Além disso, calculamos sua função de probabilidade: P(Y = −1) = 2/3 e P(Y = 1) = 1/3. Desta forma, usando diretamente a definição de esperança de variáveis aleatórias discretas, temos: E(Y ) = (−1) · 2/3 + 1 · 1/3 = −2/3 + 1/3 = −1/3. Logo, vemos que não há contradição entre as definições, e as esperanças sempre vão coincidir. Importante Como vimos no exemplo anterior, na hora de calcular a esperança de funções de variáveis aleatórias discretas, temos duas opções: • Calcular diretamente, usando a função de probabilidade de X , através da fórmula ∞ E(Y ) = E(H(X)) = ∑ H(ai )P(X = ai ); i=1 • Obter a função de probabilidade de Y e depois calcular a esperança de Y diretamente: ∞ E(Y ) = ∑ b j P(Y = b j ), j=1 onde Y toma valores em {b1 , b2 , . . .}. 63 / 140 Probabilidade e Estatística Exemplo 5.4 Exemplo de esperança de função de uma variável aleatória contínua Suponha que X é uma variável aleatória contínua com função de densidade ( x e , x ≤ 0, f (x) = e2−x 2 , x > 0. Tome Y = |X|, então E(Y ) é dada por Z ∞ E(Y ) = E(|X|) = |x| f (x)dx −∞ Z ∞ ex e−x dx. 2 2 −∞ 0 Observe que integrando por partes, obtemos que F(x) = −xex + ex é uma primitiva para −xex e que G(x) = −xe−x − e−x é uma primitiva para xe−x . Daí, Z 0 Z ∞ −x 0 ∞ 1 1 ex 1 e 1 x x −x dx = (−xe + e ) = e x dx = (−xe−x − e−x ) = . 2 2 2 2 2 2 −∞ 0 −∞ 0 Finalmente, juntando todas as informações, obtemos Z 0 = −x dx + x ∞ e−x ex 1 1 E(Y ) = −x dx + x dx = + = 1. 2 2 2 2 −∞ 0 Assim como no caso de variáveis discretas, podemos calcular a esperança de Y diretamente. Para isto, vamos obter a função de densidade de Y . Observe que como X é variável aleatória contínua, P(X = y) = 0 para todo y real. Assim, como Y ≥ 0, segue que para todo y ≥ 0: Z 0 Z FY (y) = P(Y ≤ y) = P(|X| ≤ y) = P(−y ≤ X ≤ y) = P(−y < X ≤ y) = FX (y) − FX (−y). Desta forma, por derivação, obtemos que a função de densidade de Y , fY (y) é dada por fY (y) = f (y) + f (−y) = e f (y) = 0, se y < 0. Portanto, Z ∞ E(Y ) = Z ∞ y fY (y)dy = −∞ −y H(y) = ye − ey e−y e−y + = e−y , 2 2 −y −y ye dy = (ye 0 ∞ − e ) = 1, y 0 ye−y . donde usamos que é primitiva de Assim como no caso de funções de variáveis aleatórias discretas, as duas formas de calcular a esperança fornecem o mesmo resultado. Importante Como vimos no exemplo anterior, e no caso de funções de variáveis aleatórias discretas, na hora de calcular a esperança de funções de variáveis aleatórias contínuas, temos duas opções: • Calcular diretamente, usando a função de densidade de X , através da fórmula Z ∞ E(Y ) = E(H(X)) = H(x) f (x)dx; −∞ • Obter a função de densidade de Y , fY (y), e depois calcular a esperança de Y diretamente: Z ∞ E(Y ) = −∞ 64 / 140 y fY (y)dy. Probabilidade e Estatística 5.4 Propriedades da Esperança Nessa seção vamos apresentar várias propriedades da esperança matemática e demonstrar algumas delas. Propriedades da esperança • (Esperança da constante): Seja c ∈ R um número real, e seja X a variável aleatória constante igual a c, ou seja, P(X = c) = 1. Então E(X) = c.. • (Sinal da esperança): Se X ≥ 0, então E(X) ≥ 0, e se X ≤ 0, então E(X) ≤ 0. • (Multiplicação por constante): Seja c ∈ R um número real, e seja X uma variável aleatória. Então E(cX) = cE(X). • (Soma de variáveis aleatórias): Sejam X e Y variáveis aleatórias quaisquer, então E(X +Y ) = E(X) + E(Y ). • (Combinação linear de variáveis aleatórias): Sejam X1 , X2 , . . . , Xn variáveis aleatórias, e c1 , c2 , . . . , cn números reais. Então n n E ∑ ci Xi = ∑ ci E(Xi ). i=1 i=1 • (Produto de variáveis aleatórias independentes): Sejam X e Y variáveis aleatórias independentes, então E(XY ) = E(X)E(Y ). Demonstração • (Esperança da constante): Note que X é uma variável aleatória discreta que toma apenas o valor c, e portanto E(X) = cP(X = c) = c. • (Sinal da esperança): Vamos demonstrar o caso X ≥ 0 para variáveis aleatórias discretas e para variáveis aleatórias contínuas. Os casos de variáveis aleatórias mistas e X ≤ 0 ficam como exercícios para o leitor. Seja X variável aleatória discreta, X ≥ 0, tomando valores no conjunto {a1 , a2 , . . .}. Como X ≥ 0, segue que para todo i, temos ai ≥ 0. Além disso, P(X = ai ) ≥ 0. Logo, n E(X) = ∑ ai P(X = ai ) ≥ 0. i=1 Seja, agora, X variável aleatória contínua, X ≥ 0, com função de densidade f (x). Então, como X ≥ 0, vale f (x) = 0 se x < 0. Daí Z ∞ E(X) = Z ∞ x f (x)dx = −∞ x f (x)dx ≥ 0. 0 • (Multiplicação por contante): Vamos demonstrar para variáveis aleatórias discretas e para variáveis aleatórias contínuas. O caso de variáveis aleatórias mistas fica como exercício para o leitor. 65 / 140 Probabilidade e Estatística Seja, então, X variável aleatória discreta, e suponha que X toma valores no conjunto {a1 , a2 , . . .}. Então, cX é função da variável aleatória discreta, daí ∞ ∞ E(cX) = ∑ cai P(X = ai ) = c ∑ ai P(X = ai ) = cE(X). i=1 i=1 Suponha agora que X é variável aleatória contínua com função de densidade f (x). Então, cX é função de uma variável aleatória contínua, e segue que Z ∞ E(X) = Z ∞ cx f (x)dx = c −∞ f (x)dx = cE(X). −∞ • (Soma de variáveis aleatórias): A demonstração foge do escopo do livro. • (Combinação linear de variáveis aleatórias): Usando a propriedade da soma de variáveis aleatórias n vezes, temos que n n E ∑ ci Xi = ∑ E(ci Xi ). i=1 i=1 Usando a propriedade da multiplicação por constante, obtemos o resultado desejado: E n n n c X = E(c X ) = ∑ i i ∑ i i ∑ ciE(Xi). i=1 i=1 i=1 • (Produto de variáveis aleatórias independentes): Foge do escopo do livro. 5.5 Variância de uma variável aleatória Vamos agora utilizar a esperança para definir uma noção de variabilidade da variável aleatória: a variância. A variância de uma variável aleatória mede o quanto a variável aleatória flutua em torno da esperança. Ou seja, mede quanto os valores da variável aleatória X podem se afastar da esperança. Vale observar também que se a variância de X for igual a zero, então X não varia nada, com relação à esperança, e portanto a variável aleatória X é constante igual à esperança de X. Definição: Variância de uma variável aleatória Seja X uma variável aleatória. Definimos a variância de X como Var(X) = E (X − E(X))2 . Nota Observe que como (X − E(X))2 ≥ 0, temos pela propriedade do sinal da esperança que E (X − E(X))2 ≥ 0, e portanto Var(X) ≥ 0. Uma noção muito útil em estatística é dada pela raiz quadrada da variância (pois a variância p é maior ou igual a zero). Mais precisamente, seja X uma variável aleatória, então o número Var(X) é chamado de desvio padrão de X, e é denotado por σX . O seguinte resultado fornece uma simplificação do cálculo da variância: 66 / 140 Probabilidade e Estatística Proposição Seja X uma variável aleatória, então Var(X) = E(X 2 ) − (E(X))2 . Demonstração Temos que como E(X) é um número real constante, podemos utilizar as propriedades: esperança da multiplicação por constante; esperança da constante; e esperança da soma, para obter: i Var(X) = E (X − E(X))2 i = E X 2 − 2XE(X) + E(X)2 = E(X 2 ) − 2E(XE(X)) + E(X)2 = E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) − (E(X))2 . Importante É possível mostrar que se Var(X) = 0, então P(X = E(X)) = 1. Ou seja, X é uma variável aleatória constante. Quanto maior o valor da variância, mais a variável aleatória pode se afastar da esperança, ou seja, maior a oscilação da variável aleatória em torno da esperança. Exemplo 5.5 Exemplo de variância de uma variável aleatória discreta Seja X a variável aleatória discreta que toma valor 1 com probabilidade p e toma valor 0 com probabilidade 1 − p. Então, temos que E(X) = 0 · (1 − p) + 1 · p = p. Daí, Var(X) = E(X 2 ) − E(X)2 = E(X 2 ) − p2 = 02 · (1 − p) + 1 · p − p2 = p(1 − p). Exemplo 5.6 Exemplo de variância de uma variável aleatória contínua Seja X variável aleatória contínua com função de densidade 1 + x, −1 ≤ x ≤ 0, f (x) = 1 − x, 0 ≤ x ≤ 1, 0, caso contrário. Comece notando que Z 0 E(X) = Z 1 x(1 + x)dx + Z−1 0 x(1 − x)dx Z 10 x + x2 dx + x − x2 dx 0 1 0 2 −12 x3 x x3 x + + − = 2 3 2 3 = −1 = −1/2 + 1/3 + 1/2 − 1/3 = 0. 67 / 140 0 Probabilidade e Estatística Além disso, E(X 2 ) Z 0 = Z 1 2 x (1 + x)dx + Z−1 0 2 3 Z 1 = x + x dx + = −13 0 0 3 x x4 x 3 + 4 −1 + 3 x2 (1 − x)dx 0 x2 − x3 dx 4 1 − x4 = 1/3 − 1/4 + 1/3 − 1/4 = 1/6. 0 Logo, Var(X) = E(X 2 ) = 1/6. 5.6 Propriedades da variância Nesta seção vamos apresentar algumas propriedades da variância e provar algumas delas. Propriedades da variância • (Variância da constante): Seja c ∈ R um número real, e seja X a variável aleatória constante igual a c, ou seja, P(X = c) = 1. Então, Var(X) = 0. • (Soma por constante): Seja X uma variável aleatória e seja c ∈ R uma constante. Então, Var(X + c) = Var(X). • (Variância da soma de variáveis independentes): Sejam X e Y variáveis aleatórias independentes. Então, Var(X +Y ) = Var(X) +Var(Y ). • (Variância da multiplicação por constante): Seja X variável aleatória, e seja c ∈ R uma constante. Então, Var(cX) = c2Var(x). • (Variância de uma função afim de X): Sejam a, b ∈ R, e seja X variável aleatória. Então, Var(aX + b) = a2Var(X). Demonstração • (Variância da constante): Observe que se X é constante igual a c, temos pela propriedade da esperança que E(X) = c. Daí h i Var(X) = E (X − E(X))2 = E[(c − c)2 ] = 0. • (Soma por constante): Usando as propriedades da esperança, temos diretamente que h i h i h i 2 2 2 Var(X +c) = E (X +c−E(X +c)) = E (X +c−E(X)−c) = E (X −E(X)) = Var(X). • (Variância da soma de variáveis independentes): Foge do escopo do livro. • (Variância da multiplicação por constante): Usando as propriedades da esperança, temos que h i h i Var(cX) = E (cX − E(cX))2 = E (cX − cE(X))2 h i h i = E c2 (X − E(X))2 = c2 E (X − E(X))2 = c2Var(X). 68 / 140 Probabilidade e Estatística • (Variância de uma função afim de X): Usando a variância da soma por constante, temos que Var(aX + b) = Var(aX), e usando a variância da multiplicação por constante obtemos Var(aX) = a2Var(X). Combinando as duas igualdades obtemos Var(aX + b) = a2Var(X). Exercício Seja X uma variável aleatória contínua com função de densidade ( 1 , a < x < b, f (x) = b−a 0, caso contrário. Encontre Var(X). Solução Já vimos no exemplo de esperança de variável aleatória contínua que E(X) = a+b 2 . Temos agora que Z b 1 b 2 1 2 E(X ) = x dx = b−a b−a a a b3 a3 1 − = b−a 3 3 3 3 b −a . = 3(b − a) Mas observe agora que temos o produto notável: (b − a)(a2 + ab + b2 ) = a2 b + ab2 + b3 − a3 − a2 b − ab2 = b3 − a3 . Portanto, segue que E(X 2 ) = b3 − a3 (b − a)(a2 + ab + b2 ) a2 + ab + b2 = = . 3(b − a) 3(b − a) 3 Finalmente, temos Var(X) = E(X 2 ) − (E(X))2 = a2 + ab + b2 (a + b)2 a2 − 2ab + b2 (b − a)2 − = = . 3 4 12 12 Resumindo, Var(X) = (b − a)2 /12. 5.7 Atividades 1. Duas bolas são escolhidas aleatoriamente de uma urna contendo 4 bolas azuis, 3 vermelhas e 2 laranjas. Suponha que ganhamos 10 reais para cada bola azul selecionada, ganhamos 1 real para cada bola laranja, porém perdemos 8 reais para cada bola vermelha. Seja X o nosso lucro. a) Determine a função de probabilidade de X; b) Calcule a esperança e variância de X. 2. Exatamente uma entre 6 chaves parecidas abre uma determinada porta. Tenta-se uma chave após a outra. Qual o número médio de tentativas necessárias para se conseguir abrir a porta? 3. Cinquenta pessoas lançam uma moeda honesta dez vezes. Obtenha a média e a variância do número de pessoas que obtêm exatamente 5 caras. 69 / 140 Probabilidade e Estatística 4. Seja X uma variável aleatória contínua com densidade f (x) = 1 , x2 a) Mostre que f é, de fato, uma densidade; b) A esperança de X existe? Se sim, quanto vale? x ≥ 1. 5. Seja X uma variável aleatória com distribuição de Laplace (também conhecida como exponencial dupla), ou seja, X tem densidade 1 f (x) = e|x| , x ∈ R. 2 Obtenha: a) E(X); b) E(|X|); c) Var(X); Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 70 / 140 Probabilidade e Estatística Capítulo 6 Principais Distribuições Discretas O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Conhecer as principais distribuições discretas • Saber a diferença entre a distribuição binomial e hipergeométrica • Saber a diferença entre a distribuição geométrica e binomial negativa • Entender a definição da distribuição Poisson e como utilizar a distribuição Poisson para aproximar a distribuição binomial Aqui apresentaremos as principais distribuições de variáveis aleatórias discretas, ou seja, apresentaremos a função de probabilidade de algumas variáveis aleatórias importantes. Além disso, apresentaremos algumas propriedades dessas variáveis aleatóriais, tais como esperança e variância. O objetivo dessa seção é que o estudante saiba reconhecer qual distribuição utilizar em cada situação. 6.1 A Distribuição Bernoulli A primeira e mais simples distribuição é a distribuição Bernoulli. É a distribuição de uma variável aleatória que só pode assumir dois valores: 0 e 1. Esta distribuição é bastante útil, pois normalmente usa-se a interpretação do resultado 1 como sucesso e 0 como fracasso. Mais precisamente, temos a Definição: Variável Aleatória Seguindo Distribuição Bernoulli Seja X uma variável aleatória discreta tomando os valores 0, 1. Seja p, a probabilidade de X assumir o valor 1, isto é, seja P(X = 1) = p. Então, pela probabilidade do complementar, segue que P(X = 0) = 1 − p. Podemos escrever de forma compacta a função de probabilidade de X como P(X = i) = pi (1 − p)1−i , i = 0, 1. Se X satisfaz a definição acima dizemos que X segue distribuição de Bernoulli com parâmetro p, e denotamos X ∼ Ber(p). 71 / 140 Probabilidade e Estatística Esperança Seja X ∼ Ber(p), então E(X) = 0 · P(X = 0) + 1 · P(X = 1) = p. Dica Observe que como X só assume valor 0 ou 1, temos que X = X 2 , e portanto, E(X) = E(X 2 ). Variância Seja X ∼ Ber(p), então Var(X) = E(X 2 ) − (E(X))2 = E(X) − (E(X))2 = p − p2 = p(1 − p). Exemplo 6.1 Onde surge o uso da distribuição Bernoulli A distribuição Bernoulli aparece naturalmente em várias situações. Alguns exemplos incluem: • Lançamento de moedas; • Encontrar produtos perfeitos ou defeituosos; • Ganhar ou perder um sorteio. 6.2 A Distribuição Binomial A melhor maneira de ilustrar a distribuição binomial é com o seguinte exemplo: Exemplo 6.2 Exemplo de distribuição binomial Suponha que temos uma urna com um certo número de bolas, donde com probabilidade p retiramos bolas azuis e com probabilidade 1 − p retiramos bolas vermelhas, se a retirada for ao acaso. Suponha que então que n bolas são retiradas com reposição (ou seja, a probabilidade de tirar uma bola azul, não muda após as retiradas). Se X é a variável aleatória dada pelo número de bolas azuis que foram retiradas entre as n bolas, dizemos que X segue distribuição binomial com parâmetros n e p. Importante Olhando para o exemplo anterior é possível observar que podemos pensar numa distribuição binomial como uma distribuição que surge de n distribuições de Bernoulli. De fato, se Xi é a variável aleatória que é igual a 1 se a i-ésima bola retirada foi azul, e zero caso contrário, temos que Xi ∼ Ber(p). Observe que como as retiradas das bolas são independentes, as variáveis aleatórias Xi são independentes. n Desta forma, é fácil ver que o valor de X é dado pela soma ∑ Xi. Pois teremos retirado k i=1 bolas azuis se, e somente se, tiver k variáveis aleatórias Xi sendo iguais a 1. Desta forma, podemos (e devemos) interpretar uma variável aleatória seguindo distribuição binomial como soma de n variáveis aleatórias independentes seguindo distribuição Bernoulli. 72 / 140 Probabilidade e Estatística Vamos agora calcular a probabilidade em questão. Note que para termos k bolas azuis entre n bolas retiradas, devemos ter exatamente n − k bolas vermelhas. Como as retiradas de bolas são independentes, e a probabilidade de se obter uma bola azul é p, segue que a probabilidade de termos k bolas azuis e n − k bolas vermelhas é pk (1 − p)n−k . Para concluirmos o cálculo da probabilidade, devemos calcular de quantas formas podemos retirar k bolas azuis e n − k bolas vermelhas, se retiramos um total de n bolas. Esta quantidade é dada pelo número de subconjuntos de k elementos em um conjunto com n elementos. Para entender esta conta, podemos pensar que temos um conjunto com n bolas brancas. Tomando um subconjunto com k elementos, é a mesma coisa que retirar k bolas. Então pintamos essas k bolas retiradas de azul, e as bolas restantes pintamos de vermelho. Desta forma, temos uma maneira de retirar k bolas azuis entre um total de n bolas retiradas. Assim, vemos que quando olhamos para todos os subconjunto de k elementos, estamos olhando para todas as formas de retirarmos k bolas azuis entre n bolas disponíveis. Finalmente, o número de subconjuntos de k elementos de um conjunto com n elementos é dado por n . Portanto, temos que se X é a variável aleatória dada pelo número de bolas azuis retiradas após k retirarmos n bolas, temos que n k P(X = k) = p (1 − p)n−k , k = 0, . . . , n. k Esta é a função de probabilidade de uma distribuição binomial. Portanto, podemos fornecer a seguinte Definição: Variável Aleatória Seguindo Distribuição Binomial Seja X uma variável aleatória dada pelo número de sucessos em n ensaios de Bernoulli, ou seja, o número de sucessos obtidos em n variáveis aleatórias de Bernoulli independentes. Então, dizemos que X segue distribuição binomial, denotamos por X ∼ Bin(n, p), e sua função de probabilidade é dada por n k p (1 − p)n−k , k = 0, . . . , n. P(X = k) = k É importante verificar que a nossa conta está correta, e que, de fato, a função de probabilidade dada acima tem soma total igual a 1. Isto segue diretamente do binômio de Newton: n n n ∑ P(X = k) = ∑ k pk (1 − p)n−k = (p + 1 − p)n = 1. k=0 k=0 Esperança n n k E(X) = ∑ k p (1 − p)n−k k k=0 n n! pk (1 − p)n−k = ∑k k=1 k!(n − k)! n n! = ∑ pk (1 − p)n−k . k=1 (k − 1)!(n − k)! 73 / 140 Probabilidade e Estatística Faça agora a mudança de variável m = k − 1. Isto implica k = m + 1, e portanto, continuando, n E(X) = n! ∑ (k − 1)!(n − k)! pk (1 − p)n−k k=1 n−1 = = = = = n! pm+1 (1 − p)n−m−1 m=0 m!(n − m − 1)! n−1 n · (n − 1)! ∑ m!((n − 1) − m)! p · pm(1 − p)(n−1)−m m=0 n−1 (n − 1)! np ∑ pm (1 − p)(n−1)−m m=0 m!(n − 1 − m)! np(p + 1 − p)n−1 np. ∑ Assim, E(X) = np. Importante Temos outra forma de calcular a esperança usando ensaios de Bernoulli. Como mencionamos, se Xi ∼ Ber(p) são independentes para i = 1, . . . , n, então, n n ∑ Xi ∼ Bin(n, p). Fazendo X = i=1 ∑ Xi, temos que X ∼ Bin(n, p), e usando a pro- i=1 priedade de soma de esperança, segue que E(X) = E n n n X = E(X ) = ∑ i ∑ i ∑ p = np, i=1 i=1 i=1 pois, como vimos na distribuição Bernoulli, E(Xi ) = p. Variância Vamos começar calculando E(X 2 ): n 2 n 2 E(X ) = ∑ k pk (1 − p)n−k k k=0 n n k = ∑ k(k − 1 + 1) p (1 − p)n−k k k=1 n n n k n k n−k = ∑ k(k − 1) p (1 − p) + ∑ k p (1 − p)n−k k k k=2 k=1 n n k = ∑ k(k − 1) p (1 − p)n−k + E(X) k k=2 n n k = ∑ k(k − 1) p (1 − p)n−k + np. k k=2 Vamos então calcular o último somatório do lado direito: n n n k n! n−k k(k − 1) p (1 − p) = k(k − 1) pk (1 − p)n−k ∑ ∑ k k!(n − k)! k=2 k=2 n n! = ∑ pk (1 − p)n−k . (k − 2)!(n − k)! k=2 74 / 140 Probabilidade e Estatística Façamos agora a mudança de variável m = k − 2, daí k = m + 2. Portanto, n n ∑ k(k − 1) k pk (1 − p)n−k = k=2 = = = = n−2 n! pm+2 (1 − p)n−2−m m=0 m!(n − 2 − m)! n−2 (n − 2)! ∑ n(n − 1) m!(n − 2 − m)! p2 · pm(1 − p)n−2−m m=0 n−2 (n − 2)! 2 n(n − 1)p ∑ pm (1 − p)n−2−m m=0 m!(n − 2 − m)! 2 n(n − 1)p (p + 1 − p)n−2 n(n − 1)p2 . ∑ Assim, juntando as contas, temos que E(X 2 ) = n(n − 1)p2 + np = (np)2 + np − np2 = (np)2 + np(1 − p). Finalmente, obtemos Var(X) = E(X 2 ) − (E(X))2 = (np)2 + np(1 − p) − (np)2 = np(1 − p). Exercício Um servidor de um jogo online possui 20 slots disponíveis, ou seja, aceita até 20 jogadores simultaneamente. A probabilidade, em qualquer hora do dia, de que um desses slots esteja disponível é de 40%, e que a disponibilidade dos slots são independentes. Qual a probabilidade de um par de amigos encontrarem dois slots disponíveis? Solução Seja X o número de slots disponíveis no jogo. Sabemos, pela definição do problema que X ∼ Bin(20, 0.4). Queremos calcular P(X ≥ 2). Note que P(X ≥ 2) = 1 − P(X = 1) − P(X = 0). Daí, 20 P(X = 0) = (0.4)0 (0.6)20 = (0.6)20 ; 0 e 20 P(X = 1) = 0.4(0.6)19 = 20 · 0.4(0.6)19 = 8 · (0.6)19 . 1 Desta forma, P(X ≥ 2) = 1 − (0.6)20 − 8(0.6)19 . Nota Observe que a hipótese de independência no exemplo acima não é realista, porém é necessária para ser possível trabalhar matematicamente. Caso contrário seria muito complicado. Suposições desta natureza para facilitar a resolução prática de problemas são muito comuns. 75 / 140 Probabilidade e Estatística 6.3 A Distribuição Geométrica Suponha que uma pessoa tem uma moeda que pode ser desonesta, ou seja, assume cara com probabilidade p, e coroa com probabilidade 1 − p. Vamos agora considerar o experimento aleatório: lançar esta moeda sucessivamente até obter cara. Qual a probabilidade da cara ser obtida no lançamento número k? Ou colocando numa forma mais matemática, se X é a variável aleatória dada pelo número do lançamento no qual a cara foi obtida, qual é a probabilidade P(X = k)? A resposta é simples. Para obtermos cara no lançamento número k, esta pessoa terá que ter obtido coroa em todos os k − 1 lançamentos anteriores e ter obtido cara exatamente no k-ésimo lançamento. Como os lançamentos das moedas são independentes, temos que esta probabilidade é P(X = k) = p(1 − p)k−1 , k = 1, 2, . . . . Essa variável aleatória X é uma variável aleatória que segue distribuição geométrica. Mais precisamente, Definição: Variável Aleatória Seguindo Distribuição Geométrica Sejam X1 , X2 , X3 , . . . variáveis aleatórias independentes seguindo distribuição Bernoulli com parâmetro p. Seja X a variável aleatória dada pela ocorrência do primeiro sucesso, ou seja, o menor índice i, tal que Xi teve sucesso. Então, dizemos que X segue distribuição geométrica com parâmetro p, e denotamos X ∼ G(p). A função de probabilidade de X é dada por P(X = k) = p(1 − p)k−1 , k = 1, 2, . . . . Primeiro vamos observar que a nossa conta está correta e, de fato, a função descrita acima é uma função de probabilidade. Temos claramente que p(1 − p)k−1 ≥ 0, e pela soma dos termos de uma progressão geométrica, temos ∞ ∞ k=1 k=1 1 p ∑ p(1 − p)k−1 = p ∑ (1 − p)k−1 = p 1 − (1 − p) = p = 1. Antes de calcularmos a esperança e variância da distribuição geométrica utilizaremos os seguintes resultados sobre séries geométricas e suas derivadas: k • Definindo a função f (r) = ∑∞ k=0 r , temos que ela converge para 0 ≤ r < 1, e vale a igualdade ∞ 1 ∑ rk = 1 − r ; f (r) = k=0 • Temos que para todo 0 ≤ r < 1, f é infinitamente diferenciável, e sua derivada, para 0 ≤ r < 1 é dada por f 0 (r) = ∞ 1 ∑ krk−1 = (1 − r)2 ; k=1 • Para 0 ≤ r < 1 a segunda derivada de f é dada por 76 / 140 Probabilidade e Estatística f 00 (r) = ∞ 2 ∑ k(k − 1)rk−2 = (1 − r)3 . k=2 Esperança Temos que ∞ E(X) = ∑ kp(1 − p)k−1 k=1 ∞ = p ∑ k(1 − p)k−1 k=1 1 (1 − (1 − p))2 1 = p 2 p 1 . = p = p Variância Para encontrar E(X 2 ) vamos calcular primeiro E[X(X − 1)], usando a fórmula da segunda derivada da série geométrica: ∞ E[X(X − 1)] = ∑ k(k − 1)p(1 − p)k−1 k=2 ∞ = p(1 − p) ∑ k(k − 1)(1 − p)k−2 k=2 2 (1 − (1 − p))3 2 = p(1 − p) 3 p 2(1 − p) = . p2 = p(1 − p) Assim, segue que: 1 E[X(X − 1)] = E(X 2 − X) = E(X 2 ) − E(X) = E(X 2 ) − . p Ou seja, E(X 2 ) = E(X 2 ) + 1 2(1 − p) 1 2 − 2p p 2− p = + = + 2= 2 . 2 2 p p p p p p Finalmente, Var(X) = E(X 2 ) − (E(X))2 = 6.3.1 2− p 1 1− p − = . p2 p2 p2 Perda de Memória Exemplo 6.3 Ilustração da perda de memória da distribuição geométrica Suponha que João está lançando moedas até o resultado sair cara. Suponha que esta João já lançou a moeda 12 vezes, e ainda não saiu cara, isto significa que a probabilidade do resultado sair cara no próximo lançamento será maior do que era 12 jogadas atrás? 77 / 140 Probabilidade e Estatística A resposta é não. Não importa o quanto tempo João tenha esperado, a probabilidade do próximo lançamento sempre será 1/2. Esta propriedade da distribuição geométrica é chamada de perda de memória. Mais precisamente, seja X uma variável aleatória seguindo distribuição Geométrica com parâmetro p. Então, temos que para todo par de inteiros positivos, m, n, vale P(X > m + n|X > m) = P(X > n). De fato, temos que P(X > m + n|X > m) = P(X > m + n, X > m) P(X > m + n) = , P(X > m) P(X > m) no entanto, usando a fórmula da soma dos termos de uma progressão geométrica infinita, temos ∞ P(X > m + n) = ∑ p(1 − p)k−1 = k=m+n+1 p(1 − p)m+n = (1 − p)m+n . 1 − (1 − p) Analogamente, P(X > m) = (1 − p)m . Logo, P(X > m + n|X > m) = P(X > m + n) (1 − p)m+n = = (1 − p)n = P(X > n). P(X > m) (1 − p)m Isto prova a perda de memória. Observe que aqui, na realidade, mostra mais do que falamos. Não só diz que a próxima probabilidade não muda, mas essencialmente diz o seguinte: se João já esperou um certo tempo m para sair cara, e a cara ainda não saiu, as probabilidades de sair cara dali para frente são as mesmas de como se ele tivesse começado a lançar naquele momento. Ou seja, a distribuiçã geométrica “esquece” todo o passado que já foi executado. 6.4 6.4.1 A Distribuição Pascal (ou Binomial Negativa) Generalização do Binômio de Newton Antes de definirmos esta distribuição, vamos rever rapidamente um pouco de teoria matemática presente em cursos de cálculo. Existe uma classe de funções reais, tais que a seguinte fórmula, conhecida como expansão em série de Taylor, é verdade ∞ f (k) (a) f 00 (a) 2 (x − a) + · · · = ∑ (x − a)k , f (x) = f (a) + f (a)(x − a) + 2 k! k=0 0 onde f (k) (a) denota a k-ésima derivada de f no ponto a, e f : I → R, onde I ⊂ R é um intervalo aberto. As funções tais que essa expansão é válida são conhecidas como funções analíticas. Importante Conhecemos várias funções analíticas: a função exponencial; seno; co-seno; logaritmo; poliônimos e frações de polinômios. 78 / 140 Probabilidade e Estatística 1 Um caso particular importante é dado pelas funções do tipo f (x) = (1 − x)−r−1 = (1−x) r+1 , onde r é um número natural. Como f é fração de polinômios, temos que f é analítica. Assim, considerando o ponto a = 0, temos f (x) = (1 − x)−r−1 ; f 0 (x) = −(−r − 1)(1 − x)−r−2 ; f 00 (x) = −(−r − 2)(−r − 1)(1 − x)−r−3 , . . . , e em geral, temos f (k) (x) = −(−r − k)(−r − (k − 1)) · · · (−r − 1)(1 − x)−r−k−1 . Definindo o coeficiente binomial generalizado como −r (−r)(−r − 1) . . . (−r − k + 1) = , k k! k = 0, 1, 2, . . . , podemos escrever f (k) −r − 1 (x) = (−1) k! (1 − x)−r−k−1 . k k Aplicando no ponto a = 0, temos f (k) −r − 1 (0) = (−1) k! , k k por sua vez, usando na série de Taylor, obtemos, −r−1 (1 − x) ∞ = f (x) = ∑ k=0 ∞ ∞ −r − 1 f (k) (0) k k k −r − 1 (−x)k . x =∑ x = ∑ (−1) k k k! k=0 k=0 Assim, temos o binômio de Newton generalizado: −r−1 (1 − x) −r − 1 =∑ (−x)k . k k=0 ∞ Observe que vale também a igualdade: r+k (r + k)(r + k − 1) · · · (r + 1)r = k k! (−r − k)(−r − (k − 1)) · · · (−r − 1)(−r) k k −r − 1 = (−1) = (−1) . k! k Daí, vale também a fórmula do binômio de Newton generalizado: ∞ r+k k −r−1 (1 − x) =∑ x. k k=0 6.4.2 Distribuição Pascal A distribuição de Pascal (ou Binomial Negativa) é uma generalização natural da distribuição geométrica. Para entendermos melhor esta distribuição, voltemos ao exemplo do lançamento de moedas. 79 / 140 Probabilidade e Estatística Se uma pessoa tem uma moeda que pode ser desonesta, ou seja, assume cara com probabilidade p, e coroa com probabilidade 1 − p. Suponha que temos o seguinte experimento aleatório: lançar uma moeda sucessivamente até obter r caras. Qual a probabilidade da r-ésima cara ser obtida no lançamento k? Ou, escrevendo de uma maneira matematicamente mais precisa, se X denota a variável aleatória dada pelo número do lançamento pelo qual a r-ésima cara foi obtida, qual é a probabilidade P(X = k)? Vamos calcular essa probabilidade por partes. Comece notando que X = k, se e somente se, no késimo lançamento o resultado foi cara e nos k − 1 lançamentos anteriores, obtemos r − 1 caras. O número de formas de isso acontecer é simples: escolher r − 1 resultados para sair cara, entre k − 1 k−1 resultados possíveis, ou seja, temos r−1 possibilidades. Finalmente, como em um total de k lançamentos, saíram r caras e k − r coroas, e temos k−1 r−1 possibilidades, a probabilidade é dada por k−1 r P(X = k) = p (1 − p)k−r , k = r, r + 1, . . . , r−1 onde k ≥ r, pois para obter r caras, temos que no mínimo ter k lançamentos. Importante Observe que se r = 1, temos que X segue uma distribuição geométrica com parâmetro p. Mais precisamente, Definição: Variável Aleatória Seguindo Distribuição Pascal Sejam X1 , X2 , . . . variáveis aleatórias independentes seguindo distribuição Bernoulli com parâmetro p. Seja X a variável aleatória dada pela ocorrência do r-ésimo sucesso, ou seja, o índice i, tal que Xi é o r-ésimo sucesso. Então, dizemos que X segue distribuição Pascal (ou binomial negativa) com parâmetros r e p, e denotamos X ∼ Pas(r, p). A função de probabilidade de X é k−1 r P(X = k) = p (1 − p)k−r , k = r, r + 1, . . . , r−1 Vamos começar mostrando que a função acima é, de fato, uma função de probabilidade. Claramente, k−1 r p (1 − p)k−r ≥ 0, e, temos ainda que usando a mudança de variável j = k − r, r−1 ∞ ∞ k−1 r j+r−1 r k−r ∑ r − 1 p (1 − p) = ∑ r − 1 p (1 − p) j j=0 k=r ∞ j + r − 1 = pr ∑ (1 − p) j j j=0 1 = pr (1 − (1 − p))r 1 = pr r p = 1, onde usamos o binômio de Newton generalizado e usamos que j+r−1 ( j + r − 1)! j+r−1 = = . (r − 1)! j! j r−1 80 / 140 Probabilidade e Estatística Nota A distribuição de Pascal, ou Binomial Negativa, recebe o nome de binomial negativa, por utilizar o binômio de Newton generalizado (com expoente negativo) para calcular sua esperança e variância, assim como para mostrar que a soma das probabilidades é igual a 1. Importante Existe uma caracterização da distribuição Pascal em termos de soma de variáveis aleatórias seguindo distribuição geométrica: sejam X1 , X2 , . . . , Xr variáveis aleatórias independentes seguindo distribuição Geométrica com parâmetro p. Assim, definindo X = ∑rk=1 Xk , temos que X segue distribuição Pascal com parâmetros r e p. A intuição é que para termos a “posição” do r-ésimo sucesso, contabilizamos a posição do primeiro sucesso com a variável X1 , adicionamos a variável X2 para obter a posição do segundo sucesso, . . . ,, adicionamos a variável Xr para obter a posição do r-ésimo sucesso. Ou seja, cada variável geométrica Xi representa o tempo que temos que esperar entre os sucessos, até a obtenção de um sucesso. Esperança Temos que, fazendo a mudança j = k − r, ∞ k−1 r E(X) = ∑ k p (1 − p)k−r r − 1 k=r ∞ j+r−1 r = ∑ ( j + r) p (1 − p) j r − 1 j=0 ∞ ( j + r − 1)! (1 − p) j = pr ∑ ( j + r) (r − 1)! j! j=0 ∞ ( j + r)! = pr ∑ (1 − p) j j=0 (r − 1)! j! ∞ ( j + r)! = pr ∑ r (1 − p) j r! j! j=0 ∞ j+r r = p ∑r (1 − p) j j j=0 ∞ j+r r = rp ∑ (1 − p) j j j=0 1 = rpr (1 − (1 − p))r+1 r = . p 81 / 140 Probabilidade e Estatística Importante Vale a pena notar que utilizando a caracterização de X como soma de variáveis aleatórias independentes seguindo distribuição geométrica, temos que r X = ∑ Xi , i=1 onde Xi ∼ G(p). Daí, E(X) = E r r r r 1 X = E(X ) = ∑ i ∑ i ∑ p = p. i=1 i=1 i=1 Variância Vamos começar calculando E[X(X + 1)]: k−1 r ∑ k(k + 1) r − 1 p (1 − p)k−r k=r ∞ j+r−1 r ∑ ( j + r + 1)( j + r) r − 1 p (1 − p) j j=0 ∞ ( j + r − 1)! r (1 − p) j p ∑ ( j + r + 1)( j + r) (r − 1)! j! j=0 ∞ ( j + r + 1)! pr ∑ (1 − p) j (r − 1)! j! j=0 ∞ ( j + r + 1)! pr ∑ r(r + 1) (1 − p) j (r + 1)! j! j=0 ∞ j+r+1 r p ∑ r(r + 1) (1 − p) j j j=0 ∞ j+r+1 r (1 − p) j r(r + 1)p ∑ j j=0 1 r(r + 1)pr (1 − (1 − p))r+2 r(r + 1) . p2 ∞ E[X(X + 1)] = = = = = = = = = Portanto, temos que E[X(X + 1)] = E(X 2 + X) = E(X 2 ) + E(X). Como E(X) = r/p e E[X(X + 1)] = r(r + 1)/p2 , temos que E(X 2 ) = r(r + 1) r r2 + r − rp − = . p2 p p2 Finalmente, a variância é dada por Var(X) = E(X 2 ) − (E(X))2 = 6.5 r2 + r − rp r2 r − rp r(1 − p) − 2= = . 2 p p p2 p2 Distribuição Hipergeométrica Assim como na distribuição binomial, vamos ilustrar a distribuição hipergeométrica com um exemplo: 82 / 140 Probabilidade e Estatística Exemplo 6.4 Exemplo de distribuição hipergeométrica Suponha que temos uma urna com N bolas, das quais n bolas são azuis, e N − n bolas são vermelhas. Suponha que m bolas foram retiradas aleatoriamente da urna sem reposição. Se X é a variável aleatória dada pelo número de bolas azuis que foram retiradas entre as m bolas, dizemos que X segue distribuição hipergeométrica com parâmetros N, n, m. Vamos agora calcular a probabilidade em questão. Queremos calcular a probabilidade de termos k bolas azuis. Note que temos m retiradas de bolas, entre as quais queremos k bolas azuis e m − k bolas vermelhas. O total de bolas azuis é n, então temos n N−n formas de selecionar estas bolas azuis e como temos N − n bolas vermelhas, temos formas k m−k de selecionar as bolas vermelhas. Como temos N bolas no total, e queremos selecionar m bolas, temos N m formas de selecionar m bolas. Portanto, a probabilidade é dada por P(X = k) = n N−n k m−k . N m Temos então a Definição: Variável Aleatória Seguindo Distribuição Hipergeométrica Suponha que temos N objetos para selecionarmos. Suponha que temos n formas de obter uma seleção “boa”, e N − n formas de obter uma seleção “ruim”. Suponha que tomemos uma amostra de tamanho m, sem reposição, e seja Xi a variável aleatória que assume valor 1, se a i-ésima seleção foi boa e assume valor 0, se a i-ésima seleção foi ruim. Então se X denota o número de seleções boas, ou seja, se m X = ∑ Xi , i=1 dizemos que X segue distribuição hipergeométrica com parâmetros N, n, m, denotamos por X ∼ HG(N, n, m), e sua função de probabilidade é dada por n N−n P(X = k) = k m−k N m , k = 0, . . . , m. (nk)(N−m m−k ) ≥ 0. Para N (m ) mostrar que a soma sobre todos os valores de k é igual a 1, vamos obter uma identidade de coeficientes binomiais. Vamos mostrar que a função acima é uma função de probabilidade. Claramente, Considere ocoeficiente de xm na expansão de (1 + x)N em binômio de Newton. Este coeficiente é dado por Nm . Por outro lado, sabemos que (1 + x)N = (1 + x)n (1 + x)N−n . Vamos olhar então o coeficiente de xm na expansão de (1 + x)n (1 + x)N−n , que é igual a Nm . Mas, observe que n N−n (1 + x) (1 + x) N−n n i N − n j = ∑ x ∑ j x i=0 i j=0 N i n N −n i = ∑ ∑ x. i− j i=0 j=0 j n 83 / 140 Probabilidade e Estatística Assim, o coeficiente de xm na expansão de (1 + x)n (1 + x)N−n é dado por m n N −n . ∑ m−k k=0 k Portanto, notando que o coeficiente de xm na expansão de (1 + x)n (1 + x)N−n é igual ao coeficiente de xm na expansão de (1 + x)N , pois (1 + x)N = (1 + x)n (1 + x)N−n , chegamos à identidade de ChuVandermonte: m N n N −n =∑ . m m−k k=0 k Dividindo ambos os lados por Nm , temos n N−n k m−k N k=0 m m ∑ Isto é o que queríamos provar, pois P(X = k) = = 1. (nk)(N−n m−k ) . (Nm) Esperança Temos que n N−n k k Nm−k k=0 m n N−n m k k Nm−k k=1 m m N−n n m−k k N k k=1 m N−n m n! m−k k N k=1 k!(n − k)! m N−n m n! m−k N (k − 1)!(n − k)! k=1 m N−n m (n − 1)! m−k n N (k − 1)!(n − k)! k=1 N−n m m n − 1 m−k n N k=1 k −1 m m n−1 N−n k−1 m−k n N k=1 m m n−1 N−n k−1 m−k n N−1 k=1 N/m m−1 n−1 N−n nm m k−1 m−k N−1 N k=1 m−1 m E(X) = = = = = = = = = = ∑ ∑ ∑ ∑ ∑ ∑ ∑ ∑ ∑ ∑ nm , N onde na última igualdade utilizamos a identidade de Chu-Vandermonte com a terna (N − 1, n − 1, m − 1). = 84 / 140 Probabilidade e Estatística Nota Podemos também utilizar a caracterização de X como a soma m X = ∑ Xi , i=1 onde Xi denota a variável aleatória que assume valor 1 se a i-ésima seleção foi boa, e assume valor 0 se a i-ésima seleção foi ruim. Observe que temos n seleções boas, entre um total de N possibilidades, ou seja, para cada i, as variáveis Xi possuem a mesma função de probabilidade: P(Xi = 1) = n , N daí, E(Xi ) = n/N , e portanto, E(X) = E m ∑ Xi i=1 m m n nm = . N i=1 N = ∑ E(Xi ) = ∑ i=1 Variância Utilizando a mesma técnica da esperança é possível mostrar que Var(X) = 6.6 mn(N − n)(N − m) . N 2 (N − 1) Distribuição Poisson Vamos começar motivando a definição da distribuição de Poisson por meio da aproximação conhecida como lei dos eventos raros. Também é conhecida como aproximação da distribuição binomial pela distribuição Poisson. Para tanto, considere o seguinte exemplo: Exemplo 6.5 Motivação para a distribuição de Poisson Suponha que uma empresa tem uma linha telefônica dedicada exclusivamente a reclamações. Num período fixado de 4 horas (por exemplo 08:00 às 12:00) essa linha recebe em média 500 ligações. Entretanto, essas ligações ocorrem aleatoriamente ao longo dessas 4 horas. Assim, sabemos que ao longo dos dias, teremos uma quantidade média de 500 ligações ao final das 4 horas, mas não sabemos em que momentos essas ligações são recebidas, nem o número exato de ligações recebidas em cada dia. A pergunta que surge é: Qual a probabilidade de termos k ligações no período de 4 horas no dia de hoje? Responder a pergunta acima não é uma tarefa trivial, e essa resposta envolve o uso da distribuição de Poisson. Para resolver este problema, divida o intervalo de 4 horas em n subintervalos, de mesmo tamanho, dado por 4/n horas, onde n > 500. Como 500 é o número médio de ligações recebidas durante todo o período, é esperado que tenhamos no máximo uma ligação em cada intervalo (observe que se n é muito grande, o intervalo fica muito pequeno, e a probabilidade de termos duas ligações no mesmo intervalo é próxima de zero, assim essa aproximação faz sentido). 85 / 140 Probabilidade e Estatística Assim, temos aproximadamente uma probabilidade 500/n de termos uma ligação em cada intervalo. Como temos n intervalos, a probabilidade de termos k ligações no total é dada pela probabilidade n de escolhermos k intervalos entre os n intervalos disponíveis: temos k formas de escolher esses k k n−k 500 intervalos, e cada escolha dessas tem probabilidade 500 1 − . Resumindo, se X denota n n a variável aleatória cujo valor é o número de ligações recebidas hoje durante as 4 horas, temos que P(X = k), ou seja, a probabilidade de termos k ligações é aproximadamente 500 n−k n 500 k 1− P(X = k) ≈ . k n n Em outras palavras, X segue aproximadamente distribuição binomial (n, 500/n). Observe que o valor esperado dessa aproximação binomial é dado por 500, o que mostra que a aproximação está consistente com o problema em questão. Finalmente, para sabermos a probabilidade exata, temos que calcular o limite do lado direito quando n tende a infinito. Faremos isso na próxima subseção. Nota Vale a pena observar que calcular a probabilidade do exemplo anterior usando a aproximação acima sem calcular o limite é uma tarefa computacionalmente complicada, pois envolve cálculo de fatoriais de números muito grandes. Por este motivo também, é muito comum usar uma aproximação inversa: se temos uma variável aleatória X seguindo distribuição binomial com parâmetros n e p, onde n é muito grande, é mais fácil calcular uma aproximação desta probabilidade usando a distribuição Poisson. 6.6.1 Aproximação da distribuição binomial pela Poisson Baseado no exemplo da seção anterior, suponha que temos uma taxa média λ > 0, e considere a sequência de variáveis aleatórias X1 , X2 , . . . , onde cada Xn segue distribuição Bin(n, λ /n). Observe que precisamos que n seja grande para que λ /n < 1 e portanto seja uma probabilidade. Nosso objetivo nesta seção é calcular o limite λ n−k n λ k 1− . lim P(Xn = k) = lim n→∞ n→∞ k n n 86 / 140 Probabilidade e Estatística Nota Para calcular o limite em questão, precisaremos relembrar alguns fatos básicos de cálculo em uma variável. Relembre que o número de Euler, e, é definido como 1 n e = lim 1 + . n→∞ n Utilizando a regra de L’Hopital, podemos mostrar que para todo x ∈ R x n ex = lim 1 + . n→∞ n Desta forma, se tomarmos x = −λ na expressão acima, obtemos, −λ e λ n . = lim 1 − n→∞ n Finalmente, para cada k natural fixado (constante, não muda com n), temos que limn→∞ 1− λ n k = 1, e portanto n λ 1− n λ n−k −λ = lim lim 1 − k = e . n→∞ n→∞ n 1 − λn Para começarmos a calcular o limite, observe que para cada k, temos n(n − 1) · · · (n − k + 1) n n! = . = k!(n − k)! k! k Desta forma, temos n λ k λ n−k P(Xn = k) = 1− k n n n(n − 1) · · · (n − k + 1) λ k λ n−k = 1− k! n n 1 λk λ n−k = n(n − 1) · · · (n − k + 1) k 1 − k! n n k λ n(n − 1) · · · (n − k + 1) λ n−k = 1− k! n nk λk n n − 1 n − k + 1 λ n−k = ··· 1− k! n n n n λk 1 (k − 1) λ n−k = 1− ··· 1− 1− . k! n n n Temos que valem os seguintes limites: 1 (k − 1) λ n−k lim 1 − ··· 1− = 1, e lim 1 − = e−λ . n→∞ n→∞ n n n Portanto, obtemos λk 1 (k − 1) λ n−k lim P(Xn = k) = lim 1− ··· 1− 1− n→∞ n→∞ k! n n n λ k −λ = e . k! 87 / 140 Probabilidade e Estatística Este é o valor do limite procurado no final do exemplo, e assim, voltando ao exemplo: .Motivação para a definição da distribuição Poisson Relembremos que se X denota a variável aleatória cujo valor é o número de ligações recebidas hoje durante as 4 horas, temos que P(X = k), ou seja, a probabilidade de termos k ligações é aproximadamente 500 n−k n 500 k 1− . P(X = k) ≈ n n k Em outras palavras, X segue aproximadamente distribuição binomial (n, 500/n). O valor exato da probabilidade é então dado por 500 n−k 500k −500 n 500 k 1− e . P(X = k) = lim = n→∞ k n n k! Importante Este resultado de aproximação também pode ser usado para calcular aproximações de probabilidades de distribuições binomiais quando n é muito grande. Mais precisamente, se temos uma variável aleatória X seguindo distribuição binomial com parâmetros n e p, e n é muito grande, podemos aproximar esta probabilidade por P(X = k) ≈ 6.6.2 (np)k −np e . k! Distribuição Poisson Definição: Variável Aleatória Seguindo Distribuição Poisson Suponha que temos ocorrências de eventos em um intervalo (de tempo ou espaço) I. Suponha que temos um número médio de ocorrências em I é dado por λ > 0, e que a ocorrência de cada evento subsequente é independente da ocorrência dos eventos anteriores. Então se X denota o número de ocorrências do evento no intervalo I, dizemos que X segue distribuição Poisson com parâmetro λ , denotamos por X ∼ P(λ ), e sua função de probabilidade é dada por P(X = k) = λ k −λ e , k! k = 0, 1, . . . . Para verificar que a função definida acima é realmente uma função de probabilidade, como temos, claramente, que λ k /k!e−λ > 0, basta verificar que a soma sobre todos os valores de k é igual a 1. Para tanto, relembre a definição de função analítica. É um fato conhecido que a função exponencial f (x) = ex é analítica. Como temos que f (x) = ex , f 0 (x) = ex , f 00 (x) = ex , f 000 (x) = ex , e, em geral, vale f (k) (x) = ex . Portanto, aplicando em a = 0, temos que f (k) (0) = 1. Assim, obtemos a série de Taylor da função exponencial, ∞ ∞ f (k) (0) k 1 ex = f (x) = ∑ x = ∑ xk . k! k=0 k=0 k! 88 / 140 Probabilidade e Estatística Em particular, obtemos ∞ 1 ∑ k! λ k . eλ = k=0 Vamos então mostrar que as probabilidades da Poisson formam, de fato, uma função de probabilidade: λ k −λ ∑ e k=0 k! ∞ ∞ ∑ P(X = k) = k=0 k λ = e−λ ∑∞ k=0 k! = e−λ eλ = 1. Esperança Temos que ∑∞ k=0 kP(X = k) λ k −λ ∑∞ k=0 k k! e λ k −λ ∑∞ k=1 k k! e λ k−1 −λ ∑∞ k=1 λ (k−1)! e E(X) = = = = k−1 λ −λ . = λ ∑∞ k=1 (k−1)! e Fazendo j = k − 1, temos que λ k−1 −λ e ∑ k=1 (k − 1)! ∞ λj = λ ∑ e−λ j=0 j! ∞ E(X) = λ = λ eλ e−λ = λ. Variância Vamos começar calculando E[X(X − 1)]. Daí, ∞ E[X(X − 1)] = ∑ k(k − 1)P(X = k) k=0 ∞ λ k −λ e k! k=0 ∞ λ k −λ = ∑ k(k − 1) e k! k=2 ∞ k λ = ∑ e−λ k=2 (k − 2)! ∞ λ k−2 −λ = ∑ λ2 e . (k − 2)! k=2 = ∑ k(k − 1) Fazendo a mudança de variável j = k − 2, temos que λ k−2 −λ E[X(X − 1)] = ∑ λ e (k − 2)! k=2 ∞ λ j −λ 2 = λ ∑ e j=0 j! ∞ 2 = λ 2 eλ e−λ = λ 2. 89 / 140 Probabilidade e Estatística Porém, como temos que E[X(X − 1)] = E(X 2 ) − E(X), e portanto E(X 2 ) = E[X(X − 1)] + E(X) = λ 2 + λ . Portanto, temos que Var(X) = E(X 2 ) − (EX)2 = λ 2 + λ − λ 2 = λ . Desta forma, uma variável aleatória com distribuição Poisson com parâmetro λ possui esperança e variância iguais a λ . 6.7 Atividades 1. Quinze pessoas portadoras de determinada doença são selecionadas para se submeter a um tratamento. Sabe-se que este tratamento é eficaz na cura da doença em 80% dos casos. Suponha que os indivíduos submetidos ao tratamento curam-se (ou não) independentemente uns dos outros. Seja X o número de pessoas curadas dentre os 15 pacientes submetidos ao tratamento. a) Qual a distribuição de X? b) Qual a probabilidade de que os 15 pacientes sejam curados? c) Qual a probabilidade de que pelo menos dois não sejam curados? 2. Um aluno estuda 12 exercícios, dos quais o professor vai escolher 6 aleatoriamente para uma prova. O estudante sabe resolver 9 dos 12 problemas. Seja X o número de exercícios resolvidos por ele na prova. a) Qual a distribuição de X? b) Qual a probabilidade do aluno resolver pelo menos 5 exercícios da prova. 3. Um estudante preenche ao acaso um exame de múltipla escolha com 5 respostas possíveis (uma das quais é a correta) para cada uma de 10 questões. a) Qual a distribuição do número de respostas certas? b) Qual a probabilidade de que o estudante obtenha 9 ou mais respostas certas? c) Qual a probabilidade de que acerte pelo menos duas questões? 4. Em uma pizzaria com entrega a domicílio, 30% dos pedidos por telefone são de mais de uma pizza. Certo dia, o dono decide mandar um brinde ao cliente que fizer o primeiro pedido com mais de uma pizza. Seja X o número de pedidos recebidos até o ganhador ganhar o brinde. a) Qual a distribuição de X? b) Determine o menor número de pedidos necessários para garantir que o brinde saia com probabilidade maior do que 0,9. 5. Um vendedor que vai de porta em porta, consegue concretizar uma venda em 40% das visitas que faz. Este vendedor pretende efetuar no mínimo duas vendas por dia. Seja X o número de visitas feitas até que a segunda venda seja efetivada. a) Qual a distribuição de X? b) Calcule a probabilidade de que o vendedor faça no máximo seis visitas para concluir as duas vendas. 6. O número X de acidentes de trabalho que ocorrem em uma fábrica por semana segue distribuição Poisson. Sabendo que a porcentagem de semanas em que ocorre um acidente é um terço da porcentagem de semanas em que não acontece nenhum, calcule: 90 / 140 Probabilidade e Estatística a) o parâmetro da distribuição; b) a probabilidade de que ocorra um acidente em uma semana e também um na semana seguinte, sabendo que acidentes em semanas diferentes são independentes; 7. Se uma variável aleatória tem distribuição Poisson e P(X = 0) = 1/2, quanto vale a variância de X? 8. Suponha que 1% das lâmpadas de enfeite de natal de certa marca apresentem defeito. Estime a probabilidade de que uma caixa com 30 lâmpadas contenha no máximo uma lâmpada com defeito. (Dica: Aproxime essa probabilidade pela distribuição Poisson) 9. Sabe-se que 0,6% dos parafusos produzidos em uma fábrica são defeituosos. Usando a aproximação da Binomial pela Poisson, estime a probabilidade de que, em um pacote com 1000 parafusos: a) tenhamos exatamente 4 parafusos defeituosos; b) não tenhamos mais do que 4 parafusos defeituosos; c) encontrem-se pelo menos 3 parafusos defeituosos. Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 91 / 140 Probabilidade e Estatística Capítulo 7 Principais Distribuições Contínuas O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Conhecer as principais distribuições contínuas • Saber utilizar a tabela da distribuição normal • Conhecer a distribuição Exponencial e Gama • Saber utilizar a distribuição normal para aproximar a distribuição binomial Aqui apresentaremos algumas das principais distribuições contínuas. Para tanto, apresentaremos suas funções de densidade. Além disso, apresentaremos algumas propriedades destas distribuições, tais como esperança e variância. 7.1 Distribuição Uniforme Definição: Variável Aleatória Seguindo Distribuição Uniforme Suponha que X seja uma variável aleatória contínua que assuma valores no intervalo [a, b], no qual a e b sejam ambos finitos. Se a função de densidade de X for dada por ( 1 , a ≤ x ≤ b, f (x) = b−a 0, caso contrário, dizemos que X é uniformemente distribuída sobre o intervalo [a, b], e denotamos X ∼ U[a, b]. Uma variável aleatória uniformemente distribuída representa o análogo contínuo dos resultados equiprováveis no seguinte sentido: Para qualquer subintervalo [c, d], onde a ≤ c < d ≤ b, P(c ≤ X ≤ d) é a mesma para todos os subintervalos que tenham o mesmo comprimento. Ou seja, P(c ≤ X ≤ d) = Z d f (x)dx = c e, por isso, depende unicamente do comprimento do intervalo. 92 / 140 d −c , b−a Probabilidade e Estatística Esperança Temos que E(X) = b2 − a2 x2 b a+b x x= = . = d 2(b − a) a 2(b − a) 2 Z b b−a a Variância Temos que 2 E(X ) = Z b 2 x a b−a dx = b3 − a3 x3 b a2 + ab + b2 = . = 3(b − a) a 3(b − a) 3 Portanto, obtemos que a2 + ab + b2 (a + b)2 (b − a)2 Var(X) = E(X ) − (E(X)) = − = . 3 4 12 2 2 Exemplo 7.1 Exemplo de aplicação da distribuição uniforme Um ponto é escolhido ao acaso no segmento de reta [0, 2]. Qual será a probabilidade de que o ponto escolhido esteja entre 1 e 3/2? Seja X a variável aleatória que representa a coordenada do ponto escolhido. Temos que X ∼ U[0, 2], daí ( 1/2, 0 ≤ x ≤ 2, f (x) = 0, caso contrário, e P(1 ≤ X ≤ 3/2) = Z 3/2 1 1 7.2 2 dx = 1 13 −1 = . 2 2 4 A Distribuição Normal Definição: Variável Aleatória Seguindo Distribuição Normal A variável aleatória X, que assume valores na reta, −∞ < x < ∞, tem distribuição normal se sua função de densidade é da forma (x−µ)2 1 − f (x) = √ e 2σ 2 , 2πσ −∞ < x < ∞, onde −∞ < µ < ∞ e σ > 0, e denotamos X ∼ N(µ, σ 2 ). Na figura abaixo apresentamos gráficos das funções de densidade da distribuição normal para alguns valores de µ e σ 2 : 93 / 140 0.8 Probabilidade e Estatística 0.4 (−2;0.5) (0;1) 0.2 f(x) 0.6 (0;0.2) 0.0 (0;5) −4 −2 0 2 4 x Figura 7.1: Exemplo de funções de densidade da distribuição normal para valores de µ e σ 2 descritos no par ordenado (µ; σ 2 ) Esperança e Variância Temos que se X ∼ N(µ, σ 2 ), então e Var(X) = σ 2 . E(X) = µ 7.2.1 Padronização e Tabulação da Distribuição Normal Temos que se X ∼ N(µ, σ 2 ), então a variável padronizada Z= X −µ σ terá distribuição normal padrão, ou seja, Z ∼ N(0, 1), e sua função de densidade é dada por z2 1 f (z) = √ e− 2 , 2π −∞ < z < ∞. Logo, temos que Z b z2 1 √ e− 2 dz. a 2π Desta forma, dada uma variável aleatória X ∼ N(µ, σ 2 ), podemos padronizá-la na variável Z, e obter as probabilidades a partir da tabela de valores da função de distribuição da normal padrão P(a ≤ Z ≤ b) = Φ(z) = P(Z ≤ z) = Z z z2 1 √ e− 2 dz. −∞ 2π Nota Observe que na padronização dividimos por σ , que é o desvio padrão da variável aleatória normal. Não dividimos pela variância. 94 / 140 Probabilidade e Estatística A distribuição normal padrão satisfaz a seguinte propriedade se simetria: Φ(−x) = 1 − Φ(x). Importante A identidade de simetria acima nos diz que podermos calcular as probabilidades P(Z ≤ −x) a partir das probabilidades P(Z ≤ x). Assim, como a tabela da normal apresentada no apêndice não contém valores negativos de x, para calcularmos estas probabilidades, utilizamos a fórmula acima. Exemplo 7.2 Exemplo de cálculo de probabilidades utilizando a tabela da normal Seja Z ∼ N(0, 1). Vamos calcular as probabilidades P(0 ≤ Z ≤ 1), P(Z ≥ 1, 93), P(−2, 55 ≤ Z ≤ 1, 2) e P(Z ≤ 1, 93). Observe inicialmente que P(0 ≤ Z ≤ 1) = Φ(1) − Φ(0). Olhando para a tabela da normal (que pode ser encontrada no Apêndice deste livro), obtemos que Φ(1) = 0, 8413 e Φ(0) = 0, 5. Portanto P(0 ≤ Z ≤ 1) = Φ(1) − Φ(0) = 0, 8413 − 0, 5 = 0, 3413. Para a próxima probabilidade, temos que P(Z ≥ 1, 93) = 1 − P(Z ≤ 1, 93) = 1 − Φ(1, 93). Olhando para a tabela no apêndice, obtemos P(Z ≥ 1, 93) = 1 − Φ(1, 93) = 1 − 0, 9732 = 0, 0268. A próxima probabilidade deve ser observada com cuidado, pois temos um valor negativo, e se olharmos na tabela, não há valores negativos, e portanto, teremos que usar a simetria da distribuição normal. Assim, P(−2, 55 ≤ Z ≤ 1, 2) = Φ(1, 2) − Φ(−2, 55) = Φ(1, 2) − (1 − Φ(2, 55)) = Φ(1, 2) + Φ(2, 55) − 1 = 0, 8849 + 0, 9946 − 1 = 0, 8795. Finalmente, P(Z ≤ 1, 93) = Φ(1, 93) = 0, 0268. Veremos agora mais alguns exemplos de aplicações da distribuição normal. Exemplo 7.3 Exemplo de aplicação da distribuição normal Suponha que as alturas dos alunos de ciências da computação da UFPB seguem distribuição normal com média 1,60m e desvio padrão 0,30m. Seja X a variável aleatória que indica a altura de um aluno de ciências da computação da UFPB escolhido ao acaso. Encontre a probabilidade de um aluno medir: a) Entre 1,50m e 1,80m; Queremos calcular P(1, 50 ≤ X ≤ 1, 80). Observe que Z= X − 1, 60 ∼ N(0, 1). 0, 30 Temos então que: P(1, 50 ≤ X ≤ 1, 80) = = = = = = = P(1, 50 − 1, 60 ≤ X − 1, 60 ≤ 1, 80 − 1, 60) = P(−0, 1 ≤ X − 1, 60 ≤ 0, 2) P(−0, 1/0, 3 ≤ (X − 1, 60)/0, 30 ≤ 0, 2/0, 3) = P(−1/3 ≤ Z ≤ 2/3) Φ(0, 67) − Φ(−0, 33) Φ(0, 67) − (1 − Φ(0, 33)) Φ(0, 67) + Φ(0, 33) − 1 0, 7486 + 0, 6293 − 1 0, 3779. 95 / 140 Probabilidade e Estatística b) Mais de 1,75m; Queremos calcular P(X ≥ 1, 75). Temos então que: P(X ≥ 1, 75) = = = = = = P(X − 1, 60 ≥ 1, 75 − 1, 60) = P(X − 1, 60 ≥ 0, 15) P((X − 1, 60)/0, 30 ≥ 0, 15/0, 3) = P(Z ≥ 1/2) 1 − P(Z ≤ 1/2) 1 − Φ(0, 5) 1 − 0, 6915 0, 3085. c) Menos de 1,48m; Queremos calcular P(X ≤ 1, 48). Temos então que: P(X ≤ 1, 48) = = = = = P(X − 1, 60 ≤ 1, 48 − 1, 60) = P(X − 1, 60 ≤ −0, 12) P((X − 1, 60)/0, 30 ≤ −0, 12/0, 3) = P(Z ≤ −4/10) Φ(−0, 4) 1 − Φ(0, 4) 0, 3446. d) Qual deve ser a altura mínima para escolhermos 10% dos alunos mais altos? Queremos encontrar um valor c, tal que P(X > c) = 0, 10. Assim, temos que P(X > c) = P(X − 1, 60 > c − 1, 60) = P((X − 1, 60)/0, 30 > (c − 1, 60)/0, 3) = P(Z > (c − 1, 60)/0, 3) = 1 − Φ((c − 1, 60)/0, 3). Assim, queremos encontrar c, tal que 0, 1 = 1−Φ((c−1, 60)/0, 3), ou seja, Φ((c−1, 60)/0, 3) = 0, 9. Seja z = (c − 1, 60)/0, 3, temos que Φ(z) = 0, 9. Olhando para a tabela, vemos que z = 1,28. Logo, (c − 1, 60)/0, 3 = 1, 28, o que implica que c = 1, 6 + 0, 384 = 1, 984. Desta forma, a altura em questão é 1,98m. 7.2.2 Aproximação da Distribuição Binomial pela Normal Vimos no capítulo de variáveis aleatórias discretas que podemos aproximar a distribuição binomial pela distribuição Poisson. A aproximação da distribuição binomial pela Poisson é boa quando o parâmetro p da distribuição binomial é pequeno. Se este valor for grande, a aproximação pela distribuição Poisson é pobre. Neste caso, devemos aproximar pela distribuição normal. Proposição: Aproximação da distribuição binomial pela normal Suponha que Xn é uma sequência de variáveis aleatórias tais que Xn ∼ Bin(n, p). Então, vale o seguinte resultado: X − np n lim P p ≤ z = Φ(z), n→∞ np(1 − p) onde Φ(z) é a função de distribuição da normal padrão. Desta forma, vale a aproximação para n grande: x − np P(Xn ≤ x) ≈ Φ p . np(1 − p) 96 / 140 Probabilidade e Estatística Exemplo 7.4 Exemplo de aplicação da aproximação da binomial pela normal Suponha que lançamos uma moeda honesta 200 vezes. Obtenha a probabilidade do número de caras estar entre 45% e 55% dos lançamentos (incluindo os extremos). Ou seja, se Xn denota o número de caras obtidas após os 200 lançamentos, temos que Xn ∼ Bin(200, 1/2), e queremos calcular P(90 ≤ Xn ≤ 110) = P(Xn ≤ 110) − P(Xn ≤ 89). Como o parâmetro p da binomial não é pequeno, ou seja, não está próximo de zero, a aproximação ideal é dada pela p normal. Assim, como np(1 − p) = 7, 07 e np = 100, pela proposição anterior, temos que 90−100 P(90 ≤ Xn ≤ 110) ≈ Φ 110−100 − Φ 7,07 7,07 = Φ(1, 41) − Φ(−1, 27) = Φ(1, 41) − (1 − Φ(1, 27)) = Φ(1, 41) + Φ(1, 27) − 1 = 0, 9207 + 0, 8980 − 1 = 0, 8187. Logo, a probabilidade é de aproximadamente 0,8187. Nota No exemplo anterior: • A probabilidade exata é dada por 0,8626. • A probabilidade obtida pela aproximação de Poisson é dada por 0,7065. Vemos que a aproximação é, de fato, muito pobre neste caso. O motivo da aproximação ser ruim é que a aproximação da binomial pela Poisson supõe que a probabilidade p da binomial tende a zero quando n tende a infinito, o que não acontece no exemplo anterior. 7.3 A Distribuição Exponencial A distribuição exponencial é uma distribuição muito utilizada na prática para modelar tempo de falha de objetos. Por exemplo, pode ser usada para modelar o tempo que demora até uma lâmpada falhar. Ela possui um parâmetro, λ , que pode ser interpretado da seguinte forma: 1/λ é o tempo de vida médio do objeto. Mais precisamente, temos a Definição: Variável Aleatória Seguindo Distribuição Exponencial Uma variável aleatória contínua X assumindo valores não-negativos é dita seguir distribuição exponencial com parâmetro λ > 0, se sua função de densidade é dada por ( λ e−λ x , x ≥ 0, f (x) = 0, x < 0. Denotamos X ∼ Exp(λ ). 97 / 140 Probabilidade e Estatística Observe que f (x) é, de fato, uma função de densidade, pois f (x) ≥ 0 para todo x, e, além disso, Z ∞ Z ∞ λ e−λ x dx 1 e−λ x ∞ = λ =λ −λ 0 λ = 1. f (x)dx = −∞ 0 1.0 1.5 Na figura abaixo apresentamos gráficos das funções de densidade da distribuição exponencial para alguns valores de λ : 0.5 f(x) (1.5) 0.0 (0.5) 0 1 2 3 4 5 x Figura 7.2: Exemplo de funções de densidade da distribuição exponencial para valores de λ descritos no parêntese (λ ) Podemos também calcular a função de distribuição de uma variável aleatória seguindo distribuição exponencial explicitamente: x R x −λ x e−λ x F(x) = P(X ≤ x) = 0 λ e dx = λ −λ 0 h −λ x i = λ −eλ − λ1 = 1 − e−λ x , para x ≥ 0, e F(x) = 0, se x < 0. Em particular, obtemos P(X > x) = e−λ x . Esperança Temos que Z ∞ E(X) = xλ e−λ x dx. 0 Integrando por partes com dv = λ e−λ x dx e u = x, temos que v = −e−λ x e du = dx, e portanto, ∞ Z ∞ −λ x E(X) = −xe − −e−λ x dx 0∞ 0 e−λ x = 0 + −λ = 1 λ. 98 / 140 0 Probabilidade e Estatística Variância Integrando por partes duas vezes, obtemos que E(X 2 ) = 2 . λ2 Portanto, Var(X) = E(X 2 ) − (E(X))2 = 2 1 1 − 2 = 2. 2 λ λ λ Exemplo 7.5 Exemplo de cálculo envolvendo a distribuição exponencial Suponha que X ∼ Exp(λ ). Vamos encontrar a probabilidade de que X seja maior que seu valor esperado. De fato, como E(X) = 1/λ , queremos calcular: P(X > 1/λ ) = 1 − F(1/λ ) = 1 − (1 − e−λ ·1/λ ) = e−1 ≈ 0, 37. Exercício O tempo médio de falha das lâmpadas produzidas em uma certa fábrica é de 17500 horas. Sabendo que o tempo de falha destas lâmpadas segue distribuição exponencial, qual é a probabilidade de uma lâmpada falhar no primeiro ano de uso? Solução Primeiro, observe que como o tempo médio de falha é de 17500 horas, o parâmetro da exponencial é dado por λ 1 . = 17500 Como um ano tem 365 dias (em geral não considera-se anos bissextos), temos 24 · 365 = 8760 horas em um ano. Assim, queremos calcular 1 P(X ≤ 8760) = 1 − e− 17500 ·8760 ≈ 1 − e−0,5 ≈ 0, 39. Assim, temos uma probabilidade de aproximadamente 39% de que a lâmpada venha a falhar no primeiro ano de uso. 7.3.1 Perda de Memória Assim como a distribuição Geométrica é a única distribuição discreta que possui perda de memória, a distribuição exponencial é a única distribuição contínua que possui perda de memória. Mais precisamente, considere o seguinte exemplo: Exemplo 7.6 Ilustração da perda de memória da distribuição exponencial Suponha que Pedro é funcionário da fábrica de lâmpadas e sua função é esperar até que uma lâmpada falhe. Suponha que Pedro já esperou 6 meses e a lâmpada ainda não falhou, isto significa que a probabilidade da lâmpada falhar nos próximos 30 dias será maior do que a probabilidade de falhar nos primeiros 30 dias de uso da lâmpada? A resposta é não. Não importa o quanto tempo Pedro tenha esperado, a probabilidade de falha nos próximos 30 dias sempre será a mesma. Assim como para a distribuição geométrica, esta propriedade da distribuição exponencial é chamada de perda de memória. 99 / 140 Probabilidade e Estatística Mais precisamente, seja X uma variável aleatória seguindo distribuição exponencial com parâmetro λ . Então, temos que para todo par de números reais positivos, t, s, vale P(X > t + s|X > t) = P(X > s). De fato, temos que P(X > t + s|X > t) = P(X > t + s, X > t) P(X > t + s) = , P(X > t) P(X > t) no entanto, já vimos que, para todo x > 0, P(X > x) = e−λ x . Daí, P(X > t + s|X > t) = P(X > t + s) e−λ (t+s) = −λt = e−λ s = P(X > s). P(X > t) e Isto prova a perda de memória. Observe que aqui, assim como na geométrica, na realidade, mostra mais do que falamos. Não só diz que a próxima probabilidade não muda, mas essencialmente diz o seguinte: se Pedro já esperou um certo tempo t para a lâmpada falhar, e ela ainda não falhou, as probabilidades de falhas dali para frente são as mesmas de como se ele tivesse começado a esperar naquele momento. Ou seja, a distribuiçã exponencial “esquece” todo o passado que já foi esperado. 7.4 7.4.1 A Distribuição Gama A Função Gama Definição: Função Gama A função gama, denotada por Γ(·), é dada por Z ∞ Γ(p) = x p−1 e−x dx, p > 0. 0 Realizando a integral por partes na função gama, fazendo u = x p−1 e dv = e−x dx, temos que ∞ Z ∞ −x p−1 Γ(p) = −e x − − e−x (p − 1)x p−2 dx 0Z ∞ 0 −x p−2 = 0 + (p − 1) e x dx 0 = (p − 1)Γ(p − 1). Se p = n um número natural, então teremos que Γ(n) = (n − 1)Γ(n − 1) = · · · = (n − 1)(n − 2) · · · 1 · Γ(1). Porém, temos que Z ∞ Γ(1) = e−x dx = 1. 0 Assim, temos que se n é um número natural, Γ(n) = (n − 1)!, e portanto a função gama generaliza o fatorial, e pode ser pensada como o fatorial de números reais positivos. 100 / 140 Probabilidade e Estatística 7.4.2 Distribuição Gama Definição: Variável Aleatória Seguindo Distribuição Gama Seja X uma variável aleatória contínua tomando valores não-negativos. Dizemos que X segue distribuição gama com parâmetros r > 0 e α > 0, se sua função de densidade for dada por f (x) = α (αx)r−1 e−αx , Γ(r) x ≥ 0. Denotamos X ∼ Gama(r, α). A distribuição gama é mais flexível que a distribuição exponencial, isto é, as densidades podem assumir as mesmas formas das densidades da distribuição exponencial, mas também podem assumir formas diferentes. Isso se deve à inclusão do segundo parâmetro. 0.0 0.1 0.2 0.3 0.4 0.5 f(x) Na figura abaixo apresentamos gráficos das funções de densidade da distribuição gama para alguns valores de r e α: (1;0,5) (2;0,5) (9;2) (3;0,5) 0 5 10 15 20 x Figura 7.3: Exemplo de funções de densidade da distribuição gama para valores de r e α descritos no par ordenado (r, α) Nota Observe que se X ∼ Gama(1, α), então na realidade X ∼ Exp(α). Assim, a distribuição exponencial é caso particular da distribuição gama. Além disso, por este fato, o parâmetro α da distribuição gama é chamado de taxa, e o parâmetro r é chamado de parâmetro de forma. Esperança e Variância É possível mostrar que se X ∼ Gama(r, α), então E(X) = r r e Var(X) = 2 . α α 101 / 140 Probabilidade e Estatística Exercício Suponha que o tempo de vida útil, em anos, de uma máquina de lavar é uma variável aleatória X com função de densidade dada por f (x) = xe−x/2 , 4 x ≥ 0. Determine a distribuição de X. Além disso, se o fabricante fornece seis meses de garantia para o produto, qual a proporção de aparelhos que devemos esperar que usem essa garantia? Solução Olhando a função de densidade, observamos que não se trata de uma distribuição exponencial, mas que se parece com uma distribuição gama. Comparando a densidade acima com a densidade geral da distribuição gama, vemos que X segue distribuição gama com parâmetros r = 2 e α = 1/2. Como o tempo de vida está sendo dado em anos, queremos calcular a probabilidade P(X ≤ 1/2) = Z 1/2 −x/2 xe 4 0 1 dx = 4 Z 1/2 xe−x/2 dx. 0 Para calcular a probabilidade acima, vamos integrar por partes. Fazendo u = x e dv = e−x/2 dx, obtemos que du = dx e v = −2e−x/2 . Desta forma, 1/2 R 1/2 P(X ≤ 1/2) = − 12 xe−x/2 − 14 0 (−2e−x/2 )dx −1/4 = −e 2 −1/4 = −e 2 e−1/4 − 2 0R 1/2 −x/2 dx 0 e 1/2 − e−x/2 0 −1/4 − (e − 1) + 12 = ≈ 0, 0265. Desta forma, é esperado que aproximadamente 2,65% das máquinas de lavar utilizarão o serviço de garantia. 7.5 Atividades Se Y tem distribuição uniforme em (0, 5), qual é a probabilidade de que as raízes da equação 1. 2 4x + 4xY +Y + 2 = 0 sejam ambas reais? 2. Numa população, o nível sérico de colesterol em adultos (medido em mg/dl) é uma variável aleatória com distribuição normal com parâmetros µ = 225 e σ = 75. Calcule: a) a proporção de pessoas com nível de colesterol entre 200 e 350. b) o valor acima do qual se encontra o colesterol da parcela de 10% da população que tem os níveis mais elevados. 3. Seja X ∼ N(5, 16). Obtenha: a) P(X ≤ 13); b) P(X ≥ 1); 102 / 140 Probabilidade e Estatística c) P(4 ≤ X ≤ 9); d) o valor de a tal que P(X ≤ a) = 0, 04; e) o valor de b tal que P(X ≥ b) = 0, 01; f) o intervalo que contém 95% dos valores centrais (intervalo simétrico em torno de µ) de X. 4. Em uma fábrica de refrigerante, uma máquina é usada para encher garrafas de 600ml. O conteúdo líquido (em ml) por garrafa varia segundo a distribuição normal com parâmetros µ = 600 e σ = 4. Calcule: a) a porcentagem de garrafas produzidas com conteúdo inferior a 592ml ou superior a 612ml; b) o conteúdo mínimo encontrado em 96% das garrafas fabricadas. 5. O peso em gramas de recém-nascidos em uma maternidade tem distribuição normal com parâmetro µ = 3000g. Sabe-se que 98% dos bebês nascem com um peso compreendido entre 2,5kg e 3,5kg. Determine: a) o parâmetro σ ; b) o peso abaixo do qual nascem 0,4% dos bebês dessa maternidade. Se 55% da população de uma cidade é a favor de um projeto proposto pelo prefeito, estime 6. (usando a aproximação da binomial pela normal) de que, em uma amostra aleatória de 176 pessoas, no máximo 93 sejam favoráveis ao projeto. 7. Seja U uma variável aleatória uniforme no intervalo (a, b). Calcule, para todo n ≥ 1, E(U n ). 8. Seja X uma variável aleatória seguindo distribuição Exponencial com parâmetro λ . Calcule E(X n ). 9. Obtenha a esperança da área de um triângulo retângulo isósceles cuja hipotenusa tem comprimento uniformemente distribuído no intervalo (2, 8). 10. Um computador foi usado para gerar sete números aleatórios independentes uniformemente distribuídos no intervalo (0, 1). Calcule a probabilidade de que: a) exatamente de três números estejam entre 1/2 e 1; b) menos do que três sejam maiores que 3/4. 11. (Distribuição Log-Normal): Seja Y = eX , onde X ∼ N(0, 1). Encontre a densidade de Y . 12. Seja X ∼ N(0, 1). Seja Y = X 2 . Obtenha a densidade √de Y , mostre que Y segue distribuição Gama e determine os parâmetros. (Dica: Use que Γ(1/2) = π.) Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 103 / 140 Probabilidade e Estatística Capítulo 8 Introdução à Inferência Estatística O BJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: • Conhecer os principais tipos de amostragem • Saber o que são estimadores e a diferença entre estimador e estimativa • Conhecer a distribuição amostral da média, proporção, diferença de médias e diferença de proporções • Saber construir diversos intervalos de confiança • Saber realizar uma regressão linear de Y em X e calcular seu coeficiente de determinação 8.1 Definições Básicas Vamos começar relembrando dois conceitos básicos importantes de estatística, a saber, população e amostra. De uma maneira mais precisa, temos a seguinte definição: Definição: População O conjunto de todos os elementos, ou resultados, sob investigação é chamado de população. Quando estamos lidando com uma população é interessante observar: • Características mensuráveis (expressas por variáveis numéricas); • Características qualitativas (expressas por variáveis nominais ou categóricas). Definição: Parâmetros Populacionais Damos o nome de parâmetros da população ou parâmetros populacionais aos valores numéricos que caracterizam globalmente uma população. Relacionadas à população temos as seguintes definições: 104 / 140 Probabilidade e Estatística Definição: Amostra e Tamanho Amostral Um subconjunto da população é chamado de amostra. Chamamos o número de elementos da amostra de de tamanho amostral. Importante O objetivo da inferência estatística é produzir afirmações sobre dada característica da população na qual estamos interessados, a partir de informações colhidas de uma parte dessa população. Esta característica na população pode ser representada por uma variável aleatória. A relação entre inferência e amostragem é ilustrada na figura abaixo: Figura 8.1: Amostragem e Inferência Nota • Se tivermos informações completas sobre a distribuição, não haverá necessidade de obter amostras. • Podemos supor que as variáveis vêm de uma família de distribuições de probabilidade, mas não podemos supor qual o valor do parâmetro. Por exemplo, podemos supor que os dados seguem distribuição normal, mas não podemos informar os valores das médias e variâncias. • Existem casos onde a amostragem é necessária. Por exemplo, se quisermos saber o número de glóbulos brancos. • É importante que a amostra seja representativa da população, ou seja, que o comportamento da amostra seja próximo do comportamento da população. Para garantir isso, é preciso saber escolher bem o tamanho amostral, e que a amostra seja obtida aleatoriamente. 8.2 8.2.1 Amostragem Tipos de Amostragem Temos dois grandes grupos de amostragem: 105 / 140 Probabilidade e Estatística • Amostragem Probabilística: O mecanismo de escolha dos elementos da amostra é tal que existe uma probabilidade conhecida de cada elemento da população vir a participar da amostra. • Amostragem Não-Probabilística: Não existe nenhum mecanismo probabilístico na seleção da amostra. Tipos de Amostragem Probabilística • Amostragem Aleatória Simples (AAS): a. Supomos que a população é homogênea, ou seja, a característica que estamos procurando pode aparecer em qualquer elemento da população com a mesma probabilidade; b. Procedimento: Rotular os elementos da população e sortear os indivíduos que farão parte da amostra. • Amostragem Sistemática: a. Supomos que a população é homogênea; b. Procedimento: Os elementos da população são ordenados, a retirada do primeiro elemento é aleatória, e a partir do segundo elemento a retirada é feita periodicamente (com período determinístico). Por exemplo, o primeiro elemento é retirado aleatoriamente, e em seguida, retiramos o décimo elemento depois do primeiro retirado, depois o décimo elemento após o segundo retirado, e assim por diante. • Amostragem Estratificada: a. Supomos que a população é heterogênea, ou seja, a característica que estamos procurando pode variar dependendo de onde os dados são retirados. Entretanto, supomos que podemos dividir a população em grupos (estratos) homogêneos; b. Procedimento: A seleção dos elementos de cada estrato é realizada de forma aleatória, ou seja, realizamos uma amostragem aleatória simples em cada estrato. • Amostragem por Conglomerado: a. Supomos que a população pode ser dividida em subgrupos (conglomerados) heterogêneos; b. Procedimento: A amostragem é realizada sobre os conglomerados, e não mais sobre os indivíduos da população, ou seja, realiza-se uma amostragem aleatória simples, onde os elementos escolhidos são os conglomerados a serem utilizados, ao invés de já se sortear os elementos da amostra. 106 / 140 Probabilidade e Estatística 8.2.2 Distribuição Amostral Interesse Uma medida que descreva certa característica da população. Normalmente temos interesse em um parâmetro desconhecido da população, seja média, variância, ou outro parâmetro. Solução A partir da amostra, podemos construir uma função, utilizando apenas os valores obtidos nesta amostra, para descrever tal característica. Esta função é chamada de estatística. Nota Como os valores da amostra são aleatórios, qualquer quantidade calculada em função dos elementos da amostra também será uma variável aleatória. Assim, as estatísticas, sendo variáveis aleatórias, terão alguma distribuição de probabilidade. Formalização do Problema Seja X1 , . . . , Xn uma amostra aleatória simples (AAS) de uma população de tamanho n. Para realizarmos uma afirmação sobre algum parâmetro θ da população (média, variância, etc.), utilizaremos uma estatística T que, como sabemos, é uma função da amostra, isto é, T = f (X1 , . . . , Xn ), para alguma função f . Nota Quando conhecemos melhor o comportamento da estatística T , ou seja, se conhecemos sua distribuição amostral, que nada mais é que a distribuição de probabilidade da variável aleatória T , poderemos realizar afirmações sobre o parâmetro θ . A distribuição amostral relata o comportamento da estatística T , caso retirássemos todas as possíveis amostras de tamanho n. 8.2.2.1 Distribuição Amostral da Média Consideremos uma população identificada pela variável aleatória X, cujos parâmetros média populacional µ = E(X) e variância populacional σ 2 = Var(X) são supostos conhecidos. Vamos tirar todas as possíveis amostras de tamanho n dessa população e, para ccada uma, calcular a média amostral X dada por 1 n X = ∑ Xi , n i=1 e em seguida vamos obter algumas propriedades de X. Considere a população {1, 3, 5, 7}. Sabemos que a média populacional é µ = 4, 2 e a variância populacional é σ 2 = 4, 16. Se retiramos uma amostra de tamanho n = 2, segundo amostragem aleatória simples (então todos os elementos possuem a mesma probabilidade de serem retirados), a distribuição amostral de X1 + X2 X= 2 será dada por 107 / 140 Probabilidade e Estatística x P(X = x) 1 1/25 2 2/25 3 5/25 4 6/25 5 6/25 6 4/25 7 1/25 Total 1 Assim, 7 E(X) = ∑ xi P(X = xi ) = 4, 2, i=1 e Var(X) = 2, 08. Temos então a seguinte proposição: Proposição Seja X uma variável aleatória com média µ e variância σ 2 , e seja (X1 , . . . , Xn ) uma AAS de X. Então, σ2 . E(X) = µ e Var(X) = n Demonstração Temos que E(X) = E 1 n ∑ Xi n i=1 E(Xi ) ∑ n i=1 1 n ∑µ n i=1 nµ n µ. n = = = = e, usando que a variância de soma de variáveis independentes é dada pela soma das variâncias, e as propriedades da variância, temos: Var(X) = Var 1 n ∑ Xi n i=1 X i Var ∑ n i=1 1 n 2 ∑σ n2 i=1 nσ 2 n2 σ2 . n n = = = = 8.2.2.2 Teorema Central do Limite Vamos agora enunciar um dos principais resultados da probabilidade moderna: o teorema central do limite. A demonstração deste teorema pode ser encontrada em livros mais avançados de probabilidade. 108 / 140 Probabilidade e Estatística Teorema Central do Limite Sejam X1 , . . . , Xn uma AAS da variável aleatória X, com distribuição comum satisfazendo E(Xi ) = µ e Var(Xi ) = σ 2 . Como a amostragem foi AAS, temos que as variáveis são independentes. Assim, se n é grande, temos que, P(X ≤ x) ≈ Φµ,σ 2 /n (x), onde Φµ,σ 2 é a função de distribuição de uma variável aleatória N ∼ N(µ, σ 2 /n). Assim, dizemos que X segue aproximadamente distribuição normal com média µ e variância σ 2 /n. Podemos fazer a mudança de variáveis: Z= X −µ √ . σ/ n Desta forma, o teorema central do limite nos diz que se n é suficientemente grande, temos que Z segue aproximadamente distribuição normal com média 0 e variância 1. Nota No caso em que a distribuição de X é normal, a distribuição de X será normal, mesmo para valores pequenos de n. 8.2.2.3 Distribuição Amostral da Proporção Seja X uma variável aleatória com distribuição Bernoulli com parâmetro p, isto é, P(X = 1) = p e P(X = 0) = 1 − p. Temos que E(X) = p e Var(X) = p(1 − p). Considere uma AAS de tamanho n dessa população. Seja n Sn = ∑ Xi , i=1 o número de indivíduos com a característica de interesse da amostra. Sabemos que Sn ∼ Bin(n, p). Pelo teorema central do limite temos que X tem distribuição aproximadamente normal, para n suficientemente grande. Seja pb = X, a proporção amostral. Então, temos que p(1 − p) aprox. pb ∼ N p, , n ou equivalentemente, pb − p aprox. Z=p ∼ N(0, 1), p(1 − p)/n pois, temos que S 1 p n E( pb) = E = E(Sn ) = n = p, n n n e S 1 np(1 − p) p(1 − p) n Var( pb) = Var = 2 Var(Sn ) = = . n n n2 n É possível mostrar, na realidade, que vale o seguinte resultado: p pb − p aprox. ∼ N(0, 1), pb(1 − pb)/n ou seja, se trocarmos p(1 − p)/n por pb(1 − pb)/n, o resultado ainda vale. Este resultado será útil na construção de intervalos de confiança. 109 / 140 Probabilidade e Estatística 8.2.2.4 Distribuição Amostral da Diferença entre Médias Em vários problemas práticos, deseja-se comparar duas populações de interesse. Por exemplo, podemos estar interessados em avaliar a diferença de desempenho entre duas linhas de produção. Suponha que duas populações de interesse, X1 e X2 , com médias µ1 e µ2 , e variâncias σ12 e σ22 , respectivamente. Considere duas AAS independentes de tamanhos n1 e n2 das duas populações. Pelo teorema central do limite, a distribuição amostral da diferença (X 1 − X 2 ), para n1 e n2 suficientemente grandes, será dada por σ2 σ2 aprox. (X 1 − X 2 ) ∼ N µ1 − µ2 , 1 + 2 , n1 n2 ou equivalentemente, (X 1 − X 2 ) − (µ1 − µ2 ) aprox. Z= q ∼ N(0, 1), 2 2 σ1 /n1 + σ2 /n2 pois, E(X 1 − X 2 ) = E(X 1 ) − E(X 2 ) = µ1 − µ2 , e Var(X 1 − X 2 ) = Var(X 1 ) +Var(X 2 ) = 8.2.2.5 σ12 σ22 + . n1 n2 Distribuição Amostral da Diferença entre Proporções Neste caso, supomos que as duas populações de interesse apresentam distribuição binomial com proporções p1 e p2 . Considere que são feitas duas AAS independentes de tamanhos n1 e n2 . A distribuição amostral da diferença entre proporções ( pb1 − pb2 ), para n1 e n2 suficientemente grandes, pelo teorema central do limite temos p1 (1 − p1 ) p2 (1 − p2 ) aprox. ( pb1 − pb2 ) ∼ N p1 − p2 , + , n1 n2 ou equivalentemente, Z=p 8.3 ( pb1 − pb2 ) − (p1 − p2 ) aprox. ∼ N(0, 1). p1 (1 − p1 )/n1 + p2 (1 − p2 )/n2 Inferência Estatística Suponha que alguma característica da população possa ser representada por uma variável aleatória X, com função de distribuição FX (x; θ ). Suponha que os valores x1 , . . . , xn de uma AAS X1 , . . . , Xn de FX (x; θ ) possam ser observados. Com base nos valores amostrais, desejamos estimar o parâmetro desconhecido θ , ou alguma função deste parâmetro. Neste caso, a estimação poderá ser feita de duas maneiras: • Estimação Pontual: Estimamos o parâmetro θ por meio de uma estatística T = t(X1 , . . . , Xn ), chamada de estimador. • Estimação Intervalar: É definida por duas estatísticas T1 = t1 (X1 , . . . , Xn ) e T2 = t2 (X1 , . . . , Xn ), tais que T1 < T2 , onde o intervalo [T1 , T2 ] terá uma probabilidade conhecida de conter o parâmetro desconhecido θ . 110 / 140 Probabilidade e Estatística 8.3.1 Estimação Pontual Vamos começar entendendo a diferença entre estimador e estimativa. Definição: Estimador Um estimador é uma estatística, isto é, é uma função da amostra, que é usada para representar um valor plausível para o parâmetro desconhecido de interesse. Definição: Estimativa É valor numérico particular assumido por um estimador. Ou seja, é o valor do estimador aplicado em uma realização da amostra. 8.3.2 Propriedades dos Estimadores Importante É importante frisar que podem existir vários estimadores para um mesmo parâmetro populacional. Logo, a escolha do melhor estimador será feita com base em alguns critérios. • Não-Tendencioso (Também chamados de não-viesados ou não-viciados): Dizemos que um estimador T é não-viesado para o parâmetro θ se o seu valor esperado for igual ao próprio parâmetro, isto é, se E(T ) = θ . • Consistência: Dizemos que um estimador T para o parâmetro θ é consistente se, além de ser não-viesado, sua variância tende a zero quando o tamanho amostral tende a infinito: lim Var(T ) = 0. n→∞ • Eficiência: Sejam T1 e T2 dois estimadores não-viesados para o parâmetro θ , com Var(T1 ) < Var(T2 ), então, dizemos que T1 é mais eficiente que T2 . 111 / 140 Probabilidade e Estatística Exemplo 8.1 Exemplo de estimador viesado Seja X1 , . . . , Xn uma AAS da seguindo distribuição uniforme no intervalo [0, θ ]. Um estimador natural para θ é dado pelo maior valor encontrado na amostra, já que sabemos que a distribuição uniforme não fornece valores maiores do que θ . Assim, seja M = max(X1 , . . . , Xn ), ou seja, o maior valor da amostra. Vamos mostrar que M é um estimador viesado para θ . Seja X ∼ U(0, θ ), então a função de densidade de X é dada por fX (x) = 1 , θ 0 < x < θ, e fX (x) = 0 caso contrário. Assim, se FM é a função de distribuição de M, então, como as variáveis X1 , . . . , Xn são independentes, temos que FM (m) = P(M ≤ m) = P(max(X1 , . . . , Xn ) ≤ m) = P(X1 ≤ m, . . . , Xn ≤ m) = P(X1 ≤ m) · · · P(Xn ≤ m) = [P(X ≤ m)]n = [FX (m)]n , e portanto, fM (m) = FM0 (m) = n[FX (m)]n−1 fX (m). Além disso, temos que FX (x) = Z x 1 0 θ dt = x , θ 0 < x < θ. Logo, temos que fM (m) = n h m in−1 1 θ θ = nmn−1 , θn 0 < m < θ. nmn−1 n θ n m m dm dm = θn θn 0 0 n mn+1 θ = θn n+1 0 n θ n+1 = θn n+1 n = θ. n+1 Assim, temos que M é um estimador viesado. Podemos obter um outro estimador, a partir de M, que seja não-viesado, dado por e = n + 1 M. M n Z θ Z E(M) = 8.3.3 Alguns Estimadores Pontuais Importantes 8.3.3.1 Estimador para a Média O estimador mais utilizado para a média populacional µ é a média amostral: b=X = µ 1 n ∑ Xi. n i=1 112 / 140 Probabilidade e Estatística 8.3.3.2 Estimador para a Variância Quando a média populacional µ é conhecida, um estimador para a variância populacional é dado por b2 = σ 1 n ∑ (Xi − µ)2. n i=1 Caso a média populacional µ seja desconhecida, que é a situação mais comum na prática, a variância populacional pode ser estimada por S2 = 8.3.3.3 1 n ∑ (Xi − X)2. n − 1 i=1 Estimador para a Proporção Um estimador para a proporção populacional é dado pela proporção amostral: Sn , n onde Sn é o número de elementos que apresentam uma determinada característica de interesse entre os n elementos da amostra. pb = 8.3.4 Estimação Intervalar Suponha que temos um estimador para um certo parâmetro θ dado por θb. Além disso, suponha que temos a seguinte aproximação: θb − θ aprox. ∼ N(0, 1). σ Queremos então utilizar θb e a aproximação acima para construir um intervalo de confiança para θ , ou seja, queremos utilizar θb para construir um intervalo aleatório, do tipo [T1 , T2 ], onde T1 e T2 dependem de θb tal que P(T1 < θ ≤ T2 )) ≈ 1 − α, onde α é um nível de significância determinado previamente. Normalmente costuma-se escolher α = 0, 01, α = 0, 05 ou α = 0, 10, isto é, estamos afirmando que em apenas em 1%, ou 5%, ou 10%, das amostras possíveis (de mesmo tamanho) da população, o intervalo de confiança não contém o parâmetro θ . Nestes casos, dizemos que estamos construindo intervalos de confiança de níveis de confiança de 99%, 95% ou 90%, respectivamente. Observe que a aproximação acima obtida para θb nos fornece: b θb−θ θb−θ ≤ C = P ≤ C − P ≤ −C P −C < θ −θ σ σ σ ≈ Φ(C) − Φ(−C) = Φ(C) − 1 + Φ(C) = 2Φ(C) − 1. Por outro lado, P −C < θb−θ σ ≤C = P −Cσ < θb − θ ≤ Cσ b b = P −Cσ − θ < −θ ≤ Cσ − θ = P −Cσ + θb ≤ θ < Cσ + θb . 113 / 140 Probabilidade e Estatística Juntando as duas equações, obtemos que: b b P −Cσ + θ ≤ θ < Cσ + θ ≈ 2Φ(C) − 1. Se quisermos um nível 1 − α, temos que resolver 2Φ(C) − 1 = 1 − α o que fornece α −1 C=Φ 1− , 2 onde Φ−1 (1 − α/2) é o valor encontrado na tabela da normal, tal que a probabilidade de ser menor ou igual a este valor é de 1 − α/2. Finalmente, obtemos que um intervalo de confiança de nível α para θ é dado por −Cσ + θb;Cσ + θb , onde C é dado por C = Φ−1 1 − α2 . 8.3.5 Intervalo de Confiança para a Média Seja X1 , . . . , Xn uma AAS de uma variável aleatória comum X satisfazendo E(Xi ) = µ e Var(Xi ) = σ 2 . Então, seja X a média dessa AAS: 1 n X = ∑ Xi . n i=1 Vimos que a distribuição amostral da média é, pelo Teorema Central do Limite, aproximadamente: X −µ √ ≈ N(0, 1). σ/ n Pelo que vimos na subseção anterior, isto nos diz que um intervalo de confiança de nível 1 − α para a média é dado por h i σ σ −C √ + X;C √ + X , n n onde C é dado por C = Φ−1 1 − α2 . Exemplo 8.2 Exemplo de cálculo de intervalo de confiança para a média Suponha que as alturas dos alunos da UFPB tenham distribuição normal com σ = 15cm. Foi retirada uma amostra aleatória de 100 alunos obtendo-se X = 175cm. Vamos construir um intervalo de 95\% de confiança para a verdadeira altura média dos alunos. Primeiramente, note que estamos querendo 1 − α = 0, 95, o que nos fornece α = 0, 05 e desta forma, 1 − α/2 = 0, 975. Olhando para a tabela da normal, vemos que C = Φ−1 (1 − α/2) é dado por 1,96. Desta forma, o intervalo de confiança é dado por h i 15 15 − 1, 96 · √ + 175; 1, 96 · √ + 175 . 100 100 Realizando a conta, obtemos que o intervalo, ao nível de 95% de confiança para o verdadeiro valor da altura média dos alunos da UFPB é h i − 1, 72; 1, 78 . 114 / 140 Probabilidade e Estatística 8.3.6 Intervalo de Confiança para a Proporção Seja X1 , . . . , Xn uma AAS de uma variável aleatória Bernoulli X com parâmetro p, isto é, as variáveis Xi assumem o valor 1 com probabilidade p, e 0 com probabilidade 1 − p. Seja pb a proporção da amostra que assume valor 1 (ou em exemplos práticos a proporção da amostra que satisfaz uma determinada condição), então, temos que pb é dado por pb = X = 1 n ∑ Xi. n i=1 Vimos que a distribuição amostral da proporção satisfaz p pb − p aprox. ∼ N(0, 1). pb(1 − pb)/n Desta forma, utilizando o que vimos na construção de intervalos de confiança, um intervalo de confiança de nível 1 − α para a proporção é dado por p p h i pb(1 − pb) pb(1 − pb) √ √ −C + pb;C + pb , n n onde C é dado por C = Φ−1 1 − α2 . Exemplo 8.3 Exemplo de cálculo de intervalo de confiança para a proporção Uma amostra de 300 habitantes de uma cidade mostrou que 180 desejavam a água fluorada. Vamos encontrar o intervalo de confiança de 95% para a população favorável a fluoração. Primeiramente, note que estamos querendo 1 − α = 0, 95, o que nos fornece α = 0, 05 e desta forma, 1 − α/2 = 0, 975. Olhando para a tabela da normal, vemos que C = Φ−1 (1 − α/2) é dado por 1,96. Por outro lado, como a proporção estimada dos habitantes favoráveis a fluoração é pb = 180 = 0, 6. 300 Desta forma, o intervalo de confiança é dado por √ √ h i 0, 6 · 0, 4 0, 6 · 0, 4 − 1, 96 · √ + 0, 6; 1, 96 · √ + 0, 6 . 300 300 Realizando a conta, obtemos que o intervalo, ao nível de 95% de confiança para o verdadeiro valor da proporção da população favorável a fluoração é h i 0, 54; 0, 65 . 8.3.7 Intervalo de Confiança para a Diferença de Médias Considere duas AAS independentes de tamanhos n1 e n2 das duas populações. Vimos que a distribuição amostral da diferença (X 1 − X 2 ), para n1 e n2 suficientemente grandes, satisfaz (X 1 − X 2 ) − (µ1 − µ2 ) aprox. q ∼ N(0, 1). σ12 /n1 + σ22 /n2 115 / 140 Probabilidade e Estatística Desta forma, utilizando o que vimos na construção de intervalos de confiança, um intervalo de confiança de nível 1 − α para a diferença de médias é dado por q q i h 2 2 −C σ1 /n1 + σ2 /n2 + X 1 − X 2 ;C σ12 /n1 + σ22 /n2 + X 1 − X 2 , α −1 1− 2 . onde C é dado por C = Φ Exemplo 8.4 Exemplo de cálculo de intervalo de confiança para a diferença de médias Um teste psicológico destinado a medir a precisão com que uma pessoa julga outras pessoas, foi realizado. As notas possíveis do teste variam de 0 a 41. Durante sua elaboração o teste foi aplicado a vários grupos com diferentes de pessoas. De acordo com os resultados observados, vamos construir um intervalo de confiança para a diferença entre as médias dos grupos de homens e de mulheres, com $95\%$ de confiança. Homens: n = 133, X = 25, 34 e σ = 5, 05. Mulheres: n = 162, X = 24, 94 e σ = 5, 44. Primeiramente, note que estamos querendo 1 − α = 0, 95, o que nos fornece α = 0, 05 e desta forma, 1 − α/2 = 0, 975. Olhando para a tabela da normal, vemos que C = Φ−1 (1 − α/2) é dado por 1,96. Pelos dados do problema, temos que o intervalo de confiança é dado por r r i h (5, 05)2 (5, 44)2 (5, 05)2 (5, 44)2 + + 25, 34 − 24, 94; 1, 96 · + + 25, 34 − 24, 94 . − 1, 96 · 133 162 133 162 Realizando a conta, obtemos que o intervalo, ao nível de 95% de confiança para o verdadeiro valor da diferença entre as médias dos grupos de homens e de mulheres é h i − 0, 80; 1, 60 . 8.4 8.4.1 Regressão e Correlação Correlação Relação Funcional e Relação Estatística Como sabemos, o perímetro e o lado de um quadrado estão relacionados. A relação que os liga é perfeitamente definida e pode ser expressa matematicamente por perímetro = 4l, onde l é o lado do quadrado. Atribuindo-se, então, um valor qualquer a l, é possível determinar exatamente o valor do perímetro. Consideremos agora a relação entre o peso e a altura de um grupo de pessoas. É evidente que esta relação não é do mesmo tipo da anterior. Assim, podemos ter duas pessoas com a mesma altura e pesos diferentes, assim como pessoas com mesmo peso e alturas diferentes. Porém, existe uma tendência clara de que, quanto maior a altura, maior o peso. As relações do tipo perímetro-lado são chamadas de relações funcionais e as relações do tipo pesoaltura são chamadas de relações estatística. Quando duas variáveis estão ligadas por uma relação estatística, dizemos que existe correlação entre elas. 116 / 140 Probabilidade e Estatística 8.4.1.1 Diagrama de Dispersão 0 −2 −1 y 1 2 O diagrama de dispersão apresenta os pares ordenados (xi , yi ) de uma amostra aleatória bidimensional em um plano cartesiano. Esse diagrama nos fornece uma ideia grosseira, porém útil, da correlação existente. −2 −1 0 1 2 x Figura 8.2: Exemplo de diagrama de dispersão Correlação Linear 0 5 10 y 20 30 • Se os pontos do diagrama apresentam uma tendência linear ascendente, temos correlação linear positiva: 0 5 10 15 20 25 30 x Figura 8.3: Exemplo de diagrama de dispersão com correlação linear positiva 117 / 140 Probabilidade e Estatística −30 −20 y −10 0 • Se os pontos apresentam uma tendência linear descendente, temos correlação linear negativa 0 5 10 15 20 25 30 x Figura 8.4: Exemplo de diagrama de dispersão com correlação linear negativa 0.0 0.4 y 0.8 1.2 • Se os pontos apresentam uma tendência curvilínea, temos correlação não-linear 0 5 10 15 20 25 30 x Figura 8.5: Exemplo de diagrama de dispersão com correlação não-linear • Se os pontos apresentam-se dispersos, não oferecendo uma tendência definida, concluímos que não há correlação entre as variáveis em estudo 118 / 140 −2 −1 y 0 1 Probabilidade e Estatística −2 −1 0 1 2 x Figura 8.6: Exemplo de diagrama de dispersão sem correlação 8.4.1.2 Coeficiente de Correlação de Pearson É usado para indicar o grau de intensidade da correlação linear entre duas variáveis e, ainda, o sentido dessa correlação: se positivo ou negativo. O coeficiente de correlação de Pearson entre duas amostras (x1 , . . . , xn ) e (y1 , . . . , yn ) é dado por n ∑ni=1 xi yi − ∑ni=1 xi ∑ni=1 yi , r = rh 2 ih n 2 2 i n n n 2 n ∑i=1 xi − ∑i=1 xi n ∑i=1 yi − ∑i=1 yi onde n é o número de observações. Observe que r ∈ [−1, 1]. Temos que • Se r = 1, há uma correlação perfeita e positiva entre as variáveis. • Se r = −1 há uma correlação perfeita e negativa entre as variáveis. • Se r = 0 não há correlação entre as variáveis. Exemplo 8.5 Exemplo de cálculo do coeficiente de correlação de Pearson Considere uma amostra aleatória das variáveis (X,Y ), dada por (xi , yi ) na tabela abaixo: xi 4 6 8 10 12 yi 12 10 8 12 14 xi2 16 36 64 100 144 xi yi 48 60 64 120 168 119 / 140 y2i 144 100 64 144 196 Probabilidade e Estatística ∑ xi 40 ∑ yi 56 ∑ xi2 360 ∑ xi yi 460 ∑ y2i 648 Assim, temos n = 5, e portanto 5 × 460 − 40 × 56 r= p = 0, 4160. (5 × 360 − (40)2 )(5 × 648 − (56)2 ) Logo, a correlação linear entre as variáveis X e Y é positiva, porém fraca. 8.4.2 Regressão Podemos dizer que a análise de regressão tem como objetivo descrever, através de um modelo matemático, a relação entre duas variáveis. A variável sobre a qual desejamos fazer uma estimativa recebe o nome de variável dependente e a outra variável recebe o nome de variável independente. Assim, supondo que X é a variável independente e Y é a variável dependente, procuramos determinar através de ajuste de uma reta a relação entre essas variáveis, ou seja, vamos obter a função definida por Y = a + bX, onde a e b são os parâmetros da regressão. Entretanto, sabemos que essa fórmula não é exata, assim, existe a presença de um erro aleatório: Yi = a + bXi + ei , i = 1, . . . , n, onde ei é um erro aleatório que possui valor esperado igual a zero. A maneira que vamos utilizar para determinar valores adequados para a e b é a de minimizar a soma de quadrado dos erros. Ou seja, queremos escolher os valores a e b de tal forma que o nosso modelo “erre” pouco. Este método é chamado de método de mínimos quadrados. Assim, dadas as observações (Xi ,Yi ), i = 1, . . . , n, desejamos minimizar n n ∑ e2i = ∑ (Yi − a − bXi)2. i=1 i=1 Desta forma, para encontrarmos o ponto de mínimo, precisamos calcular as derivadas parciais: n ∂ ∑ni=1 e2i = −2 ∑ (Yi − a − bXi ), ∂a i=1 e n ∂ ∑ni=1 e2i = −2 ∑ (Yi − a − bXi )Xi . ∂b i=1 Assim, como os nossos estimadores ab e b b são os valores que minimizam a soma de quadrados dos b erros, temos que ab e b são tais que as derivadas parciais calculadas acima se anulam. Logo, temos que: n n n −2 ∑ (Yi − ab − b bXi ) = 0 ⇒ ∑ Yi − nb a−b b ∑ Xi = 0 ⇒ i=1 i=1 i=1 120 / 140 1 n 1 n b b Y = a + b ∑ i ∑ Xi, n i=1 n i=1 Probabilidade e Estatística e portanto bX. ab = Y − b Por outro lado, temos também que n n n n −2 ∑ (Yi − ab − b bXi )Xi = 0 ⇒ ∑ Yi Xi − ab ∑ Xi − b b ∑ Xi2 = 0, i=1 i=1 daí, n i=1 n i=1 n ∑ YiXi = ab ∑ Xi + bb ∑ Xi2. i=1 i=1 i=1 Substituindo o valor de ab na equação acima, obtemos n n n ∑ YiXi = (Y − bbX) ∑ Xi + bb ∑ Xi2. i=1 i=1 i=1 Isolando b b, obtemos 2 n n n n n X Y X ∑ ∑ ∑ i i i i=1 i=1 i=1 2 b . = ∑ Yi Xi − b ∑ Xi − n n i=1 i=1 Isto nos fornece ∑ni=1 Yi Xi − ∑ni=1 Yi ∑ni=1 Xi /n b b= 2 ∑ni=1 Xi2 − ∑ni=1 Xi /n Costuma-se usar as seguintes notações para o numerador e denominador da expressão que define b b: n ∑ni=1 Yi ∑ni=1 Xi , SY X = ∑ Yi Xi − n i=1 e ∑ni=1 Xi = ∑ Xi2 − n i=1 n SXX 2 . Assim, temos as fórmulas para b b e ab em notação simplificada: SY X b b= SXX e ab = Y − b bX. Importante Como estamos fazendo uso de uma amostra para obtermos os valores dos parâmetros, o resultado, na realidade, é um estimador para a verdadeira equação de regressão, e portanto, temos Ybi = ab + b bXi , bi é um estimador para Yi . onde Y Exemplo 8.6 Exemplo de cálculo das estimativas dos parâmetros em um modelo de regressão Abaixo apresentamos os valores de uma amostra de 10 observações de duas variáveis aleatórias X e Y: 121 / 140 Probabilidade e Estatística yi 6 9 8 10 5 7 8 4 6 2 xi 5 8 7 10 6 7 9 3 8 2 yi xi 30 72 56 100 30 49 72 12 48 4 xi2 25 64 49 100 36 49 81 9 64 4 ∑ xi 65 ∑ yi 65 ∑ xi yi 473 ∑ xi2 481 Daí, SY X = 473 − 652 = 473 − 422, 5 = 50, 5, 10 SXX = 481 − 652 = 481 − 422, 5 = 58, 5, 10 e assim 50, 5 b b= = 0, 86 58, 5 e ab = 65 65 − 0, 86 · = 0, 91. 10 10 Logo, temos a equação Ybi = 0, 91 + 0, 86Xi . 6 4 2 y 8 10 Na figura abaixo apresentamos o diagrama de dispersão juntamente com a reta de regressão estimada no exemplo anterior: 2 4 6 8 x Figura 8.7: Exemplo de ajuste de regressão 122 / 140 10 Probabilidade e Estatística 8.4.2.1 O Poder Explicativo do Modelo Existe uma medida utilizada para avaliar a “qualidade” do ajuste. Esta medida é conhecida como coeficiente de determinação ou poder explicativo da regressão. Seu valor fornece a proporção da variação total da variável Y explicada pela variável X através da função ajustada. O coeficiente de determinação é denotado por R2 e pode ser expresso por R2 = b b2 SXX SYY onde ou R2 = b bSY X , SYY 2 ∑ni=1 Xi =∑ , n i=1 2 n n Y ∑ i i=1 = ∑ Yi2 − , n i=1 n SXX SYY e Xi2 − n SY X = ∑ Yi Xi − ∑ni=1 Yi ∑ni=1 Xi n i=1 . O coeficiente de determinação pode assumir valores no intervalo [0, 1], isto é, 0 ≤ R2 ≤ 1. Quando R2 = 0, a variação explicada de Y é zero, ou seja, a reta ajustada é paralela ao eixo da variável X. Se R2 = 1, a reta ajustada explicará toda a variação de Y . Assim, quanto mais próximo de 1 estiver o valor de R2 , melhor será a “qualidade” do ajuste da regressão aos pontos do diagrama de dispersão e quanto mais próximo de zero, pior será a “qualidade” do ajuste. Se o poder explicativo for, por exemplo, 98%, isto significa que 98% das variações de Y são explicadas por X através da função escolhida para relacionar as duas variáveis e 2% são atribuídas a causas aleatórias. −1 0 y 1 2 Na figura abaixo vemos um exemplo no qual R2 = 1: −1 0 1 2 x Figura 8.8: Exemplo contendo diagrama de dispersão e reta de regressão ajustada para R2 = 1 123 / 140 Probabilidade e Estatística −1 0 y 1 2 Nesta figura vemos um exemplo no qual R2 < 1, mas é próximo de 1, R2 = 0, 93: −1 0 1 2 x Figura 8.9: Exemplo contendo diagrama de dispersão e reta de regressão ajustada para R2 = 0, 93 −1 0 y 1 2 Nesta figura vemos um exemplo no qual 0 < R2 , mas é próximo de 0, R2 = 0, 32: −2 −1 0 1 2 x Figura 8.10: Exemplo contendo diagrama de dispersão e reta de regressão ajustada para R2 = 0, 32 Na figura abaixo vemos um exemplo com R2 = 0: 124 / 140 −1 0 y 1 2 Probabilidade e Estatística −2 −1 0 1 2 x Figura 8.11: Exemplo contendo diagrama de dispersão e reta de regressão ajustada para R2 = 0 Exemplo 8.7 Exemplo de cálculo do R2 Vamos calcular o coeficiente de determinação, R2 , para o exemplo considerado na última seção. A saber, temos os valores de uma amostra de 10 observações de duas variáveis aleatórias X e Y : yi 6 9 8 10 5 7 8 4 6 2 xi 5 8 7 10 6 7 9 3 8 2 yi xi 30 72 56 100 30 49 72 12 48 4 xi2 25 64 49 100 36 49 81 9 64 4 y2i 36 81 64 100 25 49 64 16 36 4 ∑ xi 65 ∑ yi 65 ∑ xi yi 473 ∑ xi2 481 ∑ y2i 475 Daí, SYY = 475 − 652 = 475 − 422, 5 = 52, 5, 10 e 652 = 481 − 422, 5 = 58, 5. 10 Como calculado anteriormente, temos que b b = 0, 86 e, portanto, SXX = 481 − R2 = (0, 86)2 58, 5 ≈ 0, 83. 52, 5 125 / 140 Probabilidade e Estatística Logo, 83% da variação total está sendo explicada pela regressão. 8.5 Atividades 1. Suponha que as alturas dos alunos da UFPB tenham distribuição normal com σ = 15cm. Foi retirada uma amostra aleatória de 100 alunos obtendo-se X = 175cm. Construa um intervalo de 90% de confiança para a verdadeira altura média dos alunos, e outro de nível 99%. 2. Foram retiradas 25 peças da produção diária de uma máquina, encontrando-se para uma medida uma média de 5,2mm. Sabendo-se que as medidas têm distribuição normal com desvio-padrão populacional de 1,2mm, construa intervalos de confiança para a média com confianças de 90%, 95% e 99%. 3. Suponha uma população com σ 2 = 9 e considere uma amostra aleatória de tamanho n = 36 dessa população, com X = 110. Determine os intervalos de confiança para µ, com confiança de 90% e 95%. 4. Uma amostra de 300 habitantes de uma cidade mostrou que 180 desejavam a água fluorada. Encontre os intervalos de confiança de 90% e 99% para a população favorável a fluoração. 5. Em 50 lances de uma moeda foram obtidas 30 caras. A partir de um intervalo de confiança de 96%, pode-se dizer que a moeda é honesta? 6. Numa amostra de 400 casas, 100 dessas casas são alugadas. Construa um intervalo de confiança para a proporção de casas alugadas, com uma confiança de 96% e, supondo a mesma confiança, construa também um intervalo de confiança para o número de casas alugadas na cidade, uma vez que a cidade possui 20.000 casas. 7. Um teste psicológico destinado a medir a precisão com que uma pessoa julga outras pessoas, foi realizado. As notas possíveis do teste variam de 0 a 41. Durante sua elaboração o teste foi aplicado a vários grupos com diferentes de pessoas. De acordo com os resultados observados, construa um intervalo de confiança para a diferença entre as médias dos grupos de homens e de mulheres, com 90% de confiança. Homens: n = 133, X = 25, 34 e σ = 5, 05. Mulheres: n = 162, X = 24, 94 e σ = 5, 44. 8. Suponha duas populações normalmente distribuídas de forma que a população I corresponde a variável aleatória X ∼ N(µ1 , 25) e a população II corresponde a variável aleatória Y ∼ N(µ2 , 40). Com base nas amostras obtidas abaixo construa um intervalo de confiança para µ1 − µ2 com 95% de confiança. Amostra da População I - 12, 14, 15, 14, 13, 17, 14, 13. Amostra da População II - 13, 17, 14, 13, 16, 17, 18, 16. 9. Uma pesquisa revelou que das 500 donas de casa consultadas, 300 preferiram o detergente A. Um funcionário da companhia afirmou que 50% das donas de casa preferem o detergente A. A companhia, tem evidência, ao nível de 95% para confiar no funcionário? 10. Sabe-se por experiência que 5% da produção de um determinado artigo é defeituosa. Um novo empregado é contratado. Ele produz 600 peças do artigo com 82 defeituosas. Podemos afirmar, ao nível de 90% de confiança, que o novo empregado produz peças com maior índice de defeitos que o existente? 126 / 140 Probabilidade e Estatística 11. A partir da tabela: Xi Yi 2 30 4 25 a) Calcule o coeficiente de correlação; b) Determine a reta ajustada; c) Estime o valor de Y para X = 0. 6 22 8 18 10 12 14 15 11 10 12. Certa empresa, estudando a variação da demanda de seu produto em relação à variação de preço de venda, obteve a tabela: Preço (Xi ) Demanda (Yi ) 38 350 42 325 50 297 56 270 59 256 a) Estabeleça a equação da reta ajustada; b) Estime o valor de Y para X = 60 e X = 120. c) Calcule o coeficiente de determinação da regressão. 63 246 70 238 80 223 95 215 110 208 13. Pretendendo-se estudar a relação entre as variáveis consumo de energia elétrica (Xi ) e volume de produção nas empresas industriais (Yi ), fez-se uma amostragem que inclui vinte empresas, computando-se os seguintes valores: ∑ Xi = 11.34, ∑ Yi = 20.72, ∑ Xi2 = 12.16, ∑ Yi2 = 84.96, e ∑ XiYi = 22.13 Determine: a) A equação de regressão de Y para X; b) O coeficiente de determinação da regressão acima; c) A equação de regressão de X para Y ; d) O coeficiente de determinação da regressão acima. Feedback sobre o capítulo Você pode contribuir para melhoria dos nossos livros. Encontrou algum erro? Gostaria de submeter uma sugestão ou crítica? Para compreender melhor como feedbacks funcionam consulte o guia do curso. 127 / 140 Probabilidade e Estatística Capítulo 9 Respostas das Atividades 9.1 Capítulo 1 3. 41,8 4. 13,8 5. 41 6. 9 7. 41 8. 14 9. 6,33 10. 5,52 11. Variância amostral = 67,75. Variância populacional = 65,81. 12. Variância amostral = 76,83. Variância populacional = 73,76. 13. 19,69%. 14. 63,52%. 9.2 Capítulo 2 1. Respostas: a. V; b. F; c. V; d. V; e. V; f. F; 128 / 140 Probabilidade e Estatística g. V; h. F; i. V; j. F; k. V; l. F; m. V; n. F. 2. Respostas: a. {1, 2, 3, 4, {5}, {6, 7}}; b. 0; / c. {1, 2, 3, 4, {5}, {6, 7}}; d. {5, 6, 7}; e. {1, 2, 3, {6, 7}}; f. {6, 7}; g. {{5}}. 3. Seja M = {1, 2, 3, 4, {1}, {2}, {3}, {4}}. Sejam A = {1, {2}, 3, {4}} e B = {{1}, 2, {3}, 4}. a. Justifique!; b. Ac = B, Bc = A, A ∪ Bc = A, Ac ∪ B = B, Ac ∪ Bc = M, A ∪ B = M, A ∪ Ac = M, B ∪ Bc = M. c. A ∩ B = 0, / Ac ∩ Bc = 0, / A ∩ Ac = 0/ e B ∩ Bc = 0. / 4. 26 · 25 · 24 = 15600. 5. 6. 6. 51 0 = 9765625. 7. 60. 8. 6840. 9. 8! = 40320. 10. 5! = 120. 11. 210. 12. 120. 13. 371. 129 / 140 Probabilidade e Estatística 9.3 Capítulo 3 1. Respostas: a) A ∩ Bc ∩Cc b) A ∩ B ∩Cc c) A ∩ B ∩C d) A ∪ B ∪C e) (A ∪ B ∪C)c f) (A ∩ Bc ∩Cc ) ∪ (Ac ∩ B ∩Cc ) ∪ (Ac ∩ Bc ∩C) (26)(26) 2. 2 52 2 . (4) 3. 12! . 1212 4. Respostas: a) 7 (104) b) 1/210 c) 2/5 d) 2/3 e) 1/42 5. Respostas: a) 1/2 b) 3/4 c) 11/20 d) 1/20 e) 3/10 f) 7/20 g) 9/20 h) 4/5 6. 14/15 7. Respostas: a) 319/324 b) 203/23328 c) 7/792 8. Respostas: a) 2/15 b) 1/2 9. Sim 10. Respostas: a) 0,92 b) 0,44 130 / 140 Probabilidade e Estatística 9.4 Capítulo 4 1. Respostas: a) 1/21 b) 3/7 2. Respostas: a) 3/4 b) 4/5 3. Respostas: a) P(X = 0) = 1/2, P(X = 1) = P(X = 3) = P(X = 4) = 1/10, P(X = 2) = 1/5. b) 5/8 4. Respostas: a) p(2) = 1/10, p(3) = 1/5, p(4) = 3/10, p(5) = 2/5. b) p(x) = 1/10 se x ∈ {3, 4, 8, 9} e p(x) = 1/5 se x ∈ {5, 6, 7}. 6. Respostas: a) 2 b) 1/4 ( 1 − x2 , c) F(x) = 0, 7. fY (y) = 1 √ 2 y, se x ≥ 1, se x < 1. 0 < y < 1. 8. fY (y) = (2/π)1/2 exp{−y2 /2}, 9. 9.5 y > 0. √ 1 − y , √ 1 + e se 0 ≤ y < 1, 4 y √ 1 fY (y) = 4√y e− y , se y ≥ 1, 0, caso contrário. Capítulo 5 1. Respostas: a) p(−16) = 1/12, p(−7) = 1/6, p(2) = 13/36, p(11) = 2/9, p(20) = 1/6. b) E(X) = 4,Var(X) = 108, 5. 2. 7/2. 3. média = 12,3; variância = 9,3. 4. Resposta: b) E(X) = ∞ 5. Respostas: a) E(X) = 0; b) E(|X|) = 1. c) Var(X) = 2. 131 / 140 Probabilidade e Estatística 9.6 Capítulo 6 1. Respostas: a) Binomial com n = 15, p = 0, 8. b) 0,035 c) 0,83 2. Respostas: a) Hipergeométrica com parâmetros 6, 9 e 12. b) 1/2. 3. Respostas: a) Binomial com n = 10 e p = 1/5. b) 4, 2 · 10−6 . c) 0, 62. 4. Respostas: a) Geométrica com p = 0, 3. b) 7 5. Respostas: a) Binomial negativa n = 2 e p = 2/5. b) 0,7667 6. Respostas: a) 1/3 b) 0,057 7. log(2). 8. 0,9631 9. Respostas: a) 0,1339 b) 0,2851 c) 0,9380 9.7 Capítulo 7 1. 3/5 2. Respostas: a) 58,2% b) 321 3. Respostas: 132 / 140 Probabilidade e Estatística a) 0,9772 b) 0,8413 c) 0,44 d) -2 e) 14,32 f) [−2, 84, 12, 84]. 4. Respostas: a) 2,41% b) 593ml 5. Respostas: a) 214,6 b) 2431g 6. 0,281. 7. 8. bn+1 −an+1 (n+1)(b−a) n!/λ n . 9. 7 10. Respostas: a) 35/128 b) 12393/16384. 11. fY (y) = y−1 (2π)−1/2 exp{−(log(y))2 /2}, y > 0. 12. Y segue distribuição Gama (1/2, 1/2). 9.8 Capítulo 8 1. Intervalo de 90% [1, 73; 1, 77]. Intervalo de 99% [1, 71; 1, 79]. 2. Intervalo de 90% [4, 80; 5, 59]. Intervalo de 95% [4, 73; 5, 67]. Intervalo de 99% [4, 58; 5, 82]. 3. Intervalo de 90% [109, 18; 110, 82]. Intervalo de 95% [109, 02; 110, 98]. 4. Intervalo de 90% [0, 55; 0, 65]. Intervalo de 99% [0, 53; 0, 67]. 5. Intervalo de 96% [0, 46; 0, 74]. Como o valor p = 0, 5 pertence ao intervalo de confiança de 96%, podemos afirmar, com 96% de confiança que, sim, a moeda é honesta. 6. Intervalo de 96% [0, 20; 0, 29]. Baseado no intervalo de confiança, temos que se Xi é uma variável aleatória indicando que a i-ésima casa é alugada, então, Xi segue distribuição Bernoulli com o parâmetro p pertencente a este intervalo. O número de casas alugadas então é dado por 20.000 N= ∑ Xi . i=1 Portanto, N ∼ Bin(n, p), onde p pertence a este intervalo. Como o número esperado de casas alugadas é dado por E(N) = 20.000p. 133 / 140 Probabilidade e Estatística Temos que o número esperado de casas alugadas pertence ao intervalo [4000, 5800]. 7. Intervalo de 90% [−0, 61; 1, 41]. 8. Intervalo de 95% [−7, 09; 4, 09]. 9. Intervalo de 95% [0, 56; 0, 64]. Como 0,5 = 50% não pertence ao intervalo, e o intervalo contém, com 95% de confiança, a média verdadeira. Temos que com 95% de confiança a média verdadeira, isto é, a proporção de donas de casa que preferem o detergente A, é maior do que 50%. Desta forma, a companhia tem evidência suficiente para NÃO confiar no funcionário. 10. Intervalo de 90% [0, 11; 0, 16]. Como 0,05 = 5% não pertence ao intervalo, e o intervalo contém, com 90% de confiança, a média verdadeira. Temos que com 90% de confiança a média verdadeira, isto é, o percentual de artigos defeituosos produzidos pelo novo empregado, é maior do que 5%. Desta forma, podemos sim afirmar que o novo empregado produz peças com índice de defeitos maior do que o existente. 11. a) -0,9921. b) Yb = 32, 28 − 1, 7X. c) Temos que para X = 0, Yb = 32, 28. 12. a) Yb = 386, 84 − 1, 87X. b) Temos que para X = 60, Yb = 274, 64. Para X = 120, temos Yb = 162, 44. c) R2 ≈ 0, 79. 13. a) Yb = 1, 81X. b) R2 ≈ 0, 30 c) Xb = 0, 4 + 0, 16X. d) R2 ≈ 0, 30. 134 / 140 Probabilidade e Estatística Apêndice A Apêndice - Tabela da Distribuição Normal P(X ≤ x) = Φ(x) = Z x 2 1 √ e−y /2 dy −∞ 2π Φ(−x) = 1 − Φ(x). x 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 FUNÇÃO DE DISTRIBUIÇÃO DA NORMAL N(0,1) 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7580 0.7611 0.7642 0.7673 0.7703 0.7734 0.7764 0.7794 0.7823 0.7852 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 135 / 140 Probabilidade e Estatística x 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 FUNÇÃO DE DISTRIBUIÇÃO DA NORMAL N(0,1) 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 136 / 140 Probabilidade e Estatística Capítulo 10 Índice Remissivo A AAS, 107 Absoluta Acumulada, 6 Acumulada, 6 Aditividade Contável, 35 Finita, 35 Aleatória Simples, 106 Amostra, 1, 104 Tamanho, 104 Amostragem, 105 Aleatória Simples, 106 Estratificada, 106 Não-Probabilística, 105 por Conglomerado, 106 Probabilística, 105 Sistemática, 106 Amostral, 18, 34 Amplitude, 17 Amplitude Total, 4 Analítica, 78 Aproximação da Binomial, 86 Arranjos, 29 B Bayes, 41 Bernoulli, 71 Binômio de Newton, 30 Generalizado, 79 Binomial, 72 Binomial Negativa, 78 C Censo, 1 Central do Limite, 108 Certo, 34 Coeficiente de Determinação, 123 Coeficiente Binomial Generalizado, 79 Coeficiente de Variação, 21 Coeficientes Binomiais, 30 Combinações, 29 Complementar, 26, 36 Condicional, 38 Conjunto, 23 Complementar, 26 Diferença, 26 Elemento, 24 Igualdade, 24 Interseção, 25 Subconjunto, 24 União, 24 Vazio, 24 Consistência, 111 Consistente, 111 Contável, 35 Contínua, 2, 49 Contagem Regra da adição, 28 Regra da multiplicação, 27 Correlação, 116 de Pearson, 119 Correlação Linear Negativa, 117 Positiva, 117 Correlação Não-Linear, 117 Cronológica, 3 D de Colunas, 9 de Determinação, 123 de Dispersão, 16 de Linhas, 8 de Pearson, 119 de Setores, 11 137 / 140 Probabilidade e Estatística de Tendência Central, 11 Densidade Parte contínua, 54 densidade, 49 Dependente, 120 Desvio Médio, 17 Padrão, 19 Desvio padrão, 66 Diferença, 26 Discreta, 2 Discretas, 48 Distribuição, 51, 71 Bernoulli, 71 Binomial, 72 Binomial Negativa, 78 Exponencial, 97 Perda de Memória, 99 Gama, 100 Geométrica, 76 Perda de memória, 77 Hipergeométrica, 83 Normal, 93 Padronização, 94 Tabulação, 94 Parte contínua, 54 Parte discreta, 54 Pascal, 78 Poisson, 85 Aproximação da Binomial, 86 Uniforme, 92 Distribuição acumulada, 51 Distribuição Amostral, 107 Distribuição de Frequência, 4 E Eficiência, 111 Eficiente, 111 Elemento, 24 Elemento Mediano, 14 em Barras, 10 Equiprováveis, 37 Espaço Amostral, 34 Espaço Amostral Partição, 35 Reduzido, 39 Específica, 4 Esperança Variável Aleatória, 61 Função de, 62 Variável Aleatória Contínua, 61 Variável Aleatória Discreta, 61 Estatística, 107, 116 Estimação Intervalar, 110 Pontual, 110 Estimador, 110 Consistente, 111 Eficiente, 111 Não-tendencioso, 111 Não-viciado, 111 Não-viesado, 111 Estimativa, 111 Estratificada, 106 Evento, 34 Certo, 34 Complementar, 36 Impossível, 34 Eventos Independentes, 42 Mutuamente excludentes, 34 Experimento Aleatório, 33 Exponencial, 97 Perda de Memória, 99 F Fórmula da Mediana, 15 Fórmula de Czuber, 13 Finita, 35 Frequência Absoluta Acumulada, 6 Relativa, 6 Acumulada, 6 Frequência Absoluta, 5 Função, 55 Analítica, 78 Densidade Parte contínua, 54 densidade, 49 Distribuição, 51 Parte contínua, 54 Parte discreta, 54 Distribuição acumulada, 51 Gama, 100 Probabilidade Parte discreta, 54 Função de, 48, 62 Funcional, 116 138 / 140 Probabilidade e Estatística G Gama, 100 Generalizado, 79 Geográfica, 3 Geométrica, 76 Perda de memória, 77 Gráfico de Colunas, 9 de Linhas, 8 de Setores, 11 em Barras, 10 Pizza, 11 H Hipergeométrica, 83 Histograma, 7 I Identidade de Chu-Vandermonte, 84 Igualdade, 24 Imagem inversa, 47 Impossível, 34 Inclusão e Exclusão, 36 Independente, 120 Independentes, 42, 60 Induzida por uma variável aleatória, 47 Interseção, 25 Intervalar, 110 Intervalo de Confiança, 113 para a Diferença de Médias, 115 para a Média, 114 para a Proporção, 115 L Lei dos eventos raros, 85 M Média, 11 Média Amostral, 107 Média Aritmética, 11 Ponderada, 12 Médio, 17 Método Mínimos Quadrados, 120 Mínimos Quadrados, 120 Mediana, 11, 14 Medida Probabilidade, 35 Medidas de Dispersão, 16 de Tendência Central, 11 Mista, 54 Moda, 11, 13 Modelos Matemáticos, 33 Multiplicação, 39 Mutuamente excludentes, 34 N Não-Probabilística, 105 Não-tendencioso, 111 Não-viciado, 111 Não-viesado, 111 Negativa, 117 Nominal, 2 Normal, 93 Padronização, 94 Tabulação, 94 O Ordinal, 2 P Padrão, 19 Padronização, 94 Parâmetros Populacionais, 104 para a Diferença de Médias, 115 para a Média, 114 para a Proporção, 115 Parte contínua, 54 Parte discreta, 54 Partição, 35 Pascal, 78 Perda de Memória, 99 Perda de memória, 77 Permutação, 28 Pizza, 11 Poisson, 85 Aproximação da Binomial, 86 Polígono de Frequência, 7 Ponderada, 12 Pontual, 110 População, 1, 104 Populacional, 18 por Conglomerado, 106 Positiva, 117 Princípio Inclusão e Exclusão, 36 Probabilística, 105 Probabilidade, 35 Condicional, 38 Função de, 48 Induzida por uma variável aleatória, 47 139 / 140 Probabilidade e Estatística Parte discreta, 54 Probabilidade total, 40 Q Qualitativa Nominal, 2 Ordinal, 2 Quantitativa Contínua, 2 Discreta, 2 R Reduzido, 39 Regra da adição, 28 Regra da multiplicação, 27 Relação Estatística, 116 Funcional, 116 Relativa, 6 Acumulada, 6 Resultados Equiprováveis, 37 Rol de dados, 4 S Série Cronológica, 3 Específica, 4 Geográfica, 3 Temporal, 3 Série de Taylor, 78 Sistemática, 106 Subconjunto, 24 Independentes, 60 Variável, 1 Dependente, 120 Independente, 120 Qualitativa Nominal, 2 Ordinal, 2 Quantitativa Contínua, 2 Discreta, 2 Variável Aleatória, 46, 61, 66 Contínua, 49 Desvio padrão, 66 Discretas, 48 Função, 55 Função de, 62 Imagem inversa, 47 Mista, 54 Variância, 66 Variável Aleatória Contínua, 61 Variável Aleatória Discreta, 61 Variância, 66 Amostral, 18 Populacional, 18 Variável Aleatória, 66 Vazio, 24 T Tabelas, 3 Tabulação, 94 Tamanho, 104 Tamanho Amostral, 5 Temporal, 3 Teorema Bayes, 41 Central do Limite, 108 Multiplicação, 39 Probabilidade total, 40 U União, 24 Uniforme, 92 V Variáveis Aleatórias 140 / 140