Conceitos Básicos, Básicos,Básicos de Probabilidade Espaço Amostral Base da Teoria de Probabilidades – Experimentos são realizados → resultados NÃO conhecidos previamente → Experimento aleatório – Exemplos: Determinar a execução de um programa; verificar o número de requisições que chegam em um servidor web em um intervalo de tempo Definição(Espaço Amostral): Conjunto de todos os resultados possíveis de um experimento aleatório é chamado de ESPAÇO AMOSTRAL de um experimento. Denotaremos por S Espaço Amostral Dimensão do espaço amostral será definida pelo propósito final do experimento sendo realizado. Exemplo: Status de 2 componentes – 1) Descrever o total de equipamentos em funcionamento; S = {0,1,2} – 2) Descrever QUAL o componente está falho(0) ou em funcionamento (1); S = {(0,0), (0,1),(1,0),(1,1)} Espaço Amostral Discreto e Continuo Eventos Evento é um subconjunto do espaço amostral. Uma instância de um experimento é chamada de tentativa (trial) Seja E um evento definido no espaço amostral S, ou seja, E é um sub-conjunto de S. Seja s o resultado de uma tentativa, com s Є S. Se s é um elemento de E, o evento E ocorreu. Eventos Exemplo 1: Voltando ao exemplo de 2 componentes... Seja A o evento descrito por: “Exatamente um componente falhou” → {(0,1),(1,0)} Exemplo 2: Observar o tempo para que um componente falhe Espaço amostral: conjunto de todos os numéros reais → [0,∞) Evento de interesse: Componente não falhou antes do tempo t → {x |x >= t } → [t,∞) Axiomas de Probabilidade P(A) → probabilidade da ocorrência do evento A, no espaço amostral S Seja S o espaço amostral de um experimento aleatório. Usamos P(A) para denotar a probabilidade associada ao evento A. Se o evento A consiste em um único ponto s então P(A) = P({s})=P(s) Axiomas de Kolmogorov (A1) Para qualquer evento A, P(A) >= 0 (A2) P(S) = 1 (A3) P(A U B) = P(A) + P(B) se A e B são mutuamente exclusivos (A∩B = 0) Relações Utéis (R1) Para qualquer evento A, P(A) 1 – P(A) (R2) Se C é um evento impossível, então P(C) = 0 (R3) Se A e B são qualquer eventos, não necessariamente mutualmente exclusivos, então P(A U B) = P(A) + P(B) - P(A∩B) Probabilidade Condicional Suponha que tenhamos uma informação adicional que o resultado s de uma tentativa está contido em um subconjunto B de um espaço amostral, com P(B) ≠ 0. O conhecimento da ocorrência de B pode mudar a probabilidade de ocorrência do evento A Objetivo: Definir a PROBABILIDADE CONDICiONAL do evento A dado que o evento B tenha ocorrido → P(A|B) Probabilidade Condicional Definição: A probabilidade condicional A dado B é dada por: P(A|B) = P(A∩B)/P(B) Regra Multiplicativa: P(A∩B) = P(B)P(A|B); P(B)≠0 P(A)P(B|A); P(A)≠0 0; caso contrário Independência de Eventos A probabilidade da ocorrência de um evento A pode aumentar ou diminuir dado que o evento B tenho ocorrido. Se a probabilidade do evento A não muda mesmo que o evento B tenha ocorrido, podemos concluir que sejam eventos independentes. Dois eventos são independentes se e somente se: P(A|B) = P(A) ou P(A∩B) = P(A)P(B) Independência de Eventos Definição (Eventos Independentes): Eventos A e B são independentes se P(A∩B) = P(A)P(B) Se A e B não são independentes, P(A∩B) é calculada usando a regra multiplicativa Exemplo Considere um experimento com dois dados. Seja o epaço amostral S = {(i,j)| 1 <= i,j<= 6 }. Assuma que para cada ponto, a probabilidade de ocorrência seja = 1/36. A = “primeiro resultado é 1,2 ou 3” B = “ segundo resultado é 4,5 ou 6” C = “soma dos dois é 7” Seja Regra de Bayes P(A) = ∑ P(A|Bi) P(Bi); (i = 1; i = n) Conhecida como teorema da probabilidade total. Em alguns casos, sabe-se que A ocorreu, mas não qual dos eventos B1,B2.., Bn tenha ocorrido. Neste caso, podemos estar interessados em calcular P(Bj|A) P(Bj|A) =P(Bj∩A)/P(A) = P(A|Bj)P(Bj)/ ∑ P(A|Bi) P(Bi); (i = 1; i = n) Exemplo Medidas em um centro de computação (CC) em um dia, indicou que 15% dos jobs são da UFJF, 35% da UFMG e 50% da UFRJ. Suponha que a probabilidade dos jobs iniciados destas universidades serem multitaks são 0.01, 0.05 e 0.02. Qual é a probabilidade de um job aleatório ser multitask? Qual a probabilidade de um job escolhido aleatoriamente pertencer a UFMG, dado que ele é multitasking? Tentativas de Bernoulli Considere um evento aleatório com duas possibilidades de resultado: “sucesso” e “falha” (ou “funcionando” e “defeituoso”). Sejam as probabilidades dos resultados p e q respectivamente, com p+q = 1. Considere um experimento que consiste da sequência de n repetições independentes deste experimento. Esta sequência é conhecida como Tentativas de Bernoulli Tentativas de Bernoulli Exemplos: (1) Observe n execuções consecutivas de um comando if, com sucesso = “then é executado” e falha = “else é executado” (2) Examine os componentes produzidos em uma linha de produção, com sucesso = “funcionando” e falha = “defeito” Variáveis Aleatórias Uma variável aleatória X em um espaço amostral S é uma função X:S → ℜ que atribui um número real X(s) para cada ponto s Є S. Variáveis aleatórias permitem uma descrição mais compacta de um experimento que a descrição com granularidade fina do espaço amostral. Exemplo: Ao inspecionar produtos manufaturados, é interessante saber quantos estão com defeitos e não a natureza do defeito Função de Massa de Probabilidade (Probability Mass Function) PMF Seja Ax o evento que reúne todos os pontos amostrais {s|X(s) = x} . Assim: P(Ax) = P([X=x]) = P({s|X)s=x}) = ∑P(s), ∀(X(s)=x) Com esta fórmula, calculamos P(X=x) para todo x ∈ℜ. Esta função é conhecida como Função de Massa de Probabilidade (pmf) ou função de densidade discreta da variável aleatória X, denotada por pX(x). Função de Massa de Probabilidade (Probability Mass Function) PMF pX(x) = P(X=x) = ∑P(s), ∀(X(s)=x) = Probabilidade que o valor da variável aleatória X obtida de uma realização de um experimento seja igual a x Propriedades: (p1) 0≤pX(x)≤1 ∀ x∈ℜ (p2) ∑pX(x) = 1, ∀(x∈ℜ) (p3) Para variáveis discretas: ∑pX(xi) = 1, ∀i Função de Massa de Probabilidade (Probability Mass Function) PMF Exemplo A: Se considerarmos uma célula sem fio com 5 canais e definirmos X = “número total dos canais disponíveis”, podemos definir pmf da variável X como: pX(0) = 5/32; pX(1) = 10/32;pX(2) = 1/32; pX(3) = 10/32; pX(4) = 5/32;pX(5) = 1/32 Função de Distribuição (Cumulative Distribution Function) CDF Como calcular a probabilidade de um conjunto {x|X(s) ∈A}, onde A é um subconjunto de ℜ ao invés de um ponto amostral? Se A = (a,b) → P(a < x < b ) A = (a,b] → P(a < x <= b ) A = (-∞,x] → P(X <= x ) Se pX(x) representa a pmf de uma variável aleatória X então: P(X∈A) = ∑ pX(x); ∀ xi Função de Distribuição (Cumulative Distribution Function) CDF Voltando ao exemplo A … P(X <= 2) = P(X = 0) + P(X = 1) + P(X = 2) = pX(0) + pX(1) +pX(2) = 5/32+10/32+ 1/32 = 16/32 = 0.5 Função de Distribuição (Cumulative Distribution Function) CDF A função FX(t), -∞<t<∞ → FX(t) = P( -∞<X<=t) = P(X<=t) = ∑ pX(x); ∀ x <= t é definida como função de distribuição acumulativa (cumulative distriburion function) – CDF – função distribução da variável aleatória X P(a<= X <=b) = P(X<= b) - P(X<= a) = F(b)-F(a) Função de Distribuição (Cumulative Distribution Function) CDF Propriedades (F1) 0 ≤ F(x) ≤ 1 para −∞≤ x ≤ ∞ (F2) F(x) é uma função monotônica crescente de x; se x1 ≤ x2 → F(x1) ≤ F(x2) (F3) limx → −∞ F(x) = 0;limx → ∞F(x) = 1 Função Distribuição das variáveis aleatórias discretas crescem em saltos, enquanto para as variáveis contínuas não existem saltos. Variáveis com os 2 comportamentos são denominados “mistas” Variáveis Aleatórias Discretas Variáveis aleatórias discretas são usadas para representar o número de objetos de um certo tipo, como por exemplo, total dos jobs que chegam a um servidor de arquivos em um minuto ou o número de chamadas telefônicas realizadas em um minuto Variáveis Aleatórias Discretas Bernoulli Variável aleatória que pode assumir somente dois valores possíveis: 0 e 1. pX(0) = P(X = 0) = q pX(1) = P(X = 1) = p p+q = 1 F(x) = 0 para x < 0, F(x) =q para 0<= x <1, F(x) = 1 para x >= 1 Variáveis Aleatórias Discretas Binomial Considere uma sequência de n tentativas independentes de Bernoulli com probabilidade de sucesso igual a p em cada tentativa. Yn é definido como o número de sucessos após n tentativas. O domínio da v.a. Yn é todas as ntuplas de 0s e 1s. Yn corresponde ao número de 1s na n-tupla. Variáveis Aleatórias Discretas Binomial A pmf de Yn é: P(Yn = k) = C(n,k)pk(1-p)n-k; para 0<=k<=n 0 ; caso contrário Esta equação fornece a probabilidade de k sucessos em n tentativas independentes de um experimento que tem probabilidade p de sucesso em cada tentativa Variáveis Aleatórias Discretas Geométrica Consideremos novamente uma sequência de tentativas de Bernoulli, mas a idéia é contar o número de tentativas até o acontecimento do PRIMEIRO SUCESSO Espaço Amostral consiste de um conjunto de diversas 'strings' com um número arbitrário de 0s, seguido por UM 1: S = {0i-11| i = 1,2,3,...} Variáveis Aleatórias Discretas Geométrica Seja Z a v.a. que representa o número total de tentativas, incluindo o primeiro sucesso. pmf: pZ(i) = qi-1p = p(1-p)i-1, i = 1,2,3,... cdf FZ(i) = 1 - (1-p)i Variáveis Aleatórias Discretas Geométrica Seja X a v.a. que representa o número total de falhas, antes do primeiro sucesso; Z = X + 1 Temos v.a. Geométrica modificada pmf pX(i) = p(1-p)i, i = 0,1,2,... cdf F_X(i) = 1 - (1-p)i+1 Variáveis Aleatórias Discretas Geométrica Exemplos de utilização: (1) Teoria de Filas (2) Considere um sistema de computador com um scheduling com um tempo fixo. No final de cada slice, o programa completa a execução com probabilidade p; com probabilidade (1-p) é necessário retornar a CPU. A pmf da v.a. do total de slices necessários para terminar a computação é dada pela pmf da v.a. geométrica Variáveis Aleatórias Discretas Geométrica – Propriedade da Falta de Memória (memoryless) Z: v.a que representa o número de tentativas até o primeiro sucesso n: total de tentativas ocorridas sendo todas falhas Y: v.a. que representa o número total de tentativas adicionais até o sucesso Y = Z-n Variáveis Aleatórias Discretas Geométrica – Propriedade da Falta de Memória (memoryless) Se uma sequência de tentativas de Bernoulli é analisada, não é necessário “lembrar” quantas tentativas já foram realizadas para determinar as probabilidades das tentativas adicionais necessárias até o primeiro sucesso Variáveis Aleatórias Discretas Poisson Problema: Suponha que estejamos observando a chegada de jobs em um servidor por um intervalo de tempo [0,t]. Baseando na v.a. Binomial p(k;λt) = e-λt(λt)k /k! Variáveis Aleatórias Discretas Poisson Outras aplicações: – Em teoria de filas, número de jobs que chegam no sistema, o número de jobs que completam o serviço, o número de mensagens transmitidas através de um canal de comunicação podem ser aproximados por uma v.a. de Poisson Variáveis Aleatórias Contínuas Para uma variável aleatória contínua, X, definimos função densidade de probabilidade (pdf) como: f(x) = dF(x)/dx Então FX(x) = P(X<=x) = ∫fx(t)dt Variáveis Aleatórias Contínuas Propriedades da pdf (f1) f(x) >= 0 para todo x (f2) ∫f(x)dx = 1; -∞ < x < ∞ Diferentemente da pmf, a pdf não é uma probabilidade! Variáveis Aleatórias Contínuas Propriedades da cdf (F1) 0 <= F(x) <=1 para todo x (F2) F(x) é uma crescente de x função monotônica (F3) limx → −∞ F(x) = 0;limx → ∞ F(x) = 1 Variáveis Aleatórias Contínuas Distribuição Exponencial – Também conhecida como distribuição exponencial negativa – Usada em teoria de filas e confiabilidade – Propriedade da falta de memória (memoryless) – Relação com a distribuição discreta de Poisson Variáveis Aleatórias Contínuas Distribuição Exponencial – São modeladas como uma v.a exponencial: • Intervalo de chegada entre dois jobs sucessivos (interarrival time) • Tempo de serviço em um servidor de uma fila • Tempo para que um componente falhe • Tempo para que um componente seja consertado Variáveis Aleatórias Contínuas Distribuição Exponencial cdf F(x) = 1-e-λx, se 0 <= x <∞ = 0 , caso contrário pdf f(x) = λe-λx, se x > 0 =0 , caso contrário Variáveis Aleatórias Contínuas Distribuição Exponencial P(X >= t) = e-λt P(a <= X <= b) =e-λa - e-λb Variáveis Aleatórias Contínuas Distribuição Exponencial – Propriedade da Falta de Memória - Memoryless X: v.a. que representa o tempo de vida de um componente. Suponhamos que o componente esteja operacional durante t horas e que o tempo de vida seja maior que t Y: Tempo residual de vida GY(Y<=y|X>=t) = G_Y(y|t)= ??? Variáveis Aleatórias Contínuas Distribuição Exponencial – Propriedade da Falta de Memória - Memoryless GY(Y,t) é independente de t e é idêntica a distribuição exponencial da v.a X. A distribuição do tempo de vida residual do componente, não depende do tempo de vida que o componente já estava funcionando. Componente não “envelhece”. Quebra eventual se deve a uma falha repentina e não deteriorização gradual. Variáveis Aleatórias Contínuas Distribuição Exponencial – Propriedade da Falta de Memória - Memoryless Se estamos representando um tempo entre chegadas (interarrival times) através de uma variável aleatória exponencialmente distribuída, a propriedade da falta de memória implica que o tempo que devemos esperar por uma nova chegada é estasticamente independente de quanto tempo já tenhamos esperado. Média ou Valor Esperado As funções de distribuição F(x) ou densidade f(x) (pmf para v.a. Discreta) caracteriza completamente o comportamente de uma v.a. Em alguns casos, basta uma informação mais simples sobre a v.a. Média → E[X] Mediana → x, tal que P(X < x) <= 0.5 e P(X > x) = 0.5 Média ou Valor Esperado E[X] = ∑∀i xi p(xi) para os casos em que X é uma v.a. discreta E[X] = ∫x f(x)dx; (-∞,∞) para os casos em que X é uma v.a. contínua Média ou Valor Esperado Algumas variáveis discretas... Bernoulli E[X] = p Binomial E[X] = np Geométrica E[X] = 1/p Poisson E[X] = λt Variável Contínua Exponencial E[X] = 1/λ