Teoria das Filas e Aplicações Celso C. Ribeiro Reinaldo Vallejos PETROBRAS Novembro 1998 Programa ... Teoria da probabilidade Variáveis aleatórias Distribuições discretas Distribuições contínuas Variáveis aleatórias conjuntas e probabilidade condicional Teoria das filas Cadeias de Markov discretas Programa … Cadeias de Markov de tempo contínuo Lei de Little Aplicações da Lei de Little Processos de nascimento e morte Filas M/M/1 Filas M/M/C Aplicações Teoria da probabilidade Teoria da probabilidade Modelagem de fenômenos aleatórios quantidades não previsíveis antecipadamente variação inerente que deve ser considerada Permitir que o modelo tenha natureza probabilística modelo probabilístico Teoria da probabilidade Experimento cujo resultado não seja previsível antecipadamente Espaço amostral: S = {resultados possíveis} Lançamento de uma moeda: S = {cara,coroa} Lançamento de um dado: S = {1,2,3,4,5,6} Lançamento de duas moedas: Acara, Bcoroa S = {(A,A),(A,B),(B,A),(B,B)} Vida útil de um carro: S = [0,) Teoria da probabilidade Evento: subconjunto E do espaço amostral S E = {cara}, E = {coroa} E = {2,4,6}: resultado do lançamento é par E = {(A,A),(A,B)}: primeira moeda é cara E = [1,2): carro dura pelo menos um ano sem completar o segundo Teoria da probabilidade Eventos E e F Evento união: EF Evento interseção: EF Evento vazio: E e F mutuamente exclusivos: EF = E ={cara}, F ={coroa}: ou dá cara, ou dá coroa Evento complementar: Ec = S\E Teoria da probabilidade Espaço S, evento E Probabilidade P(E) do evento E: 0 P(E) 1 P(S) = 1 E1E2 = P(E1E2) = P(E1) + P(E2) P({cara}) = P({coroa}) = 1/2 Moeda viciada, com chance duas vezes maior de dar cara: P({cara}) = 2/3, P({coroa}) = 1/3 Teoria da probabilidade P({2,4,6}) = P({2}) + P({4}) + P({6}) = = 1/6 + 1/6 + 1/6 = 1/2 Teoria da probabilidade P(Ec) = 1 - P(E) 1 = P(S) = P(EEc) = P(E) + P(Ec) EF E P(E) + P(F) = P(EF) + P(EF) P(EF) = P(E) + P(F) - P(EF) EF EF = P(EF) = P(E) + P(F) P(EFG) = P(E) + P(F) + P(G) - P(EF) - P(EG) - P(FG) + P(EFG) F Teoria da probabilidade Probabilidade condicional: probabilidade de que um determinado evento ocorra, conhecendo-se a ocorrência de outro Dois dados são lançados e todas os 36 pares de resultados são equiprováveis. Qual é a probabilidade da soma dos dois valores ser igual a 10? P({4,6}) + P({5,5}) + P({6,4}) = 31/36 =1/12 Teoria da probabilidade Sabendo-se que a primeira observação é um 4, qual é a probabilidade da soma dos dois valores ser igual a 10? Resultados possíveis, sendo 4 o primeiro valor: (4,1), (4,2), (4,3), (4,4), (4,5), (4,6) Se o primeiro valor é 4, a probabilidade (condicional) de cada um destes pares é 1/6 Probabilidade dos 30 pares restantes: zero Probabilidade da soma ser igual a 10: 1/6 Teoria da probabilidade Probabilidade condicional do evento E dado que o evento F ocorre: F E P(E|F) = P(EF)/P(F) EF Teoria da probabilidade Uma moeda é lançada 2 vezes. Qual é a probabilidade condicional de que sejam observadas duas caras, dado que pelo menos uma cara é observada? E = {(cara,cara)} = {(A,A)} cara A F = {(A,B),(B,A),(A,A)} P(E|F) = P(EF)/P(F) = P({(A,A)})/ P({(A,B),(B,A),(A,A)}) = (1/4)/(3/4) = 1/3 Teoria da probabilidade Uma urna contém sete bolas pretas e cinco bolas brancas. Duas bolas são retiradas. Qual a probabilidade de que ambas sejam pretas, considerando-se que a primeira bola não é devolvida para a urna após ser retirada? F = primeira é preta E = segunda é preta P(EF) = P(E|F) P(F) = 6/117/12 = 7/22 Teoria da probabilidade Uma urna contém sete bolas pretas e cinco bolas brancas. Duas bolas são retiradas. Qual a probabilidade de que ambas sejam pretas, considerando-se que, neste caso, a primeira bola é devolvida para a urna após ser retirada? F = primeira é preta E = segunda é preta P(EF) = P(E|F) P(F) = 7/127/12 = 49/144 Teoria da probabilidade Cada uma de três pessoas possui uma ficha de cor diferente que é lançada em uma urna. Em seguida, cada pessoa retira aleatoriamente uma ficha da urna. Qual é a probabilidade de que ninguém recupere sua ficha original? Idéia: calcular a probabilidade do evento complementar, isto é, de que pelo menos uma pessoa recupere sua ficha original. Teoria da probabilidade Ei: i-ésima pessoa recupera sua ficha; i=1,2,3 P(Ei) = 1/3, i=1,2,3 P(EiEj) = P(Ej|Ei) P(Ei) = 1/21/3 = 1/6 ij P(E1E2E3) = P(E3|E1E2) P(E1E2) = 1/6 P(E1E2E3) = P(E1) + P(E2) + P(E3) - P(E1E2) - P(E1E3) - P(E2E3) + + P(E1E2E3) = 3 1/3 - 3 1/6 + 1/6 = 2/3 P(ninguém recuperar) = 1 - 2/3 = 1/3 Teoria da probabilidade E e F independentes: P(EF) = P(E) P(F) P(E|F) = P(E) P(F|E) = P(F) Teoria da probabilidade Espaço amostral S, eventos E e F E = ES = E(FFc) = (EF) (EFc) EF e EFc mutuamente exclusivos P(E) = P((EF)(EFc)) = = P(EF) + P(EFc) = = P(E|F) P(F) + P(E|Fc) P(Fc) = = P(E|F) P(F) + P(E|Fc) (1-P(Fc)) Teoria da probabilidade A primeira de duas urnas contém 2 bolas brancas e 7 bolas pretas, enquanto a segunda contém 5 brancas e 6 pretas. Uma moeda é lançada e uma bola é retirada da primeira ou da segunda urna, dependendo do resultado ter sido cara ou coroa, respectivamente. Qual é a probabilidade (condicional) de ter ocorrido uma cara, dado que a bola retirada foi branca? Teoria da probabilidade Deseja-se calcular P(cara|branca) P(cara|branca) = P(cara e branca) / P(branca) = = P(branca|cara) P(cara) / P(branca) P(branca) = P(branca|cara) P(cara) + + P(branca|coroa) P(coroa) P(cara|branca) = = 2/91/2/(2/91/2+5/111/2) = 22/67 Teoria da probabilidade Um teste detecta com 95% de certeza uma determinada doença, quando ela está presente. Entretanto, este teste aponta “falsos positivos” em 1% das pessoas que não contraíram a doença. Sabendo-se que 0.5% da população estão contaminados por esta doença, qual é a probabilidade de que determinada pessoa tenha a doença dado que o resultado de seu teste foi positivo? Teoria da probabilidade Deseja-se calcular P(doente|positivo) P(doente|positivo) = P(doente e positivo) / / P(positivo) = = P(positivo|doente) P(doente) / P(positivo) P(positivo) = P(positivo|doente) P(doente) + + P(positivo|sadia) P(sadia) P(doente|positivo) = 0.950.05/(0.950.005+0.010.995) = 95/294 Teoria da probabilidade Fórmula de Bayes: eventos F1, F2, …, Fn mutuamente exclusivos F1 F2 … Fn= S P(E) = P(ES) = P(EF1) + … + P(EFn) = = P(E|F1) P(F1) + … + P(E|Fn) P(Fn) P(Fj|E) = P(EFj) / P(E) = P(E|Fj) P(Fj) / P(E) P(Fj|E) = P(E|Fj) P(Fj) / / [P(E|F1) P(F1) + … + P(E|Fn) P(Fn)] Teoria da probabilidade Sabe-se que determinada carta está em uma de três pilhas diferentes, com a mesma probabilidade. A probabilidade da carta ser encontrada examinando-se rapidamente a pilha em que ela realmente está é 20%. Suponha que a pilha 1 foi verificada, mas a carta não foi encontrada. Qual a probabilidade da carta efetivamente estar na pilha 1? Teoria da probabilidade Fi: carta está na i-ésima pilha; i=1,2,3 E: carta não encontrada na pilha 1 Deseja-se calcular P(F1|E) P(F1|E) = P(E|F1) P(F1) / / [P(E|F1)P(F1)+P(E|F2)P(F2)+P(E|F3)P(F3)] P(F1|E) = 0.81/3 / (0.81/3 + 11/3 + 11/3)= = 0.8/2.8 = 2/7 Variáveis aleatórias Variáveis aleatórias Variável aleatória: função real definida sobre o espaço amostral soma dos valores obtidos após o lançamento de dois dados número de caras após um certo número de lançamentos de uma moeda tempo entre duas chegadas sucessivas a uma fila tempo de processamento de uma tarefa Variáveis aleatórias Valor de uma variável aleatória (v.a.) é determinado pela saída de um experimento é possível associar probabilidades aos valores que podem ser assumidos por uma X: v.a. definida pela soma dos valores obtidos após o lançamento de dois dados P{X=1} = P{} = 0 P{X=2} = P{(1,1)} = 1/36 P{X=3} = P{(1,2),(2,1)} = 2/36 = 1/18 ... Variáveis aleatórias Y: v.a. definida pelo número de caras observadas após dois lançamentos de uma moeda P{Y=0} = P{(B,B)} = 1/4 Acara Bcoroa P{Y=1} = P{(A,B),(B,A)} = 1/2 P{Y=2} = P{(B,B)} = 1/4 P{Y=0} + P{Y=1} + P{Y=2} = 1 Variáveis aleatórias N: v.a. definida pelo número de lançamentos de uma moeda até aparecer a primeira cara, sendo p a probabilidade de observar-se cara em cada lançamento P{N=1} = P{A} = p P{N=2} = P{(B,A)} = (1-p)p P{N=3} = P{(B,B,A)} = (1-p)2p … P{N=n} = P{(B,B,…,B,A)} = (1-p)n-1p Variáveis aleatórias Função de distribuição acumulada (fda) ou função de distribuição F(.) da v.a. X: F(b) = P{X b} - < b < + F(b): probabilidade de que a v.a. X assuma um valor menor ou igual a b Propriedades: F(b) é uma função não-decrescente de b limbF(b) = F() =1, limb-F(b) = F(-) = 0 p{a<Xb} = P{Xb} - P{Xa} = F(b) - F(a) Variáveis aleatórias Variáveis aleatórias discretas: a v.a. assume um número finito ou contável de valores possíveis. Variáveis aleatórias contínuas: a v.a. assume valores dentro de um contínuo de valores possíveis. Variáveis aleatórias discretas Variáveis aleatórias discretas: a v.a. assume um número finito ou contável de valores possíveis. Função de massa de probabilidade: p(a) = P{X=a} Se X pode assumir os valores x1, x2,… então p(xi) > 0, i=1,2,… p(x) = 0, outros valores de x Variáveis aleatórias discretas Função de distribuição acumulada: F(a) = p(xi) i=1,2,…: xi a Exemplo: p(1) = 1/2, p(2) = 1/3, p(3) = 1/6 0, a < 1, F(a) = 1/2, 1 a < 2 5/6, 2 a < 3 1, 3a Variáveis aleatórias discretas F(a) 1 5/6 1/2 1 a 2 3 Variáveis aleatórias discretas Seja X uma v.a. discreta. Então, seu valor esperado é dado por: E[ X ] x. p( x) x: p ( x )0 Funções de variáveis aleatórias g(X) função da v.a. X Caso discreto: E[ g ( X )] Caso contínuo: E[ g ( X )] g ( x) p( x) x: p ( x )0 g ( x) f ( x)dx Exemplo: a,b R E[a.X+b] = a.E[X] + b Funções de variáveis aleatórias Variância da v.a. X: VAR[ X ] E[( X E[ X ]) ] 2 Pelo resultado anterior: VAR[ X ] E[ X 2 2 X .E[ X ] E[ X ]2 ] 2 2 VAR[ X ] E[ X ] 2E[ X ].E[ X ] E[ X ] 2 2 VAR [ X ] E [ X ] E [ X ] Logo, Funções de variáveis aleatórias Variância da v.a. X: VAR[X ] E[(X ) 2 ] E[X ]2 VAR[X ] E[ 2 X 2 ] E[X ]E[X ] 2 2 2 2 VAR[X ] E[ X ] E[ X ] VAR[X ] (E[ X ] E[ X ] ) 2 2 VAR[X ] VAR[ X ] 2 2 Funções de variáveis aleatórias X e Y variáveis aleatórias independentes: E[ g ( X )h(Y )] E[ g ( X )].E[h(Y )] VAR[ X Y ] VAR[ X ] VAR[Y ] Distribuições discretas Distribuição de Bernoulli Um experimento de Bernoulli tem somente dois resultados aleatórios possíveis: sucesso fracasso A variável aleatória que corresponde ao experimento anterior é uma variável aleatória de Bernoulli. A notação de uma distribuição de Bernoulli é Be(p), onde 0 p 1 é a probabilidade de obter-se sucesso. Distribuição de Bernoulli Exemplos Lançamento de uma moeda Caso obtenha-se uma cara: sucesso Caso obtenha-se uma coroa: fracasso A direção que segue um veículo em uma bifurcação (caminho A ou B) Se segue o caminho A: sucesso Se segue o caminho B: fracasso (o resultado deste experimento é uma v.a. somente para um observador externo, mas não para o condutor) Distribuição de Bernoulli Os resultados possíveis deste experimento podem ser “mapeados” nos números reais, logo: X v.a. Be(p) (X é uma variável aleatória discreta do experimento de Bernoulli de parâmetro p). Domínio de X: X {0, 1} Função de massa de probabilidade: P{X = 0} = P(0) = 1 - p P{X = 1} = P(1) = p Distribuição de Bernoulli Função de distribuição acumulada: lim F ( x h) P(X < x) h 0 1 p, F ( x) 1, Valor esperado: 0 x <1 x 1 E[ X } p.1 (1 p).0 p Distribuição de Bernoulli Gráficos Função de massa de probabilidade p(X) 1 p 1-p p 0 1 X E[X] 2s X Função de distribuição acumulada F(X) 1 p Graficos 3D 1-p 0 1 X Distribuição de Bernoulli Parâmetros Considerando as funções anteriores tem-se para Be(p): Valor esperado E [X ] Variância VAR Desvio padrão s Função geradora de momento f ( z) n-ésimo momento E X p [X ] p (1 p ) p (1 p ) X p [ ] n ( z 1) 1 p Distribuição de Bernoulli Exemplo em comunicações info T R Um pacote de informações é enviado pelo transmissor ao receptor através de uma conexão, sendo p a probabilidade de que o pacote chegue corretamente ao receptor. info chega corretamente a R: X = 1 info não chega corretamente a R: X = 0 Distribuição binomial Considere n experimentos independentes identicamente distribuídos (iid), cada um com distribuição Bernoulli de parâmetro p. Se a variável de interesse Y corresponde ao número de sucessos obtidos nestes n experimentos, então Y é conhecida como uma variável aleatória binomial de parâmetros n e p. Distribuição binomial Sejam X1, X2, …, Xn, onde as variáveis {Xi}, i=1,2,…,n são v.a.’s iid Be(p). Seja a v.a. Y definida por sua soma: n Y Xi i 1 Y Bi(n, p) Distribuição binomial Uma distribuição binomial de parâmetros n e p se denota Bi(n,p), onde: n é o número de experimentos de Bernoulli independentes realizados. p é a probabilidade de obter um sucesso em cada um dos n experimentos, 0 p 1. Distribuição binomial Exemplos Uma moeda é lançada n vezes. Se em cada lançamento se obtém cara (sucesso) com probabilidade p, qual é a probabilidade de que em 0 i n experimentos se obtenha sucesso? Observam-se n veículos em uma bifurcação. Cada veículo segue o caminho A (sucesso) com probabilidade p. Qual é a probabilidade de que 0 i n veículos sigam o caminho A (sucesso)? Distribuição binomial Seja Y v.a. Bi(n,p) (Y é v.a. binomial de parâmetros n e p), onde n N+ e 0 p 1 Domínio de X: Y {0, 1, 2, …, n} Função de massa de probabilidade: n i P{ Y i} P(i ) p (1 p) n i i , 0 i n Função de distribuição acumulada: n P { Y i } j 0 j i j p (i p ) n j , 0 i n Distribuição binomial Valor esperado: n n n E[X]= ip (i ) i p i (1 p) ni i 0 i 0 i n n! i n i = p (1 p) i 1 ( n i )!(i 1)! (n 1)! np p (i 1) (1 p) ni i 1 ( n i )!(i 1)! n = n 1 k Seja k=i-1, então E[X]= np p (1 p ) n1k k 0 k n 1 Como n 1 k 0 n 1 k n 1 k 1 p (1 p) k então, E[X]=np Distribuição binomial Parâmetros Considerando-se as funções anteriores tem-se para Bi(n, p): Valor esperado E [Y ] Variância VAR Desvio padrão sY Função geradora de momento f ( z) n-ésimo momento E [Yk ] np [Y ] np ( 1 p ) np ( 1 p ) ( p ( z 1 ) 1) f (k) ( 1) n Distribuição binomial Observando-se a esperança e a variância da distribuição binomial se verifica que correspondem à soma de v.a.’s iid com distribuição de Bernoulli. A transformada Z de uma fmp corresponde à sua função geradora de momento: P( z ) Pn z n 0 n ; dP(z ) nPn E[ X ] dz z 1 n0 Distribuição binomial Gráficos P(Y = y) Função de massa de probabilidade Bi(10,0.7) sY = 1.449 0.3 0.2 0.1 E[Y]=7 0 0 5 y E[Y] 2sY 10 Graficos 3D Distribuição binomial Gráficos Função de massa de probabilidade Bi(10,0.5) P(X=x) 0.3 0.2 0.1 0 0 2 4 6 8 10 12 x Função de distribuição acumulada Bi(10,0.5) P(X<=x) 1.5 1 0.5 0 0 2 4 6 x 8 10 12 Distribuição binomial Gráficos Função de massa de probabilidade Bi(10,0.7) P(X=x) 0.3 0.2 0.1 0 0 2 4 6 8 10 12 x P(X<=x) Função de distribuição acumulada Bi(10,0.7) 1.5 1 0.5 0 0 2 4 6 x 8 10 12 Distribuição binomial Gráficos Função de massa de probabilidade Bi(10,0.5) P(X=x) 0.3 0.2 0.1 0 0 2 4 6 8 10 12 x Função de distribuição acumulada Bi(10,0.5) P(X<=x) 1.5 1 0.5 0 0 2 4 6 x 8 10 12 Distribuição binomial Gráficos P(X=x) Função de massa de probabilidade Bi(15,0.5) 0.25 0.2 0.15 0.1 0.05 0 0 5 10 x 15 20 Função de distribuição acumulada Bi(15,0.5) P(X<=x) 1.5 1 0.5 0 0 5 10 x 15 20 Bi (10,p) 0,4 0,35 0,3 0,25 Bi (10,p) 0,2 0,15 0,1 0,05 0 0 1 2 3 p=0.9 4 i p=0.6 5 p=0.3 6 7 p=0.1 8 9 10 Graficos 3D Distribuição binomial Com relação à fmp de uma binomial tem-se que: valor máximo se encontra em X = E[X] = np estritamente decrescente para X > E[X] simétrica em relação a p (e.g., p = 0.1 e p = 0.9) Pelo teorema do limite central: a v.a. da soma infinita de experimentos independentes (com qualquer distribuição) tende à distribuição gaussiana Distribuição binomial Exemplo em comunicações infon T ... info2 info1 R n pacotes de informação são enviados pelo transmissor ao receptor através de uma conexão. A probabilidade de cada um dos pacotes chegar corretamente a R é igual a p. Qual é a probabilidade de que 0 i n pacotes de informação enviados cheguem corretamente ao receptor? Distribuição binomial Exemplo em comunicações infon T ... info2 info1 R n: número de pacotes enviados p: probabilidade de cada pacote chegar corretamente Y = i: número de pacotes enviados que chegarão corretamente, 0 i n Y v.a. ~ Bi(n,p), n {0,1,2,3, ...} n i P{ Y i} P(i ) p (1 p) n i i , 0 i n Distribuição binomial Exemplo em tolerância a falhas Vários computadores executam um mesmo algoritmo. O resultado final do algoritmo se determina por votação dos computadores, por maioria simples. Por exemplo, se o resultado de dois ou mais computadores coincide, então esse é o resultado final. Cada computador tem probabilidade de falha igual a 1-p. Para que valores de p convém escolher 1, 3 ou 5 computadores? Distribuição binomial Exemplo em tolerância a falhas n: número total de computadores X: número de computadores funcionando corretamente (fornecem o resultado correto) X v.a. ~ Bi(n,p), n {1,3,5} Por exemplo: probabilidade de sucesso do sistema com n computadores (maioria proporciona o resultado correto) m = ((n-1)/2)+1: número mínimo de computadores (n ímpar) que devem dar o resultado correto para o sistema ter sucesso Distribuição binomial Exemplo em tolerância a falhas Para n {1,3,5}: n i n i P( X m) p (1 p) i m i n Caso n = 1 Caso n = 3 Caso n = 5 Pe = p 1 Pe3= Pe5= 3 2 3 3 p (1-p) + p 2 3 () () 2 5 3 5 4 p (1-p) + 5 p5 p (1-p) + 3 4 5 () () () Distribuição binomial Exemplo em tolerância a falhas Probabilidade de sucesso do sistema Probabilidade de sucesso 1.2 1 0.8 Pe1 Pe3 Pe5 0.6 0.4 0.2 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Probabilidade de sucesso de cada computador 1 Distribuição geométrica Considere n experimentos de Bernoulli independentes, cada um com probabilidade de êxito p X v.a. Ge(p) representando o número de tentativas até conseguir o primeiro êxito Função de massa de probabilidade: PX n p(n ) (1 p ) p n 1,2,... n 1 Função de distribuição: n F(n) (1-p) p k 1 k -1 Distribuição geométrica Valor esperado: n 1 E[X]= n1 n(1 p) p Fazendo q = 1 - p: E[X] 1 Logo, E[X]= p = d p (q n ) n 1 dq = d k p qq dq k 0 = p (1 q ) 2 = = d n p q dq n1 p d q dq 1 q Distribuição geométrica Exemplo: lançar a moeda até o primeiro êxito Êxito = cara Fracasso = coroa Exemplo: número de automóveis não específicos até que um siga o caminho A da bifurcação Êxito = A Fracasso = B Experimentos independentes Distribuição geométrica F(n) 1 0.9 0.8 Função de distribuição 0.7 0.6 0.5 p=0.2 0.4 0.3 0.2 Função de massa de probabilidade 0.1 0 0 F(n) 5 10 15 20 n 25 1 0.9 Função de distribuição 0.8 0.7 0.6 p=0.6 0.5 0.4 0.3 Função de massa de probabilidade 0.2 0.1 0 0 5 10 15 20 n 25 Distribuição geométrica p(n) 0,3 0,3 0,25 0,25 p = 0.3 0,2 E[X]=3,33 p = 0.3 sx=2.79 0,2 0,15 0,15 0,1 0,1 0,05 0,05 0 1 0 1 2 3 2 3 4 E[X] 4 5 5 6 6 7 7 8 8 9 10 11 12 13 14 15 16 17 18 19 20 9 10 11 12 13 14 15 16 17 18 19 20 n Distribuição geométrica p(n) Função de massa para distintos valores de p 0,9 0,8 0.1 0.5 0,7 0.9 0,6 0,5 0,4 0,3 0,2 0,1 0 1 2 3 4 5 6 7 8 9 n 10 Distribuição geométrica 0,9 0,8 0,7 0,6 P{X=n} 0,5 0,4 0,3 0,2 0.9 0.7 0,1 0.5 0 1 3 0.3 5 7 9 n 11 13 0.1 15 17 19 p Distribuição geométrica 0,25 P{X=n} 0,2 0,15 0,1 0,05 1 0,8 0 2 3 4 5 n 0,6 6 0,4 7 8 9 0,2 10 11 12 13 0 14 15 p Distribuição geométrica P{X=n} decai mais rápidamente com n quando p aumenta Distribuição em função de p varia com n: para n = 1 é una reta crescente para n < 7 é crescente e logo decresce para n 7 é decrescente Função de massa tem dois pontos degenerados: p = 0: necessárias infinitas tentativas (nunca se consegue êxito) p = 1: êxito sempre é conseguido na primeira tentativa. Distribuição geométrica Parâmetros E[X ] V A R [X s X f (t) 1 p (1 ] 1 p p p2 (1 ) p pet 1 (1 p ) e ) t Propriedade: falta de memória Elevador em um prédio de três andares Estado #n : elevador no andar n Sem memória: estados #1 e #3 Com memória: estado #2 Propriedade: falta de memória Exemplo relacionado com a distribuição geométrica, duas situações equivalentes: Propriedade: falta de memória Distribuição geométrica caracterizada pela seguinte propriedade: P( x s t | x > t ) P( x s ) A informação de nenhum sucesso até a tentativa t é “esquecida” nos cálculos subseqüentes. Propriedade: falta de memória Propriedade: falta de memória P( x s t x t ) Demonstração: P( x s t | x t ) P( x t ) P( x s t ) Logo, P( x s t | x t ) P( x t ) Propriedade: falta de memória P( x s t ) Substituindo-se (1 p) i 1 p (1 p) s+t 1 i s t P( x t ) (1 p) i 1 p (1 p) t i t 1 (1 p )s t 1 s 1 ( ) 1 p Logo, P( x s t| x t ) (1 p )t com i 1 P( x s) (1 p) p (1 p) s1 is portanto P( x s t | x > t ) P( x s) propriedade de falta de memória Protocolo Stop & Wait Protocolo de retransmissão mais simples Idéia básica: ter certeza de que cada pacote transmitido é recebido corretamente antes de transmitir o seguinte Protocolo half-duplex Retransmissão devido a: erro na recepção do pacote time-out Protocolo Stop & Wait Numeração de pacotes: Se ocorre time-out no transmissor, retransmite pacote i Receptor não sabe distinguir se é uma retransmissão do pacote i ou uma primeira transmissão do pacote i+1 Logo, necessidade de numerar os pacotes, assim como os acks/nacks Numeração módulo 2 é suficiente Esquema físico tI Tx tP Rx tAck Definições: ti = tempo de transmissão de um pacote tp = tempo de propagação tout = tempo máximo de espera de um reconhecimento (ack/nack) tproc= tempo de processamento do pacote Diagrama temporal Caso 1 Retransmissão por time-out t Tx t t out i proc Tx t F1 F1 F2 A1 Rx tp t t proc Rx Caso 2 Retransmissão por erro ti Tx t proc Tx t F1 F1 N1 F2 A1 Rx tp t t proc Rx Fi = transmissão do frame i Ni = mensagem de frame i recebida com problemas Ai = reconhecimento do frame i Diagrama de transição de estados Transmissor Receptor + : Entradas - : Saídas Q2 +M1 Q0 +Ack 1 Q2 +M0 +Error -Error Q0 Q1 -M0 Q4 -M1 +Error -Ack Q3 +M0 Q1 +Ack 0 Q0: Transmite Mensagem 0 Q1: Espera Ack 0 Q2: Transmite Mensagem 1 Q3: Espera Ack 1 -Ack Q3 +M1 -Error Q5 Q0: Espera Mensagem 0 Q1: Transmite Ack 0 Q2: Transmite Erro Q3: Espera Mensagem 1 Q4: Transmite Ack 1 Q5: Transmite Erro Tabelas de transição de estados Transmisor Estado Q0 Q1 Q1 Q2 Q3 Q3 Error: Entrada Ack 0 Erro Ack 1 Erro Receptor Saída Prox. Estado Mensagem 0 Q1 Q2 Q0 Mensagem 1 Q3 Q0 Q2 Devido a erro de bits no frame, ou erro devido a Timeout Q0: Transmite Mensagem 0 Q1: Espera Ack 0 Q2: Transmite Mensagem 1 Q3: Espera Ack 1 Estado Q0 Q0 Q1 Q2 Q3 Q3 Q4 Q5 Entrada Mensagem 0 Mensage m1 Saída Ack 0 Erro Mensagem 0 Mensagem 1 Q0: Espera Mensagem 0 Q1: Transmite Ack 0 Q2: Transmite Erro Q3: Espera Mensagem 1 Q4: Transmite Ack 1 Q5: Transmite Erro Ack 1 Erro Prox. Estado Q1 Q2 Q3 Q0 Q5 Q4 Q0 Q3 Medidas de desempenho Desempenho pode ser avaliado sob dois pontos de vista: do usuário: menor tempo de resposta menor buffer do sistema: máximo throughput menor memória Espaço Tempo Usuário Buffer Sistema Memória tempo de resposta Throughput Máximo throughput Transmissor sempre dispõe de pacotes para transmitir Time-out é o menor possível Tout = 2Tp + Tack Existem erros Pe > 0 existem retransmissões 0 I1 I2 I3 In tT tT tT tT p p p (1-p) Definições: Ii = i-ésima tentativa de transmitir o pacote tT = ti + tout = ciclo de operação p = probabilidade de receber o pacote com erro n = número de tentativas até transmitir um pacote pa= probabilidade de transmissão correta na n-ésima tentativa tu = tempo utilizado nas n tentativas E[t] = tempo médio de recepção com sucesso (1) t Diagrama de lógica temporal F1 F1 F1 F1 t Errado p Errado 1-p p Errado 1-p Correto p Errado 1-p Correto p: probabilidade de erro no pacote Correto Máximo throughput Certamente, max 1 E[t ] Por definição de valor médio Da figura anterior: (3) (2) E[ t ] t( n) p( n) n1 t(n) n t T Como n é uma v.a. com distribuição Ge(1-p): (4) p(n) p n 1 (1 p) Máximo throughput Substituindo-se (2), (3) e (4) em (1), obtém-se: E[ t ] n t p (1 p) n 1 n 1 T Simplificando (4): tT E[t] (1 p ) Por definição: max 1 (1 p) (1 p) E[t ] tr a ti com tT a 1 ti Throughput normalizado Transmissão 0 p 1-p p p p 1-p T Transmissão efetiva T 0 ti (1 p) a 1 lim Tempo em transmissoes efetivas ti T T Máximo throughput O throughput normalizado pode ser interpretado como a percentagem do tempo ocupado na transmissão efetiva de pacotes Se o tempo para receber um ack ou um nack é desprezível, também o é o time-out: a = 1 = (1- p) max=F(p,a) p a a=1 : Rede da área local a=3 : Rede com enlaces menores a 500 Km a=10 : Rede de enlace satelital max=F(p,a) a=1 a=1,4 a=1,8 a=2,1 max=F(p,a) p=0 p=0.2 p=0.4 p=0.6 Distribuição de Poisson X v.a. discreta com domínio e com a seguinte função de massa de probabilidade: i P X = i = e ,i 0 i! X: distribuição de Poisson com parâmetro Função de distribuição de probabilidade: i n P X n = e ,n 0 i! i 0 Distribuição de Poisson P{X=i} Função de massa de probabilidade 0,1 0,08 0,06 0,04 0,02 0 0 5 10 15 20 i 25 30 35 40 Distribuição de Poisson Função de distribuição de probabilidade P X n 1,2 1 0,8 0,6 0,4 0,2 0 0 5 10 15 20 n 25 30 35 40 Distribuição de Poisson 1,2 = 20 1 0,8 Fn. de distribuição 0,6 Fn. de massa 0,4 0,2 0 0 5 10 15 20 25 30 35 40 Distribuição de Poisson P{X=i} Função de massa de probabilidade 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 0 5 10 15 20 25 30 35 40 i Distribuição de Poisson Valor esperado: ie E[X] = i 0 i i! i 1 = e i1 (i 1)! Fazendo k = i - 1: E[X] = Como k 0 k k! E[X] = e e k 0 k! k Distribuição de Poisson Parâmetros E[X ] Var[X ] sx j (t) (e t 1 ) e Processo de contagem Processo estocástico {N(t), t 0} é de contagem se N(t) representa o número total de eventos que ocorrem entre (0,t] Por definição, N(t) satisfaz: N(t) 0 N(t) assume valores inteiros s < t N(s) N(t) s < t N(t) - N(s) = número de eventos durante o intervalo (s,t] Processo de contagem Número de pessoas que entraram em um supermercado no intervalo de tempo (0,t] Número de veículos que entraram em um túnel num intervalo dado Número de gols que um determinado jogador fez num determinado intervalo (0,t] Processo de contagem Incrementos independentes: processo de contagem no qual o número de eventos ocorridos em intervalos de tempos disjuntos são independentes Exemplo: o processo de contagem no intervalo (5,10] não depende do processo de contagem em (0,5] Processo de contagem Incrementos independentes Número de pessoas que entraram em um supermercado num intervalo de tempo Incrementos não-independentes Número de nascimentos num intervalo de tempo, quando existe controle da natalidade Processo de contagem Incrementos estacionários: número de eventos em (t1+s,t2+s] depende somente da amplitude do intervalo (t2-t1) Ou seja, N(t2+s)-N(t1+s) tem a mesma distribuição que N(t2)-N(t1), onde t2 > t1 e s>0 0 t1 t2 s+t1 s+t2 Processo de contagem Incrementos não-estacionários A quantidade de ligações telefônicas é maior em determinadas horas do dia Incrementos estacionários Número de veículos que entram em um túnel num ano Processo de Poisson N(t) é um processo de Poisson se: N(t) é um processo de contagem N(0) = 0 (reset) Tem incrementos independentes e estacionários - t i Número de eventos em qualquer intervalo de amplitude t é distribuído como uma variável de Poisson com média t, ou seja: -t i e (t ) P{N(t s) - N(s) = i } = , i = 0,1,; s, t 0 i! e (t) Processo de Poisson A última condição implica em incrementos estacionários N(t) não se refere apenas a uma variável aleatória com uma distribuição de Poisson, mas sim que para cada t > 0 se tem uma v.a. com uma distribuição de Poisson de parâmetro t (dependente de t) Esta coleção (infinita) de variáveis aleatórias é conhecida como um processo de Poisson Processo de Poisson Tempo entre chegadas Seqüência {Tn, n=1,2,...}, onde Tn representa o tempo entre o evento (chegada) n e o evento n-1 Eventos (contagem do P.P.) 0 t1 T1 t2 T2 t3 · · · tn-1 T3 · · · tn Tn Conjunto de v.a.s com distribuição Exp() Processo de Poisson Tempo entre chegadas Evento {T1 > t } significa que não aconteceu chegada alguma do processo de Poisson no intervalo (0,t] P{T1 > t} = P{N(t) = 0} = e-t Além disso, P{T2>t | T1=s} = P{0 eventos em (s,s+t]} = e-t Repetindo-se o experimento, conclui-se que Tn, n=1,2,... são v.a. exponenciais independentes e identicamente distribuídas