Celso 1/2

Propaganda
Teoria das Filas e Aplicações
Celso C. Ribeiro
Reinaldo Vallejos
PETROBRAS
Novembro 1998
Programa







...
Teoria da probabilidade
Variáveis aleatórias
Distribuições discretas
Distribuições contínuas
Variáveis aleatórias conjuntas e probabilidade
condicional
Teoria das filas
Cadeias de Markov discretas
Programa
…
 Cadeias de Markov de tempo contínuo
 Lei de Little
 Aplicações da Lei de Little
 Processos de nascimento e morte
 Filas M/M/1
 Filas M/M/C
 Aplicações
Teoria da probabilidade
Teoria da probabilidade

Modelagem de fenômenos aleatórios



quantidades não previsíveis antecipadamente
variação inerente que deve ser considerada
Permitir que o modelo tenha natureza
probabilística  modelo probabilístico
Teoria da probabilidade






Experimento cujo resultado não seja previsível
antecipadamente
Espaço amostral: S = {resultados possíveis}
Lançamento de uma moeda: S = {cara,coroa}
Lançamento de um dado: S = {1,2,3,4,5,6}
Lançamento de duas moedas: Acara, Bcoroa
S = {(A,A),(A,B),(B,A),(B,B)}
Vida útil de um carro: S = [0,)
Teoria da probabilidade





Evento: subconjunto E do espaço amostral S
E = {cara}, E = {coroa}
E = {2,4,6}: resultado do lançamento é par
E = {(A,A),(A,B)}: primeira moeda é cara
E = [1,2): carro dura pelo menos um ano sem
completar o segundo
Teoria da probabilidade






Eventos E e F
Evento união: EF
Evento interseção: EF
Evento vazio: 
E e F mutuamente exclusivos: EF = 
E ={cara}, F ={coroa}: ou dá cara, ou dá coroa
Evento complementar: Ec = S\E
Teoria da probabilidade


Espaço S, evento E
Probabilidade P(E) do evento E:





0  P(E)  1
P(S) = 1
E1E2 =   P(E1E2) = P(E1) + P(E2)
P({cara}) = P({coroa}) = 1/2
Moeda viciada, com chance duas vezes maior
de dar cara: P({cara}) = 2/3, P({coroa}) = 1/3
Teoria da probabilidade

P({2,4,6}) = P({2}) + P({4}) + P({6}) =
= 1/6 + 1/6 + 1/6 = 1/2
Teoria da probabilidade

P(Ec) = 1 - P(E)
1 = P(S) = P(EEc) = P(E) + P(Ec)
EF
E


P(E) + P(F) = P(EF) + P(EF)
P(EF) = P(E) + P(F) - P(EF)
EF
EF =   P(EF) = P(E) + P(F)
P(EFG) = P(E) + P(F) + P(G) - P(EF) - P(EG) - P(FG) + P(EFG)
F
Teoria da probabilidade

Probabilidade condicional: probabilidade de
que um determinado evento ocorra,
conhecendo-se a ocorrência de outro

Dois dados são lançados e todas os 36 pares de
resultados são equiprováveis. Qual é a
probabilidade da soma dos dois valores ser
igual a 10?
P({4,6}) + P({5,5}) + P({6,4}) = 31/36 =1/12
Teoria da probabilidade

Sabendo-se que a primeira observação é um 4,
qual é a probabilidade da soma dos dois
valores ser igual a 10?
Resultados possíveis, sendo 4 o primeiro valor:
(4,1), (4,2), (4,3), (4,4), (4,5), (4,6)
Se o primeiro valor é 4, a probabilidade
(condicional) de cada um destes pares é 1/6
Probabilidade dos 30 pares restantes: zero
Probabilidade da soma ser igual a 10: 1/6
Teoria da probabilidade

Probabilidade condicional do evento E dado
que o evento F ocorre:
F
E
P(E|F) = P(EF)/P(F)
EF
Teoria da probabilidade

Uma moeda é lançada 2 vezes. Qual é a
probabilidade condicional de que sejam
observadas duas caras, dado que pelo menos
uma cara é observada?
E = {(cara,cara)} = {(A,A)}
cara  A
F = {(A,B),(B,A),(A,A)}
P(E|F) = P(EF)/P(F) = P({(A,A)})/
P({(A,B),(B,A),(A,A)}) = (1/4)/(3/4) = 1/3
Teoria da probabilidade

Uma urna contém sete bolas pretas e cinco
bolas brancas. Duas bolas são retiradas. Qual a
probabilidade de que ambas sejam pretas,
considerando-se que a primeira bola não é
devolvida para a urna após ser retirada?
F = primeira é preta E = segunda é preta
P(EF) = P(E|F) P(F) = 6/117/12 = 7/22
Teoria da probabilidade

Uma urna contém sete bolas pretas e cinco
bolas brancas. Duas bolas são retiradas. Qual a
probabilidade de que ambas sejam pretas,
considerando-se que, neste caso, a primeira
bola é devolvida para a urna após ser retirada?
F = primeira é preta E = segunda é preta
P(EF) = P(E|F) P(F) = 7/127/12 = 49/144
Teoria da probabilidade

Cada uma de três pessoas possui uma ficha de
cor diferente que é lançada em uma urna. Em
seguida, cada pessoa retira aleatoriamente uma
ficha da urna. Qual é a probabilidade de que
ninguém recupere sua ficha original?
Idéia: calcular a probabilidade do evento
complementar, isto é, de que pelo menos uma
pessoa recupere sua ficha original.
Teoria da probabilidade
Ei: i-ésima pessoa recupera sua ficha; i=1,2,3
P(Ei) = 1/3,
i=1,2,3
P(EiEj) = P(Ej|Ei) P(Ei) = 1/21/3 = 1/6 ij
P(E1E2E3) = P(E3|E1E2) P(E1E2) = 1/6
P(E1E2E3) = P(E1) + P(E2) + P(E3) - P(E1E2) - P(E1E3) - P(E2E3) +
+ P(E1E2E3) = 3  1/3 - 3  1/6 + 1/6 = 2/3
P(ninguém recuperar) = 1 - 2/3 = 1/3
Teoria da probabilidade

E e F independentes: P(EF) = P(E) P(F)
 P(E|F) = P(E)
 P(F|E) = P(F)
Teoria da probabilidade

Espaço amostral S, eventos E e F
E = ES = E(FFc) = (EF)  (EFc)
EF e EFc mutuamente exclusivos
P(E) = P((EF)(EFc)) =
= P(EF) + P(EFc) =
= P(E|F) P(F) + P(E|Fc) P(Fc) =
= P(E|F) P(F) + P(E|Fc) (1-P(Fc))
Teoria da probabilidade

A primeira de duas urnas contém 2 bolas
brancas e 7 bolas pretas, enquanto a segunda
contém 5 brancas e 6 pretas. Uma moeda é
lançada e uma bola é retirada da primeira ou da
segunda urna, dependendo do resultado ter
sido cara ou coroa, respectivamente. Qual é a
probabilidade (condicional) de ter ocorrido
uma cara, dado que a bola retirada foi branca?
Teoria da probabilidade
Deseja-se calcular P(cara|branca)
P(cara|branca) = P(cara e branca) / P(branca) =
= P(branca|cara)  P(cara) / P(branca)
P(branca) = P(branca|cara)  P(cara) +
+ P(branca|coroa)  P(coroa)
P(cara|branca) =
= 2/91/2/(2/91/2+5/111/2) = 22/67
Teoria da probabilidade

Um teste detecta com 95% de certeza uma
determinada doença, quando ela está presente.
Entretanto, este teste aponta “falsos positivos”
em 1% das pessoas que não contraíram a
doença. Sabendo-se que 0.5% da população
estão contaminados por esta doença, qual é a
probabilidade de que determinada pessoa tenha
a doença dado que o resultado de seu teste foi
positivo?
Teoria da probabilidade
Deseja-se calcular P(doente|positivo)
P(doente|positivo) = P(doente e positivo) /
/ P(positivo) =
= P(positivo|doente)  P(doente) / P(positivo)
P(positivo) = P(positivo|doente)  P(doente) +
+ P(positivo|sadia)  P(sadia)
P(doente|positivo) =
0.950.05/(0.950.005+0.010.995) = 95/294
Teoria da probabilidade

Fórmula de Bayes:
eventos F1, F2, …, Fn mutuamente exclusivos
F1  F2  …  Fn= S
P(E) = P(ES) = P(EF1) + … + P(EFn) =
= P(E|F1) P(F1) + … + P(E|Fn) P(Fn)
P(Fj|E) = P(EFj) / P(E) = P(E|Fj) P(Fj) / P(E)
P(Fj|E) = P(E|Fj) P(Fj) /
/ [P(E|F1) P(F1) + … + P(E|Fn) P(Fn)]
Teoria da probabilidade

Sabe-se que determinada carta está em uma de
três pilhas diferentes, com a mesma
probabilidade. A probabilidade da carta ser
encontrada examinando-se rapidamente a pilha
em que ela realmente está é 20%. Suponha que
a pilha 1 foi verificada, mas a carta não foi
encontrada. Qual a probabilidade da carta
efetivamente estar na pilha 1?
Teoria da probabilidade
Fi: carta está na i-ésima pilha; i=1,2,3
E: carta não encontrada na pilha 1
Deseja-se calcular P(F1|E)
P(F1|E) = P(E|F1) P(F1) /
/ [P(E|F1)P(F1)+P(E|F2)P(F2)+P(E|F3)P(F3)]
P(F1|E) = 0.81/3 / (0.81/3 + 11/3 + 11/3)=
= 0.8/2.8 = 2/7
Variáveis aleatórias
Variáveis aleatórias

Variável aleatória: função real definida sobre o
espaço amostral




soma dos valores obtidos após o lançamento de
dois dados
número de caras após um certo número de
lançamentos de uma moeda
tempo entre duas chegadas sucessivas a uma
fila
tempo de processamento de uma tarefa
Variáveis aleatórias


Valor de uma variável aleatória (v.a.) é
determinado pela saída de um experimento
 é possível associar probabilidades aos
valores que podem ser assumidos por uma
X: v.a. definida pela soma dos valores obtidos
após o lançamento de dois dados
P{X=1} = P{} = 0
P{X=2} = P{(1,1)} = 1/36
P{X=3} = P{(1,2),(2,1)} = 2/36 = 1/18 ...
Variáveis aleatórias

Y: v.a. definida pelo número de caras
observadas após dois lançamentos de uma
moeda
P{Y=0} = P{(B,B)} = 1/4 Acara Bcoroa
P{Y=1} = P{(A,B),(B,A)} = 1/2
P{Y=2} = P{(B,B)} = 1/4
P{Y=0} + P{Y=1} + P{Y=2} = 1
Variáveis aleatórias


N: v.a. definida pelo número de lançamentos
de uma moeda até aparecer a primeira cara,
sendo p a probabilidade de observar-se cara em
cada lançamento
P{N=1} = P{A} = p
P{N=2} = P{(B,A)} = (1-p)p
P{N=3} = P{(B,B,A)} = (1-p)2p
…
P{N=n} = P{(B,B,…,B,A)} = (1-p)n-1p
Variáveis aleatórias



Função de distribuição acumulada (fda) ou
função de distribuição F(.) da v.a. X:
F(b) = P{X  b}
- < b < +
F(b): probabilidade de que a v.a. X assuma um
valor menor ou igual a b
Propriedades:



F(b) é uma função não-decrescente de b
limbF(b) = F() =1, limb-F(b) = F(-) = 0
p{a<Xb} = P{Xb} - P{Xa} = F(b) - F(a)
Variáveis aleatórias

Variáveis aleatórias discretas: a v.a. assume um
número finito ou contável de valores possíveis.

Variáveis aleatórias contínuas: a v.a. assume
valores dentro de um contínuo de valores
possíveis.
Variáveis aleatórias discretas



Variáveis aleatórias discretas: a v.a. assume um
número finito ou contável de valores possíveis.
Função de massa de probabilidade:
p(a) = P{X=a}
Se X pode assumir os valores x1, x2,… então
p(xi) > 0, i=1,2,…
p(x) = 0, outros valores de x
Variáveis aleatórias discretas

Função de distribuição acumulada:
F(a) =

p(xi)
i=1,2,…: xi  a

Exemplo: p(1) = 1/2, p(2) = 1/3, p(3) = 1/6
0,
a < 1,
F(a) = 1/2, 1  a < 2
5/6, 2  a < 3
1,
3a
Variáveis aleatórias discretas
F(a)
1
5/6
1/2
1
a
2
3
Variáveis aleatórias discretas

Seja X uma v.a. discreta. Então, seu valor
esperado é dado por:
E[ X ]   x. p( x)
x: p ( x )0
Funções de variáveis aleatórias

g(X) função da v.a. X

Caso discreto: E[ g ( X )] 

Caso contínuo: E[ g ( X )] 
 g ( x) p( x)
x: p ( x )0

 g ( x) f ( x)dx


Exemplo: a,b  R
E[a.X+b] = a.E[X] + b
Funções de variáveis aleatórias

Variância da v.a. X:
VAR[ X ]  E[( X  E[ X ]) ]
2

Pelo resultado anterior:
VAR[ X ]  E[ X 2  2 X .E[ X ]  E[ X ]2 ]
2
2
VAR[ X ]  E[ X ]  2E[ X ].E[ X ]  E[ X ]

2
2
VAR
[
X
]

E
[
X
]

E
[
X
]
Logo,
Funções de variáveis aleatórias

Variância da v.a. X:
VAR[X ]  E[(X ) 2 ]  E[X ]2
VAR[X ]  E[ 2 X 2 ]  E[X ]E[X ]
2
2
2
2
VAR[X ]   E[ X ]   E[ X ]
VAR[X ]   (E[ X ]  E[ X ] )
2
2
VAR[X ]   VAR[ X ]
2
2
Funções de variáveis aleatórias

X e Y variáveis aleatórias independentes:
E[ g ( X )h(Y )]  E[ g ( X )].E[h(Y )]
VAR[ X  Y ]  VAR[ X ]  VAR[Y ]
Distribuições discretas
Distribuição de Bernoulli

Um experimento de Bernoulli tem somente
dois resultados aleatórios possíveis:




sucesso
fracasso
A variável aleatória que corresponde ao
experimento anterior é uma variável aleatória
de Bernoulli.
A notação de uma distribuição de Bernoulli é
Be(p), onde 0  p  1 é a probabilidade de
obter-se sucesso.
Distribuição de Bernoulli
Exemplos

Lançamento de uma moeda



Caso obtenha-se uma cara: sucesso
Caso obtenha-se uma coroa: fracasso
A direção que segue um veículo em uma
bifurcação (caminho A ou B)


Se segue o caminho A: sucesso
Se segue o caminho B: fracasso
(o resultado deste experimento é uma v.a. somente para um
observador externo, mas não para o condutor)
Distribuição de Bernoulli
Os resultados possíveis deste experimento podem ser
“mapeados” nos números reais, logo:


X v.a.  Be(p) (X é uma variável aleatória
discreta do experimento de Bernoulli de
parâmetro p).
Domínio de X:
X  {0, 1}

Função de massa de probabilidade:
P{X = 0} = P(0) = 1 - p
P{X = 1} = P(1) = p
Distribuição de Bernoulli

Função de distribuição acumulada:
lim F ( x  h)  P(X < x)
h 0
1  p,
F ( x)  
1,

Valor esperado:
0  x <1
x 1
E[ X }  p.1  (1  p).0  p
Distribuição de Bernoulli
Gráficos

Função de massa de probabilidade
p(X)
1
p
1-p
p
0
1
X
E[X]
2s X

Função de distribuição acumulada
F(X)
1
p
Graficos
3D
1-p
0
1
X
Distribuição de Bernoulli
Parâmetros

Considerando as funções anteriores tem-se
para Be(p):
Valor esperado
E [X
]
Variância
VAR
Desvio padrão
s
Função geradora de momento
f ( z)
n-ésimo momento
E X
p
[X ]
p (1  p )
p (1  p )
X
p
[ ]
n
( z  1)  1
p
Distribuição de Bernoulli
Exemplo em comunicações
info
T

R
Um pacote de informações é enviado pelo
transmissor ao receptor através de uma
conexão, sendo p a probabilidade de que o
pacote chegue corretamente ao receptor.


info chega corretamente a R: X = 1
info não chega corretamente a R: X = 0
Distribuição binomial

Considere n experimentos independentes
identicamente distribuídos (iid), cada um com
distribuição Bernoulli de parâmetro p.

Se a variável de interesse Y corresponde ao
número de sucessos obtidos nestes n
experimentos, então Y é conhecida como uma
variável aleatória binomial de parâmetros n e p.
Distribuição binomial

Sejam X1, X2, …, Xn, onde as variáveis {Xi},
i=1,2,…,n são v.a.’s iid Be(p). Seja a v.a. Y
definida por sua soma:
n
Y   Xi
i 1
Y  Bi(n, p)
Distribuição binomial

Uma distribuição binomial de parâmetros n e p se
denota Bi(n,p), onde:
 n é o número de experimentos de Bernoulli
independentes realizados.
 p é a probabilidade de obter um sucesso em
cada um dos n experimentos, 0  p  1.
Distribuição binomial
Exemplos

Uma moeda é lançada n vezes. Se em cada
lançamento se obtém cara (sucesso) com
probabilidade p, qual é a probabilidade de que
em 0  i  n experimentos se obtenha sucesso?

Observam-se n veículos em uma bifurcação.
Cada veículo segue o caminho A (sucesso) com
probabilidade p. Qual é a probabilidade de que
0  i  n veículos sigam o caminho A (sucesso)?
Distribuição binomial


Seja Y v.a.  Bi(n,p) (Y é v.a. binomial de
parâmetros n e p), onde n  N+ e 0  p  1
Domínio de X:
Y  {0, 1, 2, …, n}

Função de massa de probabilidade:
n  i

P{ Y  i}  P(i )    p (1  p) n i
i 

, 0 i  n
Função de distribuição acumulada:
n
P { Y  i }   
j 0  j
i
 j
 p (i  p ) n  j

, 0 i  n
Distribuição binomial
Valor esperado:
n
n n
E[X]=  ip (i )   i  p i (1  p) ni
i 0
i 0  i 
n
n!
i
n i
= 
p (1  p)
i 1 ( n  i )!(i  1)!

(n  1)!
np 
p (i 1) (1  p) ni
i 1 ( n  i )!(i  1)!
n
=
 n  1 k
Seja k=i-1, então E[X]= np  
 p (1  p ) n1k
k 0  k 
n 1
Como

n 1
k 0
 n  1 k
n 1 k
1

 p (1  p)
 k 
então, E[X]=np
Distribuição binomial
Parâmetros

Considerando-se as funções anteriores tem-se
para Bi(n, p):
Valor esperado
E [Y
]
Variância
VAR
Desvio padrão
sY
Função geradora de momento
f ( z)
n-ésimo momento
E [Yk ]
np
[Y ]
np ( 1  p )
np ( 1  p )
( p ( z  1 ) 1)
f (k) ( 1)
n
Distribuição binomial

Observando-se a esperança e a variância da
distribuição binomial se verifica que correspondem
à soma de v.a.’s iid com distribuição de Bernoulli.

A transformada Z de uma fmp corresponde à sua
função geradora de momento:

P( z )   Pn z
n 0

n
;
dP(z )
  nPn  E[ X ]
dz z 1 n0
Distribuição binomial
Gráficos
P(Y = y)
Função de massa de probabilidade
Bi(10,0.7)
sY = 1.449
0.3
0.2
0.1
E[Y]=7
0
0
5
y
E[Y]
2sY
10
Graficos
3D
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(10,0.5)
P(X=x)
0.3
0.2
0.1
0
0
2
4
6
8
10
12
x
Função de distribuição acumulada
Bi(10,0.5)
P(X<=x)
1.5
1
0.5
0
0
2
4
6
x
8
10
12
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(10,0.7)
P(X=x)
0.3
0.2
0.1
0
0
2
4
6
8
10
12
x
P(X<=x)
Função de distribuição acumulada
Bi(10,0.7)
1.5
1
0.5
0
0
2
4
6
x
8
10
12
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(10,0.5)
P(X=x)
0.3
0.2
0.1
0
0
2
4
6
8
10
12
x
Função de distribuição acumulada
Bi(10,0.5)
P(X<=x)
1.5
1
0.5
0
0
2
4
6
x
8
10
12
Distribuição binomial
Gráficos
P(X=x)
Função de massa de probabilidade
Bi(15,0.5)
0.25
0.2
0.15
0.1
0.05
0
0
5
10
x
15
20
Função de distribuição acumulada
Bi(15,0.5)
P(X<=x)
1.5
1
0.5
0
0
5
10
x
15
20
Bi (10,p)
0,4
0,35
0,3
0,25
Bi (10,p)
0,2
0,15
0,1
0,05
0
0
1
2
3
p=0.9
4
i
p=0.6
5
p=0.3
6
7
p=0.1
8
9
10
Graficos
3D
Distribuição binomial

Com relação à fmp de uma binomial tem-se que:




valor máximo se encontra em X = E[X] = np
estritamente decrescente para X > E[X]
simétrica em relação a p (e.g., p = 0.1 e p = 0.9)
Pelo teorema do limite central:

a v.a. da soma infinita de experimentos
independentes (com qualquer distribuição) tende à
distribuição gaussiana
Distribuição binomial
Exemplo em comunicações
infon
T

...
info2
info1
R
n pacotes de informação são enviados pelo
transmissor ao receptor através de uma
conexão. A probabilidade de cada um dos
pacotes chegar corretamente a R é igual a p.
Qual é a probabilidade de que 0  i  n pacotes
de informação enviados cheguem corretamente
ao receptor?
Distribuição binomial
Exemplo em comunicações
infon
T
...
info2
info1
R
n: número de pacotes enviados
p: probabilidade de cada pacote chegar
corretamente
Y = i: número de pacotes enviados que
chegarão corretamente, 0  i  n
Y v.a. ~ Bi(n,p), n  {0,1,2,3, ...}
n  i

P{ Y  i}  P(i )    p (1  p) n i
i 
, 0 i  n
Distribuição binomial
Exemplo em tolerância a falhas

Vários computadores executam um mesmo
algoritmo. O resultado final do algoritmo se
determina por votação dos computadores, por
maioria simples. Por exemplo, se o resultado
de dois ou mais computadores coincide, então
esse é o resultado final. Cada computador tem
probabilidade de falha igual a 1-p. Para que
valores de p convém escolher 1, 3 ou 5
computadores?
Distribuição binomial
Exemplo em tolerância a falhas
n: número total de computadores
X: número de computadores funcionando
corretamente (fornecem o resultado correto)
X v.a. ~ Bi(n,p), n  {1,3,5}
Por exemplo: probabilidade de sucesso do
sistema com n computadores (maioria
proporciona o resultado correto)
m = ((n-1)/2)+1: número mínimo de
computadores (n ímpar) que devem dar o
resultado correto para o sistema ter sucesso
Distribuição binomial
Exemplo em tolerância a falhas
Para n  {1,3,5}:
n i
n i
P( X  m)     p (1  p)
i m  i 
n
Caso n = 1
Caso n = 3
Caso n = 5
Pe = p
1
Pe3=
Pe5=
3 2
3 3
p (1-p) +
p
2
3
()
()
2
5 3
5 4
p (1-p) + 5 p5
p (1-p) +
3
4
5
()
()
()
Distribuição binomial
Exemplo em tolerância a falhas
Probabilidade de sucesso
do sistema
Probabilidade de sucesso
1.2
1
0.8
Pe1
Pe3
Pe5
0.6
0.4
0.2
0
0
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
Probabilidade de sucesso de cada
computador
1
Distribuição geométrica



Considere n experimentos de Bernoulli
independentes, cada um com probabilidade de
êxito p
X v.a.  Ge(p) representando o número de
tentativas até conseguir o primeiro êxito
Função de massa de probabilidade:
PX  n  p(n )  (1  p ) p n  1,2,...
n 1

Função de distribuição:
n
F(n)   (1-p) p
k 1
k -1
Distribuição geométrica

Valor esperado:

n 1
E[X]= n1 n(1  p) p
Fazendo q = 1 - p:
E[X]
1
Logo, E[X]= p

=
d
p  (q n )
n 1 dq
=
d  k
p qq
dq k 0
=
p
(1  q ) 2
=
=
d  n
p q
dq n1
p
d  q 


dq  1  q 
Distribuição geométrica

Exemplo: lançar a moeda até o primeiro êxito


Êxito = cara
Fracasso = coroa
Exemplo: número de automóveis não
específicos até que um siga o caminho A da
bifurcação

Êxito = A
Fracasso = B
Experimentos independentes
Distribuição geométrica
F(n)
1
0.9
0.8
Função de distribuição
0.7
0.6
0.5
p=0.2
0.4
0.3
0.2
Função de massa de probabilidade
0.1
0
0
F(n)
5
10
15
20
n
25
1
0.9
Função de distribuição
0.8
0.7
0.6
p=0.6
0.5
0.4
0.3
Função de massa de probabilidade
0.2
0.1
0
0
5
10
15
20
n
25
Distribuição geométrica
p(n)
0,3
0,3
0,25
0,25
p = 0.3
0,2
E[X]=3,33
p = 0.3
sx=2.79
0,2
0,15
0,15
0,1
0,1
0,05
0,05
0
1
0
1
2
3
2
3
4
E[X]
4
5
5
6
6
7
7
8
8
9
10 11 12 13 14 15 16 17 18 19 20
9
10 11 12 13 14 15 16 17 18 19 20
n
Distribuição geométrica
p(n)
Função de massa para distintos valores de p
0,9
0,8
0.1
0.5
0,7
0.9
0,6
0,5
0,4
0,3
0,2
0,1
0
1
2
3
4
5
6
7
8
9
n
10
Distribuição geométrica
0,9
0,8
0,7
0,6
P{X=n}
0,5
0,4
0,3
0,2
0.9
0.7
0,1
0.5
0
1
3
0.3
5
7
9
n
11
13
0.1
15
17
19
p
Distribuição geométrica
0,25
P{X=n}
0,2
0,15
0,1
0,05
1
0,8
0
2 3
4 5
n
0,6
6
0,4
7
8
9
0,2
10
11
12
13
0
14
15
p
Distribuição geométrica


P{X=n} decai mais rápidamente com n quando
p aumenta
Distribuição em função de p varia com n:




para n = 1 é una reta crescente
para n < 7 é crescente e logo decresce
para n 7 é decrescente
Função de massa tem dois pontos degenerados:


p = 0: necessárias infinitas tentativas (nunca se
consegue êxito)
p = 1: êxito sempre é conseguido na primeira
tentativa.
Distribuição geométrica
Parâmetros
E[X
]
V A R [X
s
X
f (t)
1
p
(1
]
1
p
 p
p2
(1
)
 p
pet
1  (1  p ) e
)
t
Propriedade: falta de memória

Elevador em um prédio de três andares

Estado #n : elevador no andar n
Sem memória: estados #1 e #3
Com memória: estado #2
Propriedade: falta de memória

Exemplo relacionado com a distribuição
geométrica, duas situações equivalentes:
Propriedade: falta de memória

Distribuição geométrica caracterizada pela
seguinte propriedade:
P( x  s  t | x > t )  P( x  s )

A informação de nenhum sucesso até a
tentativa t é “esquecida” nos cálculos
subseqüentes.
Propriedade: falta de memória
Propriedade: falta de memória
P( x  s  t  x  t )
 Demonstração: P( x  s  t | x  t ) 
P( x  t )
P( x  s  t )
Logo, P( x  s  t | x  t ) 
P( x  t )
Propriedade: falta de memória

P( x  s  t ) 
Substituindo-se
 (1  p)
i 1
p  (1  p)
s+t 1
i  s t
P( x  t ) 

 (1  p)
i 1
p  (1  p)
t
i  t 1
(1  p )s  t 1
s 1
(
)

1

p
Logo, P( x  s  t| x  t ) 
(1  p )t
com

i 1
P( x  s)   (1  p) p  (1  p)
s1
is
portanto P( x  s  t | x > t )  P( x  s)
propriedade de
falta de memória
Protocolo Stop & Wait




Protocolo de retransmissão mais simples
Idéia básica: ter certeza de que cada pacote
transmitido é recebido corretamente antes de
transmitir o seguinte
Protocolo half-duplex
Retransmissão devido a:
 erro na recepção do pacote
 time-out
Protocolo Stop & Wait

Numeração de pacotes:




Se ocorre time-out no transmissor, retransmite
pacote i
Receptor não sabe distinguir se é uma
retransmissão do pacote i ou uma primeira
transmissão do pacote i+1
Logo, necessidade de numerar os pacotes,
assim como os acks/nacks
Numeração módulo 2 é suficiente
Esquema físico
tI
Tx
tP
Rx
tAck

Definições:
ti
= tempo de transmissão de um pacote
tp = tempo de propagação
tout = tempo máximo de espera de um reconhecimento
(ack/nack)
tproc= tempo de processamento do pacote
Diagrama temporal
Caso 1
Retransmissão por time-out
t
Tx
t
t out
i
proc Tx
t
F1
F1
F2
A1
Rx
tp
t
t proc Rx
Caso 2
Retransmissão por erro
ti
Tx
t
proc
Tx
t
F1
F1
N1
F2
A1
Rx
tp
t
t
proc Rx
Fi = transmissão do frame i
Ni = mensagem de frame i recebida com problemas
Ai = reconhecimento do frame i
Diagrama de transição de estados
Transmissor
Receptor
+ : Entradas
- : Saídas
Q2
+M1
Q0
+Ack 1
Q2
+M0
+Error
-Error
Q0
Q1
-M0
Q4
-M1
+Error
-Ack
Q3
+M0
Q1
+Ack 0
Q0: Transmite Mensagem 0
Q1: Espera Ack 0
Q2: Transmite Mensagem 1
Q3: Espera Ack 1
-Ack
Q3
+M1
-Error
Q5
Q0: Espera Mensagem 0
Q1: Transmite Ack 0
Q2: Transmite Erro
Q3: Espera Mensagem 1
Q4: Transmite Ack 1
Q5: Transmite Erro
Tabelas de transição de estados
Transmisor
Estado
Q0
Q1
Q1
Q2
Q3
Q3
Error:
Entrada
Ack 0
Erro
Ack 1
Erro
Receptor
Saída
Prox. Estado
Mensagem 0
Q1
Q2
Q0
Mensagem 1
Q3
Q0
Q2
Devido a erro de bits no frame,
ou erro devido a Timeout
Q0: Transmite Mensagem 0
Q1: Espera Ack 0
Q2: Transmite Mensagem 1
Q3: Espera Ack 1
Estado
Q0
Q0
Q1
Q2
Q3
Q3
Q4
Q5
Entrada
Mensagem 0
Mensage m1
Saída
Ack 0
Erro
Mensagem 0
Mensagem 1
Q0: Espera Mensagem 0
Q1: Transmite Ack 0
Q2: Transmite Erro
Q3: Espera Mensagem 1
Q4: Transmite Ack 1
Q5: Transmite Erro
Ack 1
Erro
Prox. Estado
Q1
Q2
Q3
Q0
Q5
Q4
Q0
Q3
Medidas de desempenho

Desempenho pode ser avaliado sob dois pontos
de vista:

do usuário:
menor tempo de resposta
 menor buffer


do sistema:
máximo throughput
 menor memória
Espaço
Tempo
Usuário
Buffer
Sistema
Memória
tempo de
resposta
Throughput

Máximo throughput



Transmissor sempre dispõe de pacotes para
transmitir
Time-out é o menor possível
 Tout = 2Tp + Tack
Existem erros
 Pe > 0  existem retransmissões
0
I1
I2
I3
In
tT
tT
tT
tT
p
p
p
(1-p)
Definições:
Ii = i-ésima tentativa de transmitir o pacote
tT = ti + tout = ciclo de operação
p = probabilidade de receber o pacote com erro
n = número de tentativas até transmitir um pacote
pa= probabilidade de transmissão correta na
n-ésima tentativa
tu = tempo utilizado nas n tentativas
E[t] = tempo médio de recepção com sucesso (1)
t
Diagrama de lógica temporal
F1
F1
F1
F1
t
Errado
p
Errado
1-p
p
Errado
1-p
Correto
p
Errado
1-p
Correto
p: probabilidade de erro no pacote
Correto
Máximo throughput
Certamente,
 max
1

E[t ]
Por definição de valor médio
Da figura anterior: (3)

(2) E[ t ]   t( n) p( n)
n1
t(n)  n  t T
Como n é uma v.a. com distribuição Ge(1-p):
(4) p(n)  p
n 1
(1  p)
Máximo throughput
Substituindo-se (2), (3) e (4) em (1), obtém-se:
E[ t ]   n  t  p  (1  p)

n 1
n 1
T
Simplificando (4):
tT
E[t] 
(1  p )
Por definição:
max
1 (1  p) (1  p)



E[t ]
tr
a  ti
com
tT
a  1
ti
Throughput normalizado
Transmissão
0
p
1-p
p
p
p
1-p T
Transmissão
efetiva
T
0
    ti 
(1  p)
a
1
lim Tempo em transmissoes efetivas
  ti 
T
T
Máximo throughput

O throughput normalizado pode ser
interpretado como a percentagem do tempo
ocupado na transmissão efetiva de pacotes

Se o tempo para receber um ack ou um nack é
desprezível, também o é o time-out:
 a = 1   = (1- p)
max=F(p,a)
p
a
a=1 : Rede da área local
a=3 : Rede com enlaces menores a 500 Km
a=10 : Rede de enlace satelital
max=F(p,a)
a=1
a=1,4
a=1,8
a=2,1
max=F(p,a)
p=0
p=0.2
p=0.4
p=0.6
Distribuição de Poisson



X v.a. discreta com domínio  e com a
seguinte função de massa de probabilidade:
i

P  X = i  = e
,i  0
i!
X: distribuição de Poisson com parâmetro  
Função de distribuição de probabilidade:
i
n
 
P  X  n  = e
,n  0
i!
i 0
Distribuição de Poisson
P{X=i}
Função de massa de probabilidade
0,1
0,08
0,06
0,04
0,02
0

0
5
10
15
20
i
25
30
35
40
Distribuição de Poisson
Função de distribuição de probabilidade
P X  n
1,2
1

0,8
0,6
0,4
0,2
0
0
5
10
15
20
n
25
30
35
40
Distribuição de Poisson
1,2
= 20
1
0,8
Fn. de distribuição
0,6
Fn. de massa
0,4
0,2
0
0
5
10
15
20
25
30
35
40
Distribuição de Poisson
P{X=i}
Função de massa de probabilidade
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0



0
5
10
15
20
25
30
35
40
i
Distribuição de Poisson

Valor esperado:



ie
E[X] = i 0
i
i!
i 1

= e i1
(i  1)!

Fazendo k = i - 1:
E[X] =


Como  k 0
k
k!
E[X] = 
e

e





k  0 k!
k
Distribuição de Poisson
Parâmetros
E[X ]

Var[X ]

sx

j (t)
(e t  1 )
e
Processo de contagem

Processo estocástico {N(t), t  0} é de
contagem se N(t) representa o número total de
eventos que ocorrem entre (0,t]

Por definição, N(t) satisfaz:




N(t)  0
N(t) assume valores inteiros
s < t  N(s)  N(t)
s < t  N(t) - N(s) = número de eventos durante o
intervalo (s,t]
Processo de contagem
Número de pessoas que entraram
em um supermercado no intervalo de
tempo (0,t]

Número de veículos que entraram em
um túnel num intervalo dado

Número de gols que um
determinado jogador fez num
determinado intervalo (0,t]

Processo de contagem

Incrementos independentes: processo de
contagem no qual o número de eventos
ocorridos em intervalos de tempos disjuntos
são independentes

Exemplo: o processo de contagem no
intervalo (5,10] não depende do processo de
contagem em (0,5]
Processo de contagem
Incrementos independentes
Número de pessoas que entraram em
um supermercado num intervalo de tempo

Incrementos não-independentes
Número de nascimentos num intervalo de
tempo, quando existe controle da natalidade

Processo de contagem

Incrementos estacionários: número de eventos
em (t1+s,t2+s] depende somente da amplitude
do intervalo (t2-t1)

Ou seja, N(t2+s)-N(t1+s) tem a mesma
distribuição que N(t2)-N(t1), onde t2 > t1 e
s>0
0
t1
t2
s+t1
s+t2
Processo de contagem
Incrementos não-estacionários
A
quantidade de ligações telefônicas é
maior em determinadas horas do dia
Incrementos estacionários
Número de veículos que entram
em um túnel num ano

Processo de Poisson

N(t) é um processo de Poisson se:




N(t) é um processo de contagem
N(0) = 0 (reset)
Tem incrementos independentes e estacionários
- t i
Número de eventos em qualquer intervalo
de amplitude t é distribuído como uma
variável de Poisson com média t, ou seja:
-t
i
e (t )
P{N(t  s) - N(s) = i } =
, i = 0,1,; s, t  0
i!
e (t)
Processo de Poisson



A última condição implica em incrementos
estacionários
N(t) não se refere apenas a uma variável
aleatória com uma distribuição de Poisson,
mas sim que para cada t > 0 se tem uma v.a.
com uma distribuição de Poisson de parâmetro
t (dependente de t)
Esta coleção (infinita) de variáveis aleatórias é
conhecida como um processo de Poisson
Processo de Poisson
Tempo entre chegadas
Seqüência {Tn, n=1,2,...}, onde Tn representa
o tempo entre o evento (chegada) n e o evento n-1
Eventos (contagem do P.P.)
0
t1
T1
t2
T2
t3 · · · tn-1
T3
· · ·
tn
Tn
Conjunto de v.a.s com distribuição Exp()
Processo de Poisson
Tempo entre chegadas



Evento {T1 > t } significa que não aconteceu
chegada alguma do processo de Poisson no
intervalo (0,t]
P{T1 > t} = P{N(t) = 0} = e-t
Além disso,
P{T2>t | T1=s} = P{0 eventos em (s,s+t]} = e-t
Repetindo-se o experimento, conclui-se que Tn,
n=1,2,... são v.a. exponenciais independentes e
identicamente distribuídas
Download