Apresentação do PowerPoint

Propaganda
Função Característica
A função característica de uma v.a. X é definida como:
 X ( )  E e
Assim
 X (0)  1,
jX
 


 X ( )  1
e jx f X ( x)dx.
para todo .
Para variáveis aleatórias discretas a função característica da
v.a. X é dada por:
 X ( )   e jk P( X  k ).
k
Função característica: Exemplos
Variável aleatória discreta com distribuição de Poisson.

 X ( )   e jk e
k 0
j k
(

e
)

 e j
 ( e j 1)
e 
e e
e
.
k!
k!
k 0
k

Variável aleatória discreta com distribuição binomial
n
n


n
jk
k n k
 X ( )   e   p q    ( pe j )k q n k ( pe j  q)n .
k 0
k 0  k 
k 
n
Variável aleatória uniforme X~U(a, b).
b
1
1
jx
ΦX (ω)   e
dx 
(e jb - e ja )
a
ba
j (b  a)
Se X é uniformemente distribuído no intervalo (-a, a).
1
sen( a )
ja
 ja
 X ( ) 
(e  e ) 
j 2a
a
Função característica de uma v.a. gaussiana X ~ N (  , 2 ),
 X ( ) 
e
j



e
2

1
2
1
j x
2

e

2
e
 ( x   ) 2 / 2 2
jy  y 2 / 2 2
e
dy  e
dx (fazendo x    y )
j
1
2
2



e
 y / 2 2 ( y  j 2 2 )
dy
(fazendo y  j 2  u tal que y  u  j 2 )
e
j

1
2
 X ( )  e
2


e
 ( u  j 2 )( u  j 2 ) / 2 2
j  2 2 / 2
e
1
2
2



e
du
u 2 / 2 2
du  e
( j  2 2 / 2 )
.
Se X é uma variável aleatória Gaussiana com média zero e
2
variância σ , a função característica é dada por:
 X ( )  e
 2 2 / 2
.
f X ( x) 
1
2
2
e
 x 2 / 2 2
,
A função característica de uma variável aleatória é também
chamada de função geradora de momentos. Para ilustrar esta
propriedade, considere a representação em série de ΦX (ω) .
  ( jX )k   k E ( X k ) k
 X ( )  E e   E 
j


k!  k 0
k!
 k 0
2
k
E
(
X
)
E
(
X
) k
2
2
k
 1  jE( X )  j
  j
  .
2!
k!
jX
Tomando-se a primeira derivada com relação a , no ponto
ω0
 X ( )
1  X ( )
 jE( X ) or E ( X ) 
.
  0
j   0
Similarmente, para a segunda derivada
2
1

 X ( )
2
E( X )  2
,
2
j

 0
Repetindo este procedimento k vezes obtém-se o k-ésimo
momento de X, ou seja:
k
1

 X ( )
E( X k )  k
, k  1.
k
j

 0
Cálculo da média e da variância de uma v.a. X com
distribuição de Poisson. X  P( ).
 X ( )  e (e
 X ( )
  e j
 e e je j ,

E( X ) 
1  X ( )

j   0


 2 X ( )

e j
j 2
e j
2 j

e
e
(

je
)

e

j
e ,
2

2
1

 X ( )
1 2 2
2
2
2
E( X )  2

(
j


j

)



2
2
j

j
 0
Mas,
σ 2  E(X 2 )  E(X)2  λ 2  λ  λ 2  λ
j
1)
Variável aleatória com distribuição binomial
Função característica:
 X ( )  ( pe j  q) n
 X ( )
 jnpe j ( pe j  q) n 1

1  X ( )
E( X ) 
 np
j   0
 2 X ( )
2
j
j
n 1
j 2
j
n 2



j
np
e
(
pe

q
)

(
n

1
)
pe
(
pe

q
)
2

2
1


2
2 2
X ( )


E( X )  2

np
1

(
n

1
)
p

n
p  npq.
2
j

 0
 X2  E ( X 2 )  E ( X ) 2  n 2 p 2  npq  n 2 p 2  npq.
Em alguns casos, a média e a variância pode não existir. Por
exemplo, considere uma v.a. de Cauchy: f ( x )  ( / x) ,
X

E( X 2 ) 


E( X ) 


x2

dx

   2  x 2



x
   2  x 2 dx.
2
2

2 
 1   2  x 2 dx  ,

Avaliando o lado direito da integral:
x
0  2  x 2 dx.

x
0  2  x 2 dx 
fazendo x   tan 
 / 2  tan 
 / 2 sin 
2
0  2 sec 2   sec d  0 cos d
 / 2 d (cos  )

 /2
 
 log cos  0   log cos  ,
0
cos 
2
Como as integrais não convergem a média e a variância são
indefinidas.
Será visto em seguida um limitante que estima a dispersão da
v.a. centrado em torno da média.
Desigualdade de Chebychev
Considere um intervalo de largura 2 simetricamente
centrado em torno da média  com mostrado na figura.
Qual é a probabilidade de X ser encontrado fora deste
intervalo?
Ou seja P| X   |   ?
 
X
 

2
X
Tomando-se a definição de variância
  E ( X   )    ( x   )2 f X ( x )dx  
2
2



|x   |
 2 f X ( x )dx  2 
|x   |
|x   |
( x   )2 f X ( x )dx
f X ( x )dx   2 P | X   |   .
2
Portanto: P | X   |    2 , (desigualdade de Chebychev)

2
P | X   |    2 ,

Observe que, para calcular a probabilidade,
não há necessidade de se conhecer fX(x). É necessário
conhecer somente a variância  2 , da v.a. X. Em particular,
se ε  kσ , então:
P  | X   | k  
1
.
2
k
Se k=3, a probabilidade da v.a. X ser encontrada fora do
intervalo 3 em torno de sua média é de 0,111 para
qualquer v.a. Obviamente que este limite não deve ser
rigoroso quando se inclui todas as v.a.’s . Por exemplo para
uma v.a. gaussiana com (   0,  1) tem-se:
P | X | 3   0.0027.
Que é muito mais estreito do que o limitante dado pela
desigualdade de Chebychev
Então, com k  3, we get the probability of X being outside
the 3 interval around its mean to be 0.111 for any r.v.
Obviously this cannot be a tight bound as it includes all r.vs.
For example, in the case of a Gaussian r.v, from Table 4.1
(   0,   1)
P | X | 3   0.0027.
(6-57)
which is much tighter than that given by (6-56). Chebychev
inequality always underestimates the exact probability.
PILLAI
Moment Identities :
Suppose X is a discrete random variable that takes
only nonnegative integer values. i.e.,
P( X  k )  pk  0,
k  0, 1, 2,
Then



 P( X  k )   
k 0
k  0 i  k 1

i 1
i 1
k 0
P( X  i )   P( X  i ) 1

  i P( X  i)  E ( X )
i 0
(6-58)
similarly
i (i  1)
E{ X ( X  1)}
 k P( X  k )  P( X  i )  k   2 P( X  i ) 
2
k 0
i 1
k 0
i 1


i 1

PILLAI
which gives


E ( X )   i P( X  i )   (2k  1) P( X  k ).
2
2
i 1
(6-59)
k 0
Equations (6-58) – (6-59) are at times quite useful in
simplifying calculations. For example, referring to the
Birthday Pairing Problem [Example 2-20., Text], let X
represent the minimum number of people in a group for
a birthday pair to occur. The probability that “the first
n people selected from that group have different
birthdays” is given by [P(B) in page 39, Text]
n 1
pn   (1  Nk )  e n ( n 1) / 2 N .
k 1
But the event the “the first n people selected have
PILLAI
different birthdays” is the same as the event “ X > n.”
Hence
P( X  n)  e n ( n 1) / 2 N .
(6-60)
Using (6-58), this gives the mean value of X to be

E ( X )   P( X  n ) 
n 0
e
(1/ 8 N )

 1/ 2 e
  N /2 

e
 n ( n 1) / 2 N
n 0
 x2 / 2 N
dx  e
(1/ 8 N )
1
 24.44.
2


1
2

 1/ 2 e
 ( x 2 1/ 4) / 2 N
1/ 2
2 N   0 e
dx
 x2 / 2 N
dx

(6-61)
Similarly using (6-59) we get
PILLAI

E ( X )   (2n  1) P( X  n )
2
n 0

  (2n  1)e
n 0
 n ( n 1) / 2 N



2 ( x  1)e
 ( x 2 1/ 4) / 2 N
dx
1/ 2

1/ 2

2
2


(1/ 8 N )
x /2N
x /2N
 ( x 2 1/ 4) / 2 N
 2e
dx   xe
dx   2  e
dx
  xe
0
 1/ 2
0
 2 N 2
1
 2
N    2E( X )

8
 2
1
5
 2 N   2 N  1  2 N  2 N 
4
4
 779.139.
Thus
Var ( X )  E ( X 2 )  ( E ( X ))2  181.82
PILLAI
which gives
 X  13.48.
Since the standard deviation is quite high compared to the
mean value, the actual number of people required for a
birthday coincidence could be anywhere from 25 to 40.
PILLAI
Download