Função Característica
A função característica de uma v.a. X é definida como:
X ( ) E e
Assim
X (0) 1,
jX
X ( ) 1
e jx f X ( x)dx.
para todo .
Para variáveis aleatórias discretas a função característica da
v.a. X é dada por:
X ( ) e jk P( X k ).
k
Função característica: Exemplos
Variável aleatória discreta com distribuição de Poisson.
X ( ) e jk e
k 0
j k
(
e
)
e j
( e j 1)
e
e e
e
.
k!
k!
k 0
k
Variável aleatória discreta com distribuição binomial
n
n
n
jk
k n k
X ( ) e p q ( pe j )k q n k ( pe j q)n .
k 0
k 0 k
k
n
Variável aleatória uniforme X~U(a, b).
b
1
1
jx
ΦX (ω) e
dx
(e jb - e ja )
a
ba
j (b a)
Se X é uniformemente distribuído no intervalo (-a, a).
1
sen( a )
ja
ja
X ( )
(e e )
j 2a
a
Função característica de uma v.a. gaussiana X ~ N ( , 2 ),
X ( )
e
j
e
2
1
2
1
j x
2
e
2
e
( x ) 2 / 2 2
jy y 2 / 2 2
e
dy e
dx (fazendo x y )
j
1
2
2
e
y / 2 2 ( y j 2 2 )
dy
(fazendo y j 2 u tal que y u j 2 )
e
j
1
2
X ( ) e
2
e
( u j 2 )( u j 2 ) / 2 2
j 2 2 / 2
e
1
2
2
e
du
u 2 / 2 2
du e
( j 2 2 / 2 )
.
Se X é uma variável aleatória Gaussiana com média zero e
2
variância σ , a função característica é dada por:
X ( ) e
2 2 / 2
.
f X ( x)
1
2
2
e
x 2 / 2 2
,
A função característica de uma variável aleatória é também
chamada de função geradora de momentos. Para ilustrar esta
propriedade, considere a representação em série de ΦX (ω) .
( jX )k k E ( X k ) k
X ( ) E e E
j
k! k 0
k!
k 0
2
k
E
(
X
)
E
(
X
) k
2
2
k
1 jE( X ) j
j
.
2!
k!
jX
Tomando-se a primeira derivada com relação a , no ponto
ω0
X ( )
1 X ( )
jE( X ) or E ( X )
.
0
j 0
Similarmente, para a segunda derivada
2
1
X ( )
2
E( X ) 2
,
2
j
0
Repetindo este procedimento k vezes obtém-se o k-ésimo
momento de X, ou seja:
k
1
X ( )
E( X k ) k
, k 1.
k
j
0
Cálculo da média e da variância de uma v.a. X com
distribuição de Poisson. X P( ).
X ( ) e (e
X ( )
e j
e e je j ,
E( X )
1 X ( )
j 0
2 X ( )
e j
j 2
e j
2 j
e
e
(
je
)
e
j
e ,
2
2
1
X ( )
1 2 2
2
2
2
E( X ) 2
(
j
j
)
2
2
j
j
0
Mas,
σ 2 E(X 2 ) E(X)2 λ 2 λ λ 2 λ
j
1)
Variável aleatória com distribuição binomial
Função característica:
X ( ) ( pe j q) n
X ( )
jnpe j ( pe j q) n 1
1 X ( )
E( X )
np
j 0
2 X ( )
2
j
j
n 1
j 2
j
n 2
j
np
e
(
pe
q
)
(
n
1
)
pe
(
pe
q
)
2
2
1
2
2 2
X ( )
E( X ) 2
np
1
(
n
1
)
p
n
p npq.
2
j
0
X2 E ( X 2 ) E ( X ) 2 n 2 p 2 npq n 2 p 2 npq.
Em alguns casos, a média e a variância pode não existir. Por
exemplo, considere uma v.a. de Cauchy: f ( x ) ( / x) ,
X
E( X 2 )
E( X )
x2
dx
2 x 2
x
2 x 2 dx.
2
2
2
1 2 x 2 dx ,
Avaliando o lado direito da integral:
x
0 2 x 2 dx.
x
0 2 x 2 dx
fazendo x tan
/ 2 tan
/ 2 sin
2
0 2 sec 2 sec d 0 cos d
/ 2 d (cos )
/2
log cos 0 log cos ,
0
cos
2
Como as integrais não convergem a média e a variância são
indefinidas.
Será visto em seguida um limitante que estima a dispersão da
v.a. centrado em torno da média.
Desigualdade de Chebychev
Considere um intervalo de largura 2 simetricamente
centrado em torno da média com mostrado na figura.
Qual é a probabilidade de X ser encontrado fora deste
intervalo?
Ou seja P| X | ?
X
2
X
Tomando-se a definição de variância
E ( X ) ( x )2 f X ( x )dx
2
2
|x |
2 f X ( x )dx 2
|x |
|x |
( x )2 f X ( x )dx
f X ( x )dx 2 P | X | .
2
Portanto: P | X | 2 , (desigualdade de Chebychev)
2
P | X | 2 ,
Observe que, para calcular a probabilidade,
não há necessidade de se conhecer fX(x). É necessário
conhecer somente a variância 2 , da v.a. X. Em particular,
se ε kσ , então:
P | X | k
1
.
2
k
Se k=3, a probabilidade da v.a. X ser encontrada fora do
intervalo 3 em torno de sua média é de 0,111 para
qualquer v.a. Obviamente que este limite não deve ser
rigoroso quando se inclui todas as v.a.’s . Por exemplo para
uma v.a. gaussiana com ( 0, 1) tem-se:
P | X | 3 0.0027.
Que é muito mais estreito do que o limitante dado pela
desigualdade de Chebychev
Então, com k 3, we get the probability of X being outside
the 3 interval around its mean to be 0.111 for any r.v.
Obviously this cannot be a tight bound as it includes all r.vs.
For example, in the case of a Gaussian r.v, from Table 4.1
( 0, 1)
P | X | 3 0.0027.
(6-57)
which is much tighter than that given by (6-56). Chebychev
inequality always underestimates the exact probability.
PILLAI
Moment Identities :
Suppose X is a discrete random variable that takes
only nonnegative integer values. i.e.,
P( X k ) pk 0,
k 0, 1, 2,
Then
P( X k )
k 0
k 0 i k 1
i 1
i 1
k 0
P( X i ) P( X i ) 1
i P( X i) E ( X )
i 0
(6-58)
similarly
i (i 1)
E{ X ( X 1)}
k P( X k ) P( X i ) k 2 P( X i )
2
k 0
i 1
k 0
i 1
i 1
PILLAI
which gives
E ( X ) i P( X i ) (2k 1) P( X k ).
2
2
i 1
(6-59)
k 0
Equations (6-58) – (6-59) are at times quite useful in
simplifying calculations. For example, referring to the
Birthday Pairing Problem [Example 2-20., Text], let X
represent the minimum number of people in a group for
a birthday pair to occur. The probability that “the first
n people selected from that group have different
birthdays” is given by [P(B) in page 39, Text]
n 1
pn (1 Nk ) e n ( n 1) / 2 N .
k 1
But the event the “the first n people selected have
PILLAI
different birthdays” is the same as the event “ X > n.”
Hence
P( X n) e n ( n 1) / 2 N .
(6-60)
Using (6-58), this gives the mean value of X to be
E ( X ) P( X n )
n 0
e
(1/ 8 N )
1/ 2 e
N /2
e
n ( n 1) / 2 N
n 0
x2 / 2 N
dx e
(1/ 8 N )
1
24.44.
2
1
2
1/ 2 e
( x 2 1/ 4) / 2 N
1/ 2
2 N 0 e
dx
x2 / 2 N
dx
(6-61)
Similarly using (6-59) we get
PILLAI
E ( X ) (2n 1) P( X n )
2
n 0
(2n 1)e
n 0
n ( n 1) / 2 N
2 ( x 1)e
( x 2 1/ 4) / 2 N
dx
1/ 2
1/ 2
2
2
(1/ 8 N )
x /2N
x /2N
( x 2 1/ 4) / 2 N
2e
dx xe
dx 2 e
dx
xe
0
1/ 2
0
2 N 2
1
2
N 2E( X )
8
2
1
5
2 N 2 N 1 2 N 2 N
4
4
779.139.
Thus
Var ( X ) E ( X 2 ) ( E ( X ))2 181.82
PILLAI
which gives
X 13.48.
Since the standard deviation is quite high compared to the
mean value, the actual number of people required for a
birthday coincidence could be anywhere from 25 to 40.
PILLAI