Métodos de Avaliação de Risco em Projetos

Propaganda
MÉTODOS DE AVALIAÇÃO DE RISCO EM PROJETOS∗
Marcelo Cardoso Mesquita de Souza∗∗
Este trabalho apresenta uma revisão bibliográfica dos principais aspectos
teóricos sobre análise de risco em projetos, passando para uma breve análise
da construção de modelos, simulações e aprofundando no Método de Monte
Carlo.
1. Técnicas de Avaliação de Projeto
A avaliação de projetos de investimentos comumente envolve um conjunto de
técnicas que buscam determinar sua viabilidade econômica e financeira,
considerando um determinado custo de oportunidade. Desta forma,
normalmente esses parâmetros são medidos pelo Payback (prazo de retorno
do investimento inicial), pela TIR (Taxa Interna de Retorno) e/ou pelo VPL
(Valor Presente Líquido) (CASAROTTO e KOPPITKE, 2000). Contudo, poucas
são as análises formais sobre os riscos que envolvem os fluxos de caixa de um
projeto, para isto, a forma mais comum dá-se pelo uso da análise de
sensibilidade, que procura envolver uma simulação dos resultados obtidos para
os vários patamares de custo do capital e/ou taxa de crescimento de receitas
(BRUNI, FAMÁ e SIQUEIRA, 1998).
O Payback ou prazo de retorno de um projeto é a extensão de tempo
necessária para que seus fluxos de caixa nominais cubram o investimento
inicial. (DAMODARAN, 2002) Tem como principais pontos fracos: não
considerar o valor do dinheiro no tempo, não considerar todos os capitais do
fluxo de caixa, não ser uma medida de rentabilidade do investimento
(LAPPONI, 2000) e exigir um limite arbitrário de tempo para a tomada de
decisão (ROSS, WESTERFIELD e JORDAN, 1998). É possível incluir o custo
de oportunidade no cálculo do payback, resultando no que se convenciona
chamar de payback descontado (LAPPONI, 2000).
Dada as suas limitações e não obstante a sua simplicidade é muito mais
provável que as empresas empreguem o período de payback de um
investimento como uma norma auxiliar na tomada de decisões sobre
investimentos utilizando-o seja como um parâmetro limitador (prazo máximo de
retorno) sobre a tomada de decisões, seja para escolher entre projetos que
tenham desempenho igual em relação à regra básica de decisão
(DAMODARAN, 2002).
A TIR – Taxa Interna de Retorno é aquela taxa de desconto que iguala os
fluxos de entradas como os fluxos de saídas de um investimento. Com ela
procura-se determinar uma única taxa de retorno, dependente exclusivamente
∗
Extraído de: SOUZA, Marcelo C. Mesquita de. Quantificação das Incertezas na Avaliação de Projetos: O Modelo Utilizado na
Agência de Fomento do Estado da Bahia. 2004. 134f. Dissertação (Mestrado em Engenharia de Produção) – Programa de Pósgraduação em Engenharia de Produção, Universidade Federal de Santa Catarina, Florianópolis.
∗∗
Mestre em Engenharia da Produção, Administrador, Professor Universitário e Gerente de Microfinanças da Agência de Fomento
do Estado da Bahia - DESENBAHIA. e-mail: [email protected]
2
dos fluxos de caixa do investimento, que sintetize os méritos de um projeto
(ROSS, WESTERFIELD e JORDAN, 1998).
O Valor Presente Líquido é a ferramenta mais utilizada pelas grandes
empresas na análise de investimentos (COPELAND e ANTIKAROV, 2001) e
consiste em calcular o valor presente dos demais termos do fluxo de caixa para
somá-los ao investimento inicial, utilizando para descontar o fluxo uma taxa
mínima de atratividade (CASAROTTO e KOPITTKE, 2000).
Tanto o payback, como a TIR e o VPL são calculados a partir de fluxos de
caixa projetados que tentam retratar as condições econômicas e financeiras do
projeto.
Os projetos de investimentos têm seus fluxos de caixa construídos com
estimativas. Quanto maior for o tamanho e a complexidade do projeto, maiores
serão as dificuldades de realizar as estimativas e, portanto, maiores poderão
ser os erros das estimativas (LAPPONI, 2000).
Segundo Lapponi (2000) deve-se sempre, ao realizar uma análise de
investimentos, levar em consideração que:
•
•
•
•
As estimativas e os resultados do investimento não são
conhecidos com certeza.
As estimativas do fluxo de caixa do projeto de investimento são
valores esperados, definidos utilizando algum critério.
Os resultados do VPL ou da TIR do fluxo de caixa, também serão
valores esperados. Quanto maior for a dispersão de cada
estimativa ao redor de seu valor esperado maior poderá ser a
dispersão de cada resultado do fluxo de caixa.
Essa incerteza é o risco do projeto gerado pelas dispersões das
estimativas esperadas (LAPPONI, 2000).
Para determinação de riscos de investimentos, inúmeras técnicas podem ser
utilizadas, entre estas, a utilização do Método de Monte Carlo no cálculo da
variabilidade do VPL de um projeto.
2.
Lidando com Risco e Incerteza
2.1. Análise de Sensibilidade
A Análise de Sensibilidade consiste em estudar o efeito que a variação de um
dado de entrada pode ocasionar nos resultados. Quando uma pequena
variação num parâmetro altera drasticamente a rentabilidade de um projeto,
diz-se que o projeto é muito sensível a este parâmetro (CASAROTTO e
KOPPITKE, 2000).
Normalmente, na análise de sensibilidade, temos a estimativa mais provável, a
otimista e a pessimista. O VPL do projeto é calculado para cada uma dessas
hipóteses.
3
O método apresenta como desvantagem considerar as variáveis do projeto
como independentes entre si, o que normalmente não é verdadeiro.
2.2. Cenários
Normalmente as variáveis não são independentes , como supõe a análise de
sensibilidade ao mudar o valor de uma variável por vez e mantendo as demais
com seus valores mais prováveis. Na realidade, as variáveis estão
relacionadas entre si. A análise de cenários procura examinar algumas
combinações consistentes, do ponto de vista técnico, econômico e financeiro, e
seu efeito conjuin to no projeto.
2.3. Árvores de Decisões
Árvore de decisão é um instrumento de análise que propicia melhores
condições ao decisor de visualizar os riscos, as opções e as vantagens
financeiras das diversas alternativas de ação.
FALSO
Sim
0
800
Caso Exemplo
800
aceita o acordo?
975
Perde
Não
VERDADEIRO
50,0%
50%
300
300
Solução judicial
0
975
Em dinheiro
Ganha
50,0%
50,0%
25%
2.000
2000
Recebe
0
1.650
Decisão
Evento
Vende
penhora de bens
50,0%
0
Fim da alternativa
50,0%
13%
1.300
1.300
Leilão
1.300
Adjudica
50,0%
13%
1.300
1.300
Figura 1 - Modelo de Árvore de Decisão
A resolução clássica de uma árvore de decisão consiste em, começando do
seu ponto final, multiplicar o valor de cada ramo pela sua probabilidade, até se
chegar à raiz da árvore. O somatório destes produtos é o Valor Esperado para
a árvore.
VE = ((((0,5 × 1.300) + (0,5 × 1.300) × 0,5) + (0,5 × 2.000 )) × 0,5) + (0,5 × 800 ) = 975
A utilização de valores determinísticos em uma árvore de decisão é uma
solução sub-ótima no mínimo por três razões: (KOLLER, 2000)
•
Ao trabalhar com valores determinísticos uma única assunção errada
para o valor de uma alternativa pode fazer com que o calculo da árvore
ofereça um resultado inútil.
•
A utilização de valores determinísticos gera um resultado também
determinístico e não uma faixa de possíveis valores.
4
Este ponto é particularmente grave, pois, sendo o valor esperado um
número médio é possível que a volatilidade das variáveis aumente sem
que este seja alterado (COPELAND e ANTIKAROV, 2001).
•
A assunção de correlação zero entre as variáveis
Copeland e Antikarov (2001) consideram que a abordagem decisória
através de árvores de decisão, de modo geral, dará respostas erradas por
pressupor uma taxa de desconto constante ao longo de toda a árvore de
decisão. Segundo estes autores, a abordagem da árvore de decisões
transgride a lei do preço único, que diz que dois ativos que têm exatamente
o mesmo retorno em qualquer situação são substitutos perfeitos e, portanto
devem ter exatamente o mesmo preço, de forma a impedir lucros por
arbitragem.
Já Andrade (2000) aponta os seguintes cuidados a serem tomados para
que uma árvore de decisão seja um instrumento eficaz de auxílio na tomada
de decisão:
• A árvore deve ser simples e conter somente as informações
necessárias, de forma a permitir uma comunicação fácil e
completa;
• Os modelos para análise de risco e sensibilidade devem ser,
dentro do possível, simples e fáceis de compreender, para que
seus resultados sejam bem aceitos;
• As pessoas que vão decidir devem ser envolvidas no processo
de análise, de forma a assegurar que:
- Estejam presentes todas as estratégias que devem ser
analisadas;
- O nível de modelagem seja correto, sem simplificações
ou complicações desnecessárias;
- Os resultados obtidos sejam bem compreendidos e
discutidos.
2.4. O Tratamento Matemático convencional
Para realizar-se o tratamento do fluxo de caixa em condições de risco deve-se
considerar este como sendo dado pela seqüência de valores futuros
representados pela seguinte relação: {Fj}j=1,n = {F1, F2, ..., Fn}, onde tais valores
são variáveis aleatórias, independentes e identicamente distribuídas com uma
função probabilística g(Fj). A estes valores, deve-se considerar também uma
taxa de desconto pré-determinada i% ao período (SECURATO, 1993).
Sendo assim, poder-se-ia fazer a distribuição discreta de probabilidade
representando os fluxos de caixa e suas respectivas probabilidades de
ocorrência (SECURATO, 1993).
Fj
P(Fj)
fj,1
P(fj,1)
fj,2
P(fj,2)
...
…
fj,n
P(fj,n)
Figura 2: Distribuição das Funções (Securato, 1993)
5
n
Cada VPL será dado por: VPL = ∑
Fj
(BRUTSHER,1999)(DANTAS,1996).
(1 + i ) j
A esperança do VPL dos fluxos de caixa futuros será expressa por:
n E[ F ]
j
E[VPL] = ∑
(BRUTSHER, 1999) (DANTAS, 1996).
j
j =1 (1 + i )
j =1
O risco do projeto, será expresso sob a forma do desvio padrão destes fluxos
n Var[ F ]
j
de caixa, é: Var[VPL] = ∑
(BRUTSHER, 1999) (DANTAS, 1996).
2j
j =1 (1 + i )
Desta forma, o cálculo do risco do projeto é dado em função dos riscos
individuais (SECURATO, 1993).
2.5. Opções Reais e Análise de Projetos
Os métodos tradicionais de análise de investimento, como o VPL e a TIR vem
sendo alvo de importantes questionamentos nos últimos anos, ao mesmo
tempo em que uma nova abordagem baseada nas similaridades entre
oportunidades de investimentos e opções financeiras vem sendo proposta
como alternativa (RIGOLON, 1999).
Esta nova abordagem conhecida como Análise de Opções Reais (ROA – Real
Options Analysis) permite captar a flexibilidade para reagir a eventos incertos,
existente nos projetos. Esta flexibilidade é decorrente da existência de “opções”
tais como o abandono após a fase de planejamento, a expansão ou
prorrogação e o deferimento da decisão de investir, cada uma dessas opções
possui valor que deve ser adicionado ao valor do fluxo de caixa descontado.
Assim as ferramentas tradicionais, como VPL e TIR geralmente subestimam o
valor do projeto (COPELAND e ANTIKAROV, 2001) (RAPPAPORT e
MAUBOUSSIN, 2002).
O valor das opções reais, assim como das opções financeiras depende das
seguintes cinco variáveis (COPELAND e ANTIKAROV, 2001) (RAPPAPORT e
MAUBOSSIN, 2002):
1. Valor do projeto: o valor presente do fluxo de caixa livre esperado para o
projeto.
2. Custo do exercício da opção: o investimento adicional necessário ao
exercício da opção.
3. Volatilidade do projeto: medida de variabilidade potencial do valor futuro
do projeto.
4. Prazo de vencimento da opção: prazo durante o qual a empresa pode
deferir uma decisão de investimento sem perder uma oportunidade.
5. Taxa de retorno livre de risco: não é necessário o uso de uma taxa de
desconto ajustada ao risco, pra valorar o projeto, porque se capta o risco
do projeto através da variável “volatilidade” diretamente.
Copeland e Antikaravov (2001) apontam ainda como uma sexta variável os
fluxos de caixa perdidos para os concorrentes que já completaram o
investimento.
6
Para o cálculo do valor das opções reais existem alguns modelos já bastante
difundidos pela literatura como o binomial ou o de Black-Scholes.
A análise de opções reais apresenta-se, portanto, como uma poderosa
ferramenta na avaliação de projetos. Seu enfoque, entretanto é o enfoque do
investidor e não do credor. Rigolon (1999) entretanto, propõe a utilização desta
abordagem na análise de crédito, particularmente o crédito de longo prazo.
Argumenta, Rigolon (1999), que a natureza de opção da oportunidade de
investir é relevante apenas no caso dos financiamentos de longo prazo, onde a
irreversibilidade e a baixa liquidez aumentam o risco. O enfoque permitiria,
segundo Rigolon (1999), identificar o melhor momento para financiar um
investimento ou, alternativamente, estimar a taxa de retorno requerida para o
investimento imediato.
3.
A construção de modelos
Modelo é uma abstração ou representação de um sistema real, uma idéia ou
objeto (EVANS e OLSON, 1998).
Alguns modelos são prescritivos, determinam uma política ótima (ex:
programação linear) e outros são descritivos, isto é, descrevem as relações e
disponibilizam informações para avaliação. (Ex: modelos de teoria das filas).
(EVANS e OLSON, 1998). Modelos descritivos são utilizados para explicar o
comportamento dos sistemas, para prever eventos futuros a partir de entradas
do processo de planejamento e para ajudar os decisores a escolherem a
melhor solução ou desenho do sistema (EVANS e OLSON, 1998).
Os modelos também podem ser determinísticos ou probabilísticos. Nos
modelos determinísticos todas as informações são conhecidas ou assumidas
como conhecidas, com certeza.(CASAROTTO e KOPPITKE, 2000). Nos
modelos probabilísticos algumas informações são descritas como distribuições
de probabilidades.
Modelos podem ainda ser discretos ou contínuos. Tal dicotomia se refere ao
tipo de variável do modelo. Também se refere a como as variáveis do modelo
mudam com o passar do tempo.
O primeiro passo da modelagem é identificar as variáveis do problema.
Posteriormente definir as relações entre as variáveis, as condições e restrições
do sistema, de forma a possibilitar a construção de um modelo que represente,
o mais fielmente possível, sua operação no mundo real. A construção do
modelo consiste na formulação das equações que devem representar as interrelações do sistema e no estabelecimento de limites de variação de resultados
e valores(ANDRADE, 2000).
Andrade (2000) qualifica a modelagem como a parte mais difícil do processo de
simulação, pois, para que os modelos representem bem os sistemas é preciso
levar em conta todas as relações importantes, tanto entre as variáveis internas
do sistema quanto entre este e o meio que o cerca.
7
O modelo permite manipulações que seriam inviáveis no sistema real que ele
representa, devido ao custo ou à impossibilidade de realizá-las (ANDRADE,
2000).
Já Motta e Calôba (2002) definem a modelagem como uma arte, onde se
busca o equilíbrio entre uma impossível reprodução completa da realidade e
uma simplificação excessiva que venha a prejudicar a aplicabilidade, na
prática, das respostas obtidas com o experimento do modelo.
Depois de definido o modelo determinístico, é possível a aplicação da
simulação.
4. O Processo de Simulação
Uma simulação compreende a utilização de uma representação ou modelo de
sistema real para analisar o comportamento ou desempenho deste sistema,
respeitando todas as regras e condições reais a que o sistema esta submetido.
Simulações são modelos descritivos, cuja estrutura pode ser representada
como mostra a figura 3:
Entradas
Decisões e
Variáveis
Incontroláveis
Saídas
Modelo
de
Simulação
Medida de
Performance do
Comportamento
Figura 3 -Estrutura de modelos descritivos (Evans, 1998).
O modelo de simulação é propriamente um conjunto de suposições ou
princípios que define o sistema ou problema. Ou ainda, como define Ingalls
(2002): simulação é o processo de projetar modelos dinâmicos de sistemas
dinâmicos com o propósito de entender o comportamento do sistema ou de
avaliar estratégias operacionais deste (INGALLS, 2002).
A simulação como técnica de análise de sistemas e de decisões de problemas,
vem sendo utilizada ha bastante tempo ao longo da história. Dezenas de
aplicações de simulação estão a nossa volta, tais como: previsão do tempo,
simuladores de vôo, táticas militares, trajetórias de foguetes (EVANS e
OLSON, 1998).
Segundo Evans e Olson (1998), o processo de simulação consiste em cinco
passos essenciais:
1. Desenvolver o modelo conceitual do sistema ou problema em estudo.
Definir o problema, identificar as metas e objetivos do estudo, determinar
a importância das variáveis de entrada e definir as medidas de saídas.
Além disso, podemos incluir a descrição lógica do sistema cujo estudo
8
está se iniciando. Modelos de simulação devem ser o mais simples
possível, com foco nos fatores críticos.
2. Construir o modelo de simulação
Desenvolver fórmulas e/ou equações, coletando todas as informações
necessárias, a serem utilizadas em cada variável e definir a forma de
registrar os resultados. Isto implica em desenhar uma planilha e
desenvolver um programa computacional.
3. Provar e validar o modelo
Provar refere-se ao processo de assegurar que o modelo está livre de
erros lógicos. Validar é assegurar que o modelo é uma representação
razoável do atual sistema ou problema. Estes são passos importantes
para dar credibilidade ao modelo de simulação e ganhar aceitação pelos
gestores e outros usuários.
Para provar o modelo utilizam-se algumas técnicas padrão de
engenharia de software, tal como construir e programar o modelo em
pequenos módulos depurando cada módulo antes de colocá-los juntos.
O modelo pode ser revisto por especialistas, usando hipóteses
simplificadas, então os resultados podem ser comparados com os
encontrados através de soluções analíticas, usando um conjunto de
dados reais e checando se correspondem aos resultados reais e
rastreando em toda a extensão do modelo todos os seus detalhes
lógicos.
A Validação assegurando que o modelo é uma boa representação da
realidade pode ser vista de algumas perspectivas diferentes: Validade
Aparente consiste em perguntar a especialistas se o modelo e/ou
resultados são razoáveis, isto pode incluir a comparação da estrutura do
modelo de simulação com o sistema presente, focando a atenção nas
ligações entre as pequenas partes do modelo. Recursos gráficos
computacionais podem auxiliar enormemente neste esforço. Um
enfoque útil, às vezes chamado de Validação por Dados Históricos
compara as saídas do modelo processando dados históricos com um
sistema real, usando os mesmos dados como entradas. Validade dos
Dados inclui assegurar que todos os dados de entrada e as distribuições
de probabilidade são verdadeiramente representativos do sistema
existente que foi modelado. Isto acarreta testes estatísticos de
excelência de ajuste ou análise de sensibilidade das saídas em relação
às variações das entradas.
Não existe um procedimento específico para selecionar diferentes
técnicas de verificação e validação, entretanto é extremamente
importante que algum método ou ambos, validação e verificação sejam
utilizados.
4. Desenhar ensaios com o modelo
Determinar os valores das variáveis controláveis a serem estudadas ou
as questões que devem ser respondidas a fim de atingir os objetivos dos
decisores.
5. Realizar os experimentos e analisar os resultados.
9
Rodar a simulação para obter as informações requeridas.
Pode ser necessário retornar ao primeiro passo e levantar novas informações
ou realizar modificações no modelo, portanto, simulação é um processo
evolutivo que deve envolver não somente os analistas e quem desenvolve o
modelo, mas também os usuários dos resultados. (EVANS e OLSON, 1998).
Especificamente a modelagem proposta para análise de risco de projetos de
investimento deve levar em consideração três pontos: (GREY, 1995).
•
•
•
Volume total de recursos necessários para o investimento
proposto;
Cronograma de implantação do projeto;
Nível de atividade e fluxo de caixa futuro.
Particularmente o cronograma de implantação, no que diz respeito ao
cumprimento dos prazos torna a estimativa mais complexa porque além da
variância da estimativa em si, existem as ligações lógicas (e, ou, se) entre
as diversas etapas da implantação do projeto. Existem processos
subseqüentes que estão condicionados ao cumprimento de uma
determinada etapa.
5. A Simulação de Monte Carlo
A Simulação ou Método de Monte Carlo pode ser conceituado como um
método de simulação estatística e métodos de simulações estatísticas podem
ser definidos em termos gerais como qualquer método que utilize uma
seqüência de números randômicos para gerar a simulação. O Método de
Monte Carlo vem sendo utilizado há séculos, mas somente nas últimas
décadas esta técnica ganhou status de método numérico completamente
desenvolvido e habilitado a tratar das mais complexas aplicações.
Monte Carlo atualmente é utilizado em diversos campos, da simulação de
complexos fenômenos físicos como a condução da radiação na atmosfera
terrestre e a simulação de processos subnucleares esotéricos de alta energia a
situações bem mais triviais como um jogo de Bingo.
Os métodos de simulação estatística podem ser diferenciados dos métodos
numéricos convencionais, onde geralmente são aplicadas equações parciais
diferenciais que definem algum sistema físico ou matemático subjacente.
Em muitas aplicações de Monte Carlo, o processo físico é simulado
diretamente e não é necessário escrever as equações diferenciais que
descrevem o comportamento do sistema. A única exigência é que o sistema
seja descrito por Funções Densidade de Probabilidade (FDP). Uma vez
definidos as FDP’s a simulação de Monte Carlo pode proceder à amostragem
aleatória para as FDP’s. algumas interações são realizadas e o resultado
desejado é dado em função da média obtida das diversas observações.
Para realizar o processo de amostragem é necessário possuir algum método
de geração de números aleatórios, uniformemente distribuídos no intervalo
10
[0,1]. Os resultados destas amostras randômicas ou interações devem ser
acumulados de maneira apropriada para produzir o resultado desejado, mas a
característica fundamental do MMC é usar técnicas de amostragem randômica
para chegar à solução do problema.
O método de Monte Carlo fornece soluções aproximadas a uma variedade de
problemas matemáticos através de testes (experimentos) de amostragens
estatísticas em computador. O método aplica-se extraordinariamente bem tanto
a problemas absolutamente não probabilísticos, assim como a problemas com
estrutura inerentemente probabilística. Somente isso não daria ao método de
Monte Carlo vantagem sobre outros métodos de aproximação. Entretanto,
entre todos os métodos numéricos que conta com n-pontos de avaliação num
espaço m-dimensional para produzir soluções aproximadas, o MMC tem o erro
absoluto de suas estimativas diminuindo a n-1/2 , enquanto todas as outras têm
erro absoluto de estimativa decrescendo a n-1/m no máximo. Esta propriedade
da ao MMC uma considerável vantagem na eficiência computacional quando
m, o tamanho do problema aumenta. (FISHMAN, 1995).
5.1. Histórico do Método de Monte Carlo
O MMC teve três desenvolvimentos históricos distintos, mas relacionados, nas
ciências matemáticas: ”jogos de escolha” motivaram os matemáticos dos
séculos XVII e XVIII a considerar que os resultados de eventos sucessivos
formavam uma seqüência randômica de eventos. Observando que a média de
uma função de variáveis aleatórias contínuas tomava a forma de uma integral,
estatísticos dos séculos XIX e do início do século XX, posteriormente
reconheceram que, em princípio, números sacados aleatoriamente, podiam ser
transformados de acordo com regras prescritas e derivar uma solução
aproximada de uma integral de um problema que intrinsecamente não possui
qualquer conteúdo probabilístico.(National Bureau of Standards 1951, p.40
apud FISHMAN, 1995). No fim do século XIX, desenvolveu-se a segunda linha
de questionamento, quando Lord Rayleigh mostrou que o caminho aleatório em
uma dimensão (one-dimensional random walk) sem barreiras absorventes
(absorbing barriers) pode fornecer uma solução aproximada para a equação
diferencial parabólica. A terceira linha surge durante a segunda guerra mundial,
quando cientistas precisavam resolver problemas de difusão de nêutrons.
Nesta terceira fase, surge o nome “Monte Carlo”, durante o desenvolvimento do
Projeto Manhattam na segunda guerra mundial, quando Stanislaw Ulam e John
Von Neuman, buscavam uma metodologia para estudo do comportamento da
trajetória do átomo durante sua fissão. O nome foi sugerido por Nicholas C.
Metropólis, doutor em física que trabalhava junto com Neuman e Ulam, por
causa da similaridade entre a simulação estatística e os jogos de azar e por ser
a capital de Mônaco o centro do jogo. Metropolis e Ulam publicaram o primeiro
trabalho sobre o Método de Monte Carlo, em 1949, no Journal of the American
Statistical Association, intitulado “The Monte Carlo Method”. (PILANA, 2001).
Em finanças o primeiro artigo sugerindo a aplicação do método de Monte Carlo
foi em 1964, quando David Hertz (1964), publicou, na Harvard Business
Review, um artigo intitulado Risk analysis in capital investiment, onde sugeria a
utilização do método de Monte Carlo em avaliações de projetos, como forma de
11
determinar o risco inerente a cada projeto. Este artigo provocou grande
repercussão no meio acadêmico tornando-se assunto obrigatório em todas as
disciplinas de negócios e finanças. Artigos e livros, sobre o assunto foram
publicados e a apologia a Monte Carlo continuou até 1972, quando Lewellen e
Long (1972) publicam o artigo Simulation Versus Single-Value Estimates in
Capital Expenditure Analysis, onde questionam a capacidade do método de
fornecer informação relevante e a relação custo benefício do método
(NAWROCKI, 2001).
5.2. Conceito fundamental
Conforme Andrade (1998) o método de Monte Carlo baseia-se num conceito
estatístico simples.
“Seja x uma variável aleatória com as seguintes características:
• Função de distribuição de probabilidade
⇒ f(x)
• Função cumulativa de probabilidade ⇒ F(x)
Se definirmos uma nova variável
y = F(x), esta tem uma distribuição
uniforme sobre o intervalo fechado [0,1].
Assim como a função cumulativa de probabilidades representa as
características aleatórias da variável em questão, a função
y = F(x) é
uma relação entre duas variáveis:
• Variável x, com distribuição aleatória própria.
• Variável y, com distribuição uniforme, entre 0 e 1. (ANDRADE, 2000).
5.3. Procedimento
O método de Monte Carlo consiste nos seguintes passos:
• Dada a função cumulativa de probabilidade da variável em
simulação F(x), toma-se um número gerado aleatoriamente, no
intervalo (0,1) ou (0 a 100).
• Usando a função cumulativa de probabilidades, determinar o valor
da variável x que corresponde ao número aleatório gerado
(ANDRADE, 1998).
Exemplo: f(x) ⇒ Distribuição normal com µ = 7,00 e δ = 0,7
Normal(7,00;0,70)
0.8
0.4
0.0
3.0
4.4
5.8
7.2
8.6
10.0
Figura 4 - Função densidade Normal com média 7 e desvio padrão 0,7
O gerador de número aleatórios gera o número 0,5 no intervalo fechado (0,1)
que quando
plotado sobre a função cumulativa indica a valor 7,00 para a
variável aleatória F(x) ⇒ Função cumulativa de probabilidades
12
Normal(7,00;0,70)
1.0
0.5
0.0
3.0
4.4
5.8
7.2
8.6
10.0
Figura 5 - Função Normal acumulada com média 7 e desvio padrão 0,7
A parte fundamental de um processo de simulação é a construção do modelo.
A definição dos valores e eventos incertos e como eles se relacionam é tarefa
do analista e é determinante fundamental da qualidade do resultado. Os
mecanismos de geração de número aleatórios, acumulação dos resultados e
geração de relatório são suportados por softwares já suficientemente validados
(figura 6) (GREY, 1995).
Descrição das
Incertezas de
Valores e
Eventos
Determinação
das relações
entre Valores e
Eventos
Análise
Definido pelo Analista
Suportado pelo Software
Mecanismo para
geração de
Números
aleatórios
Acumulação
Dos
Resultados
Apresentação de
Relatório
Figura 6 - Elementos da simulação (adaptado de Grey, 1995)
A realização da Simulação de Monte Carlo pode ser esquematicamente
definida em três etapas, conforme figura 7:
Gera número
aleatório para
as Variáveis
Calcula o
Modelo
Registra o
Resultado no
Mapa
Figura 7 - Esquema do processo de Simulação de Monte Carlo
13
A partir da construção do conjunto de distribuições de freqüência e da definição
de suas inter-relações é possível, através da utilização de softwares, realizar
centenas ou milhares de interações e armazenar os resultados destas
interações (figura 8), criando desta foram uma distribuição de freqüência dos
resultados obtidos (a(s) variável (is) definida como de saída) (figura 9).
10.0000
1
Min.
1
2 1
MP
Min.
MP
Min.
Min.
1
Max.
2
Max.
MP MP
Min.
1
Min.
Min.
MP
2
2
3
........ 3
Min.
MP
Max.
Max.
Max.
MP
Min.
Min.
1
Min.Min.
2
Max.
MP
MP
Min.
3 2
Max.
Max.
MP
Max.
MP
Max.Max.
Min.
MP
Max.
.....................................
3
Min.
3
2
Min.
MP
1
Max.
MP
MP
Max.
...............
Max.
MP
Min.
Max.
MP
Max.
........
.....................................
...............
n........
.....................................
...............
Min.
MP
Max.
........
.....................................
...............
........ 3
.....................................
...............
Min.
MP
Max.
n
Min.
MP
Max.
n
Min.
MP
Max.
n
Min. .....................................
MP
Max.
...............
n ........
Min.
MP
Max.
n
Min.
MP
Max.
Resultado
Armazena
Figura 8 - Simulação de Monte Carlo – O Processo (adaptado de Grey, 1995).
Forecast: VPL
10.000 Trials
Frequency Chart
418 Outliers
,033
333
,025
249,7
,017
166,5
,008
83,24
,000
0
-116.942
-22.012
72.918
167.848
Figura 9 - Distribuição de freqüência da variável de saída – VPL
262.778
14
A partir da distribuição de freqüência da variável de saída pode-se medir a área
de interesse desta distribuição. No caso específico medimos, novamente com o
apoio do software, a parte da distribuição que representa VPL’s negativos
(VPL<0). (figura 10)
Forecast: VPL
10.000 Trials
Frequency Chart
205 Outliers
,024
239
,018
179,2
,012
119,5
,006
59,75
,000
0
-255.677
-147.048
-38.419
70.209
Certainty is 46,71% from -Infinity to 0
178.838
Figura 10 – Análise da Distribuição de freqüência da variável de saída – VPL – 46,71% de
probabilidade de VPL < 0
5.4. Principais componentes do algoritmo:
!
Funções Distribuição de probabilidades – Uma distribuição de
probabilidades é uma distribuição de freqüências relativas para os
resultados de um espaço amostral; mostra a proporção das vezes em que
a variável aleatória tende a assumir cada um dos diversos valores.
(STEVENSON, 1981) Um sistema deve ser descrito por um conjunto de
Funções de Distribuição de Probabilidades.
A identificação apropriada das distribuições de probabilidade dos dados
de entrada é um importante elemento na modelagem para simulações
Freqüentemente, para identificar estas distribuições é necessário realizar
análises empíricas ou históricas dos dados e adequar esses dados à
distribuição. Outras vezes, os dados não estão disponíveis e será
necessário selecionar a distribuição adequada e seus parâmetros a partir
do julgamento do analista (EVANS e OLSON, 1998).
! Gerador de Números Aleatórios – Uma fonte de números aleatórios,
uniformemente distribuídos em um intervalo deve estar disponível. Em
realidade os números gerados por métodos computacionais são pseudoaleatórios, porem, hoje os recursos existentes permitem gerar séries tão
longas (milhões de números) para estes números pseudo – randômicos
que cientificamente eles são aceitos como se fossem números
verdadeiramente aleatórios.
Para a aplicabilidade do MMC nos cálculos desejados na análise dos
riscos de projetos de investimentos, podem ser usados os seguintes
critérios de aleatoriedade dos números gerados em computador: a)
uniformemente distribuídos; b) estatisticamente independentes; c)
15
!
!
!
reprodutíveis, a fim de permitir comparação entre programas; d) não
repetibilidade da série no intervalo de interesse; e) velocidade de geração;
f) utilização de memória mínima do computador na geração (COSTA e
AZEVEDO apud SHIMIZU, 1996).
Regra de Amostragem
Apesar do termo Monte Carlo ser utilizado como sinônimo de simulação,
no strito sensu ele refere-se ao processo de seleção amostral. Neste ponto
dois são os processos mais utilizados:
o Monte Carlo – Sorteia variáveis aleatórias uniformemente
entre toda a faixa de valores possíveis.
o Latin Hypercube – Assume que a distribuição de probabilidade
esta dividida em intervalos com probabilidades iguais de
sorteio. É um método mais preciso do que o de Monte Carlo já
que utiliza amostras de toda a faixa de distribuição de maneira
mais consistente. (EVANS e OLSON, 1998).
Scoring –Os resultados devem ser acumulados de forma a gerar a
distribuição de resultados.
Erro de Estimativa – É função do número de interações. O tamanho da
amostra ou o número de interações da simulação afeta a qualidade do
resultado. A medida que o número de interações aumenta a média e o
desvio padrão tendem a estabilizar-se (figura 18). O erro padrão da média
é dado por:
σ
epm =
n
Onde: σ = desvio padrão da amostra
n = número de interações
Média e desvio versus núm ero de interações
Média e desvio
15000
10000
5000
0
0
50
100
150
200
250
Número de simulações
média
desvio
Figura 11 - Estabilização da média e do desvio a partir do n° de interações
!
!
Técnicas de Redução de Variância - Métodos para reduzir a variância da
solução estimada. Reduzem o tempo computacional.
Paralelização e Vetorização – Algoritmos que permitem ao método de
Monte Carlo ser implementado eficientemente em arquiteturas avançadas
de computador.
5.5. A matemática subjacente ao método de Monte Carlo
Teorema do Limite Central
Este teorema assegura que a soma ou a média de variáveis aleatórias
independentes, as quais podem ser ou não normalmente distribuídas, se
16
aproximarão de uma distribuição normal quando o número de variáveis
aleatórias aumentar. (DAMODARAN e BERNSTEIN, 2000).
Podemos resumir o Teorema do Limite Central a duas assertivas:
1. Se a população sob amostragem tem distribuição normal, a distribuição
das médias amostrais também será normal para todos os tamanhos de
amostra.
2. Se a população básica é não-normal, a distribuição de médias amostrais
será aproximadamente normal para grandes amostras. (STEVENSON,
1981).
Correlações entre variáveis
Freqüentemente as variáveis utilizadas, nos modelos, não são independentes.
De fato, a maioria delas mantém algum nível de correlação entre as variáveis e
temporal.
A correlação é medida da seguinte forma:
r=
Cov( x, y )
σ x ×σ y
onde:
Cov =
1
× ∑ ( xi − µ x ) × ( y i − µ y )
n
σ x = varx
1
2
× ∑ ( xi − µ x )
n
É importante observar que desconsiderar as correlações existentes conduz a
resultados onde o risco é subestimado (NERSESIAN, 2000).
varx =
5.6. Análise Estatística dos Dados
A maior dificuldade na aplicação de modelos de simulação, não está na
operação do algoritmo, posto que hoje os softwares permitem fazê-lo com
segurança e rapidez. O grande problema está na definição dos parâmetros de
entrada do modelo. Basicamente existem duas situações: quando existem
dados (séries históricas) disponíveis e quando não existem.
5.6.1. Dados Disponíveis
Quando existem dados disponíveis é possível realizar testes de aderência.
Testes de aderência servem para verificar se a distribuição de freqüência
empírica ou observada, em questão, aproxima-se de determinada distribuição
de probabilidades e se isso passa em um teste de hipóteses (MOTTA e
CALÔBA, 2002).
Deve-se considerar que tal método está fundamentado em duas suposições
(VEIGA, 2000):
! A distribuição levantada com os dados já incorridos representa a
variabilidade do fenômeno analisado;
17
!
E que este fenômeno manterá sua estrutura no futuro (figura 12).
passado
frequências relativas
fenômeno
futuro
probabilidades
estacionário
Figura 12 – Estimando probabilidades com dados passados (VEIGA, 2000).
Existem softwares que realizam testes de aderência dos dados, apontando a
função teórica que melhor se ajusta aos dados. Exemplos destes softwares
são: O BESTFIT da Palisade Corporation e o BATCH FIT da Decisioneering
Inc.
Os mais conhecidos testes de aderência são:
! Qui-quadrado
onde:
(t
)
2
− t i0
X =∑
t i0
i =1
t i = a freqüência absoluta observada na amostra para k classes,
k
2
i
t i0 = a freqüência absoluta que será a esperada se a hipótese a
respeito da forma da distribuição for verdadeira.
!
!
Kolmogorov-Smirnov
É o teste mais apropriado para pequenas amostras.
Anderson-Darling
Tem um enfoque similar ao Kolmogorov-Smirnov, exceto pela
ponderação dada às caudas que é maior que as faixas médias. É
indicado quando se necessita uma função que melhor se adapte nos
extremos das caudas.
5.6.2. Dados não disponíveis
Quando não há dados disponíveis, pode-se consultar especialistas, como
consultores externos à organização, ou algum expert no assunto. Nesta
hipótese utilizam-se probabilidades subjetivas, fruto do julgamento e crenças
pessoais. É esta, hoje, a grande questão em discussão quando se trata de
Simulação de Monte Carlo. O foco, hoje, volta-se para a qualidade das
informações que determinam as distribuições de probabilidades.
Alguns autores como Clemen e Reilly (2001), Curry (2002), Savage (1996), e
Grey (1995) estão convencidos que é possível representar qualquer situação
através de distribuições uniformes ou triangulares, quando da ausência de
série de dados.
18
5.7 A Diferenciação entre Risco e Incerteza
Uma situação é dita de Risco quando se conhece a exata distribuição de
probabilidades de cada um dos eventos possíveis relacionados à tomada de
decisão. Por outro lado, uma situação é considerada como de Incerteza
quando não temos conhecimento objetivo da distribuição de probabilidades
para um evento futuro, utilizando para isso conhecimento acumulado de
experiências passadas.(SÁ, 1999).
5.8. A Escola Bayesiana
Na ciência estatística existe uma divisão básica no que diz respeito à utilização
de probabilidades subjetivas para resultados de eventos futuros. A chamada
Escola Clássica afirma que o uso de probabilidades subjetivas não oferece
nenhum resultado coerente. Já a escola chamada bayesiana, considera
impossível ignorar as probabilidades subjetivas. Os bayesianos alegam que o
uso das probabilidades subjetivas é justificável uma vez que qualquer
informação que se tenha sobre determinado assunto, quando usada
adequadamente, possibilita maiores acertos do que os resultados obtidos de
uma decisão sobre um assunto do qual nada se sabe (SÁ, 1999).
5.9. O uso do julgamento na modelagem
Segundo Evans e Olson (1998) quando não se dispõe de informações
empíricas, tem-se que utilizar o julgamento para determinar as distribuições
que serão as entradas do modelo. Neste ponto o conhecimento sobre o
comportamento das diferentes distribuições ajuda a estimativa. Entretanto, em
muitos casos não se dispõe sequer de uma idéia de qual distribuição usar.
Através do julgamento de especialistas é possível definir um intervalo [a,b] no
qual se acredita que a variável deve se situar. É possível então, modelar este
julgamento através de três tipos de distribuição:
1) Se não existe razão para acreditar que qualquer valor
dentro deste intervalo tem uma probabilidade de
ocorrência maior do que outros, então uma escolha
apropriada pode ser uma distribuição uniforme.
2) Se acredita-se que existe um valor c entre a e b que
mais provável de ocorrer que os outros a distribuição
triangular deve ser utilizada.
3) Se existe alguma razão para estimar um valor médio
m além do valor mais provável c, deve-se então
utilizar uma distribuição beta com α e β definidos da
seguinte forma: (EVANS e OLSON, 1998).
α=
(m − a ) × (2c − a − b )
(c − m ) × (b − a )
β=
(b − m ) × α
(m − a )
Grey (1995) discorda da utilização da função beta, para determinação de
probabilidades subjetivas, ele alega a necessidade de construir modelos tão
simples quanto possíveis e diretamente relacionados com as informações
fornecidas pelos especialistas envolvidos e nos mesmos termos que eles estão
acostumados. Assim, eles darão credibilidade aos resultados. Para Grey (1995)
19
quando trabalhamos com probabilidades
unicamente distribuições triangulares.
subjetivas,
devemos
utilizar
Na mesma linha de Grey, Savage (1996) acredita que é possível modelar
qualquer distribuição como triangular, especificando os valores mínimo,
máximo e mais provável, gerando assim, uma significante melhora na condição
de falta de informação empírica.
5.10 Probabilidade Subjetiva
Quando a probabilidade representa um nível de crença pessoal sobre o
resultado de um evento específico, estamos adotando uma interpretação
subjetiva. (CLEMEN e REILLY, 2001).
A avaliação subjetiva da incerteza tem sido um importante elemento na análise
de decisões. A tendência básica da moderna análise de decisões é que
julgamentos subjetivos sob incerteza podem ser feitos em termos de
probabilidade (CLEMEN e REILLY, 2001).
Entretanto o uso de probabilidades subjetivas requer o conhecimento dos
heurísticos e suas tendências.
5.11 Heurísticos e Armadilhas Psicológicas
Nossas mentes criam mecanismos inconscientes para lidar com a
complexidade inerente à vida. Estes mecanismos são chamados heurísticos e
são úteis a um grande número de situações.(HAMMOND, KEENEY e RAIFFA,
1999).
Exemplo de processo heurístico é o mecanismo que nossas mentes usam para
avaliar distâncias, que relaciona a nitidez e a proximidade. Quanto mais nítido
parece um objeto mais próximo deve estar. Quanto mais indefinido mais
distante.
Embora bastante úteis no dia a dia, a maioria dos mecanismos heurísticos,
entretanto, não é segura. Pode-se identificar uma longa série de falhas na
maneira como pensamos. Algumas tomam a forma de desvios na percepção
sensorial. Outras, a de julgamentos tendenciosos. Outras ainda se manifestam
simplesmente como anomalias irracionais do pensamento. O que torna todas
estas falhas tão perigosas é a sua invisibilidade. Pelo fato de que a maioria
delas está solidamente enraizada em nosso processo de raciocínio, deixa-se
de reconhecê-las – mesmo quando se torna vítima. (HAMMOND, KEENEY e
RAIFFA, 1999)
Hammond, Keeney e Raiffa (1999), chamam estas falhas de pensamento de
armadilhas psicológicas e não obstante seja impossível livrar nossas mentes
delas, pode-se aprender a compreendê-las e compensar sua existência.
Um trabalho que tem sido referenciado na maioria dos textos sobre o assunto é
o artigo publicado em 1974, por Amos Tversky e Daniel Kahneman, intitulado
“Judgment under Uncertainty: Heuristics and Biases”. Neste texto os autores
20
apresentam três processos heurísticos empregados quando realizamos
julgamentos em condições de incerteza:
!
!
!
Representatividade (Representativeness) – geralmente empregado
quando necessitamos julgar a probabilidade de um objeto ou evento
qualquer, pertencer a uma determinada classe ou processo;
Viabilidade de um caso ou cenário (Availability of instances or scenarios)
– freqüentemente empregado quando necessitamos avaliar a frequencia
de uma classe ou a plausibilidade de um desenvolvimento específico;
Ajuste decorrente de uma âncora (Adjustment from an anchor) –
geralmente empregado em predições numéricas quando avaliamos
valores importantes.
Tversky e Kahneman apresentam uma relação de armadilhas psicológicas que
afetam cada um destes heurísticos, e que conduzem a avaliações e predições
incorretas.
A compreensão destes heurísticos e das armadilhas que se pode incorrer
quando se está empregando cada um deles é de suma importância quando se
necessita utilizar probabilidades subjetivas, posto que não se podem eliminar
estes erros, a sua consciência pode permitir suas compensações. (HAMMOND,
KEENEY e RAIFFA, 1999)
Expõem-se a seguir algumas destas armadilhas e possíveis técnicas para
minimizar seus efeitos:
A armadilha da âncora: apegar-se demasiado à primeira idéia.
“Ao refletir sobre uma decisão, a mente dá relevância demasiada à primeira
informação que recebe. Impressões, idéias, estimativas ou dados iniciais
funcionam como” âncora “para a reflexão subseqüente”.(HAMMOND, KEENEY
e RAIFFA, 1999, pg.171)
O indivíduo que faz a projeção toma como base um determinado número
histórico para o qual atribui peso demasiado e este passa a funcionar como
âncora, impedindo que o responsável pelas estimativas considere com a
devida importância outros fatores.Principalmente em situações caracterizadas
por mudanças repentinas, a âncora histórica é capaz de levar a previsões
insatisfatórias e, por sua vez, a escolhas mal orientadas. (HAMMOND,
KEENEY e RAIFFA, 1999)
Este tipo de armadilha é muito comum na projeção de fluxos de caixa.
Hammond, Keeney e Raiffa (1999), sugerem a utilização das seguintes
técnicas como forma de reduzir o impacto da influência do efeito das âncoras,
posto que eliminá-lo é impossível:
!
Observar sempre uma questão através de diferentes perspectivas.
Tentar utilizar pontos de partida e métodos alternativos, em vez de se
agarrar e permanecer com a primeira linha de pensamento que ocorrer.
21
!
!
!
!
Após explorar vários caminhos, ajustar quaisquer diferenças nas
implicações que eles trazem.
Pensar sobre o problema a decidir por si próprio antes de consultar os
outros, evitando assim as âncoras que as idéias alheias possam
representar.
Buscar informação e opiniões com uma variedade de pessoas, para
expandir a base de referência, e levar a mente em novas direções.
Ser cuidadoso para não fornecer âncoras àqueles de quem solicita
informação e aconselhamento. Informe-os o mínimo possível sobre suas
idéias, estimativas e decisões provisórias. Se você falar demais, pode
simplesmente receber de volta seus próprios conceitos anteriores (que a
essa altura se tornaram âncoras para seu conselheiro).
Preparar-se bem antes de negociar. Assim ficará menos suscetível a
táticas que o ancoram.
A armadilha do satus quo: manter o que vem sendo feito.
“A maior parte dos agentes de decisões exibem firme predisposição no sentido
de alternativas que perpetuem a situação vigente”.(HAMMOND, KEENEY e
RAIFFA, 1999, pg.172)
Hammond, Keeney e Raiffa (1999), lembram que a manutenção da ordem
vigente pode verdadeiramente ser a melhor escolha, mas esta não deve ser
escolhida simplesmente por ser a ordem vigente. Apresentam ainda Hammond,
Keeney e Raiffa (1999), as seguintes técnicas para redução ao apelo da
manutenção do status quo:
!
!
!
!
!
!
Relembrar sempre seus objetivos, e examinar de que modo seriam eles
atendidos pela situação atual. Talvez se descubra que os elementos da
situação vigente são incompatíveis com aqueles objetivos.
Nunca pensar no status quo como única alternativa. Identificar outras
opções e utiliza-as como contrapesos, avaliando com cautela os prós e
contras.
Analisar se a preferência persistiria caso a alternativa da situação
presente não fosse o status quo.
Evitar exagerar o esforço ou o custo envolvido em alterar a ordem
vigente.
Testar rigorosamente a situação atual. Não comparar simplesmente pelo
que é contra o que as alternativas seriam. A realidade pode também se
modificar, juntamente com o status quo.
Se várias alternativas forem claramente superiores à ordem
estabelecida, não decidir manter tudo como está pelo fato de que
escolher a melhor alternativa representaria grande esforço. Obrigue-se a
escolher uma.
A armadilha do capital empatado: proteger decisões já tomadas
“Tendemos a fazer escolhas de modo a justificar decisões anteriores, ainda
que estas já não pareçam mais válidas”.(HAMMOND, KEENEY e RAIFFA,
1999, pg. 174) As decisões passadas criam “custos afundados” – investimento
22
de tempo ou dinheiro que são irrecuperáveis. Tais custos são irrelevantes para
a decisão presente. Ou como nos lembram Hammond, Keeney e Raiffa (1999):
“As decisões somente influenciam o futuro, não o passado”.(HAMMOND,
KEENEY e RAIFFA, 1999, pg. 174)
Estimando probabilidades subjetivas
Clemen e Reilly (2001) apresenta três métodos básicos de estimar
probabilidades subjetivas:
No primeiro método o decisor simplesmente, avalia diretamente respondendo a
pergunta: qual a sua expectativa quanto à probabilidade do evento ocorrer?
O segundo método consiste em perguntar sobre as apostas que o decisor
estaria inclinado a fazer. A idéia é encontrar uma quantia específica para
ganhar ou perder tal que o decisor esteja indiferente às apostas considerando
que o valor esperado destas é o mesmo. Dadas estas condições é possível
encontrar uma probabilidade.
Supõe-se um jogo entre duas equipes (A e B) e admite-se que o decisor seja
indiferente a qualquer uma das seguintes apostas:
Aposta 1: Ganha $X se A ganhar
Perde $Y se A perder
Aposta 2: Perde $X se A ganhar
Ganha $Y se A perder
Bahia Ganha
X
Aposta no Bahia
Bahia Perde
-Y
Bahia Ganha
-X
Aposta contra o Bahia
Bahia Perde
Y
Figura 13 - Árvore de decisão representativa da estimativa da probabilidade subjetiva via o método da aposta.
(CLEMEN e REILLY, 1996)
As apostas 1 e 2 são simétricas. São lados opostos da mesma aposta. Se o
decisor é indiferente entre as apostas 1 e 2, então, no seu julgamento, os
valores esperados devem ser iguais:
X × P( A Ganhar ) − Y × [1 − P( A Ganhar )] = − X × P( A Ganhar ) + Y × [1 − P( A Ganhar )]
Que implica em:
2{X × P( A Ganhar ) − Y × [1 − P( A Ganhar )]} = 0
dividindo por 2 e expandindo:
23
X × P( A Ganhar ) − Y + Y × P( A Ganhar ) = 0
⇒ ( X + Y ) × P( A Ganhar ) − Y = 0
⇒ P( A Ganhar ) =
Y
X +Y
O enfoque da aposta para estimar probabilidades, apresenta alguns problemas:
primeiramente, muitas pessoas, simplesmente não gostam da idéia de aposta.
Para estas pessoas o enfoque pode ser inadequado. As maiorias das pessoas
são avessas ao risco. Portanto as apostas devem considerar pequenas
quantias para que a questão da aversão ao risco não interfira. Finalmente o
enfoque da aposta também presume que fazendo a aposta individualmente não
pode fazer outras apostas no evento específico, ou em eventos relacionados.
Ou seja, não é possível se proteger de perdas (hedging).
O terceiro método adota como estratégia um experimento de reflexão, no qual
o decisor compara dois jogos de loteria cada qual com um prêmio diferente.
Prêmio
Vitória Ganha
80,0%
Vitória Perde
20,0%
1 Mês de Férias no Havaí
Loteria 1
P
80,0%
1 Cerveja
1 Mês de Férias no Havaí
Loteria 2 (loteria de referência)
(1-P)
20,0%
1 Cerveja
Figura 14 - Árvore de decisão representativa da estimativa da probabilidade subjetiva via o método da loteria.
(CLEMEN e REILLY, 1996)
5.12. Principais críticas ao método de Monte Carlo
Em um artigo publicado, no Journal of Financial Planning, em novembro de
2001, David Nawrocki Ph.D., professor de finanças da Universidade de
Villanova na Pennsylvania critica duramente o emprego da simulação de Monte
Carlo em finanças, afirmando que: Simulação de Monte Carlo na melhor das
hipóteses e muito difícil de implementar e na pior pode levar a decisões
incorretas. Segundo Nawrocki, o problema reside basicamente no conjunto de
premissas tipicamente adotado na SMC, que assume distribuições normais e
coeficientes de correlação zero, premissas essas que não são representativas
dos mercados financeiros (NAWROCKI, 2001).
Em seu artigo Nawrocki referencia autores como Lewellen e Long (1972),
Philippatos (1973), Myers (1976) e Rubinstein (1981), cujos trabalhos também
24
questionam a eficácia prática do método, devida à grande dificuldade de
estabelecer distribuições de freqüência das variáveis, bem como as
correlações serial e entre-variáveis. Ainda segundo Nawrocki, Rubinstein
estabeleceu os critérios que definiriam quando é apropriado usar a simulação
de Monte Carlo. Os quais seriam:
• A impossibilidade ou custo excessivo par obtenção de informações
• O sistema observado é muito complexo
• É muito difícil obter uma solução analítica
• É impossível ou extremamente custoso validar matematicamente os
experimentos
6. O Apoio Computacional na Simulação
Com o surgimento dos computadores digitais por volta de 1950 e 1960, iniciouse a programação computacional utilizando as linguagens FORTRAN para
simulações mais complicadas. Outros programas com o mesmo propósito
surgiram (GPSS, SIMSCRIPT, SLAM e SIMAN) facilitando os processos de
simulação. (KELTON, SADOWSKI e SADOSKI, 1998)
Atualmente diversos aplicativos (softwares) de simulações estão disponíveis no
mercado, a exemplo de: Crystal Ball da Decisoneering, @ Risk da Palisade
Corporation e o Xlsim. Todos acessíveis do ponto de vista tecnológico e
econômico, podendo ser utilizados em computadores pessoais com ótimas
performances.
Com algumas variações estes softwares possuem no mínimo as seguintes
características:
• Simulação de Monte Carlo - Calcula múltiplos cenários de um
modelo em planilha, automaticamente;
• Conjunto de distribuições de probabilidades – Permite transformar
as variáveis determinísticas em probabilísticas;
• Gráficos das projeções – Mostra o resultado das simulações;
• Análise de sensibilidade e gráfico Tornado – Identifica as
variáveis de entrada mais críticas e apresenta suas correlações
com as variáveis de saída;
• Rotina de ajuste de distribuições – a partir de uma seríe de dados
realiza testes de aderência a fim de definir qual a distribuição que
mais se ajusta à série;
• Correlações – Modela dependências entre incertezas de variáveis
de entrada;
• Gerador de relatórios e gráficos - Geram relatórios estatísticos
com dados e gráficos dos resultados e das premissas adotadas;
• Controle de precisão - Controla o nível de confiança dos
resultados
O surgimento destes softwares e de máquinas com alta performance, capazes
de processarem rapidamente milhares de simulações e acumularem os
resultados destas interações, a alta velocidade e a um custo relativamente
baixo foi fator determinante para viabilizar a aplicação da Simulação de Monte
Carlo em um grande número de situações do dia a dia.
25
Referências
ANDRADE, Eduardo L. Introdução a Pesquisa Operacional. 2 ed. Rio de Janeiro:
LTC, 2000.
BRUNI, Adriano Leal; FAMA; Rubens; SIQUEIRA; José de Oliveira. Análise do risco
na avaliação de projetos de investimento: uma aplicação do método de
Monte Carlo. In Caderno de pesquisas em Administração. São Paulo V.1 n° 6 1°
trim./98.
BRUTSHER, Sônia M. Análise de Investimentos e Projetos. Brasília. EdUNB, 1999.
CASAROTTO Filho, Nelson; KOPITTKE, Bruno H. Análise de investimentos. 9ed.
São Paulo: Atlas, 2000.
CLEMEN, Robert T.; REILLY,
Terence. Making hard decisions with
nd
DecisionTools 2 rev. ed. USA, Duxbury, 2001.
COPELAND, Tom E.; ANTIKAROV, Vladimir. Opções Reais: um novo paradigma
para reinventar a avaliação de investimentos. Tradução de Maria José Cyhlar. –
Rio de Janeiro: Campus, 2001
CURRY, Renwick E. The Problems with “ The Problems with Monte Carlo
Simulation” 2002.
DAMODARAN, Aswath – Finanças Corporativas Aplicadas – Manual do Usuário.
Tradução Jorge Ritter.- Porto Alegre: Bookman, 2002.
DAMODARAN, Aswath; BERNSTEIN, Peter L. Administração de Investimentos.
Tradução: Cyro C. Patarra e José Carlos Barbosa dos santos. – Porto Alegre:
BookMan, 2000.
DANTAS, Antonio. Análise de Investimentos e Projetos. Brasília. EdUNB, 1996.
EVANS, JAMES R.; OLSON, DAVID L.. Introduction to Simulation and Risk
Analysis. Prentice Hall, Upper Saddle River, , New Jersey - 1998.
FISHMAN, George S. Monte Carlo – Concepts, Algorithms and applications. –
USA: Springer, 1996
GREY, Stephen. Practical Risk Assessment for Project Management. England:
John Wiley & Sons Ltd., 1995.
HAMMOND, John S.; KEENEY, Ralph L.; RAIFFA, Howard. Decisões Inteligentes:
como avaliar alternativas e tomar a melhor decisão; tradução de Marcelo
Filardi Ferreira. – Rio de Janeiro: Campus, 1999.
HERTZ, David B. Risk Analysis in Capital Investment republished in Harvard
Business Review, september – october, 1979.
INGALLS, Ricki G. Introduction to simulation. Proceedings of the 2002 Winter
Simulation Conference.
KELTON, W.; SADOWSKI, R.; SADOWSKI, D. Simulation with Area. McGrawHill,1998.
KOLLER, Glenn R. Risk modeling for determining value and decision making.
Washington, D.C.: Chapman & Hall/CRC, 2000.
LAPPONI, Juan Carlos Projetos de investimento: construção e avaliação do
fluxo de caixa: modelos em Excel. São Paulo: Laponni Treinamento e
Editora,2000.
MOTTA, Regis da Rocha; CALÔBA, Guilherme Marques. Análise de Investimentos
– Tomada de decisão em projetos industriais. – São Paulo: Atlas, 2002.
MURTHA, Jim. Risk Analysis for the Oil Industry. USA, HARTS E&P, 2001.
NAWROCKI, David The problems with Monte Carlo Simulation. in Journal of
Financial Planning; Vol. 14 issue: 11, pgs. 92-103 [Acesso em: 28 de janeiro de
2002] Disponível na World Wide Web :<http: //proquest.umi.com/pqdweb>
26
NERSESIAN, Roy L. @Risk 4.0 Bank Credit Analysis. USA: Palisade Corporation,
2000.
PILANA, Sabri. History of Monte Carlo Method, 2000.[Acesso em 05/01/01
Disponível
na
World
Wide
Web
em
<
http://.geocities.com/collegePark/quad/2435/history.html>
RAPPAPORT, Alfred; MAUBOUSSIN, Michael J. Análise de Investimentos – Como
transformar incertezas em oportunidades lucrativas. Tradução: Maria José
Cylhar Monteiro. Rio de Janeiro: Campus, 2002.
RIGOLON, Francisco José Zagari. Opções Reais e Análise de Projetos. Rio de
Janeiro: BNDES, 1999. (Texto para discussão, 66)
ROSS, Stephen A. ; WESTERFIELD, Randolph W. E JORDAN, Bradford D..
Princípios de Administração Financeira; tradução Antonio Zoratto Sanvicente. –
São Paulo: Atlas, 1998.
SÁ, Geraldo Tosta de. Administração de investimentos: Teoria de carteiras e
gerenciamento do risco; supervisão técnica, Eduardo Fortuna. – Rio de Janeiro:
Qualitymark Ed., 1999.
SAVAGE,Sam. Statistical Analysis For The Masses published in Statistics and
Public Policy, edited by Bruce Spencer, Oxford University Press, 1996.
SECURATO, José Roberto Decisões financeiras em contexto de risco. São
Paulo: Atlas, 1993
SHIMIZU, Tamio. Decisão nas organizações: introdução aos problemas de
decisão encontrados nas organizações e nos sistemas de apoio à decisão. São
Paulo: Atlas. 2000.
STEVENSON, William J. Estatística aplicada à administração; tradução Alfredo
Alves de Farias. – São Paulo Harper & Row do Brasil, 1981
TVERSKY, Amos; KAHNEMAN, Daniel. Judgment under Uncertainty: Heuristics
and Biases. Science, New Series, Volume 185, Issue 4157, 1974.
WINSTON L. Wayne. Financial Models Using Simulation and Optimization – A
step-by-step guide guide with Excel and Palisade’s Decision Tools Software
NY USA: Palisade Corporation, 1998
Download