MÉTODOS DE AVALIAÇÃO DE RISCO EM PROJETOS∗ Marcelo Cardoso Mesquita de Souza∗∗ Este trabalho apresenta uma revisão bibliográfica dos principais aspectos teóricos sobre análise de risco em projetos, passando para uma breve análise da construção de modelos, simulações e aprofundando no Método de Monte Carlo. 1. Técnicas de Avaliação de Projeto A avaliação de projetos de investimentos comumente envolve um conjunto de técnicas que buscam determinar sua viabilidade econômica e financeira, considerando um determinado custo de oportunidade. Desta forma, normalmente esses parâmetros são medidos pelo Payback (prazo de retorno do investimento inicial), pela TIR (Taxa Interna de Retorno) e/ou pelo VPL (Valor Presente Líquido) (CASAROTTO e KOPPITKE, 2000). Contudo, poucas são as análises formais sobre os riscos que envolvem os fluxos de caixa de um projeto, para isto, a forma mais comum dá-se pelo uso da análise de sensibilidade, que procura envolver uma simulação dos resultados obtidos para os vários patamares de custo do capital e/ou taxa de crescimento de receitas (BRUNI, FAMÁ e SIQUEIRA, 1998). O Payback ou prazo de retorno de um projeto é a extensão de tempo necessária para que seus fluxos de caixa nominais cubram o investimento inicial. (DAMODARAN, 2002) Tem como principais pontos fracos: não considerar o valor do dinheiro no tempo, não considerar todos os capitais do fluxo de caixa, não ser uma medida de rentabilidade do investimento (LAPPONI, 2000) e exigir um limite arbitrário de tempo para a tomada de decisão (ROSS, WESTERFIELD e JORDAN, 1998). É possível incluir o custo de oportunidade no cálculo do payback, resultando no que se convenciona chamar de payback descontado (LAPPONI, 2000). Dada as suas limitações e não obstante a sua simplicidade é muito mais provável que as empresas empreguem o período de payback de um investimento como uma norma auxiliar na tomada de decisões sobre investimentos utilizando-o seja como um parâmetro limitador (prazo máximo de retorno) sobre a tomada de decisões, seja para escolher entre projetos que tenham desempenho igual em relação à regra básica de decisão (DAMODARAN, 2002). A TIR – Taxa Interna de Retorno é aquela taxa de desconto que iguala os fluxos de entradas como os fluxos de saídas de um investimento. Com ela procura-se determinar uma única taxa de retorno, dependente exclusivamente ∗ Extraído de: SOUZA, Marcelo C. Mesquita de. Quantificação das Incertezas na Avaliação de Projetos: O Modelo Utilizado na Agência de Fomento do Estado da Bahia. 2004. 134f. Dissertação (Mestrado em Engenharia de Produção) – Programa de Pósgraduação em Engenharia de Produção, Universidade Federal de Santa Catarina, Florianópolis. ∗∗ Mestre em Engenharia da Produção, Administrador, Professor Universitário e Gerente de Microfinanças da Agência de Fomento do Estado da Bahia - DESENBAHIA. e-mail: [email protected] 2 dos fluxos de caixa do investimento, que sintetize os méritos de um projeto (ROSS, WESTERFIELD e JORDAN, 1998). O Valor Presente Líquido é a ferramenta mais utilizada pelas grandes empresas na análise de investimentos (COPELAND e ANTIKAROV, 2001) e consiste em calcular o valor presente dos demais termos do fluxo de caixa para somá-los ao investimento inicial, utilizando para descontar o fluxo uma taxa mínima de atratividade (CASAROTTO e KOPITTKE, 2000). Tanto o payback, como a TIR e o VPL são calculados a partir de fluxos de caixa projetados que tentam retratar as condições econômicas e financeiras do projeto. Os projetos de investimentos têm seus fluxos de caixa construídos com estimativas. Quanto maior for o tamanho e a complexidade do projeto, maiores serão as dificuldades de realizar as estimativas e, portanto, maiores poderão ser os erros das estimativas (LAPPONI, 2000). Segundo Lapponi (2000) deve-se sempre, ao realizar uma análise de investimentos, levar em consideração que: • • • • As estimativas e os resultados do investimento não são conhecidos com certeza. As estimativas do fluxo de caixa do projeto de investimento são valores esperados, definidos utilizando algum critério. Os resultados do VPL ou da TIR do fluxo de caixa, também serão valores esperados. Quanto maior for a dispersão de cada estimativa ao redor de seu valor esperado maior poderá ser a dispersão de cada resultado do fluxo de caixa. Essa incerteza é o risco do projeto gerado pelas dispersões das estimativas esperadas (LAPPONI, 2000). Para determinação de riscos de investimentos, inúmeras técnicas podem ser utilizadas, entre estas, a utilização do Método de Monte Carlo no cálculo da variabilidade do VPL de um projeto. 2. Lidando com Risco e Incerteza 2.1. Análise de Sensibilidade A Análise de Sensibilidade consiste em estudar o efeito que a variação de um dado de entrada pode ocasionar nos resultados. Quando uma pequena variação num parâmetro altera drasticamente a rentabilidade de um projeto, diz-se que o projeto é muito sensível a este parâmetro (CASAROTTO e KOPPITKE, 2000). Normalmente, na análise de sensibilidade, temos a estimativa mais provável, a otimista e a pessimista. O VPL do projeto é calculado para cada uma dessas hipóteses. 3 O método apresenta como desvantagem considerar as variáveis do projeto como independentes entre si, o que normalmente não é verdadeiro. 2.2. Cenários Normalmente as variáveis não são independentes , como supõe a análise de sensibilidade ao mudar o valor de uma variável por vez e mantendo as demais com seus valores mais prováveis. Na realidade, as variáveis estão relacionadas entre si. A análise de cenários procura examinar algumas combinações consistentes, do ponto de vista técnico, econômico e financeiro, e seu efeito conjuin to no projeto. 2.3. Árvores de Decisões Árvore de decisão é um instrumento de análise que propicia melhores condições ao decisor de visualizar os riscos, as opções e as vantagens financeiras das diversas alternativas de ação. FALSO Sim 0 800 Caso Exemplo 800 aceita o acordo? 975 Perde Não VERDADEIRO 50,0% 50% 300 300 Solução judicial 0 975 Em dinheiro Ganha 50,0% 50,0% 25% 2.000 2000 Recebe 0 1.650 Decisão Evento Vende penhora de bens 50,0% 0 Fim da alternativa 50,0% 13% 1.300 1.300 Leilão 1.300 Adjudica 50,0% 13% 1.300 1.300 Figura 1 - Modelo de Árvore de Decisão A resolução clássica de uma árvore de decisão consiste em, começando do seu ponto final, multiplicar o valor de cada ramo pela sua probabilidade, até se chegar à raiz da árvore. O somatório destes produtos é o Valor Esperado para a árvore. VE = ((((0,5 × 1.300) + (0,5 × 1.300) × 0,5) + (0,5 × 2.000 )) × 0,5) + (0,5 × 800 ) = 975 A utilização de valores determinísticos em uma árvore de decisão é uma solução sub-ótima no mínimo por três razões: (KOLLER, 2000) • Ao trabalhar com valores determinísticos uma única assunção errada para o valor de uma alternativa pode fazer com que o calculo da árvore ofereça um resultado inútil. • A utilização de valores determinísticos gera um resultado também determinístico e não uma faixa de possíveis valores. 4 Este ponto é particularmente grave, pois, sendo o valor esperado um número médio é possível que a volatilidade das variáveis aumente sem que este seja alterado (COPELAND e ANTIKAROV, 2001). • A assunção de correlação zero entre as variáveis Copeland e Antikarov (2001) consideram que a abordagem decisória através de árvores de decisão, de modo geral, dará respostas erradas por pressupor uma taxa de desconto constante ao longo de toda a árvore de decisão. Segundo estes autores, a abordagem da árvore de decisões transgride a lei do preço único, que diz que dois ativos que têm exatamente o mesmo retorno em qualquer situação são substitutos perfeitos e, portanto devem ter exatamente o mesmo preço, de forma a impedir lucros por arbitragem. Já Andrade (2000) aponta os seguintes cuidados a serem tomados para que uma árvore de decisão seja um instrumento eficaz de auxílio na tomada de decisão: • A árvore deve ser simples e conter somente as informações necessárias, de forma a permitir uma comunicação fácil e completa; • Os modelos para análise de risco e sensibilidade devem ser, dentro do possível, simples e fáceis de compreender, para que seus resultados sejam bem aceitos; • As pessoas que vão decidir devem ser envolvidas no processo de análise, de forma a assegurar que: - Estejam presentes todas as estratégias que devem ser analisadas; - O nível de modelagem seja correto, sem simplificações ou complicações desnecessárias; - Os resultados obtidos sejam bem compreendidos e discutidos. 2.4. O Tratamento Matemático convencional Para realizar-se o tratamento do fluxo de caixa em condições de risco deve-se considerar este como sendo dado pela seqüência de valores futuros representados pela seguinte relação: {Fj}j=1,n = {F1, F2, ..., Fn}, onde tais valores são variáveis aleatórias, independentes e identicamente distribuídas com uma função probabilística g(Fj). A estes valores, deve-se considerar também uma taxa de desconto pré-determinada i% ao período (SECURATO, 1993). Sendo assim, poder-se-ia fazer a distribuição discreta de probabilidade representando os fluxos de caixa e suas respectivas probabilidades de ocorrência (SECURATO, 1993). Fj P(Fj) fj,1 P(fj,1) fj,2 P(fj,2) ... … fj,n P(fj,n) Figura 2: Distribuição das Funções (Securato, 1993) 5 n Cada VPL será dado por: VPL = ∑ Fj (BRUTSHER,1999)(DANTAS,1996). (1 + i ) j A esperança do VPL dos fluxos de caixa futuros será expressa por: n E[ F ] j E[VPL] = ∑ (BRUTSHER, 1999) (DANTAS, 1996). j j =1 (1 + i ) j =1 O risco do projeto, será expresso sob a forma do desvio padrão destes fluxos n Var[ F ] j de caixa, é: Var[VPL] = ∑ (BRUTSHER, 1999) (DANTAS, 1996). 2j j =1 (1 + i ) Desta forma, o cálculo do risco do projeto é dado em função dos riscos individuais (SECURATO, 1993). 2.5. Opções Reais e Análise de Projetos Os métodos tradicionais de análise de investimento, como o VPL e a TIR vem sendo alvo de importantes questionamentos nos últimos anos, ao mesmo tempo em que uma nova abordagem baseada nas similaridades entre oportunidades de investimentos e opções financeiras vem sendo proposta como alternativa (RIGOLON, 1999). Esta nova abordagem conhecida como Análise de Opções Reais (ROA – Real Options Analysis) permite captar a flexibilidade para reagir a eventos incertos, existente nos projetos. Esta flexibilidade é decorrente da existência de “opções” tais como o abandono após a fase de planejamento, a expansão ou prorrogação e o deferimento da decisão de investir, cada uma dessas opções possui valor que deve ser adicionado ao valor do fluxo de caixa descontado. Assim as ferramentas tradicionais, como VPL e TIR geralmente subestimam o valor do projeto (COPELAND e ANTIKAROV, 2001) (RAPPAPORT e MAUBOUSSIN, 2002). O valor das opções reais, assim como das opções financeiras depende das seguintes cinco variáveis (COPELAND e ANTIKAROV, 2001) (RAPPAPORT e MAUBOSSIN, 2002): 1. Valor do projeto: o valor presente do fluxo de caixa livre esperado para o projeto. 2. Custo do exercício da opção: o investimento adicional necessário ao exercício da opção. 3. Volatilidade do projeto: medida de variabilidade potencial do valor futuro do projeto. 4. Prazo de vencimento da opção: prazo durante o qual a empresa pode deferir uma decisão de investimento sem perder uma oportunidade. 5. Taxa de retorno livre de risco: não é necessário o uso de uma taxa de desconto ajustada ao risco, pra valorar o projeto, porque se capta o risco do projeto através da variável “volatilidade” diretamente. Copeland e Antikaravov (2001) apontam ainda como uma sexta variável os fluxos de caixa perdidos para os concorrentes que já completaram o investimento. 6 Para o cálculo do valor das opções reais existem alguns modelos já bastante difundidos pela literatura como o binomial ou o de Black-Scholes. A análise de opções reais apresenta-se, portanto, como uma poderosa ferramenta na avaliação de projetos. Seu enfoque, entretanto é o enfoque do investidor e não do credor. Rigolon (1999) entretanto, propõe a utilização desta abordagem na análise de crédito, particularmente o crédito de longo prazo. Argumenta, Rigolon (1999), que a natureza de opção da oportunidade de investir é relevante apenas no caso dos financiamentos de longo prazo, onde a irreversibilidade e a baixa liquidez aumentam o risco. O enfoque permitiria, segundo Rigolon (1999), identificar o melhor momento para financiar um investimento ou, alternativamente, estimar a taxa de retorno requerida para o investimento imediato. 3. A construção de modelos Modelo é uma abstração ou representação de um sistema real, uma idéia ou objeto (EVANS e OLSON, 1998). Alguns modelos são prescritivos, determinam uma política ótima (ex: programação linear) e outros são descritivos, isto é, descrevem as relações e disponibilizam informações para avaliação. (Ex: modelos de teoria das filas). (EVANS e OLSON, 1998). Modelos descritivos são utilizados para explicar o comportamento dos sistemas, para prever eventos futuros a partir de entradas do processo de planejamento e para ajudar os decisores a escolherem a melhor solução ou desenho do sistema (EVANS e OLSON, 1998). Os modelos também podem ser determinísticos ou probabilísticos. Nos modelos determinísticos todas as informações são conhecidas ou assumidas como conhecidas, com certeza.(CASAROTTO e KOPPITKE, 2000). Nos modelos probabilísticos algumas informações são descritas como distribuições de probabilidades. Modelos podem ainda ser discretos ou contínuos. Tal dicotomia se refere ao tipo de variável do modelo. Também se refere a como as variáveis do modelo mudam com o passar do tempo. O primeiro passo da modelagem é identificar as variáveis do problema. Posteriormente definir as relações entre as variáveis, as condições e restrições do sistema, de forma a possibilitar a construção de um modelo que represente, o mais fielmente possível, sua operação no mundo real. A construção do modelo consiste na formulação das equações que devem representar as interrelações do sistema e no estabelecimento de limites de variação de resultados e valores(ANDRADE, 2000). Andrade (2000) qualifica a modelagem como a parte mais difícil do processo de simulação, pois, para que os modelos representem bem os sistemas é preciso levar em conta todas as relações importantes, tanto entre as variáveis internas do sistema quanto entre este e o meio que o cerca. 7 O modelo permite manipulações que seriam inviáveis no sistema real que ele representa, devido ao custo ou à impossibilidade de realizá-las (ANDRADE, 2000). Já Motta e Calôba (2002) definem a modelagem como uma arte, onde se busca o equilíbrio entre uma impossível reprodução completa da realidade e uma simplificação excessiva que venha a prejudicar a aplicabilidade, na prática, das respostas obtidas com o experimento do modelo. Depois de definido o modelo determinístico, é possível a aplicação da simulação. 4. O Processo de Simulação Uma simulação compreende a utilização de uma representação ou modelo de sistema real para analisar o comportamento ou desempenho deste sistema, respeitando todas as regras e condições reais a que o sistema esta submetido. Simulações são modelos descritivos, cuja estrutura pode ser representada como mostra a figura 3: Entradas Decisões e Variáveis Incontroláveis Saídas Modelo de Simulação Medida de Performance do Comportamento Figura 3 -Estrutura de modelos descritivos (Evans, 1998). O modelo de simulação é propriamente um conjunto de suposições ou princípios que define o sistema ou problema. Ou ainda, como define Ingalls (2002): simulação é o processo de projetar modelos dinâmicos de sistemas dinâmicos com o propósito de entender o comportamento do sistema ou de avaliar estratégias operacionais deste (INGALLS, 2002). A simulação como técnica de análise de sistemas e de decisões de problemas, vem sendo utilizada ha bastante tempo ao longo da história. Dezenas de aplicações de simulação estão a nossa volta, tais como: previsão do tempo, simuladores de vôo, táticas militares, trajetórias de foguetes (EVANS e OLSON, 1998). Segundo Evans e Olson (1998), o processo de simulação consiste em cinco passos essenciais: 1. Desenvolver o modelo conceitual do sistema ou problema em estudo. Definir o problema, identificar as metas e objetivos do estudo, determinar a importância das variáveis de entrada e definir as medidas de saídas. Além disso, podemos incluir a descrição lógica do sistema cujo estudo 8 está se iniciando. Modelos de simulação devem ser o mais simples possível, com foco nos fatores críticos. 2. Construir o modelo de simulação Desenvolver fórmulas e/ou equações, coletando todas as informações necessárias, a serem utilizadas em cada variável e definir a forma de registrar os resultados. Isto implica em desenhar uma planilha e desenvolver um programa computacional. 3. Provar e validar o modelo Provar refere-se ao processo de assegurar que o modelo está livre de erros lógicos. Validar é assegurar que o modelo é uma representação razoável do atual sistema ou problema. Estes são passos importantes para dar credibilidade ao modelo de simulação e ganhar aceitação pelos gestores e outros usuários. Para provar o modelo utilizam-se algumas técnicas padrão de engenharia de software, tal como construir e programar o modelo em pequenos módulos depurando cada módulo antes de colocá-los juntos. O modelo pode ser revisto por especialistas, usando hipóteses simplificadas, então os resultados podem ser comparados com os encontrados através de soluções analíticas, usando um conjunto de dados reais e checando se correspondem aos resultados reais e rastreando em toda a extensão do modelo todos os seus detalhes lógicos. A Validação assegurando que o modelo é uma boa representação da realidade pode ser vista de algumas perspectivas diferentes: Validade Aparente consiste em perguntar a especialistas se o modelo e/ou resultados são razoáveis, isto pode incluir a comparação da estrutura do modelo de simulação com o sistema presente, focando a atenção nas ligações entre as pequenas partes do modelo. Recursos gráficos computacionais podem auxiliar enormemente neste esforço. Um enfoque útil, às vezes chamado de Validação por Dados Históricos compara as saídas do modelo processando dados históricos com um sistema real, usando os mesmos dados como entradas. Validade dos Dados inclui assegurar que todos os dados de entrada e as distribuições de probabilidade são verdadeiramente representativos do sistema existente que foi modelado. Isto acarreta testes estatísticos de excelência de ajuste ou análise de sensibilidade das saídas em relação às variações das entradas. Não existe um procedimento específico para selecionar diferentes técnicas de verificação e validação, entretanto é extremamente importante que algum método ou ambos, validação e verificação sejam utilizados. 4. Desenhar ensaios com o modelo Determinar os valores das variáveis controláveis a serem estudadas ou as questões que devem ser respondidas a fim de atingir os objetivos dos decisores. 5. Realizar os experimentos e analisar os resultados. 9 Rodar a simulação para obter as informações requeridas. Pode ser necessário retornar ao primeiro passo e levantar novas informações ou realizar modificações no modelo, portanto, simulação é um processo evolutivo que deve envolver não somente os analistas e quem desenvolve o modelo, mas também os usuários dos resultados. (EVANS e OLSON, 1998). Especificamente a modelagem proposta para análise de risco de projetos de investimento deve levar em consideração três pontos: (GREY, 1995). • • • Volume total de recursos necessários para o investimento proposto; Cronograma de implantação do projeto; Nível de atividade e fluxo de caixa futuro. Particularmente o cronograma de implantação, no que diz respeito ao cumprimento dos prazos torna a estimativa mais complexa porque além da variância da estimativa em si, existem as ligações lógicas (e, ou, se) entre as diversas etapas da implantação do projeto. Existem processos subseqüentes que estão condicionados ao cumprimento de uma determinada etapa. 5. A Simulação de Monte Carlo A Simulação ou Método de Monte Carlo pode ser conceituado como um método de simulação estatística e métodos de simulações estatísticas podem ser definidos em termos gerais como qualquer método que utilize uma seqüência de números randômicos para gerar a simulação. O Método de Monte Carlo vem sendo utilizado há séculos, mas somente nas últimas décadas esta técnica ganhou status de método numérico completamente desenvolvido e habilitado a tratar das mais complexas aplicações. Monte Carlo atualmente é utilizado em diversos campos, da simulação de complexos fenômenos físicos como a condução da radiação na atmosfera terrestre e a simulação de processos subnucleares esotéricos de alta energia a situações bem mais triviais como um jogo de Bingo. Os métodos de simulação estatística podem ser diferenciados dos métodos numéricos convencionais, onde geralmente são aplicadas equações parciais diferenciais que definem algum sistema físico ou matemático subjacente. Em muitas aplicações de Monte Carlo, o processo físico é simulado diretamente e não é necessário escrever as equações diferenciais que descrevem o comportamento do sistema. A única exigência é que o sistema seja descrito por Funções Densidade de Probabilidade (FDP). Uma vez definidos as FDP’s a simulação de Monte Carlo pode proceder à amostragem aleatória para as FDP’s. algumas interações são realizadas e o resultado desejado é dado em função da média obtida das diversas observações. Para realizar o processo de amostragem é necessário possuir algum método de geração de números aleatórios, uniformemente distribuídos no intervalo 10 [0,1]. Os resultados destas amostras randômicas ou interações devem ser acumulados de maneira apropriada para produzir o resultado desejado, mas a característica fundamental do MMC é usar técnicas de amostragem randômica para chegar à solução do problema. O método de Monte Carlo fornece soluções aproximadas a uma variedade de problemas matemáticos através de testes (experimentos) de amostragens estatísticas em computador. O método aplica-se extraordinariamente bem tanto a problemas absolutamente não probabilísticos, assim como a problemas com estrutura inerentemente probabilística. Somente isso não daria ao método de Monte Carlo vantagem sobre outros métodos de aproximação. Entretanto, entre todos os métodos numéricos que conta com n-pontos de avaliação num espaço m-dimensional para produzir soluções aproximadas, o MMC tem o erro absoluto de suas estimativas diminuindo a n-1/2 , enquanto todas as outras têm erro absoluto de estimativa decrescendo a n-1/m no máximo. Esta propriedade da ao MMC uma considerável vantagem na eficiência computacional quando m, o tamanho do problema aumenta. (FISHMAN, 1995). 5.1. Histórico do Método de Monte Carlo O MMC teve três desenvolvimentos históricos distintos, mas relacionados, nas ciências matemáticas: ”jogos de escolha” motivaram os matemáticos dos séculos XVII e XVIII a considerar que os resultados de eventos sucessivos formavam uma seqüência randômica de eventos. Observando que a média de uma função de variáveis aleatórias contínuas tomava a forma de uma integral, estatísticos dos séculos XIX e do início do século XX, posteriormente reconheceram que, em princípio, números sacados aleatoriamente, podiam ser transformados de acordo com regras prescritas e derivar uma solução aproximada de uma integral de um problema que intrinsecamente não possui qualquer conteúdo probabilístico.(National Bureau of Standards 1951, p.40 apud FISHMAN, 1995). No fim do século XIX, desenvolveu-se a segunda linha de questionamento, quando Lord Rayleigh mostrou que o caminho aleatório em uma dimensão (one-dimensional random walk) sem barreiras absorventes (absorbing barriers) pode fornecer uma solução aproximada para a equação diferencial parabólica. A terceira linha surge durante a segunda guerra mundial, quando cientistas precisavam resolver problemas de difusão de nêutrons. Nesta terceira fase, surge o nome “Monte Carlo”, durante o desenvolvimento do Projeto Manhattam na segunda guerra mundial, quando Stanislaw Ulam e John Von Neuman, buscavam uma metodologia para estudo do comportamento da trajetória do átomo durante sua fissão. O nome foi sugerido por Nicholas C. Metropólis, doutor em física que trabalhava junto com Neuman e Ulam, por causa da similaridade entre a simulação estatística e os jogos de azar e por ser a capital de Mônaco o centro do jogo. Metropolis e Ulam publicaram o primeiro trabalho sobre o Método de Monte Carlo, em 1949, no Journal of the American Statistical Association, intitulado “The Monte Carlo Method”. (PILANA, 2001). Em finanças o primeiro artigo sugerindo a aplicação do método de Monte Carlo foi em 1964, quando David Hertz (1964), publicou, na Harvard Business Review, um artigo intitulado Risk analysis in capital investiment, onde sugeria a utilização do método de Monte Carlo em avaliações de projetos, como forma de 11 determinar o risco inerente a cada projeto. Este artigo provocou grande repercussão no meio acadêmico tornando-se assunto obrigatório em todas as disciplinas de negócios e finanças. Artigos e livros, sobre o assunto foram publicados e a apologia a Monte Carlo continuou até 1972, quando Lewellen e Long (1972) publicam o artigo Simulation Versus Single-Value Estimates in Capital Expenditure Analysis, onde questionam a capacidade do método de fornecer informação relevante e a relação custo benefício do método (NAWROCKI, 2001). 5.2. Conceito fundamental Conforme Andrade (1998) o método de Monte Carlo baseia-se num conceito estatístico simples. “Seja x uma variável aleatória com as seguintes características: • Função de distribuição de probabilidade ⇒ f(x) • Função cumulativa de probabilidade ⇒ F(x) Se definirmos uma nova variável y = F(x), esta tem uma distribuição uniforme sobre o intervalo fechado [0,1]. Assim como a função cumulativa de probabilidades representa as características aleatórias da variável em questão, a função y = F(x) é uma relação entre duas variáveis: • Variável x, com distribuição aleatória própria. • Variável y, com distribuição uniforme, entre 0 e 1. (ANDRADE, 2000). 5.3. Procedimento O método de Monte Carlo consiste nos seguintes passos: • Dada a função cumulativa de probabilidade da variável em simulação F(x), toma-se um número gerado aleatoriamente, no intervalo (0,1) ou (0 a 100). • Usando a função cumulativa de probabilidades, determinar o valor da variável x que corresponde ao número aleatório gerado (ANDRADE, 1998). Exemplo: f(x) ⇒ Distribuição normal com µ = 7,00 e δ = 0,7 Normal(7,00;0,70) 0.8 0.4 0.0 3.0 4.4 5.8 7.2 8.6 10.0 Figura 4 - Função densidade Normal com média 7 e desvio padrão 0,7 O gerador de número aleatórios gera o número 0,5 no intervalo fechado (0,1) que quando plotado sobre a função cumulativa indica a valor 7,00 para a variável aleatória F(x) ⇒ Função cumulativa de probabilidades 12 Normal(7,00;0,70) 1.0 0.5 0.0 3.0 4.4 5.8 7.2 8.6 10.0 Figura 5 - Função Normal acumulada com média 7 e desvio padrão 0,7 A parte fundamental de um processo de simulação é a construção do modelo. A definição dos valores e eventos incertos e como eles se relacionam é tarefa do analista e é determinante fundamental da qualidade do resultado. Os mecanismos de geração de número aleatórios, acumulação dos resultados e geração de relatório são suportados por softwares já suficientemente validados (figura 6) (GREY, 1995). Descrição das Incertezas de Valores e Eventos Determinação das relações entre Valores e Eventos Análise Definido pelo Analista Suportado pelo Software Mecanismo para geração de Números aleatórios Acumulação Dos Resultados Apresentação de Relatório Figura 6 - Elementos da simulação (adaptado de Grey, 1995) A realização da Simulação de Monte Carlo pode ser esquematicamente definida em três etapas, conforme figura 7: Gera número aleatório para as Variáveis Calcula o Modelo Registra o Resultado no Mapa Figura 7 - Esquema do processo de Simulação de Monte Carlo 13 A partir da construção do conjunto de distribuições de freqüência e da definição de suas inter-relações é possível, através da utilização de softwares, realizar centenas ou milhares de interações e armazenar os resultados destas interações (figura 8), criando desta foram uma distribuição de freqüência dos resultados obtidos (a(s) variável (is) definida como de saída) (figura 9). 10.0000 1 Min. 1 2 1 MP Min. MP Min. Min. 1 Max. 2 Max. MP MP Min. 1 Min. Min. MP 2 2 3 ........ 3 Min. MP Max. Max. Max. MP Min. Min. 1 Min.Min. 2 Max. MP MP Min. 3 2 Max. Max. MP Max. MP Max.Max. Min. MP Max. ..................................... 3 Min. 3 2 Min. MP 1 Max. MP MP Max. ............... Max. MP Min. Max. MP Max. ........ ..................................... ............... n........ ..................................... ............... Min. MP Max. ........ ..................................... ............... ........ 3 ..................................... ............... Min. MP Max. n Min. MP Max. n Min. MP Max. n Min. ..................................... MP Max. ............... n ........ Min. MP Max. n Min. MP Max. Resultado Armazena Figura 8 - Simulação de Monte Carlo – O Processo (adaptado de Grey, 1995). Forecast: VPL 10.000 Trials Frequency Chart 418 Outliers ,033 333 ,025 249,7 ,017 166,5 ,008 83,24 ,000 0 -116.942 -22.012 72.918 167.848 Figura 9 - Distribuição de freqüência da variável de saída – VPL 262.778 14 A partir da distribuição de freqüência da variável de saída pode-se medir a área de interesse desta distribuição. No caso específico medimos, novamente com o apoio do software, a parte da distribuição que representa VPL’s negativos (VPL<0). (figura 10) Forecast: VPL 10.000 Trials Frequency Chart 205 Outliers ,024 239 ,018 179,2 ,012 119,5 ,006 59,75 ,000 0 -255.677 -147.048 -38.419 70.209 Certainty is 46,71% from -Infinity to 0 178.838 Figura 10 – Análise da Distribuição de freqüência da variável de saída – VPL – 46,71% de probabilidade de VPL < 0 5.4. Principais componentes do algoritmo: ! Funções Distribuição de probabilidades – Uma distribuição de probabilidades é uma distribuição de freqüências relativas para os resultados de um espaço amostral; mostra a proporção das vezes em que a variável aleatória tende a assumir cada um dos diversos valores. (STEVENSON, 1981) Um sistema deve ser descrito por um conjunto de Funções de Distribuição de Probabilidades. A identificação apropriada das distribuições de probabilidade dos dados de entrada é um importante elemento na modelagem para simulações Freqüentemente, para identificar estas distribuições é necessário realizar análises empíricas ou históricas dos dados e adequar esses dados à distribuição. Outras vezes, os dados não estão disponíveis e será necessário selecionar a distribuição adequada e seus parâmetros a partir do julgamento do analista (EVANS e OLSON, 1998). ! Gerador de Números Aleatórios – Uma fonte de números aleatórios, uniformemente distribuídos em um intervalo deve estar disponível. Em realidade os números gerados por métodos computacionais são pseudoaleatórios, porem, hoje os recursos existentes permitem gerar séries tão longas (milhões de números) para estes números pseudo – randômicos que cientificamente eles são aceitos como se fossem números verdadeiramente aleatórios. Para a aplicabilidade do MMC nos cálculos desejados na análise dos riscos de projetos de investimentos, podem ser usados os seguintes critérios de aleatoriedade dos números gerados em computador: a) uniformemente distribuídos; b) estatisticamente independentes; c) 15 ! ! ! reprodutíveis, a fim de permitir comparação entre programas; d) não repetibilidade da série no intervalo de interesse; e) velocidade de geração; f) utilização de memória mínima do computador na geração (COSTA e AZEVEDO apud SHIMIZU, 1996). Regra de Amostragem Apesar do termo Monte Carlo ser utilizado como sinônimo de simulação, no strito sensu ele refere-se ao processo de seleção amostral. Neste ponto dois são os processos mais utilizados: o Monte Carlo – Sorteia variáveis aleatórias uniformemente entre toda a faixa de valores possíveis. o Latin Hypercube – Assume que a distribuição de probabilidade esta dividida em intervalos com probabilidades iguais de sorteio. É um método mais preciso do que o de Monte Carlo já que utiliza amostras de toda a faixa de distribuição de maneira mais consistente. (EVANS e OLSON, 1998). Scoring –Os resultados devem ser acumulados de forma a gerar a distribuição de resultados. Erro de Estimativa – É função do número de interações. O tamanho da amostra ou o número de interações da simulação afeta a qualidade do resultado. A medida que o número de interações aumenta a média e o desvio padrão tendem a estabilizar-se (figura 18). O erro padrão da média é dado por: σ epm = n Onde: σ = desvio padrão da amostra n = número de interações Média e desvio versus núm ero de interações Média e desvio 15000 10000 5000 0 0 50 100 150 200 250 Número de simulações média desvio Figura 11 - Estabilização da média e do desvio a partir do n° de interações ! ! Técnicas de Redução de Variância - Métodos para reduzir a variância da solução estimada. Reduzem o tempo computacional. Paralelização e Vetorização – Algoritmos que permitem ao método de Monte Carlo ser implementado eficientemente em arquiteturas avançadas de computador. 5.5. A matemática subjacente ao método de Monte Carlo Teorema do Limite Central Este teorema assegura que a soma ou a média de variáveis aleatórias independentes, as quais podem ser ou não normalmente distribuídas, se 16 aproximarão de uma distribuição normal quando o número de variáveis aleatórias aumentar. (DAMODARAN e BERNSTEIN, 2000). Podemos resumir o Teorema do Limite Central a duas assertivas: 1. Se a população sob amostragem tem distribuição normal, a distribuição das médias amostrais também será normal para todos os tamanhos de amostra. 2. Se a população básica é não-normal, a distribuição de médias amostrais será aproximadamente normal para grandes amostras. (STEVENSON, 1981). Correlações entre variáveis Freqüentemente as variáveis utilizadas, nos modelos, não são independentes. De fato, a maioria delas mantém algum nível de correlação entre as variáveis e temporal. A correlação é medida da seguinte forma: r= Cov( x, y ) σ x ×σ y onde: Cov = 1 × ∑ ( xi − µ x ) × ( y i − µ y ) n σ x = varx 1 2 × ∑ ( xi − µ x ) n É importante observar que desconsiderar as correlações existentes conduz a resultados onde o risco é subestimado (NERSESIAN, 2000). varx = 5.6. Análise Estatística dos Dados A maior dificuldade na aplicação de modelos de simulação, não está na operação do algoritmo, posto que hoje os softwares permitem fazê-lo com segurança e rapidez. O grande problema está na definição dos parâmetros de entrada do modelo. Basicamente existem duas situações: quando existem dados (séries históricas) disponíveis e quando não existem. 5.6.1. Dados Disponíveis Quando existem dados disponíveis é possível realizar testes de aderência. Testes de aderência servem para verificar se a distribuição de freqüência empírica ou observada, em questão, aproxima-se de determinada distribuição de probabilidades e se isso passa em um teste de hipóteses (MOTTA e CALÔBA, 2002). Deve-se considerar que tal método está fundamentado em duas suposições (VEIGA, 2000): ! A distribuição levantada com os dados já incorridos representa a variabilidade do fenômeno analisado; 17 ! E que este fenômeno manterá sua estrutura no futuro (figura 12). passado frequências relativas fenômeno futuro probabilidades estacionário Figura 12 – Estimando probabilidades com dados passados (VEIGA, 2000). Existem softwares que realizam testes de aderência dos dados, apontando a função teórica que melhor se ajusta aos dados. Exemplos destes softwares são: O BESTFIT da Palisade Corporation e o BATCH FIT da Decisioneering Inc. Os mais conhecidos testes de aderência são: ! Qui-quadrado onde: (t ) 2 − t i0 X =∑ t i0 i =1 t i = a freqüência absoluta observada na amostra para k classes, k 2 i t i0 = a freqüência absoluta que será a esperada se a hipótese a respeito da forma da distribuição for verdadeira. ! ! Kolmogorov-Smirnov É o teste mais apropriado para pequenas amostras. Anderson-Darling Tem um enfoque similar ao Kolmogorov-Smirnov, exceto pela ponderação dada às caudas que é maior que as faixas médias. É indicado quando se necessita uma função que melhor se adapte nos extremos das caudas. 5.6.2. Dados não disponíveis Quando não há dados disponíveis, pode-se consultar especialistas, como consultores externos à organização, ou algum expert no assunto. Nesta hipótese utilizam-se probabilidades subjetivas, fruto do julgamento e crenças pessoais. É esta, hoje, a grande questão em discussão quando se trata de Simulação de Monte Carlo. O foco, hoje, volta-se para a qualidade das informações que determinam as distribuições de probabilidades. Alguns autores como Clemen e Reilly (2001), Curry (2002), Savage (1996), e Grey (1995) estão convencidos que é possível representar qualquer situação através de distribuições uniformes ou triangulares, quando da ausência de série de dados. 18 5.7 A Diferenciação entre Risco e Incerteza Uma situação é dita de Risco quando se conhece a exata distribuição de probabilidades de cada um dos eventos possíveis relacionados à tomada de decisão. Por outro lado, uma situação é considerada como de Incerteza quando não temos conhecimento objetivo da distribuição de probabilidades para um evento futuro, utilizando para isso conhecimento acumulado de experiências passadas.(SÁ, 1999). 5.8. A Escola Bayesiana Na ciência estatística existe uma divisão básica no que diz respeito à utilização de probabilidades subjetivas para resultados de eventos futuros. A chamada Escola Clássica afirma que o uso de probabilidades subjetivas não oferece nenhum resultado coerente. Já a escola chamada bayesiana, considera impossível ignorar as probabilidades subjetivas. Os bayesianos alegam que o uso das probabilidades subjetivas é justificável uma vez que qualquer informação que se tenha sobre determinado assunto, quando usada adequadamente, possibilita maiores acertos do que os resultados obtidos de uma decisão sobre um assunto do qual nada se sabe (SÁ, 1999). 5.9. O uso do julgamento na modelagem Segundo Evans e Olson (1998) quando não se dispõe de informações empíricas, tem-se que utilizar o julgamento para determinar as distribuições que serão as entradas do modelo. Neste ponto o conhecimento sobre o comportamento das diferentes distribuições ajuda a estimativa. Entretanto, em muitos casos não se dispõe sequer de uma idéia de qual distribuição usar. Através do julgamento de especialistas é possível definir um intervalo [a,b] no qual se acredita que a variável deve se situar. É possível então, modelar este julgamento através de três tipos de distribuição: 1) Se não existe razão para acreditar que qualquer valor dentro deste intervalo tem uma probabilidade de ocorrência maior do que outros, então uma escolha apropriada pode ser uma distribuição uniforme. 2) Se acredita-se que existe um valor c entre a e b que mais provável de ocorrer que os outros a distribuição triangular deve ser utilizada. 3) Se existe alguma razão para estimar um valor médio m além do valor mais provável c, deve-se então utilizar uma distribuição beta com α e β definidos da seguinte forma: (EVANS e OLSON, 1998). α= (m − a ) × (2c − a − b ) (c − m ) × (b − a ) β= (b − m ) × α (m − a ) Grey (1995) discorda da utilização da função beta, para determinação de probabilidades subjetivas, ele alega a necessidade de construir modelos tão simples quanto possíveis e diretamente relacionados com as informações fornecidas pelos especialistas envolvidos e nos mesmos termos que eles estão acostumados. Assim, eles darão credibilidade aos resultados. Para Grey (1995) 19 quando trabalhamos com probabilidades unicamente distribuições triangulares. subjetivas, devemos utilizar Na mesma linha de Grey, Savage (1996) acredita que é possível modelar qualquer distribuição como triangular, especificando os valores mínimo, máximo e mais provável, gerando assim, uma significante melhora na condição de falta de informação empírica. 5.10 Probabilidade Subjetiva Quando a probabilidade representa um nível de crença pessoal sobre o resultado de um evento específico, estamos adotando uma interpretação subjetiva. (CLEMEN e REILLY, 2001). A avaliação subjetiva da incerteza tem sido um importante elemento na análise de decisões. A tendência básica da moderna análise de decisões é que julgamentos subjetivos sob incerteza podem ser feitos em termos de probabilidade (CLEMEN e REILLY, 2001). Entretanto o uso de probabilidades subjetivas requer o conhecimento dos heurísticos e suas tendências. 5.11 Heurísticos e Armadilhas Psicológicas Nossas mentes criam mecanismos inconscientes para lidar com a complexidade inerente à vida. Estes mecanismos são chamados heurísticos e são úteis a um grande número de situações.(HAMMOND, KEENEY e RAIFFA, 1999). Exemplo de processo heurístico é o mecanismo que nossas mentes usam para avaliar distâncias, que relaciona a nitidez e a proximidade. Quanto mais nítido parece um objeto mais próximo deve estar. Quanto mais indefinido mais distante. Embora bastante úteis no dia a dia, a maioria dos mecanismos heurísticos, entretanto, não é segura. Pode-se identificar uma longa série de falhas na maneira como pensamos. Algumas tomam a forma de desvios na percepção sensorial. Outras, a de julgamentos tendenciosos. Outras ainda se manifestam simplesmente como anomalias irracionais do pensamento. O que torna todas estas falhas tão perigosas é a sua invisibilidade. Pelo fato de que a maioria delas está solidamente enraizada em nosso processo de raciocínio, deixa-se de reconhecê-las – mesmo quando se torna vítima. (HAMMOND, KEENEY e RAIFFA, 1999) Hammond, Keeney e Raiffa (1999), chamam estas falhas de pensamento de armadilhas psicológicas e não obstante seja impossível livrar nossas mentes delas, pode-se aprender a compreendê-las e compensar sua existência. Um trabalho que tem sido referenciado na maioria dos textos sobre o assunto é o artigo publicado em 1974, por Amos Tversky e Daniel Kahneman, intitulado “Judgment under Uncertainty: Heuristics and Biases”. Neste texto os autores 20 apresentam três processos heurísticos empregados quando realizamos julgamentos em condições de incerteza: ! ! ! Representatividade (Representativeness) – geralmente empregado quando necessitamos julgar a probabilidade de um objeto ou evento qualquer, pertencer a uma determinada classe ou processo; Viabilidade de um caso ou cenário (Availability of instances or scenarios) – freqüentemente empregado quando necessitamos avaliar a frequencia de uma classe ou a plausibilidade de um desenvolvimento específico; Ajuste decorrente de uma âncora (Adjustment from an anchor) – geralmente empregado em predições numéricas quando avaliamos valores importantes. Tversky e Kahneman apresentam uma relação de armadilhas psicológicas que afetam cada um destes heurísticos, e que conduzem a avaliações e predições incorretas. A compreensão destes heurísticos e das armadilhas que se pode incorrer quando se está empregando cada um deles é de suma importância quando se necessita utilizar probabilidades subjetivas, posto que não se podem eliminar estes erros, a sua consciência pode permitir suas compensações. (HAMMOND, KEENEY e RAIFFA, 1999) Expõem-se a seguir algumas destas armadilhas e possíveis técnicas para minimizar seus efeitos: A armadilha da âncora: apegar-se demasiado à primeira idéia. “Ao refletir sobre uma decisão, a mente dá relevância demasiada à primeira informação que recebe. Impressões, idéias, estimativas ou dados iniciais funcionam como” âncora “para a reflexão subseqüente”.(HAMMOND, KEENEY e RAIFFA, 1999, pg.171) O indivíduo que faz a projeção toma como base um determinado número histórico para o qual atribui peso demasiado e este passa a funcionar como âncora, impedindo que o responsável pelas estimativas considere com a devida importância outros fatores.Principalmente em situações caracterizadas por mudanças repentinas, a âncora histórica é capaz de levar a previsões insatisfatórias e, por sua vez, a escolhas mal orientadas. (HAMMOND, KEENEY e RAIFFA, 1999) Este tipo de armadilha é muito comum na projeção de fluxos de caixa. Hammond, Keeney e Raiffa (1999), sugerem a utilização das seguintes técnicas como forma de reduzir o impacto da influência do efeito das âncoras, posto que eliminá-lo é impossível: ! Observar sempre uma questão através de diferentes perspectivas. Tentar utilizar pontos de partida e métodos alternativos, em vez de se agarrar e permanecer com a primeira linha de pensamento que ocorrer. 21 ! ! ! ! Após explorar vários caminhos, ajustar quaisquer diferenças nas implicações que eles trazem. Pensar sobre o problema a decidir por si próprio antes de consultar os outros, evitando assim as âncoras que as idéias alheias possam representar. Buscar informação e opiniões com uma variedade de pessoas, para expandir a base de referência, e levar a mente em novas direções. Ser cuidadoso para não fornecer âncoras àqueles de quem solicita informação e aconselhamento. Informe-os o mínimo possível sobre suas idéias, estimativas e decisões provisórias. Se você falar demais, pode simplesmente receber de volta seus próprios conceitos anteriores (que a essa altura se tornaram âncoras para seu conselheiro). Preparar-se bem antes de negociar. Assim ficará menos suscetível a táticas que o ancoram. A armadilha do satus quo: manter o que vem sendo feito. “A maior parte dos agentes de decisões exibem firme predisposição no sentido de alternativas que perpetuem a situação vigente”.(HAMMOND, KEENEY e RAIFFA, 1999, pg.172) Hammond, Keeney e Raiffa (1999), lembram que a manutenção da ordem vigente pode verdadeiramente ser a melhor escolha, mas esta não deve ser escolhida simplesmente por ser a ordem vigente. Apresentam ainda Hammond, Keeney e Raiffa (1999), as seguintes técnicas para redução ao apelo da manutenção do status quo: ! ! ! ! ! ! Relembrar sempre seus objetivos, e examinar de que modo seriam eles atendidos pela situação atual. Talvez se descubra que os elementos da situação vigente são incompatíveis com aqueles objetivos. Nunca pensar no status quo como única alternativa. Identificar outras opções e utiliza-as como contrapesos, avaliando com cautela os prós e contras. Analisar se a preferência persistiria caso a alternativa da situação presente não fosse o status quo. Evitar exagerar o esforço ou o custo envolvido em alterar a ordem vigente. Testar rigorosamente a situação atual. Não comparar simplesmente pelo que é contra o que as alternativas seriam. A realidade pode também se modificar, juntamente com o status quo. Se várias alternativas forem claramente superiores à ordem estabelecida, não decidir manter tudo como está pelo fato de que escolher a melhor alternativa representaria grande esforço. Obrigue-se a escolher uma. A armadilha do capital empatado: proteger decisões já tomadas “Tendemos a fazer escolhas de modo a justificar decisões anteriores, ainda que estas já não pareçam mais válidas”.(HAMMOND, KEENEY e RAIFFA, 1999, pg. 174) As decisões passadas criam “custos afundados” – investimento 22 de tempo ou dinheiro que são irrecuperáveis. Tais custos são irrelevantes para a decisão presente. Ou como nos lembram Hammond, Keeney e Raiffa (1999): “As decisões somente influenciam o futuro, não o passado”.(HAMMOND, KEENEY e RAIFFA, 1999, pg. 174) Estimando probabilidades subjetivas Clemen e Reilly (2001) apresenta três métodos básicos de estimar probabilidades subjetivas: No primeiro método o decisor simplesmente, avalia diretamente respondendo a pergunta: qual a sua expectativa quanto à probabilidade do evento ocorrer? O segundo método consiste em perguntar sobre as apostas que o decisor estaria inclinado a fazer. A idéia é encontrar uma quantia específica para ganhar ou perder tal que o decisor esteja indiferente às apostas considerando que o valor esperado destas é o mesmo. Dadas estas condições é possível encontrar uma probabilidade. Supõe-se um jogo entre duas equipes (A e B) e admite-se que o decisor seja indiferente a qualquer uma das seguintes apostas: Aposta 1: Ganha $X se A ganhar Perde $Y se A perder Aposta 2: Perde $X se A ganhar Ganha $Y se A perder Bahia Ganha X Aposta no Bahia Bahia Perde -Y Bahia Ganha -X Aposta contra o Bahia Bahia Perde Y Figura 13 - Árvore de decisão representativa da estimativa da probabilidade subjetiva via o método da aposta. (CLEMEN e REILLY, 1996) As apostas 1 e 2 são simétricas. São lados opostos da mesma aposta. Se o decisor é indiferente entre as apostas 1 e 2, então, no seu julgamento, os valores esperados devem ser iguais: X × P( A Ganhar ) − Y × [1 − P( A Ganhar )] = − X × P( A Ganhar ) + Y × [1 − P( A Ganhar )] Que implica em: 2{X × P( A Ganhar ) − Y × [1 − P( A Ganhar )]} = 0 dividindo por 2 e expandindo: 23 X × P( A Ganhar ) − Y + Y × P( A Ganhar ) = 0 ⇒ ( X + Y ) × P( A Ganhar ) − Y = 0 ⇒ P( A Ganhar ) = Y X +Y O enfoque da aposta para estimar probabilidades, apresenta alguns problemas: primeiramente, muitas pessoas, simplesmente não gostam da idéia de aposta. Para estas pessoas o enfoque pode ser inadequado. As maiorias das pessoas são avessas ao risco. Portanto as apostas devem considerar pequenas quantias para que a questão da aversão ao risco não interfira. Finalmente o enfoque da aposta também presume que fazendo a aposta individualmente não pode fazer outras apostas no evento específico, ou em eventos relacionados. Ou seja, não é possível se proteger de perdas (hedging). O terceiro método adota como estratégia um experimento de reflexão, no qual o decisor compara dois jogos de loteria cada qual com um prêmio diferente. Prêmio Vitória Ganha 80,0% Vitória Perde 20,0% 1 Mês de Férias no Havaí Loteria 1 P 80,0% 1 Cerveja 1 Mês de Férias no Havaí Loteria 2 (loteria de referência) (1-P) 20,0% 1 Cerveja Figura 14 - Árvore de decisão representativa da estimativa da probabilidade subjetiva via o método da loteria. (CLEMEN e REILLY, 1996) 5.12. Principais críticas ao método de Monte Carlo Em um artigo publicado, no Journal of Financial Planning, em novembro de 2001, David Nawrocki Ph.D., professor de finanças da Universidade de Villanova na Pennsylvania critica duramente o emprego da simulação de Monte Carlo em finanças, afirmando que: Simulação de Monte Carlo na melhor das hipóteses e muito difícil de implementar e na pior pode levar a decisões incorretas. Segundo Nawrocki, o problema reside basicamente no conjunto de premissas tipicamente adotado na SMC, que assume distribuições normais e coeficientes de correlação zero, premissas essas que não são representativas dos mercados financeiros (NAWROCKI, 2001). Em seu artigo Nawrocki referencia autores como Lewellen e Long (1972), Philippatos (1973), Myers (1976) e Rubinstein (1981), cujos trabalhos também 24 questionam a eficácia prática do método, devida à grande dificuldade de estabelecer distribuições de freqüência das variáveis, bem como as correlações serial e entre-variáveis. Ainda segundo Nawrocki, Rubinstein estabeleceu os critérios que definiriam quando é apropriado usar a simulação de Monte Carlo. Os quais seriam: • A impossibilidade ou custo excessivo par obtenção de informações • O sistema observado é muito complexo • É muito difícil obter uma solução analítica • É impossível ou extremamente custoso validar matematicamente os experimentos 6. O Apoio Computacional na Simulação Com o surgimento dos computadores digitais por volta de 1950 e 1960, iniciouse a programação computacional utilizando as linguagens FORTRAN para simulações mais complicadas. Outros programas com o mesmo propósito surgiram (GPSS, SIMSCRIPT, SLAM e SIMAN) facilitando os processos de simulação. (KELTON, SADOWSKI e SADOSKI, 1998) Atualmente diversos aplicativos (softwares) de simulações estão disponíveis no mercado, a exemplo de: Crystal Ball da Decisoneering, @ Risk da Palisade Corporation e o Xlsim. Todos acessíveis do ponto de vista tecnológico e econômico, podendo ser utilizados em computadores pessoais com ótimas performances. Com algumas variações estes softwares possuem no mínimo as seguintes características: • Simulação de Monte Carlo - Calcula múltiplos cenários de um modelo em planilha, automaticamente; • Conjunto de distribuições de probabilidades – Permite transformar as variáveis determinísticas em probabilísticas; • Gráficos das projeções – Mostra o resultado das simulações; • Análise de sensibilidade e gráfico Tornado – Identifica as variáveis de entrada mais críticas e apresenta suas correlações com as variáveis de saída; • Rotina de ajuste de distribuições – a partir de uma seríe de dados realiza testes de aderência a fim de definir qual a distribuição que mais se ajusta à série; • Correlações – Modela dependências entre incertezas de variáveis de entrada; • Gerador de relatórios e gráficos - Geram relatórios estatísticos com dados e gráficos dos resultados e das premissas adotadas; • Controle de precisão - Controla o nível de confiança dos resultados O surgimento destes softwares e de máquinas com alta performance, capazes de processarem rapidamente milhares de simulações e acumularem os resultados destas interações, a alta velocidade e a um custo relativamente baixo foi fator determinante para viabilizar a aplicação da Simulação de Monte Carlo em um grande número de situações do dia a dia. 25 Referências ANDRADE, Eduardo L. Introdução a Pesquisa Operacional. 2 ed. Rio de Janeiro: LTC, 2000. BRUNI, Adriano Leal; FAMA; Rubens; SIQUEIRA; José de Oliveira. Análise do risco na avaliação de projetos de investimento: uma aplicação do método de Monte Carlo. In Caderno de pesquisas em Administração. São Paulo V.1 n° 6 1° trim./98. BRUTSHER, Sônia M. Análise de Investimentos e Projetos. Brasília. EdUNB, 1999. CASAROTTO Filho, Nelson; KOPITTKE, Bruno H. Análise de investimentos. 9ed. São Paulo: Atlas, 2000. CLEMEN, Robert T.; REILLY, Terence. Making hard decisions with nd DecisionTools 2 rev. ed. USA, Duxbury, 2001. COPELAND, Tom E.; ANTIKAROV, Vladimir. Opções Reais: um novo paradigma para reinventar a avaliação de investimentos. Tradução de Maria José Cyhlar. – Rio de Janeiro: Campus, 2001 CURRY, Renwick E. The Problems with “ The Problems with Monte Carlo Simulation” 2002. DAMODARAN, Aswath – Finanças Corporativas Aplicadas – Manual do Usuário. Tradução Jorge Ritter.- Porto Alegre: Bookman, 2002. DAMODARAN, Aswath; BERNSTEIN, Peter L. Administração de Investimentos. Tradução: Cyro C. Patarra e José Carlos Barbosa dos santos. – Porto Alegre: BookMan, 2000. DANTAS, Antonio. Análise de Investimentos e Projetos. Brasília. EdUNB, 1996. EVANS, JAMES R.; OLSON, DAVID L.. Introduction to Simulation and Risk Analysis. Prentice Hall, Upper Saddle River, , New Jersey - 1998. FISHMAN, George S. Monte Carlo – Concepts, Algorithms and applications. – USA: Springer, 1996 GREY, Stephen. Practical Risk Assessment for Project Management. England: John Wiley & Sons Ltd., 1995. HAMMOND, John S.; KEENEY, Ralph L.; RAIFFA, Howard. Decisões Inteligentes: como avaliar alternativas e tomar a melhor decisão; tradução de Marcelo Filardi Ferreira. – Rio de Janeiro: Campus, 1999. HERTZ, David B. Risk Analysis in Capital Investment republished in Harvard Business Review, september – october, 1979. INGALLS, Ricki G. Introduction to simulation. Proceedings of the 2002 Winter Simulation Conference. KELTON, W.; SADOWSKI, R.; SADOWSKI, D. Simulation with Area. McGrawHill,1998. KOLLER, Glenn R. Risk modeling for determining value and decision making. Washington, D.C.: Chapman & Hall/CRC, 2000. LAPPONI, Juan Carlos Projetos de investimento: construção e avaliação do fluxo de caixa: modelos em Excel. São Paulo: Laponni Treinamento e Editora,2000. MOTTA, Regis da Rocha; CALÔBA, Guilherme Marques. Análise de Investimentos – Tomada de decisão em projetos industriais. – São Paulo: Atlas, 2002. MURTHA, Jim. Risk Analysis for the Oil Industry. USA, HARTS E&P, 2001. NAWROCKI, David The problems with Monte Carlo Simulation. in Journal of Financial Planning; Vol. 14 issue: 11, pgs. 92-103 [Acesso em: 28 de janeiro de 2002] Disponível na World Wide Web :<http: //proquest.umi.com/pqdweb> 26 NERSESIAN, Roy L. @Risk 4.0 Bank Credit Analysis. USA: Palisade Corporation, 2000. PILANA, Sabri. History of Monte Carlo Method, 2000.[Acesso em 05/01/01 Disponível na World Wide Web em < http://.geocities.com/collegePark/quad/2435/history.html> RAPPAPORT, Alfred; MAUBOUSSIN, Michael J. Análise de Investimentos – Como transformar incertezas em oportunidades lucrativas. Tradução: Maria José Cylhar Monteiro. Rio de Janeiro: Campus, 2002. RIGOLON, Francisco José Zagari. Opções Reais e Análise de Projetos. Rio de Janeiro: BNDES, 1999. (Texto para discussão, 66) ROSS, Stephen A. ; WESTERFIELD, Randolph W. E JORDAN, Bradford D.. Princípios de Administração Financeira; tradução Antonio Zoratto Sanvicente. – São Paulo: Atlas, 1998. SÁ, Geraldo Tosta de. Administração de investimentos: Teoria de carteiras e gerenciamento do risco; supervisão técnica, Eduardo Fortuna. – Rio de Janeiro: Qualitymark Ed., 1999. SAVAGE,Sam. Statistical Analysis For The Masses published in Statistics and Public Policy, edited by Bruce Spencer, Oxford University Press, 1996. SECURATO, José Roberto Decisões financeiras em contexto de risco. São Paulo: Atlas, 1993 SHIMIZU, Tamio. Decisão nas organizações: introdução aos problemas de decisão encontrados nas organizações e nos sistemas de apoio à decisão. São Paulo: Atlas. 2000. STEVENSON, William J. Estatística aplicada à administração; tradução Alfredo Alves de Farias. – São Paulo Harper & Row do Brasil, 1981 TVERSKY, Amos; KAHNEMAN, Daniel. Judgment under Uncertainty: Heuristics and Biases. Science, New Series, Volume 185, Issue 4157, 1974. WINSTON L. Wayne. Financial Models Using Simulation and Optimization – A step-by-step guide guide with Excel and Palisade’s Decision Tools Software NY USA: Palisade Corporation, 1998