CLEYSSON RIBEIRO VIEIRA MODELOS VAR E A NOVA FÓRMULA DA EXIGÊNCIA DE CAPITAL DA CARTEIRA TRADING: UMA ANÁLISE NO MERCADO BRASILEIRO Dissertação apresentada ao Programa de Pós-Graduação Stricto Sensu em Economia de Empresas da Universidade Católica de Brasília, como requisito parcial para obtenção do título de Mestre em Economia. Orientador: Prof. Dr. Osvaldo Candido da Silva Filho Brasília Março de 2011 AGRADECIMENTOS Gostaria de agradecer a todos que colaboraram para a conclusão deste curso de Mestrado em Economia, especialmente: - a Deus e a Oshieoyá-Samá pela proteção, força e inspiração proporcionadas; - à minha família, pelas virtudes e ensinamentos transmitidos e apoio durante minha vida estudantil; - à minha noiva Carla, pela compreensão e carinho em todos os momentos; - à Caixa Econômica Federal por acreditar na capacitação de seus empregados; - aos professores da Universidade Católica de Brasília, e principalmente aos professores Dr. Osvaldo Candido e Dr. Benjamim Tabak, que me orientaram neste trabalho. “Perhaps when a man has special knowledge and special powers like my own, it rather encourages him to seek a complex explanation when a simpler one is at hand”. Sherlock Holmes (Arthur Conan Doyle) “Risk is like water looking for the weak seam to flow through and produce a leak. Water is not being an evil conscious entity, that is just the nature of water. And that is the nature of risk as well. It will adapt and change and will find the cracks in your risk management system”. Dave Ingram RESUMO Referência: VIEIRA, Cleysson Ribeiro. Modelos VaR e a nova fórmula da exigência de capital da carteira trading: uma análise no mercado brasileiro. 90p. Dissertação de Mestrado em Economia de Empresas – Universidade Católica de Brasília, Brasília, 2011. Neste trabalho, tendo em vista a mudança na fórmula de cálculo da exigência de capital da carteira trading trazida pelo conjunto de alterações no arcabouço regulamentar motivadas pela crise do subprime e o início do processo de autorização para uso de modelos internos no Brasil, simulamos uma carteira trading composta de títulos públicos, ações e moedas baseada no perfil de portfólio dos principais bancos em operação no Brasil com o objetivo de analisarmos duas questões intimamente interligadas: (i) a acurácia dos modelos Valor em Risco (VaR) utilizados por esses bancos no cálculo do risco de mercado e (ii) a suficiência da nova regra em suportar perdas reais e hipotéticas do portfólio. Encontramos que apesar dos modelos VaR, em geral, subestimarem o risco, as alocações de capital geradas por esses modelos, quando usamos a nova fórmula, foram excessivamente conservadoras em todos os testes realizados. Adicionalmente, propomos duas modificações na regra dessa exigência de modo a torná-la menos punitiva aos bancos, mas sem perda da confiabilidade. Palavras chave: Exigência de capital; Value at Risk; Carteira Trading; Acordos de Basileia. Códigos JEL: G01; G21; G38. ABSTRACT Reference: VIEIRA, Cleysson Ribeiro. VaR Models and the new capital requirement formula for trading portfolio: a Brazilian market analysis. 90p. Dissertation of Master Science in Economics – Catholic University of Brasilia, Brasilia, 2011. Taking in account the new capital requirement formula for banks’ trading portfolio, which has arisen in the set of regulatory rules changes driven by the subprime crisis and the recent permission to Brazilian banks use internal models in computing capital requirements, we simulated a trading portfolio, composed by government bonds, stocks and currencies, based on Brazilian banks’ profile of trading portfolio in order to assess two closely related issues: (i) the accuracy of Value at Risk (VaR) models used by banks to compute market risk and (ii) the adequacy of the new rule to bear real and hypothetical portfolio losses. We found despite of VaR models, in general, underestimate market risk, the capital charge generated by these models, when the new capital requirement formula is used, has shown overly conservative in all performed tests. Additionally, we propose two modifications on the capital requirement formula which turns it less punitive and still reliable. Keywords: Capital Requirement; Value at Risk; Trading Portfolio; Basel Accords. JEL Codes: G01; G21; G38. SUMÁRIO 1. INTRODUÇÃO ............................................................................................................ 11 2. A CRISE DO SUBPRIME E O ACORDO DE BASILEIA ........................................... 14 3. 4. 5. 6. 2.1. Relembrando a crise do subprime........................................................................... 14 2.2. Evolução da Regulação Bancária ........................................................................... 19 2.3. Cálculo da parcela de capital para risco de mercado ............................................... 22 RISCO DE MERCADO E MODELOS VAR ................................................................ 27 3.1. O que é Valor em Risco? ....................................................................................... 27 3.2. Parâmetros Gerais .................................................................................................. 29 3.2.1. Horizonte temporal ......................................................................................... 29 3.2.2. Nível de confiança .......................................................................................... 29 3.2.3. Período histórico dos dados............................................................................. 30 3.3. Delta Normal ......................................................................................................... 30 3.4. Simulação Histórica ............................................................................................... 36 3.5. Monte Carlo ........................................................................................................... 38 MÉTODOS DE AVALIAÇÃO DOS MODELOS VAR ............................................... 43 4.1. Teste Regulamentar de Basileia ............................................................................. 43 4.2. Teste de Kupiec ..................................................................................................... 45 4.3. Teste de Christoffersen .......................................................................................... 46 4.4. Testes de Estresse .................................................................................................. 49 4.4.1 Teste de Estresse Histórico ............................................................................. 50 4.4.2 Cenários ......................................................................................................... 52 CARTEIRA TRADING ................................................................................................. 53 5.1 Preços e Taxas ....................................................................................................... 55 5.2 Mapeamento em Fatores de Risco e Vértices ......................................................... 55 ANÁLISE DOS RESULTADOS .................................................................................. 60 6.1 Estatística Descritiva dos Retornos......................................................................... 60 6.2 Contagem das Violações ........................................................................................ 61 6.3 Teste Regulamentar de Basileia ............................................................................. 64 6.4 Teste de Kupiec ..................................................................................................... 66 7. 6.5 Teste de Christoffersen .......................................................................................... 67 6.6 Testes de Suficiência da Exigência de Capital ........................................................ 69 6.6.1 Crise do Subprime........................................................................................... 70 6.6.2 Análise de Cenários de Estresse ...................................................................... 74 6.6.3 Uma Nova Proposta para a Exigência de Capital ............................................. 79 CONSIDERAÇÕES FINAIS ........................................................................................ 84 REFERÊNCIAS .................................................................................................................. 88 LISTA DE FIGURAS Gráfico 1 – Evolução do Índice de Preços dos Imóveis nos EUA de 1987 a 2010 Gráfico 2 – Análise da Distribuição Empírica dos Retornos Gráfico 3 – Composição da Carteira de Renda Fixa por Indexador (Posição de Fechamento) Gráfico 4 – Distribuição Média entre os Vértices dos Ativos Prefixados (2005 a 2010) Gráfico 5 – Distribuição Média entre os Vértices dos Ativos Indexados ao IPCA (2005 a 2010) Gráfico 6 – Distribuição Média entre os Vértices dos Ativos Indexados à SELIC (2005 a 2010) Gráfico 7 – Evolução do VaR Simulação Histórica e do P/L da Carteira durante a Crise do Subprime Gráfico 8 – Evolução do VaR Delta Normal e do P/L da Carteira durante a Crise do Subprime Gráfico 9 – Evolução do VaR Monte Carlo e do P/L da Carteira durante a Crise do Subprime Gráfico 10 – Avaliação dos Modelos VaR no Teste Regulamentar de Basileia Gráfico 11 – Valor do Adicional de Backtesting (Abkt) para os Modelos VaR Gráfico 12 – Avaliação dos Modelos pelo Teste de Kupiec Gráfico 13 – Valor do S2 Móvel X Razão da Volatilidade Gráfico 14 – PRM Após Modificações na Regra (Teste do Subprime) Gráfico 15 – PRM Após Modificações na Regra (Cenários) LISTA DE TABELAS Tabela 1 – Principais Eventos nos Mercados Financeiros durante a Crise do Subprime Tabela 2 – Valor do Adicional de Backtesting Tabela 3 – Quantidade de Dias de Retornos que Influenciam a Estimação do VaR pela Metodologia EWMA para Diferentes Fatores de Decaimento Tabela 4 – Zonas do Teste Regulamentar de Basileia (Cobertura: 99%, 250 dias) Tabela 5 – Regiões de Não Rejeição do Teste de Kupiec Tabela 6 – Mapeamento dos Fluxos de Pagamentos dos Ativos de Renda Fixa em Vértices Tabela 7 – Estatísticas Descritivas dos Retornos da Carteira nos Períodos de Análise Tabela 8 – Violações Acumuladas pelos Modelos VaR nos Períodos de Análise Tabela 9 – Resultado do Teste de Christoffersen para o Período Pré-Crise Tabela 10 – Resultado do Teste de Christoffersen para o Período da Crise Tabela 11 – Resultado do Teste de Christoffersen para o Período Pós-Crise Tabela 12 – Resultado do Teste de Christoffersen para a Amostra Completa Tabela 13 – PRM pelo Modelo de Simulação Histórica em 26/09/2008 Tabela 14 – PRM pelo modelo DN EWMA (0,94) em 26/09/2008 Tabela 15 – PRM pelo modelo DN Variância Amostral em 26/09/2008 Tabela 16 – PRM pelo modelo DN Híbrido em 26/09/2008 Tabela 17 – PRM pelo modelo Monte Carlo em 26/09/2008 Tabela 18 – Avaliação da PRM pelo modelo Simulação Histórica em 01/07/2010 Tabela 19 – Avaliação da PRM pelo modelo DN EWMA (0,94) em 01/07/2010 Tabela 20 – Avaliação da PRM pelo modelo DN Variância Amostral em 01/07/2010 Tabela 21 – Avaliação da PRM pelo modelo DN Híbrido em 01/07/2010 Tabela 22 – Avaliação da PRM pelo modelo Monte Carlo em 01/07/2010 10 LISTA DE SIGLAS E ACRÔNIMOS Abkt – Adicional de Backtesting Aqlt – Adicional Relativo à Avaliação Qualitativa do BACEN BACEN – Banco Central do Brasil BIS – Banco de Compensações Internacionais CDO – Collateralised Debt Obligations (Obrigações de Dívida Colateralizadas) CVaR – Conditional Value at Risk (Valor em Risco Condicional) DN – Modelo Delta Normal EWMA – Exponencial Weighted Moving Average (Média Móvel Exponencialmente Ponderada) MC – Simulação de Monte Carlo PEPR – Parcela de Referente às Exposições Ponderadas ao Risco POPR – Parcela de Risco Operacional PRE – Patrimônio de Referência Exigido PRM – Parcela de Risco de Mercado S1 – fator de transição do modelo padronizado S2 – fator de transição do sVaR SH – Simulação Histórica SIV – Structured Investment Vehicles (Veículos de Investimento Estruturado) sVaR – stressed Value at Risk (Valor em Risco Estressado) VaR – Value at Risk (Valor em Risco) 11 1. INTRODUÇÃO Desde 2004, o Comitê de Supervisão Bancária do Banco de Compensações Internacionais (BIS) por meio do documento International Convergence of Capital Measurement and Capital Standards, conhecido como Basileia II, tem concedido às instituições financeiras, desde que permitida pelas autoridades monetárias dos países participantes do acordo, a possibilidade do uso de modelos internos para cálculo da exigência de capital para cada parcela de risco (crédito, operacional e mercado), que até então somente era feito por cálculo padronizado e definido pelos bancos centrais. Esse capital é exigido dos bancos pelos reguladores a fim de diminuir o risco de possíveis quebras em momentos de crise, evitando o contágio e a ruptura do sistema financeiro, oferecendo maior segurança à poupança dos agentes depositada nessas instituições. Após a crise do subprime, quando as carteiras trading1 de diversas instituições financeiras foram fonte de importantes e, em alguns casos, irreversíveis perdas, foi realizada uma série de alterações nas regulamentações de Basileia, que está sendo chamada de Basileia III. Em termos práticos, essas modificações trazem novas e duras exigências econômicas para os bancos ao elevar e diferenciar os graus patrimoniais a serem exigidos e, também, ao criar novos conceitos para a preservação de acionistas e correntistas. No tocante à gestão do risco de mercado, especificamente, a principal alteração foi o aumento do montante de capital a ser alocado pelos bancos que desejem utilizar os seus modelos internos de Valor em Risco (VaR) para calcular a parcela de risco de mercado, que é a exigência de capital da carteira de negociação. Esse incremento deu-se por meio da inclusão do conceito de Valor em Risco Estressado (sVaR) na fórmula do requerimento. Em julho de 2009, com a publicação da Circular 3.478, o BACEN estabeleceu os critérios e o cronograma para o processo de autorização do uso de modelos internos para risco de mercado no Brasil, instituindo que a partir do dia 30 de junho de 2010 os bancos podem requerer essa permissão. O órgão regulador brasileiro adotou integralmente as recomendações de Basileia, confirmando a inclusão do sVaR. Apesar do Brasil já adotar um modelo conservador para o cálculo padronizado, estima-se que essa inclusão elevará consideravelmente a alocação de capital por parte dos bancos, levando a discussões sobre a 1 De acordo com a Resolução 3.464/07 do Conselho Monetário Nacional, a carteira trading ou carteira de negociação consiste em todas as operações com instrumentos financeiros e mercadorias, inclusive derivativos, detidas com intenção de negociação ou destinadas a hedge de outros elementos da carteira de negociação, e que não estejam sujeitas à limitação da sua negociabilidade. 12 viabilidade de se utilizar os modelos internos, já que um elevado percentual da carteira trading seria exigido como colchão contra crises. Reconhecendo o possível impacto dessas mudanças, a Circular BACEN 3.498/10 modificou a norma anterior estabelecendo a introdução progressiva do sVaR com um fator gradual de incorporação que vai de zero a um até 30 de junho de 2012. Este cenário, que inclui a nova fórmula para o cálculo do requerimento de capital e a possibilidade de uso de modelos internos pelas instituições financeiras brasileiras para cômputo desse requerimento, motivou a realização deste estudo, que objetivou avaliar dois aspectos: primeiro, se as abordagens VaR utilizados pela indústria bancária brasileira para mensurar o risco de mercado são precisos o bastante para medir adequadamente a volatilidade dos ativos brasileiros e segundo, se a nova fórmula para a exigência gera requerimento de capital suficiente para cobrir as perdas da carteira trading em situações extremas dos mercados, independentemente da metodologia VaR utilizada. Apesar das constantes inovações e melhorias nos modelos VaR no mundo acadêmico, em consulta ao site dos principais bancos brasileiros, pode-se verificar que eles ainda utilizam os modelos clássicos de cálculo do VaR, como a metodologia da RiskMetrics™, a Simulação Histórica e a Simulação de Monte Carlo. Nesse contexto, discutimos e avaliamos a acurácia desses modelos no período de 2005 a 2010. Para isso, foi simulada uma carteira de negociação baseada nas carteiras trading dos grandes bancos que operam no Brasil. Essa carteira foi composta de títulos públicos, ações e moedas, principais ativos encontrados nesses portfólios. Para avaliar as abordagens de cálculo do VaR, foram aplicados o teste regulamentar de Basileia, o teste de Kupiec (1995) e o teste de cobertura condicional de Christoffersen (1998) para quatro períodos distintos: pré-crise (considerado neste trabalho de janeiro de 2005 a junho de 2007), crise do subprime (julho de 2007 a dezembro de 2008), pós-crise (janeiro de 2009 a junho de 2010) e a amostra completa de janeiro de 2005 a junho de 2010. Com vistas a abordar o segundo ponto desta pesquisa, utilizamos os mesmos portfólio e modelos VaR supracitados para avaliar o grau de conservadorismo da nova regra de cálculo do requerimento de capital da carteira trading. O primeiro teste consistiu em calcular pelas três técnicas, a parcela de risco de mercado, pela nova regra, que o banco fictício incorreria no dia imediatamente anterior ao pior período de 21 dias de perdas para a sua carteira durante a 13 crise do subprime, avaliando se a nova fórmula demandaria alocação suficiente para suportar a desvalorização que os ativos sofreriam nos 21 dias subsequentes. Um teste complementar foi realizado com a carteira na posição 1º de julho de 2010, quando os mercados estavam presenciando baixa volatilidade e os modelos VaR encontravam-se em patamares mais baixos em relação ao teste anterior, o que poderia gerar uma exigência de capital menor e menos confiável. Foram conduzidos testes de estresse históricos e simulação de cenários prospectivos para avaliar se a alocação estimada por meio de cada metodologia VaR seria suficiente para cobrir as perdas caso essas diversas situações ocorressem naquela data. A partir dos resultados encontrados, que demonstraram excessivo conservadorismo da regra atual da exigência, propôs-se duas modificações no cálculo da parcela de risco de mercado a fim de reduzir o montante de capital requerido, verificando sua adequação pelos mesmos testes descritos nos parágrafos anteriores. Este trabalho foi organizado da seguinte forma: na próxima seção, foi feita uma explanação da crise do subprime, fato econômico que motivou as mudanças no arcabouço regulamentar, mostramos a evolução dos Acordos de Basileia até se chegar em Basileia III e detalhamos o cálculo da parcela de risco de mercado da exigência de capital. Na seção 3, discutimos as definições de risco de mercado e a sua medida mais utilizada, o VaR. Na seção 4, abordamos os métodos utilizados para avaliar a acurácia desses modelos e a metodologia dos testes de estresse utilizados nos testes de suficiência da exigência de capital e na sequência, estão delineados os critérios para escolha dos ativos da carteira simulada e para o mapeamento desses em fatores de risco. Os resultados estão condensados na seção 6, e finalmente, algumas considerações finais são apresentadas. 14 2. 2.1. A CRISE DO SUBPRIME E O ACORDO DE BASILEIA Relembrando a crise do subprime A última grande crise financeira atravessada pelas grandes economias, que teve origem no mercado de hipotecas norte-americano e ficou apelidada de crise do subprime foi a grande motivadora das novas diretrizes postas por Basileia para a regulação do setor financeiro. Segundo Resende (2009), há duas grandes vertentes, de certa forma complementares, que analisam as raízes da crise. A primeira enfatiza a deficiência do quadro regulatório. Tal imperfeição teria levado aos excessos de alavancagem incorridos pelo sistema financeiro mundial e viabilizados pela explosão de engenhosidade, com a criação de produtos e derivativos financeiros complexos, que surgiu da transformação de um sistema financeiro baseado no relacionamento para um sistema de transações de mercado. A segunda vertente cita os grandes desequilíbrios macroeconômicos internacionais. Para esta vertente, o crescimento impulsionado exclusivamente pelo aumento do consumo dos países centrais não teria como sustentar-se por um período prolongado. Nestes países, o crescimento demográfico é baixo ou mesmo nulo, a pirâmide demográfica é invertida e o padrão de vida já é muito elevado. Manter o alto crescimento da demanda interna depende, simultaneamente, da capacidade de criar novas necessidades de consumo e da possibilidade de expandir os mecanismos de financiamento para famílias cada vez mais endividadas. De fato, o eixo da crise está ligado à inclusão no mercado hipotecário daquele segmento de agentes econômicos que, pelas normas de concessão de crédito das instituições privadas e públicas, não tinham condições de arcar com as parcelas de seus respectivos financiamentos – os chamados subprimes (TORRES FILHO, 2008). Sem a inserção desse nicho, o ciclo imobiliário expansionista não teria se sustentado. À medida que as taxas de juros de mercado dos EUA iam caindo e, simultaneamente, os preços dos imóveis continuavam a subir, as famílias que enfrentavam dificuldades podiam liquidar o financiamento hipotecário antigo e adquirir um novo, em geral, a taxas mais atraentes. Entre 1997 e 2006, o mercado imobiliário norte-americano vivenciou um longo período de valorização dos preços dos imóveis, que chegaram a triplicar de valor, conforme 15 gráfico 1. Esse processo foi, em boa medida, impulsionado pelo aumento do crédito imobiliário americano, que esteve apoiado em taxas de juros relativamente baixas. Todavia, as possibilidades de manutenção dessa bolha imobiliária deixaram de existir na medida em que a taxa básica de juros norte-americana foi sendo gradativamente elevada, saindo do patamar de 1% a.a., em maio de 2004, para 5,25% a.a., em junho de 2006. Assim, sem os constantes aumentos no preço dos imóveis, o processo de refinanciamento das hipotecas ficou inviabilizado e, ao mesmo tempo, provocou uma ampliação da inadimplência e das execuções. Gráfico 1 – Evolução do Índice de Preços dos Imóveis nos EUA de 1987 a 2010 250 200 150 100 50 0 Fonte: S&P/Case-Shiller Home Price Index O crescimento do mercado de hipotecas e a securitização dos créditos subprime envolviam uma complexa engenharia financeira, que garantia a viabilidade das operações. O processo se iniciava com a transferência de diferentes contratos de hipotecas para um único fundo de investimentos – o mortgage pool. Esse fundo, por sua vez, emitia cotas (tranches) de classes diferentes. Cada uma possuía uma taxa de retorno proporcional ao seu risco, ou seja, era tanto maior quanto maior fosse o risco assumido por seu cotista. A parcela do fundo de hipotecas que assumiria as primeiras perdas no caso de atrasos ou inadimplência era chamada de patrimônio líquido (equity), mas também era conhecida como “lixo tóxico” (toxic waste) pela dificuldade de ser descartada. Os detentores dessas cotas recebiam, em troca, a taxa de remuneração mais elevada do fundo e serviam, assim, 16 como amortecedores de risco para os demais investidores. Caso os prejuízos viessem a ser superiores ao montante aportado como equity, o excedente passava a ser automaticamente de responsabilidade dos investidores da classe de risco seguinte, no caso a “B”, e assim sucessivamente. As tranches de risco médio eram transferidas a um fundo CDO - Collateralised Debt Obligations (“Títulos Garantidos por Dívidas”), junto com outros títulos de dívida, como recebíveis de cartões de créditos, recebíveis de financiamentos a automóveis, empréstimos estudantis (students loans) e, até mesmo, outros investimentos imobiliários. Segundo Torres Filho (2008), um fundo CDO podia ser composto por direitos sobre milhares de contratos agrupados de diferentes formas, por meio dos mais diversos instrumentos. Com toda essa fragmentação, esperava-se produzir a máxima diluição do risco associado a cada hipoteca individualmente e assim, obter uma carteira que, por sua distribuição estatística, alcançasse melhores classificações de risco comparativamente às dos títulos que lhe deram origem. O Fundo CDO emitia novas séries de títulos com escalonamento semelhante ao mortgage pool. Ainda de acordo com Torres Filho (2008), mediante esse processo, os bancos conseguiam que grande parte das dívidas colocadas no fundo CDO se transformasse em títulos, qualificados pelas agências de classificação, em níveis superiores aos ratings dos ativos que constituíam originalmente o fundo. Dessa forma, os bancos podiam captar recursos a um custo menor no mercado de capitais para financiar essa parte “menos nobre” dos ativos lastreados nas hipotecas subprime. Em relação às tranches de maior risco, resíduo necessariamente produzido em cada uma das etapas do processo de transformação financeira descrito acima, para se obter uma forma menos onerosa de financiá-las, a saída encontrada foi a criação de empresas de investimentos estruturados – as SIV (Structured Investment Vehicles). O único propósito dessas empresas era emitir títulos de curto prazo lastreados nas hipotecas. A maior dificuldade nesse tipo de estruturação era a curta maturidade dos commercial papers, de três ou seis meses, enquanto os ativos que as SIV mantinham em carteira, lastreados nos fluxos de pagamentos futuros dos financiamentos imobiliários, eram de até trinta anos. Todo esse complexo mecanismo financeiro veio abaixo com o esfriamento do mercado imobiliário americano. Após atingir recordes de vendas em 2005, o mercado iniciou uma grande trajetória de queda. Segundo Torres Filho (2008), em meados de 2008, um ano após o início da crise, as vendas trimestrais anualizadas atingiram 5,4 milhões de unidades, queda global de 36,5% no período e no caso dos imóveis novos a redução foi de, aproximadamente, 17 61,5%. Devido à redução na demanda, os preços das residências começaram a ceder a partir de 2007. Com isso, ficou mais difícil renegociar as hipotecas subprime, elevando as taxas de inadimplência e execuções de hipotecas. O acúmulo de prestações em atraso comprometeu inclusive as tranches de menor risco que formavam os fundos CDO. Os investidores correram para resgatar suas aplicações em fundos imobiliários e, simultaneamente, pararam de renovar as aplicações em commercial papers lastreados em ativos emitidos pelas SIV. A conseqüência foi a elevação de suas taxas de captação, indicando problemas de liquidez a curto prazo no sistema financeiro americano. Nestes termos, os grandes bancos americanos e europeus ficaram expostos ao risco imobiliário, uma vez que as SIVs passaram a fazer uso das linhas de crédito que mantinham com essas instituições, transferindo dessa forma parte dos prejuízos. Os bancos passaram a sofrer com a elevação dos seus custos de captação, inclusive nos mercados interbancários. Esse foi o sinal para que os Bancos Centrais interviessem, oferecendo liquidez a taxas mais baixas, mesmo a instituições com carteiras de crédito problemáticas. O quadro a seguir resume alguns fatos importantes que marcaram a crise. Tabela 1 – Principais Eventos nos Mercados Financeiros durante a Crise do Subprime Data Evento Agosto 2007 O BNP-Paribas, maior banco francês, suspende os resgates das quotas de três grandes fundos imobiliários sob sua administração – Parvest Dynamic ABS, BNP Paribas ABS Euribor e BNP Paribas ABS Eonia. Março 2008 FED estende linha de crédito de cerca de US$ 30 bilhões ao JP Morgan Chase para a aquisição do Bear Stearns, que estava em iminente falência. Julho 2008 As agências (privadas) garantidas pelo governo norte-americano – Fannie Mae e Freddie Mac – recebem pacote de ajuda do Tesouro americano que, entre outras ações, contemplava uma injeção de liquidez da ordem de US$ 200 bilhões. Setembro 2008 Lehman Brothers, o quarto maior banco de investimento americano, entra com pedido de concordata na Corte de Falências de Nova York após o anúncio de um prejuízo de US$ 3,9 bilhões no terceiro trimestre de 2008 e da negativa do governo americano em fornecer respaldo financeiro a uma possível operação de compra da instituição. 18 A decisão das autoridades americanas de não prover apoio financeiro ao Lehman Brothers agravou profundamente a crise. Bancos e empresas passaram a ter dificuldades na obtenção de novos recursos e linhas de crédito de curto prazo. Pairavam ainda, preocupações e desconfianças com relação à solvência do sistema bancário norte-americano e seus impactos recessivos sobre o lado real da economia. No dia seguinte à falência do Lehman Brothers, a maior companhia de seguros dos EUA – a American Interegional Group (AIG) – recorreu a um empréstimo do FED no valor de US$ 85 bilhões em função de suas necessidades de liquidez. As implicações sistêmicas que uma possível falência da AIG geraria sobre o já fragilizado sistema financeiro norteamericano levaram a autoridade monetária a realizar a intervenção, modificando sua postura em relação ao caso do Lehman Brothers. O pós-crise foi marcado principalmente pelas incertezas em relação à saúde do lado real das economias, com temores em relação a uma estagnação das principais locomotivas do crescimento mundial. Em resposta, as autoridades monetárias prepararam diversos pacotes de estímulo à economia. Ainda em 2008, o Tesouro americano preparou um pacote no valor de US$ 700 bilhões para a compra dos ativos imobiliários ilíquidos (“podres”) dos bancos, com a intenção de sanear de vez seu sistema financeiro. No entanto, os efeitos esperados das novas medidas não se materializaram, e os mercados ao redor do mundo voltaram a apresentar turbulências. Em certas ocasiões, chegou-se mesmo a um estado de pânico generalizado, com quedas recordes nas principais bolsas de valores do mundo. A partir de setembro de 2009, as preocupações com os riscos decorrentes da fragilidade das instituições bancárias deu lugar à crescente inquietação com a deterioração da situação fiscal em várias economias do mundo (BACEN, 2010). Esse problema com os indicadores de solvência fiscal pode ter sido, em grande parte, consequência do conjunto de medidas de estímulo fiscal e de socorro a bancos que foram adotadas desde o colapso do Lehman Brothers. No Brasil, os anos de 2009 e 2010 marcaram a consolidação da recuperação econômica, estampada nos bons números de crescimento do PIB, geração de emprego, fluxo de capitais estrangeiros e até então, inflação sob controle. Nas grandes economias, entretanto, o momento ainda era de incerteza. Os Estados Unidos têm enfrentado grandes problemas com desemprego e a conta dos pacotes econômicos é retratada no seu elevado e crescente 19 déficit. Na Europa, nações como Espanha, Irlanda e Grécia têm vivido situação fiscal preocupante, com grandes dificuldades de refinanciamento de suas dívidas. A crise do subprime despertou uma enorme preocupação com relação a gestão do risco no sistema financeiro, desencadeando uma onda de estudos e surveys por parte do BIS, dos agentes reguladores, consultorias e associações de profissionais de risco. Como a crise deixou clara a ineficácia do marco regulatório e da gestão de risco que vigoravam até então, essas pesquisas tinham o intuito de redesenhar o próprio gerenciamento de risco e fortalecer o sistema financeiro para futuras crises. No âmbito do marco regulatório 2, verificou-se que o aumento da exigência de capital dos bancos estaria no cerne dessa nova receita para a blindagem do sistema financeiro contra novos estresses. 2.2. Evolução da Regulação Bancária O Comitê de Basileia para supervisão Bancária propôs em 1988 um conjunto mínimo de diretrizes para adequação de capital com o objetivo de garantir a solidez e a estabilidade do sistema bancário por meio do Acordo de Basileia I. Este Acordo estabelecia requerimento de capital apenas para risco de crédito. Em abril de 1993, foi apresentado um conjunto de propostas para construir um modelo padrão para o risco de mercado, com o objetivo de capturar os riscos inerentes às operações advindas da crescente concorrência dentro dos mercados financeiros, ajustando as práticas de administração de risco às permanentes inovações financeiras. Porém, apenas em 1996, o Comitê emitiu o documento Amendment to the Capital Accord to Incorporate Market Risks, conhecido como a “Emenda de 1996” ou, após ter sido implementada, “BIS 98”, que tornou obrigatório a mensuração e a reserva de capital pelas instituições financeiras para cobrir sua exposição ao risco de mercado. No BIS 98, as autoridades permitiram a flexibilidade na modelagem dos muitos componentes de risco mercado para determinar o capital regulatório, em função da complexidade da correta avaliação da exposição a este risco, especialmente no caso de produtos derivativos. E às instituições financeiras mais sofisticadas foi permitido escolher entre os seus próprios modelos VaR – conhecida como “abordagem dos modelos internos” - e o “modelo padrão” proposto pelo próprio BIS – conhecido como “abordagem padronizada”. 2 Na seção 3 fizemos uma discussão mais detalhada sobre as alterações no marco regulatório recomendadas por Basileia III. 20 No Brasil, a partir da publicação da Resolução CMN nº. 2.692/2000, as instituições financeiras implementaram o Modelo Padrão para compor o cálculo do requerimento de capital, ou Patrimônio Líquido Exigido – PLE – necessário para cobertura do risco decorrente da exposição das operações registradas nos demonstrativos contábeis à variação das taxas de juros praticadas no mercado. O cálculo do capital regulamentar para risco de mercado foi incorporado às regras prudenciais pelas Resoluções CMN nº. 2.606/99 e 2.692/00, que contemplavam o requerimento de capital mínimo para risco de câmbio/ouro e taxa de juros, respectivamente. A exigência de capital para taxa de juros se restringia ao risco de taxas de juros préfixadas e a metodologia utilizada foi a de um modelo intermediário entre o padrão e o interno, empregando o conceito de VaR com parâmetros estabelecidos pelo BACEN. Em junho de 2004, o BIS publicou o documento International Convergence of Capital Measurement and Capital Standards, conhecido como Basileia II, que incorporou aos riscos já mensurados no primeiro acordo – crédito e mercado – o capital regulamentar para risco operacional. Entre junho de 2007 e abril de 2008, o BACEN publicou o novo arcabouço regulamentar abrangendo os três pilares de Basileia II: No Pilar I estabeleceu o modelo padronizado por meio da Resolução CMN nº. 3.490/07, e das Circulares BACEN nº. 3.360/07, 3361/07, 3362/07, 3363/07, 3364/07, 3365/07, 3366/07, 3367/07, 3368/07 e 3383/08. Esta regulamentação dispõe sobre a nova metodologia padronizada de apuração da exigência de capital, chamado de Patrimônio de Referência Exigido (PRE). O PRE passou a ser composto de três parcelas distintas: a referente às exposições ponderadas por fator de risco (PEPR), relativa ao risco de crédito, a parcela para risco de mercado (PRM) e a de risco operacional (POPR). Nos Pilares II e III, o BACEN definiu a implementação da estrutura de gerenciamento de risco operacional, por meio da Resolução CMN nº. 3.380/06, e a implementação da estrutura de gerenciamento de risco de mercado, por meio da Resolução CMN nº. 3.464/07. Após a crise do subprime, diversas medidas foram tomadas pelo Comitê de Estabilidade Financeira do BIS com o objetivo de construir um sistema financeiro mais seguro e assegurar sua resiliência em períodos de estresse. 21 Segundo Caruana (2010), a visão do Comitê é de que a promoção da estabilidade financeira requer: 1) regulação prudencial; 2) reconhecimento do papel essencial das políticas macroeconômicas, tanto monetária quanto fiscal e 3) disciplina de mercado. Ainda segundo ele, a crise do subprime revelou uma gama de deficiências relacionadas à governança, gerenciamento de riscos, due diligence, entre outros, que o setor privado precisa tratar. Foi nesse contexto que surgiu o então denominado Basileia III, o pacote de reformas anunciadas de julho a setembro de 2010 pelo BIS, visando: 1. melhorar consideravelmente a qualidade do capital dos bancos; 2. aumentar o nível de capital requerido; 3. reduzir risco sistêmico; 4. considerar tempo suficiente para uma transição suave ao novo regime. Os itens 1 e 2 tratam basicamente da redefinição do capital dos bancos, especialmente a parte do capital do banco que é considerado de alta qualidade e do aumento no nível de capital exigido, como o aumento no requerimento mínimo de capital de 2% (Basileia II) para 4,5%. O terceiro ponto tem dois aspectos importantes: o aspecto pró-cíclico e contra-cíclico. No aspecto pró-cíclico, Basileia III pretende promover a acumulação de reservas em bons tempos que podem ser reduzidas em períodos de estresse. Já o estoque de capital contra-cíclico, que têm sido calibrado entre 0% e 2,5%, seria acumulado durante períodos de rápido crescimento do crédito agregado, caso as autoridades monetárias julgassem que esse crescimento estaria agravando o risco sistêmico. Por outro lado, esse capital poderia ser liberado na diminuição do ciclo. Isso poderia, por exemplo, reduzir o risco de o crédito disponível ser restringido pelos requerimentos de capital regulamentar. A intenção é, assim, atenuar os impactos do sobe-e-desce dos ciclos econômicos. Em relação ao último ponto, a preocupação do Comitê de Basileia é introduzir as reformas de modo que não impeça a recuperação da economia real, que vem sofrendo com o temor de recessão de economias como a dos EUA e China, ainda em conseqüência da crise de 2007. Apesar de Basileia III não introduzir novas diretrizes para o gerenciamento do risco de mercado, em julho de 2009 já haviam sido publicados pelo Comitê de Basileia os documentos Enhancements to the Basel II Framework, Revisions to the Basel II Market Risk Framework e 22 Guidelines for computing capital for incremental risk in the trading book, propondo medidas adicionais para o fortalecimento e maior solidez do mercado financeiro. Os novos documentos, entre outras alterações, incluíram no cômputo da alocação de capital da parcela de risco de mercado o resultado do VaR estressado – sVaR –, que somado ao VaR tradicional forma a PRM calculada por modelos internos. As opiniões a respeito de Basileia III muitas vezes são opostas. De um lado, a preocupação de que as novas regras pesem sobremaneira sob a capacidade dos bancos em conceder crédito, o que seria danoso à recuperação da economia mundial neste período póscrise. De outro, a afirmação de que este é o caminho mais assertivo rumo à solidificação, recuperação e, principalmente, fortalecimento do mercado financeiro internacional. No Brasil, em dezembro de 2009, foi divulgada a Circular BACEN nº. 3.478 que estabeleceu os requisitos mínimos e os procedimentos para o cálculo diário da PRM por meio de modelos internos de risco de mercado, confirmando a inclusão do sVaR na apuração da exigência dos bancos que desejem utilizar seus modelos para esse fim. Contudo, em junho de 2010, por meio da Circular BACEN nº. 3.498, foi introduzido um fator de transição gradual, que retardou para 2012 a incorporação do sVaR no cálculo das parcelas. Dessa maneira, o requerimento de capital para cobrir os riscos de mercado também será substancialmente elevado, alinhado aos princípios de Basileia III descritos. As questões que surgem, entretanto, dizem respeito: 1) à capacidade dos modelos de VaR utilizados pelas instituições financeiras em medir adequadamente o risco da carteira trading e 2) à suficiência da parcela de capital para risco de mercado em cobrir as perdas da carteira em situações extremas do mercado. 2.3. Cálculo da parcela de capital para risco de mercado O BACEN adotou a seguinte fórmula para o cálculo da PRM, a parcela de risco de mercado do PRE: M 60 M 60 PRM t max max VaRt i ,VaRt 1 S 2 max sVaRt i , sVaRt 1 , S1 VPad t 60 i 1 60 i 1 Onde: PRMt = valor diário referente à parcela de risco de mercado, para o dia útil t; 23 VaRt = valor em risco (VaR) do dia útil t, calculado por meio de modelos internos de risco de mercado; sVaRt = VaR estressado do dia útil t, calculado por meio de modelos internos de risco de mercado; M = multiplicador; VPadt = valor diário referente à parcela de risco de mercado calculada conforme modelos padronizados; S1 = fator de transição para modelos internos; S2 = fator de transição para o sVaR. Em relação à fórmula anterior, a inovação recomendada por Basileia e adotada pelo BACEN foi a soma dos resultados do VaR estressado (sVaR) aos do VaR, já existentes na regra anterior. No âmbito dos modelos internos, apesar do BACEN não estabelecer uma metodologia para o cálculo do VaR, ficando a critério da instituição financeira escolher o modelo mais adequado ao perfil de risco da carteira e sujeito à autorização de seu uso pelo regulador, alguns parâmetros para o cálculo devem ser obedecidos, independentemente do modelo utilizado. De acordo com o artigo 8º da Circular BACEN nº. 3.478, o VaR deve ser apurado diariamente, para um intervalo de confiança unicaudal de 99% e período de manutenção (holding period) de, no mínimo, dez dias úteis, adequado ao tamanho da exposição e às condições de liquidez do instrumento. Podem ser utilizados valores de VaR calculados para períodos de manutenção mais curtos, se convertidos para dez dias úteis ou mais. Outra exigência é que os modelos que utilizem base histórica de retornos para o cálculo do VaR, devem utilizar janela de observações de, no mínimo, um ano. É admitida a utilização de períodos históricos de observações menores do que um ano, desde que adequados às características das volatilidades e ao modelo utilizado, e sujeita à avaliação do Supervisor. O VaR estressado (sVaR) deve seguir as mesmas diretrizes do cálculo do VaR, podendo, todavia, ser apurado semanalmente. Seu objetivo é replicar o cálculo do VaR que seria feito em um determinado período histórico de estresse, porém utilizando a carteira atual da instituição. Assim, os parâmetros do modelo devem estar calibrados com dados referentes 24 a um período histórico de doze meses que represente um estresse relevante para o perfil atual da carteira da instituição. A base histórica para seleção do período de estresse deve considerar dados a partir de janeiro de 2004. O multiplicador “M”, utilizado na equação do PRM, corresponde à equação: M 3 Abkt Aqlt Na qual Abkt é o adicional relativo aos testes de aderência e A qlt é o adicional relativo à avaliação qualitativa do banco pelo BACEN. O valor do adicional Abkt deve ser apurado nas datas-base de 31 de março, 30 de junho, 30 de setembro e 31 de dezembro, da seguinte forma: a. Identificação, entre os últimos 250 dias úteis, do número de dias nos quais ocorreram perdas efetivas que excederam o respectivo VaR, considerando o total da carteira, com base em um intervalo de confiança unicaudal de 99% e período de manutenção de um dia; b. Identificação, entre os últimos 250 dias úteis, do número de dias nos quais ocorreram perdas hipotéticas que excederam o respectivo VaR, considerando o total da carteira, com base em um intervalo de confiança unicaudal de 99% e período de manutenção de um dia; c. Considerar o máximo entre os valores identificados nas alíneas a e b, na tabela a seguir: Tabela 2 – Valor do Adicional de Backtesting Máximo de perdas que excederam o VaR Abkt 4 ou menos 0,00 5 0,40 6 0,50 7 0,65 8 0,75 9 0,85 10 ou mais 1,00 Fonte: Circular BACEN 3.478/09 O novo valor determinado para o Abkt deve ser utilizado a partir do 1º dia útil do segundo mês subseqüente às respectivas datas-base. 25 O valor do adicional Aqlt é determinado pelo BACEN, para cada instituição, com base na avaliação dos aspectos qualitativos do modelo interno de risco de mercado e da estrutura de gestão do risco de mercado, assumindo um valor entre zero e um. Os fatores de transição estão assim definidos na Circular BACEN nº 3.498/10, que alterou a Circular BACEN 3.478/09, introduzindo o fator de transição para o sVaR (S 2): “§ 1º O fator S1 corresponde, para os períodos mencionados a seguir, contados a partir do início da utilização do modelo interno de risco de mercado para o cálculo do valor diário referente às parcelas PJUR, PACS, PCOM e PCAM do PRE, aos seguintes valores: I - do 1º ao 365º dia: 0,90 (noventa centésimos); II - do 366º ao 730º dia: 0,80 (oitenta centésimos); III - do 731º ao 1.095º dia: 0,70 (setenta centésimos); e IV - a partir do 1.096º dia: zero. § 2º O fator S2 corresponde, para os períodos mencionados a seguir, aos seguintes valores: I - até 31 de dezembro de 2011: zero; II - de 1º de janeiro de 2012 a 30 de março de 2012: 0,50 (cinquenta centésimos); III - de 31 de março de 2012 a 29 de junho de 2012: 0,75 (setenta e cinco centésimos); IV - a partir de 30 de junho de 2012: 1,00 (um inteiro).” Para que a instituição financeira requeira ao BACEN a autorização para o uso de abordagens internas para o cálculo do PRM da carteira trading, aquela deve cumprir uma série de requisitos tanto qualitativos quanto quantitativos, se submetendo a um criterioso processo de validação tanto interna quanto externa da sua estrutura de gerenciamento de risco de mercado. A efetiva utilização dos modelos internos gera, portanto, um indicativo para o mercado de que o banco tem políticas e estrutura consistentes e compatíveis com a complexidade de seus negócios. Um dos aspectos quantitativos necessários é a definição de um modelo de VaR que mensure corretamente o risco dos instrumentos da carteira. Atualmente, há uma série de metodologias no mercado que se diferenciam nas suas premissas e técnicas utilizadas. As abordagens paramétricas, como a Delta-Normal, assumem que a distribuição dos retornos segue uma normal, enquanto que a abordagem de Simulação Histórica é não-paramétrica e independe da forma como os retornos se distribuem. Dessa forma, as instituições passam pelo problema de definição de um modelo VaR robusto para cálculo da exigência de capital, que mensure corretamente as perdas máximas 26 que a carteira podem sofrer em situações de normalidade e no caso do sVaR, em situações de estresse do mercado. Uma discussão importante também surge com a exigência de que o holding period seja de no mínimo 10 dias úteis, mas que a acurácia do modelo e o cálculo do Abkt devam considerar o horizonte de 1 dia útil. Um dos fatos estilizados dos retornos diários de ativos financeiros é a sua não-normalidade. Entretanto, sabe-se que para horizontes de tempo maiores, esses retornos tendem a se distribuir de maneira mais semelhante à curva normal. Assim, pode acontecer que modelos bons para horizontes iguais ou superiores a 10 dias úteis apresentem desempenho ruim quando avaliados a partir de retornos diários e a um nível de significância tão alto quanto o de 99%. 27 3. 3.1. RISCO DE MERCADO E MODELOS VAR O que é Valor em Risco? As preocupações com o risco de mercado também foram motivadas por acontecimentos do mercado financeiro. O mais famoso deles, aconteceu em fevereiro de 1995, quando o Barings, um banco de investimento do Reino Unido, tornou-se insolvente em conseqüência de perdas em operações com contratos futuros de índice no Japão estruturadas por Nick Leeson. O risco de mercado pode ser definido como a possibilidade de perdas no valor de mercado da carteira de investimento, resultante de mudanças nas condições do mercado, flutuação nos preços dos ativos, taxas de juros, volatilidade de mercado e liquidez (RISKMETRICS, 1996). Em atividades de negociação, o risco surge de posições abertas (sem hedging) e de correlações imperfeitas entre posições de mercado destinadas a se compensarem entre si. A medição desse risco tem mudado ao longo do tempo. Segundo Crouhy et al (2004), ela evoluiu de simples indicadores, como o valor de face ou montante “nocional” de um título individual, passando por medições mais complexas de sensibilidade de preços, como a duration e a convexidade de um título de dívida, até alcançar as mais recentes metodologias de cálculo de Valor em Risco. Duffie e Pan (1997) definem valor em risco, ou simplesmente VaR (sigla do inglês, Value at Risk), como a perda máxima esperada da carteira para um determinado período de tempo e um nível de confiança estabelecido, sob condições normais de mercado. Formalmente, Jorion (2003) expõe que o VaR descreve o percentil da distribuição de retornos projetada sobre um horizonte estipulado. Se dizemos que uma posição tem VaR diário de R$ 10 mil ao nível de confiança de 99%, queremos dizer que as perdas diárias da posição serão maiores do que R$ 10 mil em apenas 1 dia em cada 100 dias de negociação (ou seja, 2 ou 3 dias por ano). O objetivo do VaR é traduzir em um número apenas, todo o risco de mercado de uma instituição, levando em conta os diversos tipos de instrumentos e as respectivas correlações entre eles. 28 Como opção para o cálculo do VaR, Jorion (2003) descreve os métodos de avaliação plena, que calcula o valor da carteira para um espectro grande de níveis de preço, onde os novos valores de preço podem ser gerados por métodos de simulação. Dentre as opções destaca-se a abordagem da simulação de Monte Carlo, que depende de distribuições específicas, e a abordagem da Simulação Histórica, que efetua a tiragem de dados históricos recentes. A primeira das abordagens, e que deu origem ao conceito de VaR, é a metodologia paramétrica desenvolvida pelo RiskMetrics™ (1996) e denominada frequentemente de Delta Normal, e que pela sua facilidade de implementação, se mantêm como uma das mais populares até hoje. Esta técnica assume a distribuição normal para os retornos e calcula o VaR na forma quadrática, utilizando a matriz de covariância dos dados históricos. Entretanto, o VaR não é destinado a oferecer a pior perda possível. O risco presente na cauda da distribuição dos retornos pode trazer sérios problemas práticos em alguns casos. O comportamento na cauda da distribuição dos retornos pode ser analisado por meio de técnicas de testes de estresse ou medidas de tail risk, que devem ser vistas como complemento indispensável ao VaR. Gráfico 2 – Análise da Distribuição Empírica dos Retornos Média Testes de Estresse VaR 100α% Desde o surgimento da exigência de alocação de capital para risco de mercado, onde os bancos passaram a manter, junto à autoridade monetária, capital suficiente para cobrir sua exposição a esse risco, o VaR sempre foi consenso de que seria a medida adequada para calcular o montante a ser alocado. Por outro lado, a utilização de resultados de cenários de 29 estresse para alocação de capital sempre foi rejeitada pelas instituições financeiras, sob a alegação de que negócios habituais seriam paralisados (JORION, 2003). Apesar das constantes inovações nas metodologias de cálculo do VaR, com intenção de reproduzir com maior precisão a distribuição empírica dos retornos, que, como se sabe, apresentam assimetria e caudas pesadas, na indústria bancária, em geral, ainda se tem utilizado os modelos clássicos de mensuração do risco de mercado, com assunção de distribuição normal na maioria dos casos. 3.2. Parâmetros Gerais Independentemente do modelo adotado, o VaR estabelece uma medida da perda máxima esperada para um dado horizonte de tempo e um determinado grau de confiança. Além desses dois parâmetros, as abordagens que utilizam observações históricas também variam de acordo com o tamanho da amostra escolhida. Nesta pesquisa, esses parâmetros gerais foram padronizados para permitir a comparação dos modelos testados. 3.2.1. Horizonte temporal O período de carregamento, ou holding period, em termos de risco, é caracterizado pelo prazo mínimo necessário para se desfazer ou se proteger contra as variações adversas da posição. Geralmente, esse período é utilizado nos modelos de zeramento de carteira como variável exógena, ou calculado endogenamente, onde se obtém um holding period ótimo. Para a comparação dos modelos quanto à acurácia em prever a perda máxima da carteira foi utilizado o horizonte de 1 dia útil, horizonte considerado padrão, inclusive para o teste de aderência de Basileia. Apesar do mínimo exigido pela Circular BACEN 3.478/09 ser de 10 dias úteis, devido ao tamanho da carteira, a exigência da capital foi calculada com os números de VaR calculados ou escalonados para o horizonte de 21 dias úteis, correspondente a 1 mês. 3.2.2. Nível de confiança O cálculo do VaR e do sVaR foram realizados com intervalo de 99% de confiança unicaudal, exigência do regulador. 30 3.2.3. Período histórico dos dados Nos modelos baseados em observações passadas, o VaR em cenário de normalidade (VaR) e o VaR Estressado (sVaR) foram mensurados utilizando-se período histórico de retornos de 252 dias úteis. A escolha do período histórico de observação está em conformidade com Basileia e a Circular BACEN 3.478/09. As informações utilizadas no cálculo do VaR foram atualizadas diariamente e do sVaR mensalmente. 3.3. Delta Normal A abordagem Delta-Normal para o cálculo do VaR é uma metodologia paramétrica baseada no modelo analítico de matriz de covariância, que supõe que os retornos da carteira são normalmente distribuídos. Classificada por Jorion (2003) como um método de avaliação local ou analítica, essa metodologia depende da hipótese de normalidade para os fatores de risco, assumindo a propriedade de invariância das variáveis normais: carteiras compostas por variáveis normais são também normalmente distribuídas. Essa avaliação abrange somente a primeira derivada parcial ou a sensibilidade da carteira a mudanças nos preços avaliada na posição inicial. Para uma carteira de renda fixa isso se assimilaria à modified duration e para uma carteira de derivativos ao delta. De acordo com Jorion (2003), para carteiras sem opções e cujas distribuições são próximas de uma normal, o método delta-normal pode ser a melhor escolha. Rapidamente se obtém uma medida de VaR precisa, pouco propensa ao risco de modelo (devido a suposições ou cálculos imperfeitos), facilmente explicável à gerência e ao público. A característica analítica permite fácil análise dos resultados por meio do VaR marginal e do VaR de componentes. As premissas básicas do modelo são: os retornos diários são suficientemente pequenos, de modo que pode-se assumir que os retornos aritméticos são equivalentes aos retornos geométricos; os retornos condicionais têm distribuição normal com média igual a zero e matriz de covariâncias. 31 A limitação mais citada pelas bibliografias correntes dessa metodologia é a assunção da distribuição normal dos retornos em séries financeiras, que geralmente têm caudas grossas. (Jorion, 2003) “Um primeiro problema é oriundo da existência de caudas pesadas, ou grossas, para a distribuição de retornos da maioria dos ativos financeiros. Essas caudas pesadas são particularmente preocupantes justamente porque o VaR tenta analisar o comportamento do retorno da carteira na cauda esquerda. Nessa situação, um modelo baseado na distribuição normal subestimaria a proporção de outliers e, portanto, o verdadeiro valor em risco.” (Crouhy et al, 2004) “Há inúmeras evidências de que muitas distribuições de retornos individuais não são normalmente distribuídas e exibem o que chamamos de “caudas gordas” (fat tails). A expressão “caudas gordas” decorre da forma de certas distribuições quando plotadas em um gráfico. Nessas distribuições há mais observações distantes da média do que seria o caso de uma distribuição normal, ou em forma de sino. Assim, enquanto uma distribuição normal se encerra rapidamente para refletir a raridade de eventos improváveis, a cauda da distribuição de cauda gorda permanece relativamente espessa.” (Alexander, 2001) “It assumes that the portifolio distributions at any point in time are normal. This is certainly true if the returns to individual assets, or risk factors, in the portfolio are normally distributed. But often they are not.” Foram testados três parâmetros de VaR para a abordagem Delta Normal: EWMA com lambda 0,94, variância amostral e modelo híbrido. Na primeira, utilizou-se a técnica de ponderação dos dados conhecida como EWMA3 – Exponentially Weightd Moving Average, utilizando para o alisamento exponencial o fator de decaimento 0,94. Segundo a metodologia EWMA, que é um aperfeiçoamento do método de média móvel simples, com a diferença de que nessa atribuem-se pesos iguais a todos os retornos enquanto que no EWMA são atribuídos pesos maiores aos retornos mais recentes, o estimador da variância dos retornos é representado matematicamente pela equação: Onde é a previsão de volatilidade para t+1, é o retorno do ativo em t e λ é o fator de decaimento ou de alisamento exponencial que deve estar entre zero e um. 3 Exponencially Weighted Moving Average - método de suavização exponencial que pondera as observações conforme o parâmetro lambda escolhido. O Riskmetrics utiliza o modelo EWMA com fator de decaimento 0,94 para retornos diários e 0,97 para retornos mensais, obtidos após estudo realizado em 480 séries temporais de diferentes ativos em diversos países. 32 Em mudanças abruptas da conjuntura macroeconômica, a diminuição do fator de decaimento faz com que o modelo reflita com mais rapidez à nova situação. Após um movimento extremo, a volatilidade declina exponencialmente, à medida que o peso da observação do choque diminui, diferentemente do método da média móvel, em que os movimentos são lentos. Ao ponderar o período histórico de dados com a utilização do lambda 0,94, 99,99% do resultado é influenciado pelos dados do período compreendido entre 1 e 149 dias úteis, ou seja, a partir de 149 dias a influência da amostra é de apenas 0,01%, conforme tabela: Tabela 3 – Quantidade de Dias de Retornos que Influenciam a Estimação do VaR pela Metodologia EWMA para Diferentes Fatores de Decaimento Lambda x Janela dias úteis Precisão Decaimento 0,01% 0,10% 1% 0,84 53 40 26 0,84 61 46 31 0,88 72 54 36 0,90 87 66 44 0,91 97 73 49 0,92 110 83 55 0,94 149 112 74 0,95 177 132 88 0,96 226 169 113 0,97 302 227 151 0,98 456 342 228 0,99 916 687 458 Fonte: RiskMetrics™ (1996) No segundo cálculo, não foi utilizada nenhuma técnica de ponderação dos dados, calculando-se, portanto a variância amostral dos retornos. Além disso, utilizou-se o que foi chamado de modelo híbrido, onde o resultado do VaR de uma determinada data é sempre o máximo entre: VaR calculado com EWMA lambda 0,94 e VaR por variância amostral. 33 A escolha do modelo híbrido se baseou no documento Revisions to the Basel II market risk framework, item 4.d nota 12, que indicou a possibilidade de utilização de técnicas para ponderação dos dados em desacordo com o período histórico mínimo desde que o resultado do capital alocado fosse mais conservador. 4.(d) The choice of historical observation period (sample period) for calculating value-at-risk will be constrained to a minimum length of one year. For Banks that use a weighting scheme or other methods for the historical observation period, the “effective” observation period must be at least one year (that is, the weighted average time lag of the individual observations cannot be less than 6 months).12 12 A bank may calculate the value-at-risk estimate using a weighting scheme that is not fully consistent with (d) as long as that method results in a capital charge at least as conservative as that calculated according to (d). Empiricamente, torna-se difícil definir um modelo para o cálculo da volatilidade que apresente resultados mais conservadores entre as várias opções de fatores de decaimento, pois a eficácia dos modelos ao longo do tempo depende exclusivamente dos ciclos de volatilidade dos ativos financeiros. O modelo com lambda 0,94 dá maior peso às observações mais recentes, o que provoca variações mais bruscas e torna o modelo mais sensível ao regime de volatilidade do curto prazo, ou seja, tem resposta mais rápida aos últimos retornos dos ativos. Entretanto, em momentos de calmaria, o VaR tende a subestimar o risco por dar maior peso para as observações mais atuais. De outra forma, a ausência de ponderação dos dados, a variância amostral, torna o modelo de reação lenta a estresses no mercado, porém, é geralmente mais conservador em tempos de pouca turbulência. Daí a escolha pelo modelo híbrido, que representa o resultado máximo entre as duas medidas. A matriz de variâncias/covariâncias do portfólio é construída em duas etapas: cálculo dos retornos; construção da Matriz de Covariância. Os retornos para os fatores de risco são calculados por meio dos preços dos ativos financeiros, pela fórmula: 34 onde: Re t.FRi ,d Valor do Retorno de um fator de risco “i” para determinada data de cálculo “t”; = Preço do ativo para determinada data de cálculo “t”; = Preço do ativo para o dia útil anterior à data de cálculo. Os parâmetros de entrada para a construção da Matriz de Covariância são: Valor de λ (constante de decaimento para o cálculo das volatilidades e das correlações segundo a metodologia de decaimento exponencial – EWMA): 1 ou 0,94 Tamanho da janela de cálculo: 252 dias A Matriz de covariância é dada por: 11 21 MCov . . 12 . 22 . . n 1n 1 . nn1 . n 1n nn . onde: t 1 * r r * r r ij N j t j t i t it j 1 t 1 j 1 N N = tamanho da amostra para se estimar a Matriz de Covariância; r = Valor do Retorno correspondente ao fator de risco i, no “t-ésimo dia retroagido”; r = Valor do Retorno Médio correspondente ao fator de risco i que, em razão do i t i t tamanho da amostra, é estimado como igual a zero (retorno médio da população = zero); r j t = Valor do Retorno correspondente ao fator de risco j, no “t-ésimo dia retroagido”; 35 r j t = Valor do Retorno Médio correspondente ao fator de risco j que, em razão do tamanho da amostra, é estimado como igual a zero. Alguns autores, como Dowd (2002), levantam a necessidade de verificar se a matriz da correlação/covariância é positiva-definida, como um dos itens de levantamento da consistência do cálculo do VaR. Entretanto, como essas mesmas matrizes foram utilizadas no cálculo do VaR por simulação de Monte Carlo, onde necessariamente a matriz deve ser positiva-definida para ser realizada a decomposição de Cholesky, passo necessário ao cálculo, não foi necessária essa verificação. O VaR com Efeito Diversificação da carteira é determinado pela fórmula: Onde: Z = Fator correspondente ao intervalo de 99% de confiança (2,3263419...); = horizonte de tempo; V = P1 P2 ... Pn = Vetor linha das posições marcadas a mercado classificadas por fator de risco; Ω = Matriz de Covariância entre os retornos das posições; V'’= Matriz transposta de V. O sVaR com efeito diversificação é calculado a partir das posições marcadas a mercado na data de cálculo e da matriz de covariância de estresse, matriz apurada para o período histórico de estresse relevante para o portfólio. A matriz de covariância de estresse é a que gera o maior resultado de VaR entre as diversas matrizes calculadas a partir de 1º de janeiro de 2004 e para o período histórico de observações de 252 dias úteis. O sVaR procura medir o risco de mercado da carteira de negociação em momentos históricos de estresse e é representado pela fórmula: sVaRcd V Estresse V Z ic t Onde Estresse é a matriz de covariância de estresse. 36 Devido ao tempo necessário para o processamento da definição do período histórico de estresse, este foi revisado somente a cada 30 dias corridos, tempo máximo permitido pelo BACEN. 3.4. Simulação Histórica A Simulação Histórica (SH) como método de estimação do VaR foi introduzido em uma série de papers por Boudoukh et al. (1998) e Barone-Adesi et al. (1998, 1999). A principal vantagem desse método, também chamado de VaR Histórico, é que não requer qualquer assunção sobre a forma de distribuição paramétrica dos retornos dos fatores de risco. Conforme observa Alexander (2008, b), apesar de que outros modelos podem incluir assimetria e caudas pesadas nos retornos dos fatores de risco, eles ainda falham em estabelecer uma forma paramétrica para modelar os retornos multivariados. E usualmente as dependências entre os fatores de risco nessa distribuição multivariada são assumidas serem bem mais simples do que elas são na realidade. O VaR Histórico também não é limitado a portfólios lineares, como a abordagem Delta Normal. Então, as vantagens do modelo SH sobre o paramétrico linear são bem claras. Entretanto, esse método possui alguns problemas. Primeiramente, é difícil aplicá-lo para calcular com horizontes de tempo maiores que alguns dias. Isso porque a limitação de dados é um problema central. Para evitar uma instabilidade na estimação do VaR quando o modelo é re-estimado dia após dia, é necessário uma quantidade considerável de dados históricos. Mesmo quatro anos de dados históricos diários são insuficientes para um grau de confiança aceitável. Dados sobrepostos de retornos para h-dias poderiam ser usados, mas, como demonstra Alexander (2008, b), isso pode distorcer seriamente o comportamento da cauda da distribuição dos retornos. Outra falha é a limitação do modelo em lidar somente com cenários que já ocorreram no passado. A assunção feita é de que se um cenário já ocorreu no passado, ele poderá acontecer novamente no horizonte de risco do modelo. Mas, frequentemente, quando uma crise ocorre, traz um cenário que não havia sido experimentado no passado. O VaR Histórico é mensurado a partir dos retornos diários dos fatores de risco/vértices da carteira. Calcula-se a variação no valor de mercado do portfólio supondo-se que as oscilações ocorridas dia a dia dentro da janela utilizada (no caso, 252 dias úteis) ocorreriam 37 na data de movimento. Assim, teríamos 252 cenários alternativos que poderiam acontecer entre hoje e amanhã. Isso define a distribuição de probabilidade para as mudanças diárias no valor do portfólio. O VaR é a perda no α-ésimo percentil, onde α = (1-p) e p é o nível de confiança do VaR. O percentil de 1% de uma janela temporal de 252 dias será algum retorno situado entre a segunda e a terceira pior perda verificada nesta carteira durante o intervalo de tempo em questão. De acordo com Souza (1999), para uma amostra de tamanho N de retornos: As observações são ordenadas de modo que: Então o quantil empírico relativo ao nível de significância de α% será: De posse da estimativa do quantil empírico dos retornos, constrói-se, então, o VaR para o nível de significância de α% como sendo: Como visto, uma dificuldade essencial na SH é mensuração do VaR para períodos de tempo longos. Uma alternativa é o escalonamento do VaR de 1 dia para horizontes maiores. Entretanto, o VaR Histórico corresponde a um quantil de uma distribuição empírica não especificada e não obedecem à “regra da raiz quadrada do tempo”, exceto se os retornos forem i.i.d. e normalmente distribuídos. Essa assunção será feita neste trabalho, com o VaR sendo escalonado pela regra da raiz do tempo, assim como o Delta Normal. Essa assunção pode levar a uma subestimação do risco, entretanto, conforme veremos na seção 6, isso somente ratificaria as conclusões da pesquisa. O sVaR é calculado a partir do período histórico de estresse considerando a volatilidade dos retornos dos fatores de risco a partir de 1º de janeiro de 2004, e das posições marcadas a mercado na data de cálculo. Esse período de estresse é definido como o intervalo de 252 dias úteis que gera o maior resultado de VaR Histórico para o portfólio. 38 Devido ao tempo necessário para o processamento da definição do período histórico de estresse, este foi revisado somente a cada 30 dias corridos, tempo máximo permitido pelo BACEN. 3.5. Monte Carlo Assim como a Simulação Histórica, a Simulação de Monte Carlo (MC) é um método não-paramétrico. Dowd (1998) coloca que é a abordagem mais popular quando se precisa de um sistema de VaR robusto e sofisticado, mas também de longe a mais desafiadora de se implementar. Segundo Alexander (2008, b), a grande vantagem de MC é que esse método usa os dados históricos mais inteligentemente que a Simulação Histórica padrão. Após escolher um modelo de comportamento paramétrico (preferivelmente com distribuição não-normal dos retornos condicionais) para os dados históricos, simulam-se alguns milhares de cenários possíveis que podem ocorrer com o modelo, não ficando restrito ao comportamento passado dos dados. O número de simulações, entretanto, é um dos problemas do modelo. MC converge para o verdadeiro valor de VaR à taxa , onde N é o número de simulações. De modo a aumentar a acurácia do modelo em 10 vezes, deve-se rodar 100 vezes mais simulações (WIENER, 1999). Portanto, MC é sujeito à variância amostral, a qual é causada por um número limitado de simulações. Jorion (2003) dá o exemplo de que o VaR para uma carteira de instrumentos lineares é facilmente calculado usando a abordagem variância-covariância. MC baseado na mesma matriz de variância-covariância gera somente uma aproximação sendo, desse modo, enviesado. A acurácia aumenta somente quando o número de simulações é incrementado. A geração de números aleatórios é o primeiro passo na simulação de Monte Carlo, seu propósito é gerar uma sequência de números entre zero e um que são uniformemente distribuídos, independentes e não-periódicos. Segundo Alexander (2008, a), o único modo de gerar números aleatórios é medir, sem erros, um fenômeno físico verdadeiramente aleatório, sendo que, na prática, os computadores 39 geram números pseudo-aleatórios4, produzidos, por exemplo, no Excel pela função ALEATÓRIO(). Cada simulação exige a geração de um número aleatório U.I.D. (uniforme e independentemente distribuído) para cada ativo. Neste trabalho foram utilizadas 5000 simulações. O passo seguinte para se calcular o VaR é transformar a amostra de variáveis aleatórias U.I.D. em uma amostra aleatória de variáveis correlacionadas e que seguem uma distribuição normal multivariada com média e correlação apropriadas. Supondo que os fatores de risco/vértices tenham matriz de correlação V, que por sua vez tem matriz de Cholesky, C, gerando uma matriz Z com simulações normais padrão independentes, então ZC’ será uma matriz com colunas que representam variáveis normais correlacionadas e com média zero. Para o cálculo da matriz de correlação, foi utilizada janela de 252 dias úteis. Conforme Alexander (2008, a), uma matriz quadrada (número de linhas igual a número de colunas) é chamada triangular inferior se ela possui somente zeros acima da diagonal principal. Se uma matriz simétrica A é positiva definida então existe uma matriz quadrada triangular inferior Q da mesma dimensão de A, tal que A = QQ’. Essa matriz Q é chamada de matriz de Cholesky de A. A partir dos números pseudo-aleatórios gerados, para transformá-los em uma amostragem aleatória de uma variável X com uma função de distribuição contínua F, deve-se calcular x = F-1(u), onde F é a função inversa da distribuição normal padrão. Ou seja, dado um número aleatório u, a simulação correspondente para X é o quantil u da distribuição normal padrão. A partir das matrizes anteriormente calculadas, basta multiplicar a matriz Z pela transposta da matriz de Cholesky, C. Cada linha da matriz ZC’ representa uma simulação de variáveis correlacionadas, seguindo uma distribuição normal padrão – N(0,1). Foi utilizada a equação de movimento browniano, frequentemente utilizada na precificação de carteiras, para estimar o preço dos ativos ao final do período (MUN, 2006): 4 Em http://support.microsoft.com/kb/828795 pode-se obter detalhes da geração de números aleatórios no Excel (2003 em diante). 40 2 t t z Pt P0 exp 2 Onde: P0 = preço do ativo i na data do cálculo; = média dos log-retornos; 2 = variância dos log-retornos, calculada pelo processo de otimização descrito a seguir; t = defasagem do cálculo do VaR em dias; z = número aleatório que segue uma N(0,1). É um elemento da matriz ZC’. Idealmente, um VaR acurado deve ter desempenho nos testes de aderência consistente com o nível de probabilidade. Isso significa que as perdas da carteira irão exceder o VaR na porcentagem de casos próxima ao α escolhido. Tradicionalmente, as técnicas de backtesting são aplicadas para avaliar os modelos de VaR e, nenhum método de estimação garante um VaR com perfeita performance fora-daamostra. Entretanto, Huang (2010) propõe aplicar-se um conceito similar para ajustes dentroda-amostra durante o processo de estimação. Considere a seguinte razão: Onde: = número de vezes em que o VaR previsto é excedido (unicaudal); = número de vezes em que o VaR não é excedido (unicaudal). Então o desempenho do VaR pode ser medido anteriormente à estimação, usando a expressão: Um método que produz estimativas de VaR que minimizem a equação acima tenderão a apresentar resultados ótimos de backtesting. Para iniciar o processo de otimização, são produzidas estimativas de VaR por MC para cada um dos 252 dias anteriores à data de cálculo utilizando-se a variância dos log-retornos 41 nos últimos 252 dias. As estimativas são comparadas com os respectivos valores de P/L calculados, estimando-se ˆ t k , t 1 . Se for igual a α, então a variância amostral pode ser utilizada para estimar o VaR para a data. No caso de 99%, o modelo com 2 ou 3 violações estaria consistente com o nível de acurácia. De outro modo, se for diferente de α, aplica-se um multiplicador à variância, calculada por: Onde é o inverso da distribuição normal padrão no ponto x, conforme proposto por Wichura (1988). As estimativas de VaR são novamente geradas utilizando o mesmo multiplicador para cada dia dentro da janela. Ao final, calcula-se novamente . O processo continua até que . Apesar do modelo utilizado considerar assunções fortes, como a normalidade, o processo de otimização irá alterar o multiplicador no tempo, desde que vez que . De fato, uma , onde o modelo subjacente do VaR subestima o risco, o multiplicador pode ser aplicado para aumentar a variância e por sua vez o VaR. Consequentemente, os resultados finais de VaR são livres de qualquer assunção distribucional implícita ao modelo subjacente (HUANG, 2010). A partir dos cenários gerados para os preços, calcula-se a variação da carteira em cada cenário somando-se os retornos dos n ativos da carteira: Calcula-se o percentil (α = 0,01) correspondente na série de 5000 P/L da carteira. Esse percentil é o valor de VaR para o horizonte de tempo definido. O Valor em Risco Estressado é definido como o pior VaR dentre a série de valores de VaR gerados tomando-se a carteira do dia e utilizando as correlações e a variância (ajustada pelo processo de otimização) calculadas em cada dia da janela, utilizando dados desde 2004. 42 Devido ao tempo necessário para o processamento da definição do período histórico de estresse, este foi revisado somente a cada 30 dias corridos, tempo máximo permitido pelo BACEN. 43 4. MÉTODOS DE AVALIAÇÃO DOS MODELOS VAR Modelos VaR são úteis unicamente quando conseguem prever o risco de forma razoável. A avaliação de um modelo é o processo geral por meio do qual se verifica se uma metodologia é ou não adequada. Entre as ferramentas para tal análise, encontram-se os testes de aderência, ou backtesting. Jorion (2003) define backtesting como a ferramenta estatística formal para verificar a consistência entre as perdas observadas e as perdas previstas. Isto é, comparar o histórico das perdas estimadas pelo VaR com os retornos observados da carteira. 4.1. Teste Regulamentar de Basileia A possibilidade de uso de modelos internos de VaR para mensuração do tamanho da alocação de capital para risco de mercado torna óbvia a necessidade de um mecanismo consistente de backtesting para evitar que os bancos subestimem suas medidas de risco. Assim, Basileia (1996a) estabeleceu uma metodologia padrão para a avaliação dos modelos de VaR baseada na contagem do número de violações/exceções da variação da carteira em relação ao VaR calculado. O teste considera apenas a violação unicaudal, uma vez que o enfoque é a perda. A violação unicaudal ocorre quando o resultado negativo supera a perda máxima prevista (VaR calculado). A abordagem do teste é o arcabouço clássico de testes para sequências de sucessos e fracassos também chamados de eventos de Bernoulli. O número de exceções, N, possui distribuição de probabilidade binomial: T f ( N ) p N (1 p)T N N Onde: T N = Combinação de T, tomado N a N. p = nível de probabilidade T = nº de observações N = nº de violações 44 O Comitê da Basileia (1996a) definiu zonas de risco de acordo com o número de violações observadas no período de 250 dias úteis e VaR calculado com 99% de confiança: Zona verde: até 4 violações Zona amarela: entre 5 e 9 violações Zona vermelha: mais que 10 violações A classificação na zona verde sugere que não há problema com a qualidade ou acurácia do modelo. Resultados na zona amarela são cabíveis tanto para modelos acurados como inacurados, porém, a presunção de inacurácia aumenta com o número de violações (de 5 a 9) e, consequentemente, o modelo sofre penalização gradativa pelo A bkt. O enquadramento na zona vermelha indica problemas com o modelo e a instituição deve usar o adicional máximo no cálculo do requerimento de capital. O delineamento das zonas e suas fronteiras foram definidos balanceando os dois tipos de erros estatísticos: Erro tipo I - possibilidade de classificar um modelo acurado como inacurado; Erro tipo II – possibilidade de se aceitar um modelo inacurado. Tabela 4 – Zonas do Teste Regulamentar de Basileia (Cobertura: 99%, 250 dias) Zona Violações Abkt Probabilidade Erro Tipo I Distr. Acum. 0 0,00 8,11% 100,0% 8,11% 1 0,00 20,47% 91,9% 28,58% Verde 2 0,00 25,74% 71,4% 54,32% 3 0,00 21,49% 45,7% 75,81% 4 0,00 13,41% 24,2% 89,22% 5 0,40 6,66% 10,8% 95,88% 6 0,50 2,75% 4,1% 98,63% Amarela 7 0,65 0,97% 1,4% 99,60% 8 0,75 0,30% 0,4% 99,89% 9 0,85 0,08% 0,1% 99,97% 10 1,00 0,02% 0,0% 99,99% Vermelha > 10 1,00 0,00% 0,0% 100,00% Fonte: Comitê de Basileia (1996a) A classificação das zonas se dá pela probabilidade acumulada da distribuição binomial, que é a probabilidade de obter um número exato ou menor de exceções quando o modelo é correto. A zona amarela começa no ponto onde probabilidade acumulada excede 95% e a zona vermelha se inicia a 99,99%. 45 Jorion (2003) atribui a falta de poder desse teste à escolha de nível de confiança muito alto para o VaR, que resulta em exceções insuficientes para um teste confiável. 4.2. Teste de Kupiec O mais amplamente conhecido teste baseado em taxas de exceções foi desenvolvido por Kupiec (1995). O teste de Kupiec, também conhecido como teste de proporção de falhas, mede se o número de violações é consistente com o grau de confiança. A hipótese nula do teste é: H o : p pˆ N T Onde: p = nível de probabilidade T = nº de observações N = nº de violações O Teste de Kupiec utilizou a distribuição binomial para testar se a taxa de exceções é significativamente diferente de p, a proporção de falhas sugerida pelo nível de confiança do VaR. Kupiec gerou regiões de confiança de aproximadamente 95% para o teste, cujos resultados estão na tabela 5. Esse nível de confiança refere-se à regra de decisão usada para aceitar ou rejeitar o modelo, com regiões definidas pela seguinte razão de logverossimilhança, com distribuição assintótica qui-quadrada com um grau de liberdade, sob a hipótese que p é a verdadeira probabilidade: LRuc 2 ln (1 p)T N p N 2 ln 1 ( N / T ) T N (N / T ) N Se o valor da estatística LR exceder o valor crítico da distribuição qui-quadrada, a hipótese nula é rejeitada e o modelo considerado inadequado. O teste de Kupiec é suscetível a dois tipos de deficiências. Primeiro, o teste é estatisticamente fraco em tamanhos de amostra pequenos. Segundo, considera somente a freqüência das violações e não o tempo em que elas ocorreram. Como resultado, pode-se cometer um erro ao rejeitar um modelo que produziu exceções clusterizadas. Assim, a 46 avaliação dos modelos não deve recair somente sobre testes de cobertura incondicional (CAMPBELL, 2005). Tabela 5 – Regiões de Não Rejeição do Teste de Kupiec Nível de Confiança do VAR Região de não-rejeição para o número de violações N T= 255 dias T= 510 dias T= 1000 dias 99 N<7 1 < N < 11 4 < N < 17 97,5 2 < N < 11 6 < N < 21 15 < N < 36 95 6 < N < 21 16 < N < 36 37 < N < 65 92,5 11 < N < 28 27 < N < 51 59 < N < 92 90 16 < N < 36 38 < N < 65 81 < N < 120 Fonte: Jorion (2003) O teste de Kupiec é suscetível a dois tipos de deficiências. Primeiro, o teste é estatisticamente fraco em tamanhos de amostra pequenos. Segundo, considera somente a freqüência das violações e não o tempo em que elas ocorreram. Como resultado, pode-se cometer um erro ao rejeitar um modelo que produziu exceções clusterizadas. Assim, os a avaliação dos modelos não devem recair somente sobre testes de cobertura incondicional (CAMPBELL, 2005). 4.3. Teste de Christoffersen Os testes regulamentar e de Kupiec focam somente sobre o número de exceções. Entretanto, espera-se que essas violações sejam uniformemente espalhadas no tempo. Nieppola (2009) afirma que bons modelos de VaR são capazes de reagir à mudanças de volatilidade e correlações de modo que falhas ocorram independentemente uma das outras, enquanto modelos ruins tendem a produzir sequências de exceções consecutivas. Um método condicional tem a propriedade de levar em conta as informações existentes em cada ponto da amostra, verificando se o VaR se agrupa de forma dependente no tempo. Christoffersen (1998) define um procedimento para a verificação da precisão das previsões para intervalos de confiança que tenta capturar a condicionalidade das estimativas. 47 Ele usa a mesma base do teste de log-verossimilhança de Kupiec (1995), mas estende o teste para incluir uma estatística separada para a independência das exceções. Seja a sequência observada da variável aleatória , o retorno de um ativo ou do portfólio. O teste é conduzido por uma variável binária que tem o valor de 1, se o VaR é excedido e 0, se não há violação: Assim, tem-se um vetor de zeros e uns e a propriedade de independência das exceções ao longo do tempo implica que cada par de elementos desse vetor deve ser independente um do outro. Um modelo de VaR bem ajustado também irá gerar uma sequência de modo que , para todo t. Para testar estas duas hipóteses, Chistoffersen (1998) sugere um teste conjunto de dois testes de razão de verossimilhança. O primeiro testa a adequação não-condicional das estimativas. O segundo testa a independência da sequência No primeiro teste a hipótese nula de que . é testada contra a alternativa de que . Sobre a nula a verossimilhança é igual a: Onde N é o número de observações em que . Sobre a alternativa, a verossimilhança fica: Onde Π = N/T é o estimador de máxima verossimilhança de Π. A estatística do teste de razão de verossimilhança é igual a: Assim, aceita-se a hipótese nula se esta estatística não exceder os valores críticos da distribuição qui-quadrada com um grau de liberdade. No teste de independência o autor usa uma cadeia de Markov para dois resultados consecutivos de It. A matriz de transição de probabilidade é dada por: 48 Aqui é a probabilidade de j ocorrer, dado que i ocorreu no tempo t-1. A fórmula abaixo mostra a função de verossimilhança neste caso: Onde nij é o número de observações com valor i seguido de j. Estima-se a matriz de transição markoviana por meio dos estimadores de máxima verossimilhança da verdadeira matriz: Porém, se os elementos do vetor de resultados I t são independentes, a matriz de transição de probabilidade deve ser: Ou seja, não há diferença entre as probabilidades de uma exceção ou não-exceção para um certo dia, não importando o resultado no dia anterior. A hipótese nula do teste fica H 0: π01 = π11 = π2. O estimador de máxima verossimilhança para π2 é: A função de verossimilhança sob a hipótese nula fica: Finalmente, podemos computar a estatística do teste, que também segue uma distribuição qui-quadrada com um grau de liberdade, pela seguinte fórmula: O teste conjunto consiste em testar a hipótese nula do teste não condicional contra a alternativa do teste de independência. A estatística do teste conjunto de razão de verossimilhança é dada por: 49 Que se aproxima de uma distribuição qui-quadrada com dois graus de liberdade e equivale a soma das estatísticas dos dois testes independentes: 4.4. Testes de Estresse Os modelos estatísticos de cálculo de risco de mercado costumam apresentar problemas em períodos de variação no padrão de comportamento dos dados. O teste de estresse é uma ferramenta complementar para a avaliação do risco de mercado, sendo utilizado em conjunto com o VaR, este último refletindo o risco cotidiano e o primeiro o risco em situação de crise. Desde a crise de outubro de 1997, a atenção dada aos testes de estresse pelos órgãos regulatórios e bancos aumentou significativamente. O teste de estresse é uma ferramenta que quantifica a perda em situação de crise nas quais o VaR, que prevê perdas em cenários de normalidade, não pode prever. Dowd (2002) lista três diferentes maneiras para sua utilização no gerenciamento de risco: • como fonte de informações: avaliação do apetite ao risco, identificação das maiores contribuições ao risco e revelação de fontes de risco não aparentes; • como guia de decisão e auxiliar no estabelecimento de limites e alocação de capital; • como auxílio no desenho de sistemas para proteção contra eventos turbulentos (ex: crise de liquidez) e planejamento de contingência. As duas principais abordagens de testes de estresse existentes são: • Análise de cenário: avalia-se o impacto de cenários específicos no portfólio. A ênfase está em especificar o cenário e suas ramificações. • Testes de estresse mecânicos (automáticos): avalia-se um número (geralmente grande) de possibilidades definidas matematicamente ou estatisticamente (por exemplo, aumento ou decréscimo de fatores de risco de mercado por certo número de desvios-padrões) para determinar o máximo de combinações de eventos e a perda que produziria. 50 Pela análise de cenários, existem três cenários que podem ser considerados: cenários estilizados (movimento em uma ou mais taxas de juros, taxas de câmbios, preços de ações ou preços de commodity), eventos históricos reais, eventos hipotéticos (sem precedentes). Nesta pesquisa, foi desenvolvida a análise de cenários com a reprodução de períodos históricos e um teste de estresse baseado na aplicação de desvios-padrão na volatilidade histórica dos preços dos ativos da carteira. 4.4.1 Teste de Estresse Histórico A análise de cenários baseados em eventos históricos, segundo Dowd (2002), tem duas vantagens em comparação a outros cenários: o fato de que já tenham realmente ocorrido reduz a arbitrariedade e é mais plausível; é mais inteligível e útil, considerando que uma afirmação como “o banco poderia perder R$ X milhões se a crise de 1987 se repetisse amanhã” tem maior efetividade na comunicação do risco. As premissas básicas assumidas pelo modelo são: movimentos históricos de estresse nas curvas de mercado podem ocorrer novamente; choques históricos de estresse podem se repetir independentemente das condições macroeconômicas vigentes. A construção dos cenários está baseada no trabalho de Vieira Neto e Urban (2000), que se tornou clássico no mercado financeiro brasileiro. A partir da análise dos impactos das oscilações diárias dos fatores de desconto das curvas de mercado, dos índices da BM&F Bovespa e das taxas de câmbio sobre a carteira, as datas de estresse são definidas como aquelas cujos deslocamentos no valor dos ativos geram os piores resultados para a carteira de negociação, sendo este valor definido como VaR de estresse5. No estudo, foram utilizados dados de 2004 a 2010. Em cada data na janela, calcula-se a variação, ou choque, efetivamente ocorrida nos fatores de risco entre a data d e d-h: 5 Note que esta medida é diferente do conceito de Valor em Risco estressado (sVaR) adotado por Basileia. 51 Onde: = choque calculado na data d para o fator de risco f e vértice i (para títulos públicos); = preço na data d do fator de risco f e vértice i; = preço na data d - h do fator de risco f e vértice i; h = horizonte do cálculo (holding period). O valor marcado a mercado de estresse é dado por: Onde: = valor marcado a mercado original na data de cálculo para o fator de risco f e vértice i (para títulos públicos); Para os títulos públicos, calcula-se o valor MtM Estresse por fator de risco em cada data d somando-se os para todos os vértices e o MtM Estresse da carteira é dado pela somatória de todos os fatores de risco. Assim, tem-se uma série de MtM Estresse para cada dia na janela testada. O teste de estresse – cenários históricos considera duas possibilidades: a ocorrência do efeito diversificação entre os fatores de risco ou o pior cenário para uma data; a não ocorrência do efeito diversificação ou o pior cenário por fator de risco. Considerado o efeito da diversificação, a data de estresse na data de cálculo é aquela que gera o menor MtM Estresse para a carteira de negociação. O VaR de estresse da carteira de negociação será a diferença entre o valor marcado a mercado na data de cálculo e o menor valor de mercado após a aplicação do choque, ou seja, o menor MtM Estresse. 52 Desconsiderando o efeito da diversificação, em que se quebra a premissa das correlações, as datas de estresse são aquelas que geram o menor valor de mercado para cada fator de risco, podendo haver datas distintas de estresse. O VaR de estresse da carteira trading é a soma de cada um dos resultados de VaR de estresse dos fatores de risco. 4.4.2 Cenários Alternativamente, é possível gerar cenários baseando-se na volatilidade dos ativos na data de cálculo. Através da aplicação de desvios-padrão nessas volatilidades, obtêm-se cenários de possíveis realizações para o movimento dos preços. Com o objetivo de se obter o pior cenário possível, foram desconsideradas as correlações entre os ativos e o choque foi calculado da seguinte maneira: Onde: = volatilidade diária dos preços do fator de risco f e vértice i (para títulos públicos); n = número de desvios-padrão. Da mesma maneira que no teste histórico, aplica-se o choque aos valores de mercado dos fatores de risco e vértices, somando-se os MtM Estresse para se obter o valor da carteira em situação de estresse. A diferença do valor original do portfólio e do valor de estresse caracteriza a perda que a carteira sofreria na ocorrência de determinado movimento das taxas e preços. 53 5. CARTEIRA TRADING Para a definição da carteira trading utilizada na pesquisa, o objetivo foi montar uma carteira simulada que se assemelhasse às dos grandes bancos em operação no Brasil. Para a composição, foram consultados os últimos balancetes das maiores instituições financeiras e verificou-se uma predominância em três tipos de ativos, por ordem de importância: títulos públicos, ações e moedas. Os títulos públicos detém a maior participação em todas as carteiras dos principais bancos consultados. Ações e moedas estrangeiras representam um percentual menor mais ainda significativo dos ativos. Títulos privados em geral representam parcela irrelevante na carteira de negociação dos bancos e foram deixados de fora da pesquisa, entretanto, não se pode desconsiderar o risco de crédito que esses papéis possuem, em especial em situações de estresse. Em relação aos derivativos, bancos em geral os utilizam como proteção de ativos da carteira. O maior exemplo são os contratos futuros de DI de 1 dia, que em geral são vendidos, de forma que o banco troca a remuneração prefixada que receberia dos títulos da carteira pela correção do CDI, reduzindo a sensibilidade da carteira a variações nas taxas de juros. Como o desejado na pesquisa era obter uma carteira de maior risco, não foi introduzido hedge no portfólio. Tendo em vista que a posse de mercadorias (commodities) e títulos estrangeiros é muito baixa mesmo nos grandes bancos brasileiros, não foram considerados esses tipos de ativos na pesquisa. A carteira de negociação simulada de 2005 a 2010 (junho), período em que foram testados os modelos VaR, foi, em média, composta de 77% de títulos públicos, 15% de ações e 8% de moedas. As participações permaneceram relativamente estáveis, devido ao rebalanceamento anual da carteira, tendo essas porcentagens oscilado durante o ano devido apenas às variações nos preços de mercado dos ativos. A carteira de títulos públicos foi composta por papéis de diferentes indexadores, e a participação de cada um foi espelhada na composição da carteira teórica utilizada para cálculo do Índice de Mercado da ANBIMA – IMA. Foram excluídas as Notas do Tesouro Nacional série C, NTN-C, indexadas ao IGP-M e em extinção pelo Tesouro Nacional devido ao IPCA ser adotado como índice de preços oficial do Governo Federal, e as série D, NTN-D, que eram 54 remuneradas pela variação do dólar e que foram extintas em julho de 2008. As parcelas detidas por cada indexador foram redefinidas anualmente com base na composição do IMA do último dia útil de cada período. Gráfico 3 – Composição da Carteira de Renda Fixa por Indexador (Posição de Fechamento) SELIC 15% 20% 25% Prefixado IPCA 30% 30% 30% 35% 35% 35% 35% 35% 35% 35% 2007 2008 2009 2010 30% 40% 40% 55% 40% 2005 2006 O indexador SELIC foi composto pelas Letras Financeiras do Tesouro – LFT, títulos remunerados pela variação diária da taxa básica da economia sem pagamento de juros, sendo o valor nominal e a devida correção pagos na data de resgate definida na emissão. Na categoria dos títulos prefixados estão as Letras do Tesouro Nacional – LTN e as Notas do Tesouro Nacional série F – NTN-F, ambos títulos com rentabilidade definida (taxa fixa) no momento da compra, com a diferença de que os últimos possuem prazo de vencimento mais longos e cupom de juros semestral. As Notas do Tesouro Nacional série B – NTN-B, compõem os ativos remunerados pela variação do IPCA, Índice de Preços ao Consumidor Amplo, índice de inflação calculado pelo IBGE e utilizado no regime de metas para inflação do BACEN. Em cada indexador, foi simulada a posse de títulos com variados prazos de vencimento, onde os mais líquidos na época do rebalanceamento receberam maior participação. A carteira de ações foi distribuída em investimentos nos principais segmentos de atuação das empresas listadas na BM&F Bovespa além da simulação da posse de um índice 55 de mercado. Para o cálculo dos preços, foram utilizados os índices setoriais da Bovespa que utilizam a capitalização de mercado como fator de ponderação. As participações de cada índice foram mantidas constantes nos rebalanceamentos anuais: mercado (25%), setor financeiro (25%), bens de consumo (15%), setor industrial (15%), companhias de óleo e gás (10%) e empresas de telecomunicações (10%). De modo análogo, na carteira de moedas, as parcelas permaneceram fixas. Pela sua importância nas carteiras dos bancos, o dólar dos Estados Unidos representa metade da carteira de câmbio, com a libra detendo 30% de participação e o euro o restante, 20%. 5.1 Preços e Taxas Os preços de mercado dos ativos foram coletados com periodicidade diária (dias úteis) para o período de 02/01/2004 a 02/07/2010. Os índices dos segmentos da BM&F Bovespa, ponderados pelo fator de capitalização do mercado, e as taxas de câmbio utilizados na pesquisa foram coletados na Economática. Os preços de mercado e as taxas indicativas dos títulos públicos foram coletadas no site da ANBIMA. 5.2 Mapeamento em Fatores de Risco e Vértices O grande número de ativos da carteira de negociação exige o agrupamento das posições em fatores de risco para a redução do custo computacional na estimação do VaR. Na presente pesquisa, foi adotado o mapeamento referencial, metodologia do Riskmetrics™ que consiste na escolha de um conjunto de ativos referenciais para o qual a posição em todos os outros ativos é mapeada. Na metodologia original o Riskmetrics™ seleciona como ativos de referência as moedas mais negociadas, índice das principais bolsas do mundo, vértices fixos da curva de juros e commodities. A metodologia utiliza técnicas para transformar posições nos ativos originais em posições sintéticas nos ativos referência para as quais se calcula o VaR. O mapeamento em fatores de risco está previsto na Circular BACEN 3.478/09, que traz em seu artigo 7º: “Art. 7º Os fatores de risco utilizados para mensuração do risco de mercado das 56 exposições devem ser classificados nas seguintes categorias: I – taxa de juros; II – taxa de câmbio; III – preço de ações; e IV – preço de mercadorias (commodities). § 1º Devem ser especificados fatores de risco para cada uma das moedas e mercados em que a instituição possua exposição relevante.” As exposições em taxas de juros, representada pelos títulos públicos, foram divididas nos fatores de risco SELIC, Prefixado e Cupom IPCA, conforme os indexadores de cada título. As volatilidades desses ativos foram calculadas com base nos retornos das curvas de mercado de cada um dos fatores de risco. As curvas de mercado, ou estrutura a termo, são vetores de taxas de desconto para cada ponto no tempo e são calculadas de forma que ao se dividir o valor nominal do papel (mais os pagamentos de juros para os títulos com cupom) pelo fator de desconto no ponto da curva correspondente à data do fluxo, obtém-se os preços unitários de mercado divulgados diariamente pela ANBIMA. Para as LTN e LFT, títulos sem pagamento de juros intermediários, a taxa indicativa divulgada pela ANBIMA para os diversos vencimentos corresponde à taxa a termo da curva de juros, ou curva de ágio e deságio no caso da LFT, nas respectivas datas de resgate de cada papel, sendo os pontos intermediários calculados através de interpolação. O fator de desconto corresponde a transformação da taxa a termo, que tem base anual (252 dias úteis), para o fator do período correspondente da data de movimento à data de vencimento. Para NTN-F e NTN-B, devido aos cupons de juros, a taxa indicativa informada pela Associação não poderia ser utilizada, já que consiste em uma taxa interna de retorno para todos os fluxos daquele vencimento. Assim calcula-se a curva de mercado até a data de resgate do primeiro papel a vencer em relação à data de movimento por meio da ferramenta Atingir Meta do MS Excel, de modo que, ao se trazer a valor presente os fluxos de juros e pagamento do principal descontando-se pela curva, obtém-se o preço de mercado divulgado pela ANBIMA. Para o segundo papel a vencer, os fluxos de juros que tiverem data de pagamento anterior ou igual à data de vencimento do primeiro papel são descontados pelos fatores de desconto já calculados no passo anterior, e os posteriores calculados através do Atingir Meta, 57 novamente pretendendo igualar os fluxos descontados ao preço de mercado. O processo continua de modo semelhante até o último vencimento. Foi especificado um fator de risco para cada uma das moedas da carteira – dólar, libra e euro – sendo seus retornos calculados a partir das respectivas taxas de conversão para o real. Para as exposições em preço de ações, cada fator de risco representa um segmento de mercado, e os retornos calculados a partir dos números índice de cada segmento. Outra exigência do supervisor para o cálculo do VaR é a utilização de estruturas a termo e número de vértices suficientes para avaliar adequadamente os riscos das exposições em taxas de juros. Os vértices são prazos padrões estabelecidos para fluxos de caixa de uma carteira de títulos, visando à simplificação dos cálculos matemáticos. Diversos títulos possuem pagamento de juros periódicos (em geral, semestrais ou anuais) e alguns são amortizados em diversas parcelas. Se cada fluxo desses papéis fosse tratado como um ativo zero coupon, a quantidade de ativos do portfólio seria demasiadamente grande, dificultando o processamento dos cálculos do VaR. Então, agrupa-se esses diversos fluxos de pagamento em prazos preestabelecidos, que são os vértices. Foram definidos 18 vértices de forma a abranger os prazos representativos no mercado e assim obter um número razoável de volatilidades e correlações para o cálculo do valor em risco da carteira. Tabela 6 – Mapeamento dos Fluxos de Pagamentos dos Ativos de Renda Fixa em Vértices Mapeamento em Vértices Vértice Prazo do Vértice Prazo do Fluxo Fluxo 1 1 dia 378 1,5 anos 21 1 mês 504 2 anos 42 2 meses 756 3 anos 63 3 meses 1.008 4 anos 84 4 meses 1.260 5 anos 105 5 meses 2.520 10 anos 126 6 meses 3.780 15 anos 189 9 meses 5.040 20 anos 252 1 ano 7.560 30 anos A alocação dos fluxos de caixa em vértices é baseada no RiskMetricsTM (1996). O método consiste na distribuição do valor de mercado nas proporções α0 e (1- α0) nos vértices imediatamente anterior (vértice 1) e posterior (vértice 2), onde α0 é definido por: 58 0 Prazo Vértice 2 - Prazo Fluxo Prazo Vértice 2 - Prazo Vértice 1 Desta forma, cada fluxo que não tenha o prazo coincidente com um dos vértices será mapeado em dois outros fluxos cujos valores serão proporcionais ao valor presente do fluxo original: VMTM v1 0 VMTM VMTM v 2 1 0 VMTM onde: VMTM = Valor do fluxo marcado a mercado original VMTM v1 = Valor do fluxo marcado a mercado alocado no vértice 1 VMTM v 2 = Valor do fluxo marcado a mercado alocado no vértice 2 Como a curva de mercado foi construída de modo a cada vértice ser considerado um título zero cupom, cada vértice pode ser considerado um ativo, assim, a carteira simulada possui o total de 82 ativos. Para a definição da carteira de títulos públicos, foram priorizados os papéis líquidos de médio e longo prazo, por naturalmente estarem sujeitos a maiores volatilidades. Considerando o período de 2005 a 2010, a distribuição média em vértices para os três diferentes indexadores utilizados está mostrada nos gráficos a seguir: Gráfico 4 – Distribuição Média entre os Vértices dos Ativos Prefixados (2005 a 2010) 1.200,0 1.000,0 R$ Milhões 800,0 600,0 400,0 200,0 0,0 1 21 42 63 84 105 126 189 252 378 504 756 1008 1260 2520 3780 5040 7560 Valor MtM - Títulos Públicos Prefixados 59 Gráfico 5 – Distribuição Média entre os Vértices dos Ativos Indexados ao IPCA (2005 a 2010) 2.000,0 1.800,0 1.600,0 1.400,0 R$ Milhões 1.200,0 1.000,0 800,0 600,0 400,0 200,0 0,0 1 21 42 63 84 105 126 189 252 378 504 756 1008 1260 2520 3780 5040 7560 Valor MtM - Títulos Públicos Indexados ao IPCA Gráfico 6 – Distribuição Média entre os Vértices dos Ativos Indexados à SELIC (2005 a 2010) 3.500,0 3.000,0 2.500,0 R$ Milhões 2.000,0 1.500,0 1.000,0 500,0 0,0 1 21 42 63 84 105 126 189 252 378 504 756 1008 1260 2520 3780 5040 7560 Valor MtM - Títulos Públicos Indexados à SELIC 60 6. ANÁLISE DOS RESULTADOS 6.1 Estatística Descritiva dos Retornos Com o objetivo de dar destaque à crise subprime, a amostra de dados foi dividida em quatro períodos de análise: pré-crise, compreendendo o período entre janeiro de 2005 a junho de 2007; crise, abrangendo a fase de maior volatilidade da crise do subprime, entre julho de 2007 e dezembro de 2008; pós-crise, de 2009 a junho de 2010; e a análise da amostra completa dos dados, de 2005 a 2010. O ponto de corte dos períodos foi determinado por meio da observação dos retornos e dos fatos acontecidos nos mercados financeiros durante a crise, conforme descrito na seção 2. Deve-se notar, entretanto, que já em maio e junho de 2006, os mercados de ações, dólar e renda fixa viveram um estresse, com as más notícias vindas da economia norteamericana: as incertezas em relação à extensão do ciclo de aperto monetário, preocupações com estagflação e os primeiro indícios de esfriamento do mercado imobiliário. A tabela 7 resume as estatísticas do P/L diário da carteira em cada um desses momentos. Tabela 7 – Estatísticas Descritivas dos Retornos da Carteira nos Períodos de Análise Período Pré-crise Crise Pós-crise Amostra Completa 03/01/2005 a 29/06/2007 01/07/2007 a 31/12/2008 02/01/2009 a 30/06/2010 03/01/2005 a 30/06/2010 Dias Úteis 624 380 373 1377 Média P/L 18.486.242,88 (9.285.017,16) 9.184.381,59 8.302.747,54 5.733.859,18 13.806.290,91 7.469.006,90 5.041.397,77 18.084.730,07 (7.167.748,78) 8.343.255,00 10.568.226,09 143.231.756,46 269.134.156,38 144.250.483,11 187.075.939,44 Curtose P/L 2,23 3,91 0,99 6,30 Assimetria P/L 0,06 0,03 0,07 (0,07) Erro padrão P/L Mediana P/L Desvio padrão P/L 6 P/L Mínimo P/L Máximo (628.214.869,08) (1.284.500.874,05) (433.384.991,91) (1.284.500.874,05) 718.801.335,18 1.244.141.421,12 507.112.853,37 1.244.141.421,12 Nota-se que somente durante o período da crise, a média das variações da carteira foi negativa, com assimetria próxima de zero, entretanto. Outro fato marcante é o desvio padrão 6 A fórmula utilizada para a curtose, , considera a curva normal como tendo curtose 0 (zero). 61 na ordem de R$ 269,1 milhões, o maior entre os analisados. Não coincidentemente, encontrase também nesse período a maior perda e lucros obtidos na carteira em um único dia, em patamares acima de R$ 1 bilhão. Na pré e pós-crise, a volatilidade foi reduzida, bem como ficaram mais limitadas as perdas e ganhos da carteira. A curtose após 2009 foi a que mais se aproximou da curva normal. Apesar de todos os cortes da amostra apresentarem excesso de curtose em relação à gaussiana, a totalidade da amostra apresentou curtose bem acima daquela. Também com a amostra completa, a assimetria se diferencia dos demais períodos, se tornando negativa, mostrando que as caudas superiores apresentam bastante curtose. 6.2 Contagem das Violações Os momentos analisados apresentaram grandes diferenças no que tange às violações observadas e ao modelo considerado mais adequado para cálculo do VaR. Tabela 8 – Violações Acumuladas pelos Modelos VaR nos Períodos de Análise Amostra Pós-crise completa Crise Pré-crise Metodologias Quantidade Violações Quantidade Esperada Frequência (dias) Quantidade Violações Quantidade Esperada Frequência (dias) Quantidade Violações Quantidade Esperada Frequência (dias) Quantidade Violações Quantidade Esperada Frequência (dias) DN - Variância DN DN Amostral EWMA 0,94 Híbrido 10 7 6 6a7 62 18 89 12 SH 11 MC 9 104 11 57 13 69 9 35 1 29 0 42 3 373 18 24 124 21 77 57 66 3a4 21 1 32 7 3a4 373 29 53 26 13 a 14 47 53 No período pré-crise, apenas os modelos Delta Normal, com EWMA 0,94 e Híbrido, apresentaram número de violações consistente com o grau de confiança adotado (99%). Devido a serem metodologias de reação lenta, a Simulação Histórica e o Delta Normal com 62 variância amostral, apresentaram o maior número de violações, não capturando os estresses de maio e junho de 2006, somente neste período tendo apresentado seis exceções cada, quantidade esperada para todo o intervalo de 30 meses que constitui o pré-crise. Durante a crise, todos os métodos de estimação do VaR tenderam a subestimar o risco da carteira, apresentando violações bem acima do normal. O modelo de Monte Carlo, devido ao gatilho utilizado para aumentar a volatilidade quando o número de violações se eleva, apresentou o melhor comportamento, com nove violações, ainda assim acima do esperado (3 a 4 violações). Calculado pela técnica Delta Normal por variância amostral, o VaR apresentou a média de uma violação por mês (21 d.u.). Com o passar da volatilidade gerada pela crise, os modelos que extraem informações por igual de toda a amostra tenderam a ficarem mais conservadores e se mantiveram em patamares elevados, influenciados pela volatilidade do período anterior. Assim, a Simulação Histórica não sofreu nenhuma violação e o Delta Normal – Variância Amostral, e consequentemente o Híbrido, apresentaram uma violação apenas. De modo contrário, o alisamento exponencial (0,94) fez com que o VaR rapidamente decrescesse, violando a cada estresse isolado do mercado, motivados pelas incertezas em relação à recuperação das grandes nações, que faziam os mercados se agitarem com a divulgação de indicadores e/ou fatos ruins da economia, porém, logo se sucedendo a dias de calmaria. Dentro da faixa de exceções esperadas, apenas o modelo de Monte Carlo com três violações. Por conta do péssimo desempenho durante a crise, os modelos ficaram acima da faixa de exceções esperada, considerando toda a amostra. O modelo Híbrido, que na crise se beneficiou do poder de reação do EWMA 0,94 e, após ela, da lentidão da variância amostral, se mostrou a abordagem que menos subestimou o VaR (18), seguido do modelo de Monte Carlo (21). Os demais métodos apresentaram, em média, o dobro de violações do que seria o ideal. Nos gráficos abaixo, foram plotados o comportamento dos resultados hipotéticos da carteira e das perdas máximas esperadas para as diferentes metodologias durante o ápice da crise do subprime. Nota-se a maior estabilidade dos valores de VaR para os modelos de variância amostral e de simulação histórica, que dão peso igual a todas as observações da amostra, o que acarreta em constantes violações nos períodos de crise. De maneira contrária, o 63 modelo com decaimento exponencial mostrou grandes oscilações no período, tendo reagido rapidamente aos picos de volatilidade. Gráfico 7 – Evolução do VaR Simulação Histórica e do P/L da Carteira durante a Crise do Subprime 1,50 1,00 Bilhões 0,50 - -0,50 -1,00 -1,50 SH P/L Gráfico 8 – Evolução do VaR Delta Normal e do P/L da Carteira durante a Crise do Subprime 1,50 1,00 Bilhões 0,50 - -0,50 -1,00 -1,50 DN - Híbrido P/L DN - Variância Amostral DN - EWMA 0,94 64 Gráfico 9 – Evolução do VaR Monte Carlo e do P/L da Carteira durante a Crise do Subprime 1,50 1,00 Bilhões 0,50 - -0,50 -1,00 -1,50 MC 6.3 P/L Teste Regulamentar de Basileia Como o teste de Basileia estabelece a janela padrão de 250 observações, aproximadamente um ano, foram realizados testes nos últimos dias úteis de cada ano, abrangendo períodos de volatilidades distintas. Conforme mostrado no gráfico 10, onde as linhas amarelas e vermelhas indicam o começo das zonas de mesma cor, nos anos de 2005, 2009 e 2010 (até junho), quando os mercados viveram períodos de calmaria, os modelos de forma geral se enquadraram na zona verde. Nos anos de 2006, com o estresse vivido nos meses de maio e junho, e em 2007 e 2008, no auge da crise subprime, as metodologias estiveram na maior parte do tempo na zona amarela, situação que embora exiga a atenção do gestor, não desqualifica os modelos como previsores das perdas máximas da carteira. Somente a abordagem Delta Normal por variância amostral foi classificada na zona vermelha do teste de Basileia na data base 31 de dezembro de 2008, status que considera o modelo como inacurado. 65 O modelo híbrido obteve o melhor desempenho no teste, se enquadrando, na maior parte dos anos, na zona verde, onde é alta a probabilidade de Erro Tipo I. Gráfico 10 – Avaliação dos Modelos VaR no Teste Regulamentar de Basileia ZONA VERMELHA 14 12 ZONA AMARELA 8 6 4 ZONA VERDE Quantidade de violações 10 2 0 dez-05 dez-06 DN - Variância Amostral dez-07 dez-08 DN - EWMA 0,94 dez-09 DN - Híbrido jun-10 SH MC Segundo as diretrizes dadas por Basileia III, de primar pelo conservadorismo, pelo aumento na exigência de capital, o modelo híbrido pode ser considerado o modelo mais adequado dentre os analisados para a alocação de capital de um banco com esse perfil de carteira. Isso pelo caráter misto que tem, de combinar a maior estabilidade do modelo de variância amostral, evitando que o VaR caia abruptamente em épocas de mercados mais amenos, e a rapidez em capturar os regimes de volatilidade de curto prazo do método EWMA. Entretanto, deve-se ressaltar a pouca adequação do modelo para carteiras nãi-lineares e a alta flexibilidade do modelo de Monte Carlo, que pode ser ajustada para diferentes distribuições e diferentes formas de cômputo da variância e média dos retornos, tendo no trabalho sido utilizada a forma mais simples, que é a estimação da variância e média diretamente da amostra dos dados. Ajustes nesse modelo poderiam torná-lo mais aderente às características dos retornos. Essa flexibilidade não existe no modelo Delta Normal, em que podem ser ajustados somente o parâmetro de alisamento e a janela de observação dos retornos. A diferença na ponderação dos dados fica clara no gráfico. Durante o ano de 2008, notadamente volátil, o EWMA manteve-se com menores níveis de violação, enquanto que nos 66 anos seguintes, menos instáveis, principalmente para uma carteira de títulos concentrada em títulos públicos, o modelo frequentemente subestimou o risco. O valor do Abkt, utilizado para o cálculo da PRM, apurado nas mesmas datas-base, pode ser visto no gráfico abaixo. Por terem saído da zona verde, todos os modelos foram penalizados com um valor do adicional diferente de zero ao fim dos anos de 2007 e 2008. Gráfico 11 – Valor do Adicional de Backtesting (Abkt) para os Modelos VaR 1 ZONA VERMELHA 0,9 0,8 ZONA AMARELA 0,7 Abkt 0,6 0,5 0,4 0,3 ZONA VERDE 0,2 0,1 MC SH DN - Híbrido DN - EWMA 0,94 DN - Variância … 0 dez-06 dez-07 dez-08 dez-09 mar-10 Data base 6.4 jun-10 Teste de Kupiec O teste de Kupiec (1995) foi conduzido nos quatro períodos de análise detalhados na seção 6.1. O teste apresentou resultados distintos, dependendo do período. No pré-crise, os modelos se mantiveram dentro da região de confiança do teste, aceitando-os como bons preditores das perdas máximas da carteira. Já durante a crise, todos os modelos caíram na zona de rejeição, extrapolando o limite superior. Kupiec (1995) afirma que as abordagens que violam o limite superior tendem a subestimar o risco da carteira, podendo ocorrer perdas relevantes além do VaR. No pós-crise, novamente as metodologias voltaram a se enquadrar na zona de aceitação, à exceção da Simulação Histórica que ficou abaixo do limite inferior, tendo superestimado o VaR no período. 67 Abrangendo todo o período de análise, o teste não rejeitou apenas os modelos Híbrido e Monte Carlo. Gráfico 12 – Avaliação dos Modelos pelo Teste de Kupiec Pré-crise Crise Pós-crise Amostra Completa 30 29 28 27 26 25 24 23 22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0 DN - Variância Amostral DN - EWMA 0,94 DN - Híbrido SH MC Zona de Não-Rejeição do Teste Considerando os diversos períodos, a Simulação Histórica obteve o pior desempenho, sendo considerado acurada somente no período pré-crise. No geral, os modelos tiveram tendência a subestimar o risco de mercado da carteira de negociação, sendo considerados pouco conservadores, na contramão do que Basileia vem tentando pregar para o mercado no seu pilar III, a disciplina de mercado. Assim, o supervisor deveria ter atenção aos bancos que utilizem esses modelos para o cálculo do VaR. Tanto os métodos paramétricos quanto os nãoparamétricos não foram capazes de medir os riscos na cauda da distribuição empírica dos retornos durante períodos de maior volatilidade. 6.5 Teste de Christoffersen No período pré-crise, o teste condicional de Christoffersen (1998), a 95% de confiança, considerou todas as técnicas como adequadas para cálculo do VaR. Entretanto, o modelo de simulação histórica ficou próximo do valor crítico para o teste de cobertura, e seria rejeitado a nível de significância de 10%. 68 Tabela 9 – Resultado do Teste de Christoffersen para o Período Pré-Crise Metodologias Valor Crítico DN Variância Amostral DN - EWMA 0,94 DN Híbrido MC SH Teste Estatística Independência RV p-valor 3,84 0,326 0,159 0,117 0,264 0,395 5% 57% 69% 73% 61% 53% RV p-valor 3,84 1,95 0,09 0,01 1,09 3,00 5% 16% 76% 93% 30% 8% RV p-valor 5,99 2,27 0,25 0,13 1,36 3,40 5% 32% 88% 94% 51% 18% Cobertura Conjunto Entretanto, ao avaliarmos os modelos durante a crise, todos foram rejeitados nos testes de cobertura e no teste conjunto, tendo a metodologia DN – Variância Amostral extrapolado o valor crítico também no teste de independência, que implica que, a expectativa de ocorrer uma violação no dia seguinte (t+1), depende do comportamento observado em t, o que contraria a assunção do modelo de independência dos retornos. Tabela 10 – Resultado do Teste de Christoffersen para o Período da Crise Metodologias Valor Crítico DN Variância Amostral DN - EWMA 0,94 DN Híbrido MC SH Teste Estatística Independência RV p-valor 3,84 5,05 0,78 0,66 3,55 2,48 5% 2% 38% 42% 6% 12% RV p-valor 3,84 28,14 11,38 9,12 5,19 13,81 5% 0% 0% 0% 2% 0% RV p-valor 5,99 33,18 12,16 9,78 8,74 16,29 5% 0% 0% 1% 1% 0% Cobertura Conjunto Novamente em épocas de calmaria, com o passar da crise, os modelos se comportaram bem, mas o teste revelou algumas particularidades. A Simulação Histórica foi rejeitada pelo teste devido a não ter apresentado violações no período. Por apresentarem somente uma violação, as abordagens Híbrida e por Variância Amostral mantiveram-se próximas do valor crítico do teste. Na direção contrária, os resultados do modelo EWMA (0,94) também ficaram perto do limite, mas por excesso de violações. A Simulação de Monte Carlo apresentou melhor resultado, tendo sido aprovado com folga nos três testes. 69 Tabela 11 – Resultado do Teste de Christoffersen para o Período Pós-Crise Metodologias Valor Crítico DN Variância Amostral DN - EWMA 0,94 DN Híbrido MC SH Teste Estatística Independência RV p-valor 3,84 0,005 0,27 0,005 0,05 0,00 5% 94% 60% 94% 83% 100% RV p-valor 3,84 2,85 2,30 2,85 0,15 7,50 5% 9% 13% 9% 69% 1% RV p-valor 5,99 2,85 2,57 2,85 0,20 7,50 5% 24% 28% 24% 90% 2% Cobertura Conjunto Analisando todo o período, apenas o modelo Delta Normal – Híbrido foi considerado adequado em todos os testes. Monte Carlo teve desempenho ruim no teste conjunto, tendo ficado próximo dos valores críticos nos demais testes. Tabela 12 – Resultado do Teste de Christoffersen para a Amostra Completa Metodologias Valor Crítico DN Variância Amostral DN - EWMA 0,94 DN Híbrido MC SH Teste Estatística Independência RV p-valor 3,84 5,96 1,00 0,48 2,91 2,57 5% 1% 32% 49% 9% 11% RV p-valor 3,84 12,93 8,72 1,20 3,31 6,30 5% 0% 0% 27% 7% 1% RV p-valor 5,99 18,89 9,72 1,68 6,23 8,86 5% 0% 1% 43% 4% 1% Cobertura Conjunto 6.6 Testes de Suficiência da Exigência de Capital Nas subseções anteriores, observou-se que os modelos de VaR mais amplamente utilizados na indústria bancária possuem um viés de subestimar o risco de mercado da carteira. Todavia, a questão que surge é se o aumento na exigência de capital para os modelos menos acurados, por meio do maior valor de Abkt, representa uma compensação suficiente para que o banco não incorra em riscos de mercado maiores que o previsto. E ainda, mesmo para modelos acurados, o valor da PRM é satisfatório para suportar perdas extremas? Os próximos dois tópicos procuraram responder a essas questões, através da simulação de dois testes, com o segundo sendo conduzido conforme a metodologia descrita na seção 4.4. 70 6.6.1 Crise do Subprime Durante a crise financeira, verificou-se que a maior queda no valor da carteira (período de 21 d.u.) ocorreu no intervalo de 26/09/2008 a 27/10/2008, período em que houve um aumento na volatilidade reflexo ainda da quebra do banco de investimentos Lehman Brothers. Nesse período o portfólio diminuiu R$ 4,9 bilhões em valor de mercado. Desse modo, calculou-se a exigência de capital com a fórmula atual, na posição 26/09/2008, com o objetivo de se testar a suficiência do capital regulatório frente à perda que se seguiria. Os resultados para cada metodologia estão detalhados nas tabelas 13 a 17. Neste período, os modelos VaR já estavam incorporando uma maior volatilidade, estando em patamares elevados. Além disso, em 30/06/2008, última data-base de apuração do fator Abkt, com exceção da simulação de Monte Carlo, os demais modelos acumulavam número de violações suficientes para serem penalizados com o aumento da PRM por meio do fator. O fator Aqlt, relativo à qualidade da estrutura de gerenciamento de risco de mercado, foi considerado como zero, assumindo que a instituição financeira fictícia teria tido boa avaliação de sua gestão de risco de mercado. Se a instituição financeira detentora da carteira trading simulada utilizasse o VaR Histórico, a exigência de capital dessa carteira seria de R$ 16,0 bilhões, ou 26% do valor do portfólio, conforme tabela 13. Este valor de capital, requerido pelo BACEN, seria o suficiente para cobrir pouco mais de três vezes o que a carteira viria a perder um mês à frente. O sVaR seria responsável pela metade da alocação de capital, após ser multiplicado por 3,5, dado que o modelo foi penalizado por acumular 6 violações, acrescendo dessa forma 0,5 ao fator 3 aplicado a qualquer metodologia. Sem o sVaR, ou seja, retornando à formula anterior de Basileia, mesmo assim a exigência seria satisfatória para suportar a volatilidade do período. Tabela 13 – PRM pelo Modelo de Simulação Histórica em 26/09/2008 VaR Data do VaR / sVaR Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) sVaR 25/09/2008 25/09/2008 2.268.787.402,58 2.268.787.402,58 2.261.138.593,03 2.299.952.203,70 6 N/A 0,5 0 3,5 71 Tabela 13 – PRM pelo Modelo de Simulação Histórica em 26/09/2008 (continuação) VaR sVaR VaR Médio x M (B) Máximo A e B 7.913.985.075,60 7.913.985.075,60 8.049.832.712,94 8.049.832.712,94 Fator S2 Valor Transição PRM MtM Carteira % da Carteira P/L realizado % da Exigência N/A 1 7.913.985.075,60 8.049.832.712,94 15.963.817.788,54 62.447.150.434,89 26% -4.900.467.537,99 31% Pelo método do RiskMetrics™ com lambda 0,94, tanto o VaR quanto o sVaR se encontravam em níveis mais altos, e juntamente com um fator Abkt de 0,65, fizeram com que o requerimento de capital da carteira saltasse para R$ 19,8 bilhões, o que representa 32% do total de ativos e quatro vezes superior ao resultado negativo do portfólio nos 21 dias. De acordo com o mostrado na tabela 14, mesmo representando 61,51% da PRM, o sVaR poderia ser retirado da fórmula sem comprometer a estabilidade almejada pelo supervisor. Tabela 14 – PRM pelo modelo DN EWMA (0,94) em 26/09/2008 VaR sVaR Data do VaR / sVaR Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) VaR Médio x M (B) Máximo A e B 25/09/2008 25/09/2008 3.621.403.941,41 3.785.024.716,24 2.092.540.210,01 3.343.370.594,92 7 N/A 0,65 0 3,65 7.637.771.766,54 12.203.302.671,45 7.637.771.766,54 12.203.302.671,45 Fator S2 Valor Transição PRM MtM Carteira % da Carteira P/L realizado % da Exigência N/A 1 7.637.771.766,54 12.203.302.671,45 19.841.074.437,99 62.447.150.434,89 32% -4.900.467.537,99 25% 72 Na tabela 15, podemos notar que embora recebesse a maior penalização, 0,75, com 8 violações acumuladas, a abordagem paramétrica sem alisamento exponencial foi a que gerou a menor parcela, R$ 15,7 bilhões, 1/4 dos ativos. Apesar disso, a desvalorização do portfólio equivaleria somente a 31% do capital alocado. Da mesma forma que as duas metodologias anteriores, mesmo considerando um fator S2 igual a zero, onde a alocação passaria a ser determinada apenas pelo VaR, as perdas seriam suportadas com relativa folga. Tabela 15 – PRM pelo modelo DN Variância Amostral em 26/09/2008 VaR sVaR Data do VaR / sVaR Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) VaR Médio x M (B) Máximo A e B 25/09/2008 25/09/2008 2.135.345.180,95 2.135.345.180,95 2.055.452.863,59 2.124.719.840,17 8 N/A 0,75 0 3,75 7.707.948.238,46 7.967.699.400,63 7.707.948.238,46 7.967.699.400,63 Fator S2 Valor Transição PRM MtM Carteira % da Carteira P/L realizado % da Exigência N/A 1 7.707.948.238,46 7.967.699.400,63 15.675.647.639,09 62.447.150.434,89 25% -4.900.467.537,99 31% Considerando sempre o máximo entre os dois modelos Delta Normal, o modelo Híbrido teve exigência levemente superior ao EWMA 0,94, devido à média dos últimos 60 dias do VaR e sVaR. A PRM de R$ 20,4 bilhões corresponderia a aproximadamente 1/3 do portfólio, muito acima da pior perda sofrida pela carteira durante a crise do subprime. Tabela 16 – PRM pelo modelo DN Híbrido em 26/09/2008 VaR Data do VaR / sVaR Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) sVaR 25/09/2008 25/09/2008 3.621.403.941,41 3.785.024.716,24 2.252.568.112,96 3.343.370.594,92 7 N/A 0,65 0 3,65 73 Tabela 16 – PRM pelo modelo DN Híbrido em 26/09/2008 (continuação) VaR sVaR VaR Médio x M (B) Máximo A e B 8.221.873.612,30 8.221.873.612,30 12.203.302.671,45 12.203.302.671,45 Fator S2 Valor Transição PRM MtM Carteira % da Carteira P/L realizado % da Exigência N/A 1 8.221.873.612,30 12.203.302.671,45 20.425.176.283,76 62.447.150.434,89 33% -4.900.467.537,99 24% O Modelo de Monte Carlo acumulava quatro violações em 30/06/2010 e não sofreu penalização pelo adicional de Backtesting. Entretanto, a alocação ainda se manteve acima das abordagens de Simulação Histórica e DN Variância amostral, que acumulavam 6 e 8 exceções, respectivamente. Essa exigência, de R$ 16,4 bilhões, corresponderia a 26,3% do valor de mercado dos ativos e poderia suportar prejuízos três vezes maiores que o ocorrido. Tabela 17 – PRM pelo modelo Monte Carlo em 26/09/2008 VaR sVaR Data do VaR / sVaR Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) VaR Médio x M (B) Máximo A e B 25/09/2008 2.708.284.285,48 2.570.375.278,60 4 25/09/2008 2.861.435.456,06 2.898.147.662,44 N/A Fator S2 Valor Transição PRM MtM Carteira % da Carteira P/L realizado % da Exigência N/A 1 7.711.125.835,80 8.694.442.987,31 16.405.568.823,10 62.447.150.434,89 26% -4.900.467.537,99 30% 0 0 3 7.711.125.835,80 7.711.125.835,80 8.694.442.987,31 8.694.442.987,31 Portanto, uma crítica que pode ser feita ao framework atual é a falta de incentivos para os bancos manterem modelos adequados de VaR. Como visto, o modelo Delta Normal por variância amostral, que acumulava maior quantidade de violações à época, e, portanto, recebia 74 a maior penalização pelo fator Abkt, gerou uma alocação menor do que a Simulação de Monte Carlo, que estava classificada na zona verde do Sistema Basileia e não era punido por meio do fator. Num apanhado geral, todos os modelos, apesar de apresentarem desempenhos diferentes nos testes de aderência durante a crise, não mostraram problemas em seu uso no cálculo da exigência da carteira de negociação, mesmo na ausência do sVaR na equação da parcela. A alocação, em média, foi de 28,3% da carteira de negociação, enquanto a perda efetiva foi de apenas 7,8% do valor do portfólio.. A nova fórmula da PRM atende aos requisitos de conservadorismo disseminados por Basileia. Em relação à diretriz trazida por Basileia III de se gerar um colchão de liquidez durante épocas de calmaria para serem utilizados durante momentos de estresse, a crise financeira das hipotecas norte-americanas seria uma situação onde o regulador poderia utilizar um fator S2 menor que um, de modo a se diminuir o percentual da carteira mantido junto ao órgão supervisor e não inviabilizar os negócios, já que os modelos de VaR encontravam-se em patamar elevado. 6.6.2 Análise de Cenários de Estresse Diferentemente do estresse vivido durante o cenário anterior, em 2010 a volatilidade encontrava-se em níveis baixos e a maioria dos modelos não apresentava violações nos últimos 250 dias úteis, não sendo necessário, portanto, penalização por meio do Abkt. O fator Aqlt foi novamente considerado como zero. Apesar disso os modelos geravam valores de alocação bastante distintos, devido quase que exclusivamente ao sVaR. Pelo sVaR ser definido atualmente como o pior VaR gerado, utilizando a carteira do dia e um período de estresse relevante para a instituição, e considerando dados desde 2004 aos dias atuais, o sVaR para a carteira simulada se manterá em níveis elevados enquanto o cálculo abranger a crise de 2007/2008, período que deu origem ao pior VaR (sVaR) em todos os modelos. Realizando o teste de estresse histórico em 01/07/2010, a pior perda da carteira, em 21 dias úteis consecutivos, aconteceria se os movimentos dos preços presenciados na crise do subprime ocorressem novamente naquela data. Esse cenário geraria uma desvalorização de R$ 5,5 bilhões em função principalmente das quedas de R$ 3,6 bilhões no valor das ações da 75 carteira e R$ 2,5 bilhões na carteira de títulos públicos, contrabalanceadas pelo modesto ganho de R$ 623,5 milhões em moedas estrangeiras. Desconsiderando o efeito diversificação, isto é, obtendo o pior período de 21 d.u. de estresse para cada ativo individualmente e supondo que as variações nos preços vividas nesse intervalo ocorressem simultaneamente na data do teste, 01/07/2010, a perda de valor seria de aproximadamente R$ 7,0 bilhões, principalmente pelas moedas que deixariam de dar o contrapeso da carteira e gerariam um resultado negativo de R$ 703,9 milhões. No cenário prospectivo, onde se considerou que as volatilidades dos ativos seriam realizadas um mês à frente com três desvios-padrão, a queda no valor de mercado do portfólio seria de R$ 3,3 bilhões. Embora as alocações tenham se mostrado discrepantes, à exceção de algumas particularidades que serão descritas adiante, em todos os modelos VaR as conclusões foram idênticas. Conforme as tabelas 18 a 22 a seguir, a PRM seria suficiente para suportar os cenários de estresse calculados, onde o pior cenário corresponderia, em média, a apenas 35% do montante de capital demandado pelo BACEN. Porém, sem o sVaR, caso uma crise semelhante a do subprime viesse a acontecer novamente, o requerimento de capital gerado somente pelo VaR seria insuficiente, visto que o VaR estava sendo calculado sob um regime de baixa volatilidade. Assim, o princípio de conservadorismo de Basileia justifica a inclusão de uma medida de estresse no cômputo da PRM, visando torná-la adequada para suportar esses cenários, a despeito das suas baixas probabilidades de ocorrência. Algumas pessoas podem alegar que, como o cálculo da alocação é diário, se o mercado começasse a passar por um período de crise, o VaR iria incorporar essa volatilidade e gerar uma alocação maior a cada dia e, ao final do período de 21 dias, o capital alocado já seria suficiente. Contudo, na tabela 18, pode-se notar que a média do VaR vezes o multiplicador encontrava-se bem acima do VaR, sendo improvável que 1) o VaR aumentasse de forma a se tornar-se maior que aquele e 2) este acréscimo fosse suficiente para ampliar rapidamente a média dos últimos 60 dias de VaR. Tabela 18 – Avaliação da PRM pelo modelo Simulação Histórica em 01/07/2010 VaR Data do VaR / sVaR Valor em Risco (A) Média 60 dias Violações (250 dias) 30/06/2010 1.486.866.119,02 1.575.765.048,57 - sVaR 30/06/2010 3.611.845.388,40 3.625.253.816,56 N/A 76 Tabela 18 – Avaliação da PRM pelo modelo Simulação Histórica em 01/07/2010 (cont.) VaR sVaR 0 0 3 Abkt Aqlt Multiplicador (M) VaR Médio x M (B) Máximo A e B 4.727.295.145,72 4.727.295.145,72 Fator S2 Valor Transição PRM MtM Carteira: % da Carteira Estresse Histórico % da Exigência Estresse s/ E.D. % da Exigência Cenário (3 d.p.) % da Exigência N/A 1 4.727.295.145,72 10.875.761.449,68 15.603.056.595,40 64.786.243.511,86 24% -5.527.701.034,78 35% -6.971.555.428,01 45% -3.339.853.898,56 21% 10.875.761.449,68 10.875.761.449,68 O VaR Histórico gerou uma exigência de R$ 15,6 bilhões, aproximadamente ¼ da carteira trading. A introdução do sVaR na fórmula fez com que a alocação aumentasse 230,1%. Pela metodologia Delta Normal com alisamento exponencial, a alocação chegou a metade da carteira de negociação, R$ 32,7 bilhões, devido ao sVaR ter tornado o requerimento de capital quase sete vezes superior à antiga fórmula. O modelo foi o único a sofrer penalização, por ter acumulado 6 violações na data-base junho de 2010. Tabela 19 – Avaliação da PRM pelo modelo DN EWMA (0,94) em 01/07/2010 VaR Data de Cálculo Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) sVaR 30/06/2010 30/06/2010 1.408.644.918,44 7.919.614.594,71 1.375.501.271,83 7.961.303.200,62 6 N/A 0,5 0 3,5 77 Tabela 19 – Avaliação da PRM pelo modelo DN EWMA (0,94) em 01/07/2010 (cont.) VaR Médio x M (B) Máximo A e B VaR sVaR 4.814.254.451,41 4.814.254.451,41 27.864.561.202,18 27.864.561.202,18 Fator S2 N/A 1 Valor Transição 4.814.254.451,41 27.864.561.202,18 PRM 32.678.815.653,59 MtM Carteira: 64.786.243.511,86 % da Carteira 50% Estresse Histórico -5.527.701.034,78 % da Exigência 17% Estresse s/ E.D. -6.971.555.428,01 % da Exigência 21% Cenário (3 d.p.) -3.339.853.898,56 % da Exigência 10% Sem alisamento exponencial, o modelo gerou a menor exigência entre os métodos avaliados, porém, ainda assim muito superior às perdas estimadas nos cenários. Tabela 20 – Avaliação da PRM pelo modelo DN Variância Amostral em 01/07/2010 VaR sVaR Data de Cálculo Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) VaR Médio x M (B) Máximo A e B 30/06/2010 1.279.087.736,11 1.349.918.977,80 1 30/06/2010 3.542.949.722,15 3.558.328.500,56 N/A Fator S2 Valor Transição PRM MtM Carteira: % da Carteira Estresse Histórico % da Exigência Estresse s/ E.D. % da Exigência Cenário (3 d.p.) % da Exigência N/A 1 4.049.756.933,40 10.674.985.501,69 14.724.742.435,09 64.786.243.511,86 23% -5.527.701.034,78 38% -6.971.555.428,01 47% -3.339.853.898,56 23% 0 0 3 4.049.756.933,40 4.049.756.933,40 10.674.985.501,69 10.674.985.501,69 78 Embora considere o máximo entre as duas abordagens anteriores, o Delta Normal Híbrido gerou alocação pouco abaixo do EWMA, por ter fator Abkt zero na data do teste. Com o sVaR, a PRM teve incremento de 534% em relação à que parcela que seria calculada sem a medida. Tabela 21 – Avaliação da PRM pelo modelo DN Híbrido em 01/07/2010 VaR SVaR Data de Cálculo Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) VaR Médio x M (B) Máximo A e B 30/06/2010 1.408.644.918,44 1.489.482.917,38 1 30/06/2010 7.919.614.594,71 7.961.303.200,62 N/A Fator S2 Valor Transição PRM MtM Carteira: % da Carteira Estresse Histórico % da Exigência Estresse s/ E.D. % da Exigência Cenário (3 d.p.) % da Exigência N/A 1 4.468.448.752,14 23.883.909.601,87 28.352.358.354,00 64.786.243.511,86 44% -5.527.701.034,78 19% -6.971.555.428,01 25% -3.339.853.898,56 12% 0 0 3 4.468.448.752,14 4.468.448.752,14 23.883.909.601,87 23.883.909.601,87 Sem a inclusão do sVaR, a simulação de Monte Carlo geraria a menor alocação, muito próxima à desvalorização obtida no cenário mais brando, com a projeção dos preços considerando que as volatilidades realizadas no período de 21 dias úteis à frente se dariam com três desvios padrão. Tabela 22 – Avaliação da PRM pelo modelo Monte Carlo em 01/07/2010 Data de Cálculo Valor em Risco (A) Média 60 dias Violações (250 dias) Abkt Aqlt Multiplicador (M) VaR 30/06/2010 1.135.541.962,48 1.149.939.285,64 3 sVaR 30/06/2010 5.405.947.861,84 5.440.894.888,78 N/A 0 0 3 79 Tabela 22 – Avaliação da PRM pelo modelo Monte Carlo em 01/07/2010 (continuação) VaR Médio x M (B) Máximo A e B VaR 3.449.817.856,93 3.449.817.856,93 sVaR 16.322.684.666,33 16.322.684.666,33 Fator S2 Valor Transição PRM MtM Carteira: % da Carteira Estresse Histórico % da Exigência Estresse s/ E.D. % da Exigência Cenário (3 d.p.) % da Exigência N/A 1 3.449.817.856,93 16.322.684.666,33 19.772.502.523,26 64.786.243.511,86 31% -5.527.701.034,78 28% -6.971.555.428,01 35% -3.339.853.898,56 17% 6.6.3 Uma Nova Proposta para a Exigência de Capital Conforme os resultados expostos no subitem anterior, a alocação de capital pela regra antiga não seria suficiente para suportar determinados estresses inesperados que poderiam atingir os mercados em épocas de baixa volatilidade. Assim, essa dissertação corrobora a necessidade de mudança na fórmula. No entanto, a modificação realizada pelo Comitê e acatada pelo BACEN tornou o requerimento da carteira trading extremamente conservador, e no caso do modelo Delta Normal EWMA 0,94, gerou-se uma alocação equivalente a metade do portfólio. Crouhy et al (2011) também traça críticas ao novo arcabouço, mostrando em um exercício simples que sob determinadas condições, o montante de capital regulatório chegaria ao absurdo de ser maior que o valor de exposição de uma carteira de negociação ativa. Outra questão é a adoção do sVaR ao invés de uma medida mais estudada e conhecida de tail risk baseada em VaR. O VaR estressado por ter base histórica, com o passar do tempo tende a ficar defasado devido às mudanças nas condições do mercado. Principalmente no Brasil, que vive um processo de amadurecimento e crescimento da liquidez dos seus mercados, a assunção de que um cenário acontecido, por exemplo, durante o ano de 2004 possa acontecer novamente e com as mesmas características tende a tornar-se cada dia menos plausível. 80 Além disso, conforme RAAJI e RAUNIG (1998), as instituições financeiras, ao utilizarem seus modelos internos e reportarem diariamente suas medidas de risco provêem os reguladores com uma informação útil. Ainda segundo eles, do ponto de vista do regulador os números de VaR podem ser utilizados para comparar o apetite a risco entre diferentes bancos em uma dado ponto do tempo ou ao longo deste. Entretanto, conforme visto, o sVaR apresentou grande variabilidade entre os modelos, perdendo a comparabilidade entre diferentes instituições financeiras, casos essas utilizem metodologias diferentes mesmo que tenham investimentos semelhantes. Apesar da enorme exigência para a carteira de negociação, não há previsão formal nas normas, tanto de Basileia quanto do BACEN, de redução da PRM em épocas de crise, o que poderia ser mais um instrumento anticíclico, além do Capital Contracíclico adotado pelo Comitê. Esta seção sugere duas alterações no cômputo da PRM, visando eliminar as críticas discutidas nos parágrafos anteriores. A primeira é a substituição do sVaR pelo Conditional VaR (CVaR), medida de tail risk também conhecida como Expected Shortfall. CVaR traz informação sobre o nível de perda média da carteira quando há uma violação do VaR, ou seja, mede a perda esperada na cauda da distribuição dos retornos. Mais formalmente, é dado pela fórmula: O CVaR é uma medida de risco coerente, é sub-aditivo mesmo quando o VaR não o é. Isso significa que o CVaR é uma métrica de risco mais adequada para ser usada para fins regulatórios e alocação de capital econômico (ALEXANDER, 2008b). Além disso, o CVaR evolui no tempo assim como o VaR, reconhecendo as características recentes dos mercados. A segunda alteração é a introdução de um parâmetro S2 móvel, ao invés de fixo como previsto nas normas do BACEN. A ideia é torná-lo dependente dos níveis de volatilidade vivenciados pelos preços dos instrumentos financeiros. Assim, em tempos de calmaria, com as perdas restritas, o S2 permanece próximo ou igual a um, levando os bancos a alocarem mais capital. Ao iniciar-se um estresse, indicado pelo aumento na volatilidade de curto prazo, o S2 tenderá a cair chegando, em casos extremos, a assumir o valor zero, caso as últimas variações nos preços sejam bruscas, diminuindo o requerimento e gerando folga de capital para os bancos concederem mais crédito ou reporem as perdas de suas carteiras. 81 Propõe-se então, um S2, como o a seguir: S 2 0,1 onde S 2 2 21d 252d Onde σxd é uma volatilidade de referência para o mercado medida nos últimos x dias úteis. Essa medida deve ser capaz de representar o comportamento de diferentes mercados, assim como a volatilidade do índice Ibovespa reflete o mercado de ações. Neste trabalho, utilizamos a volatilidade das perdas e lucros do portfólio fictício utilizado nos testes e descrito na seção 5, por este ter sido construído para simular as carteiras dos principais bancos e ser composto de diferentes ativos. O gráfico a seguir demonstra o comportamento do S2 para diferentes relações entre a volatilidade de curto prazo, calculada para os últimos 21 dias úteis, e a volatilidade de longo prazo, em 252 dias úteis. Gráfico 13 – Valor do S2 Móvel X Razão da Volatilidade 1,20 1,00 S2 0,80 0,60 0,40 0,20 0% 50% 100% 150% 200% 250% σ21d/σ252d Refazendo o teste do subprime com as alterações propostas, as novas exigências geradas caíram para uma média de R$ 9,9 bilhões, suficiente para suportar as perdas que a carteira sofreria, conforme pode ser visto no gráfico 14. Um ponto positivo foi a redução da variabilidade do montante alocado entre as metodologias, já que todos estão baseados na mesma carteira e, à exceção do Monte Carlo, todas acumulavam violações entre 6 e 8 violações, não havendo desse modo motivo para grandes diferenças entre os modelos. Um 82 aumento no fator Abkt faria com que as abordagens não acuradas fossem punidas de forma semelhante. Bilhões Gráfico 14 – PRM Após Modificações na Regra (Teste do Subprime) 25,0 20,0 15,0 10,0 5,0 0,0 Simulação Histórica EWMA 0,94 PRM Antiga Variância amostral Nova PRM (Modificada) Híbrido Nova PRM Monte Carlo P/L realizado No teste, o capital requerido variou entre 15% e 17% da carteira, contra 25% e 33% do framework regulatório atual. Essa queda foi devido exclusivamente ao S2 móvel, que na data era de 0,23, com a volatilidade de curto prazo 88,21% superior à de longo prazo. Durante o período subsequente ao teste do subprime, o aumento da volatilidade fez o S2 cair para zero, com uma redução da exigência em torno de R$ 2 bilhões, sem comprometer, no entanto a suficiência dessa. As medidas de CVaR estiveram muito próximas do sVaR e a troca não causou, assim, grande impacto na alocação. No gráfico 15, podemos observar que, de modo inverso, no teste de cenários, realizado no dia 01/01/2010, com as volatilidades de curto e longo prazo em patamares menores e muito próximos, o fator S2 foi igual a 0,99 e as diferenças de alocação foram causadas exclusivamente pela substituição do sVaR. Os números de CVaR, que também refletem o comportamento recente do mercado, sofreram redução de 53,39% em relação aos calculados na crise. Com isso, a alocação esteve entre 11% e 16% do portfólio, ao invés de 23% e 50% da regra atual, com queda no volume e na variabilidade das estimativas. A exigência média entre os modelos de R$ 9,2 bilhões também seria suficiente para suportar os diversos cenários calculados, inclusive o cenário mais improvável, sem efeito 83 diversificação, onde se assume que as piores perdas de cada fator de risco desde 2004 possam acontecer novamente em uma única data, a data do teste. Bilhões Gráfico 15 – PRM Após Modificações na Regra (Cenários) 35,0 30,0 25,0 20,0 15,0 10,0 5,0 0,0 Simulação Histórica PRM Antiga EWMA 0,94 Variância amostral Nova PRM (Modificada) Nova PRM Híbrido Estresse Histórico Monte Carlo Estresse s/ ED 84 7. CONSIDERAÇÕES FINAIS Com a adoção integral pelo BACEN das novas recomendações de Basileia motivadas pela crise do subprime e com o início, em junho de 2010, do processo de autorização para os bancos brasileiros utilizarem seus modelos internos para cálculo da PRM, este trabalho procurou responder a duas questões: 1) se os modelos VaR mais populares, e que a maior parte da indústria bancária no Brasil usa para mensurar seu risco de mercado, são acurados para medir a volatilidade dos ativos brasileiros e 2) se a nova parcela de risco de mercado é adequada para suportar as perdas da carteira trading em situações extremas dos mercados. Por meio da simulação de uma carteira trading, baseada na composição das carteiras de negociação dos principais bancos em operação no Brasil e por isso composta, por ordem de importância, de ativos de renda fixa, de ações e de moedas estrangeiras, calculou-se o VaR de 1 dia com 99% de confiança, grau de confiança exigido pelo regulador, para o período de 2005 a 2010 pelos modelos Delta-Normal, com e sem alisamento exponencial (EWMA), por uma metodologia Híbrida, que considera o máximo entre as duas abordagens anteriores, e pelas Simulações Histórica e de Monte Carlo. Verificou-se que em na maior parte da amostra, observou-se que esses modelos VaR tenderam a subestimar o risco, principalmente durante a crise do subprime. Os modelos Delta Normal Híbrido e Monte Carlo obtiveram desempenho ligeiramente superior aos demais nas diferentes técnicas de backtesting. Contudo, apesar dessa inadequação, os testes com a exigência de capital revelaram que mesmo modelos inacurados geraram alocação suficiente para cobrir as perdas da carteira nos diferentes cenários. No teste da crise do subprime, calculou-se o requerimento de capital da carteira de negociação pela nova fórmula anteriormente ao pior período de desvalorização dos ativos da carteira, sendo que independentemente do modelo que o banco detentor desta carteira utilizasse, a alocação seria bastante superior a essas perdas, ocorridas durante setembro e outubro de 2008, quando houve um aumento da volatilidade reflexo ainda da quebra do banco de investimentos Lehman Brothers. Isso porque os modelos VaR já capturavam o aumento da volatilidade que se iniciou em 2007. Nesse período, os supervisores poderiam reduzir, e até mesmo zerar, o percentual S 2 aplicado ao sVaR, retornando à fórmula anterior da PRM. Outro fato observado foi que apesar 85 de acumular o maior número de violações, o modelo DN – Variância Amostral gerou a menor PRM entre as abordagens, mesmo com um Abkt de 0,75. Tomando o portfólio em julho de 2010, quando a volatilidade estava reduzida, foram conduzidos os testes de estresse descritos na subseção 4.4. Nesse contexto, caso os piores cenários de perda para os fatores de risco se repetissem nessa data, novamente a alocação seria suficiente. Diferentemente da crise, a maior parte da parcela era gerada pelo sVaR, e no caso do modelo DN EWMA 0,94 o requerimento chegou a representar metade do valor do portfólio. Houve grande variabilidade entre as metodologias, mas mesmo as abordagens que geraram as menores exigências, cobriram com folga as perdas em situações de estresse. Entretanto, com a fórmula anterior, as alocações não seriam suficientes para suportar os estresses históricos. No cenário prospectivo, utilizando três desvios-padrão na volatilidade dos ativos, mesmo essa estando em níveis relativamente baixos, as perdas chegariam muito próximas ao montante de capital requerido para a carteira de negociação. Assim, tendo em vista as diretrizes propostas por Basileia III, corrobora-se com a necessidade de mudança na fórmula anterior, já que esta não seria capaz de exigir capital quando os mercados estivessem em regime de baixa volatilidade suficiente para cobrir as perdas em situações extremas da carteira e poder ser utilizado como mais um instrumento anti-cíclico pelo Regulador. Entretanto, de acordo com os resultados, a alteração realizada por Basileia na fórmula fez com que esta se tornasse demasiadamente conservadora. Em alguns modelos, a nova fórmula geraria alocação tão grande, que possivelmente desestimularia o banco a manter sua carteira trading descoberta, sem uso de derivativos. Bancos que resolvessem seguir um modelo de otimização de carteiras do tipo média-variância possivelmente encontrariam problemas com a alocação de capital dessa carteira. A PRM deve passar a representar, portanto, uma variável dentro de qualquer modelo de otimização de portfólios bancários, não sendo nenhuma surpresa que a carteira ótima encontrada seria de baixíssimo risco, dado o custo de oportunidade do capital exigido pelo BACEN. Outra crítica que pode-se fazer ao framework regulatório, é que ele não traz incentivos aos bancos em manterem um modelo interno de VaR acurado. Segundo a norma atual, o supervisor poderá intervir apenas quando o modelo se encontrar na zona vermelha, mas para isso este deve acumular 10 violações em apenas um ano, mais de três vezes a quantidade que seria apropriada. Abaixo disso o modelo ainda é considerado acurado e, conforme visto, a punição recebida através do Abkt não representou maior alocação de capital, principalmente no contexto da crise. 86 Visto o tamanho do capital exigido, este arcabouço pode gerar incentivos aos bancos subestimarem o seu risco de mercado visando diminuir o requerimento, a revelia do aumento do Abkt. Os incentivos, não apenas de ter uma boa metodologia de cálculo do VaR, mas também de uma estrutura de gerenciamento de riscos adequada ao tamanho da exposição e à complexidade dos negócios, como requer o BACEN, são advindos atualmente da necessidade de maior governança corporativa imposta pelos próprios bancos, passando para o mercado a confiabilidade de retorno de seus investimentos. De forma a haver também um incentivo externo, os reguladores deveriam impor um Abkt que punisse um banco com um modelo VaR inadequado, fazendo-o alocar mais capital do que se este mesmo banco fizesse uso de uma metodologia mais acurada. Apesar de verificar-se a necessidade de uma medida de estresse no cálculo da PRM, principalmente em períodos de normalidade, a aplicação do multiplicador também na média do sVaR tornou a alocação consideravelmente alta. Além disso, a adoção do sVaR ao invés de uma medida mais estudada e conhecida de tail risk baseada em VaR, como o CVaR, trouxe grande variabilidade para as alocações, apesar de se basearem em um mesmo portfólio e os modelos VaR terem apresentado desempenhos semelhantes nos testes de aderência. Com o foco nesses pontos, propomos duas modificações na regra atual da exigência, com a substituição do sVaR pelo CVaR e a introdução de um S2 móvel, que decai assim que a volatilidade dos mercados aumente, gerando menor alocação em épocas de estresse, e de modo contrário, aumenta o capital exigido em momentos de normalidade. Verificamos que as alterações diminuíram tanto a variabilidade quanto o volume das alocações em ambos os testes, sem, no entanto comprometer a sua suficiência frente às perdas estimadas. O S2 móvel fez com que o requerimento decrescesse durante a crise do subprime enquanto que no teste dos cenários de estresse, em regime de baixa volatilidade, onde as medidas VaR e CVaR tendem a cair consideravelmente, ao contrário do sVaR, este último foi responsável pela redução da alocação para níveis menos punitivos aos bancos. Deve-se destacar, no entanto, que as conclusões feitas neste trabalho são completamente dependentes da carteira trading utilizada. Pesquisas futuras poderão testar a acurácia dos modelos VaR e a suficiência da nova regra da PRM para carteiras com perfis mais arriscados. Entretanto, é necessário atentar que para utilizarem os modelos internos, o BACEN exige que os bancos se sujeitem a limites de exposição a risco de mercado, assim o portfólio tem risco e concentração restringidos a esses limites. 87 Trabalhos futuros também podem propor frameworks mais apropriados para o cálculo da exigência de capital da carteira trading, de modo a gerar incentivos corretos aos bancos para manterem modelos internos de VaR adequados e evitar alocações excessivas, sem comprometer, no entanto, a estabilidade buscada por Basileia III. 88 REFERÊNCIAS ALEXANDER, C. Market Models. Chichester, England: John Wiley & Sons, 2001. _______________. Market Risk Analysis: Quantitative Methods in Finance. Chichester, England: John Wiley & Sons, 2008, a. _______________. Market Risk Analysis: Value-at-Risk Models. Chichester, England: John Wiley & Sons, 2008, b. BACEN. Relatório de Estabilidade Financeira – Abril/2010. Relatório de Estabilidade Financeira, v. 9, n. 1. 2010. Disponível em: http://www.bcb.gov.br/?RELESTAB201004. BARONE-ADESI, G.; BOURGOIN, F.; GIANNOPOULOS, K. Don’t look back. Risk v. 11, p. 100–103, 1998. BARONE-ADESI, G.; GIANNOPOULOS, K.; VOSPER, L. VaR without correlations for nonlinear portfolios. Journal of Futures Markets v. 19, p. 583–602, 1999. BASEL COMMITTEE ON BANKING SUPERVISION. Supervisory Framework for the Use of “Backtesting” in Conjunction with the Internal Models Approach to Market Risk Capital Requirements. Basel, Switzerland: BIS, 1996, a. _______________. Amendment to the Basel Capital Accord to Incorporate Market Risk. Basel, Switzerland: BIS, 1996, b. _______________. International Convergence of Capital Measurement and Capital Standards. Basel, Switzerland: BIS, 2004. _______________. Revisions to the Basel II market risk framework. Basel, Switzerland: BIS, 2009. BOUDOUKH, J.; RICHARDSON, M.; WHITELAW, R. The best of both worlds. Risk 11(5), p. 64–67, 1998. CAMPBELL, S. A Review of Backtesting and Backtesting Procedure. Finance and Economics Discussion Series, Divisions of Research & Statistics and Monetary Affairs, Federal Reserve Board, Washington D.C: 2005. 89 CARUANA, J. Basel III: Towards a Safer Financial System. In: 3rd Santander International Banking Conference. Madrid: 2010. CHRISTOFFERSEN, P. F. Evaluating Interval Forecasts. International Economic Review, v.39, p. 841-862. 1998. CROUHY, M.; GALAI, D.; MARK, R. Gerenciamento de Risco – Abordagem Conceitual e Prática. São Paulo: Qualitymark, 2004. _______________. A Stress Testing Perspective: Insights on risk management to the global risk community. Intelligent Risk, v.1, p. 4-6. 2011. DOWD, K. Beyond Value at Risk: The New Science of Risk Management. Chichester, England: John Wiley & Sons, 1998. _______________. Measuring Market Risk. Chichester, England: John Wiley & Sons, 2002. DUFFIE, D., PAN, J. An overview of value at risk. Journal of Derivatives, v. 4, p. 7−49. 1997. HUANG, A. Y. An Optimization Process in Value-at-Risk Estimation. Review of Financial Economics, p. 109-116. 2010. JORION, P. Value at Risk: A Nova Referência no Controle do Risco. São Paulo: BM&F, 2003. KUPIEC, P. Techniques for Verifying the Accuracy of Risk Management Models. Journal of Derivatives, v.3, p. 73-84, 1995. MUN, J. Modeling Risk: Applying Monte Carlo Simulation, Real Options Analysis, Forecasting, and Optimization Techniques. Chichester, England: John Wiley & Sons, 2006. NIEPPOLA, O. Backtesting Value-at-Risk Models. Master’s Thesis. Department of Economics, Helsink School of Economics, 2009. RAAJI, G.; RAUNIG, B. A Comparison of Value-At-Risk Approaches and their Implications for Regulators. Focus on Austria, p. 57-71. 1998. RESENDE, A. L. Além da crise: desequilíbrio e credibilidade. Caderno Valor, nº 445. 2009. Disponível em: http://www.oeb.org.br/ADM/depoimentos/public/meus_arquivos/Alemdacrise.pdf 90 RISKMETRICS™. Technical Document, 4ed., New York: J.P. MORGAN, 1996. SOUZA, L.A.R. Valor em Risco em Épocas de Crise. Dissertação de Mestrado em Economia, FEA-USP, 1999. TORRES FILHO, E. T. Analisando a Crise do Subprime. Revista do BNDES, v. 15, n. 30, p. 129-159. 2008. VIEIRA NETO, C. A.; URBAN, F. Um Modelo de Teste de Stress menos Subjetivo e mais Abrangente. 2000. Disponível em: http://www.risktech.com.br WICHURA, M. Algorithm AS 241: The Percentage Points of the Normal Distribution. Applied Statistics, v. 37, p. 477−484. 1988. WIENER, Z. Introduction to VaR, Risk Management and Regulation in Banking. Boston: Kluwer Academic Publishers, 1999.