Cleysson Ribeiro Vieira

Propaganda
CLEYSSON RIBEIRO VIEIRA
MODELOS VAR E A NOVA FÓRMULA DA EXIGÊNCIA DE
CAPITAL DA CARTEIRA TRADING: UMA ANÁLISE NO MERCADO
BRASILEIRO
Dissertação apresentada ao Programa de
Pós-Graduação Stricto Sensu em
Economia de Empresas da Universidade
Católica de Brasília, como requisito
parcial para obtenção do título de Mestre
em Economia.
Orientador: Prof. Dr. Osvaldo Candido
da Silva Filho
Brasília
Março de 2011
AGRADECIMENTOS
Gostaria de agradecer a todos que colaboraram para a conclusão deste curso de Mestrado em
Economia, especialmente:
- a Deus e a Oshieoyá-Samá pela proteção, força e inspiração proporcionadas;
- à minha família, pelas virtudes e ensinamentos transmitidos e apoio durante minha vida
estudantil;
- à minha noiva Carla, pela compreensão e carinho em todos os momentos;
- à Caixa Econômica Federal por acreditar na capacitação de seus empregados;
- aos professores da Universidade Católica de Brasília, e principalmente aos professores Dr.
Osvaldo Candido e Dr. Benjamim Tabak, que me orientaram neste trabalho.
“Perhaps when a man has special knowledge and
special powers like my own, it rather encourages
him to seek a complex explanation when a simpler
one is at hand”.
Sherlock Holmes (Arthur Conan Doyle)
“Risk is like water looking for the weak seam to
flow through and produce a leak. Water is not
being an evil conscious entity, that is just the
nature of water. And that is the nature of risk as
well. It will adapt and change and will find the
cracks in your risk management system”.
Dave Ingram
RESUMO
Referência: VIEIRA, Cleysson Ribeiro. Modelos VaR e a nova fórmula da exigência de
capital da carteira trading: uma análise no mercado brasileiro. 90p. Dissertação de
Mestrado em Economia de Empresas – Universidade Católica de Brasília, Brasília, 2011.
Neste trabalho, tendo em vista a mudança na fórmula de cálculo da exigência de capital da
carteira trading trazida pelo conjunto de alterações no arcabouço regulamentar motivadas pela
crise do subprime e o início do processo de autorização para uso de modelos internos no
Brasil, simulamos uma carteira trading composta de títulos públicos, ações e moedas baseada
no perfil de portfólio dos principais bancos em operação no Brasil com o objetivo de
analisarmos duas questões intimamente interligadas: (i) a acurácia dos modelos Valor em
Risco (VaR) utilizados por esses bancos no cálculo do risco de mercado e (ii) a suficiência da
nova regra em suportar perdas reais e hipotéticas do portfólio. Encontramos que apesar dos
modelos VaR, em geral, subestimarem o risco, as alocações de capital geradas por esses
modelos, quando usamos a nova fórmula, foram excessivamente conservadoras em todos os
testes realizados. Adicionalmente, propomos duas modificações na regra dessa exigência de
modo a torná-la menos punitiva aos bancos, mas sem perda da confiabilidade.
Palavras chave: Exigência de capital; Value at Risk; Carteira Trading; Acordos de Basileia.
Códigos JEL: G01; G21; G38.
ABSTRACT
Reference: VIEIRA, Cleysson Ribeiro. VaR Models and the new capital requirement
formula for trading portfolio: a Brazilian market analysis. 90p. Dissertation of Master
Science in Economics – Catholic University of Brasilia, Brasilia, 2011.
Taking in account the new capital requirement formula for banks’ trading portfolio, which has
arisen in the set of regulatory rules changes driven by the subprime crisis and the recent
permission to Brazilian banks use internal models in computing capital requirements, we
simulated a trading portfolio, composed by government bonds, stocks and currencies, based
on Brazilian banks’ profile of trading portfolio in order to assess two closely related issues: (i)
the accuracy of Value at Risk (VaR) models used by banks to compute market risk and (ii) the
adequacy of the new rule to bear real and hypothetical portfolio losses. We found despite of
VaR models, in general, underestimate market risk, the capital charge generated by these
models, when the new capital requirement formula is used, has shown overly conservative in
all performed tests. Additionally, we propose two modifications on the capital requirement
formula which turns it less punitive and still reliable.
Keywords: Capital Requirement; Value at Risk; Trading Portfolio; Basel Accords.
JEL Codes: G01; G21; G38.
SUMÁRIO
1.
INTRODUÇÃO ............................................................................................................ 11
2.
A CRISE DO SUBPRIME E O ACORDO DE BASILEIA ........................................... 14
3.
4.
5.
6.
2.1.
Relembrando a crise do subprime........................................................................... 14
2.2.
Evolução da Regulação Bancária ........................................................................... 19
2.3.
Cálculo da parcela de capital para risco de mercado ............................................... 22
RISCO DE MERCADO E MODELOS VAR ................................................................ 27
3.1.
O que é Valor em Risco? ....................................................................................... 27
3.2.
Parâmetros Gerais .................................................................................................. 29
3.2.1.
Horizonte temporal ......................................................................................... 29
3.2.2.
Nível de confiança .......................................................................................... 29
3.2.3.
Período histórico dos dados............................................................................. 30
3.3.
Delta Normal ......................................................................................................... 30
3.4.
Simulação Histórica ............................................................................................... 36
3.5.
Monte Carlo ........................................................................................................... 38
MÉTODOS DE AVALIAÇÃO DOS MODELOS VAR ............................................... 43
4.1.
Teste Regulamentar de Basileia ............................................................................. 43
4.2.
Teste de Kupiec ..................................................................................................... 45
4.3.
Teste de Christoffersen .......................................................................................... 46
4.4.
Testes de Estresse .................................................................................................. 49
4.4.1
Teste de Estresse Histórico ............................................................................. 50
4.4.2
Cenários ......................................................................................................... 52
CARTEIRA TRADING ................................................................................................. 53
5.1
Preços e Taxas ....................................................................................................... 55
5.2
Mapeamento em Fatores de Risco e Vértices ......................................................... 55
ANÁLISE DOS RESULTADOS .................................................................................. 60
6.1
Estatística Descritiva dos Retornos......................................................................... 60
6.2
Contagem das Violações ........................................................................................ 61
6.3
Teste Regulamentar de Basileia ............................................................................. 64
6.4
Teste de Kupiec ..................................................................................................... 66
7.
6.5
Teste de Christoffersen .......................................................................................... 67
6.6
Testes de Suficiência da Exigência de Capital ........................................................ 69
6.6.1
Crise do Subprime........................................................................................... 70
6.6.2
Análise de Cenários de Estresse ...................................................................... 74
6.6.3
Uma Nova Proposta para a Exigência de Capital ............................................. 79
CONSIDERAÇÕES FINAIS ........................................................................................ 84
REFERÊNCIAS .................................................................................................................. 88
LISTA DE FIGURAS
Gráfico 1 – Evolução do Índice de Preços dos Imóveis nos EUA de 1987 a 2010
Gráfico 2 – Análise da Distribuição Empírica dos Retornos
Gráfico 3 – Composição da Carteira de Renda Fixa por Indexador (Posição de Fechamento)
Gráfico 4 – Distribuição Média entre os Vértices dos Ativos Prefixados (2005 a 2010)
Gráfico 5 – Distribuição Média entre os Vértices dos Ativos Indexados ao IPCA (2005 a
2010)
Gráfico 6 – Distribuição Média entre os Vértices dos Ativos Indexados à SELIC (2005 a
2010)
Gráfico 7 – Evolução do VaR Simulação Histórica e do P/L da Carteira durante a Crise do
Subprime
Gráfico 8 – Evolução do VaR Delta Normal e do P/L da Carteira durante a Crise do Subprime
Gráfico 9 – Evolução do VaR Monte Carlo e do P/L da Carteira durante a Crise do Subprime
Gráfico 10 – Avaliação dos Modelos VaR no Teste Regulamentar de Basileia
Gráfico 11 – Valor do Adicional de Backtesting (Abkt) para os Modelos VaR
Gráfico 12 – Avaliação dos Modelos pelo Teste de Kupiec
Gráfico 13 – Valor do S2 Móvel X Razão da Volatilidade
Gráfico 14 – PRM Após Modificações na Regra (Teste do Subprime)
Gráfico 15 – PRM Após Modificações na Regra (Cenários)
LISTA DE TABELAS
Tabela 1 – Principais Eventos nos Mercados Financeiros durante a Crise do Subprime
Tabela 2 – Valor do Adicional de Backtesting
Tabela 3 – Quantidade de Dias de Retornos que Influenciam a Estimação do VaR pela
Metodologia EWMA para Diferentes Fatores de Decaimento
Tabela 4 – Zonas do Teste Regulamentar de Basileia (Cobertura: 99%, 250 dias)
Tabela 5 – Regiões de Não Rejeição do Teste de Kupiec
Tabela 6 – Mapeamento dos Fluxos de Pagamentos dos Ativos de Renda Fixa em Vértices
Tabela 7 – Estatísticas Descritivas dos Retornos da Carteira nos Períodos de Análise
Tabela 8 – Violações Acumuladas pelos Modelos VaR nos Períodos de Análise
Tabela 9 – Resultado do Teste de Christoffersen para o Período Pré-Crise
Tabela 10 – Resultado do Teste de Christoffersen para o Período da Crise
Tabela 11 – Resultado do Teste de Christoffersen para o Período Pós-Crise
Tabela 12 – Resultado do Teste de Christoffersen para a Amostra Completa
Tabela 13 – PRM pelo Modelo de Simulação Histórica em 26/09/2008
Tabela 14 – PRM pelo modelo DN EWMA (0,94) em 26/09/2008
Tabela 15 – PRM pelo modelo DN Variância Amostral em 26/09/2008
Tabela 16 – PRM pelo modelo DN Híbrido em 26/09/2008
Tabela 17 – PRM pelo modelo Monte Carlo em 26/09/2008
Tabela 18 – Avaliação da PRM pelo modelo Simulação Histórica em 01/07/2010
Tabela 19 – Avaliação da PRM pelo modelo DN EWMA (0,94) em 01/07/2010
Tabela 20 – Avaliação da PRM pelo modelo DN Variância Amostral em 01/07/2010
Tabela 21 – Avaliação da PRM pelo modelo DN Híbrido em 01/07/2010
Tabela 22 – Avaliação da PRM pelo modelo Monte Carlo em 01/07/2010
10
LISTA DE SIGLAS E ACRÔNIMOS
Abkt – Adicional de Backtesting
Aqlt – Adicional Relativo à Avaliação Qualitativa do BACEN
BACEN – Banco Central do Brasil
BIS – Banco de Compensações Internacionais
CDO – Collateralised Debt Obligations (Obrigações de Dívida Colateralizadas)
CVaR – Conditional Value at Risk (Valor em Risco Condicional)
DN – Modelo Delta Normal
EWMA – Exponencial Weighted Moving Average (Média Móvel Exponencialmente
Ponderada)
MC – Simulação de Monte Carlo
PEPR – Parcela de Referente às Exposições Ponderadas ao Risco
POPR – Parcela de Risco Operacional
PRE – Patrimônio de Referência Exigido
PRM – Parcela de Risco de Mercado
S1 – fator de transição do modelo padronizado
S2 – fator de transição do sVaR
SH – Simulação Histórica
SIV – Structured Investment Vehicles (Veículos de Investimento Estruturado)
sVaR – stressed Value at Risk (Valor em Risco Estressado)
VaR – Value at Risk (Valor em Risco)
11
1.
INTRODUÇÃO
Desde 2004, o Comitê de Supervisão Bancária do Banco de Compensações
Internacionais (BIS) por meio do documento International Convergence of Capital
Measurement and Capital Standards, conhecido como Basileia II, tem concedido às
instituições financeiras, desde que permitida pelas autoridades monetárias dos países
participantes do acordo, a possibilidade do uso de modelos internos para cálculo da exigência
de capital para cada parcela de risco (crédito, operacional e mercado), que até então somente
era feito por cálculo padronizado e definido pelos bancos centrais. Esse capital é exigido dos
bancos pelos reguladores a fim de diminuir o risco de possíveis quebras em momentos de
crise, evitando o contágio e a ruptura do sistema financeiro, oferecendo maior segurança à
poupança dos agentes depositada nessas instituições.
Após a crise do subprime, quando as carteiras trading1 de diversas instituições
financeiras foram fonte de importantes e, em alguns casos, irreversíveis perdas, foi realizada
uma série de alterações nas regulamentações de Basileia, que está sendo chamada de Basileia
III. Em termos práticos, essas modificações trazem novas e duras exigências econômicas para
os bancos ao elevar e diferenciar os graus patrimoniais a serem exigidos e, também, ao criar
novos conceitos para a preservação de acionistas e correntistas. No tocante à gestão do risco
de mercado, especificamente, a principal alteração foi o aumento do montante de capital a ser
alocado pelos bancos que desejem utilizar os seus modelos internos de Valor em Risco (VaR)
para calcular a parcela de risco de mercado, que é a exigência de capital da carteira de
negociação. Esse incremento deu-se por meio da inclusão do conceito de Valor em Risco
Estressado (sVaR) na fórmula do requerimento.
Em julho de 2009, com a publicação da Circular 3.478, o BACEN estabeleceu os
critérios e o cronograma para o processo de autorização do uso de modelos internos para risco
de mercado no Brasil, instituindo que a partir do dia 30 de junho de 2010 os bancos podem
requerer essa permissão. O órgão regulador brasileiro adotou integralmente as recomendações
de Basileia, confirmando a inclusão do sVaR. Apesar do Brasil já adotar um modelo
conservador
para
o
cálculo
padronizado,
estima-se
que
essa
inclusão
elevará
consideravelmente a alocação de capital por parte dos bancos, levando a discussões sobre a
1
De acordo com a Resolução 3.464/07 do Conselho Monetário Nacional, a carteira trading ou carteira de
negociação consiste em todas as operações com instrumentos financeiros e mercadorias, inclusive derivativos,
detidas com intenção de negociação ou destinadas a hedge de outros elementos da carteira de negociação, e
que não estejam sujeitas à limitação da sua negociabilidade.
12
viabilidade de se utilizar os modelos internos, já que um elevado percentual da carteira
trading seria exigido como colchão contra crises.
Reconhecendo o possível impacto dessas mudanças, a Circular BACEN 3.498/10
modificou a norma anterior estabelecendo a introdução progressiva do sVaR com um fator
gradual de incorporação que vai de zero a um até 30 de junho de 2012.
Este cenário, que inclui a nova fórmula para o cálculo do requerimento de capital e a
possibilidade de uso de modelos internos pelas instituições financeiras brasileiras para
cômputo desse requerimento, motivou a realização deste estudo, que objetivou avaliar dois
aspectos: primeiro, se as abordagens VaR utilizados pela indústria bancária brasileira para
mensurar o risco de mercado são precisos o bastante para medir adequadamente a volatilidade
dos ativos brasileiros e segundo, se a nova fórmula para a exigência gera requerimento de
capital suficiente para cobrir as perdas da carteira trading em situações extremas dos
mercados, independentemente da metodologia VaR utilizada.
Apesar das constantes inovações e melhorias nos modelos VaR no mundo acadêmico,
em consulta ao site dos principais bancos brasileiros, pode-se verificar que eles ainda utilizam
os modelos clássicos de cálculo do VaR, como a metodologia da RiskMetrics™, a Simulação
Histórica e a Simulação de Monte Carlo. Nesse contexto, discutimos e avaliamos a acurácia
desses modelos no período de 2005 a 2010. Para isso, foi simulada uma carteira de
negociação baseada nas carteiras trading dos grandes bancos que operam no Brasil. Essa
carteira foi composta de títulos públicos, ações e moedas, principais ativos encontrados nesses
portfólios.
Para avaliar as abordagens de cálculo do VaR, foram aplicados o teste regulamentar de
Basileia, o teste de Kupiec (1995) e o teste de cobertura condicional de Christoffersen (1998)
para quatro períodos distintos: pré-crise (considerado neste trabalho de janeiro de 2005 a
junho de 2007), crise do subprime (julho de 2007 a dezembro de 2008), pós-crise (janeiro de
2009 a junho de 2010) e a amostra completa de janeiro de 2005 a junho de 2010.
Com vistas a abordar o segundo ponto desta pesquisa, utilizamos os mesmos portfólio
e modelos VaR supracitados para avaliar o grau de conservadorismo da nova regra de cálculo
do requerimento de capital da carteira trading. O primeiro teste consistiu em calcular pelas
três técnicas, a parcela de risco de mercado, pela nova regra, que o banco fictício incorreria no
dia imediatamente anterior ao pior período de 21 dias de perdas para a sua carteira durante a
13
crise do subprime, avaliando se a nova fórmula demandaria alocação suficiente para suportar
a desvalorização que os ativos sofreriam nos 21 dias subsequentes.
Um teste complementar foi realizado com a carteira na posição 1º de julho de 2010,
quando os mercados estavam presenciando baixa volatilidade e os modelos VaR
encontravam-se em patamares mais baixos em relação ao teste anterior, o que poderia gerar
uma exigência de capital menor e menos confiável. Foram conduzidos testes de estresse
históricos e simulação de cenários prospectivos para avaliar se a alocação estimada por meio
de cada metodologia VaR seria suficiente para cobrir as perdas caso essas diversas situações
ocorressem naquela data.
A partir dos resultados encontrados, que demonstraram excessivo conservadorismo da
regra atual da exigência, propôs-se duas modificações no cálculo da parcela de risco de
mercado a fim de reduzir o montante de capital requerido, verificando sua adequação pelos
mesmos testes descritos nos parágrafos anteriores.
Este trabalho foi organizado da seguinte forma: na próxima seção, foi feita uma
explanação da crise do subprime, fato econômico que motivou as mudanças no arcabouço
regulamentar, mostramos a evolução dos Acordos de Basileia até se chegar em Basileia III e
detalhamos o cálculo da parcela de risco de mercado da exigência de capital. Na seção 3,
discutimos as definições de risco de mercado e a sua medida mais utilizada, o VaR. Na seção
4, abordamos os métodos utilizados para avaliar a acurácia desses modelos e a metodologia
dos testes de estresse utilizados nos testes de suficiência da exigência de capital e na
sequência, estão delineados os critérios para escolha dos ativos da carteira simulada e para o
mapeamento desses em fatores de risco. Os resultados estão condensados na seção 6, e
finalmente, algumas considerações finais são apresentadas.
14
2.
2.1.
A CRISE DO SUBPRIME E O ACORDO DE BASILEIA
Relembrando a crise do subprime
A última grande crise financeira atravessada pelas grandes economias, que teve origem
no mercado de hipotecas norte-americano e ficou apelidada de crise do subprime foi a grande
motivadora das novas diretrizes postas por Basileia para a regulação do setor financeiro.
Segundo Resende (2009), há duas grandes vertentes, de certa forma complementares,
que analisam as raízes da crise. A primeira enfatiza a deficiência do quadro regulatório. Tal
imperfeição teria levado aos excessos de alavancagem incorridos pelo sistema financeiro
mundial e viabilizados pela explosão de engenhosidade, com a criação de produtos e
derivativos financeiros complexos, que surgiu da transformação de um sistema financeiro
baseado no relacionamento para um sistema de transações de mercado.
A segunda vertente cita os grandes desequilíbrios macroeconômicos internacionais.
Para esta vertente, o crescimento impulsionado exclusivamente pelo aumento do consumo dos
países centrais não teria como sustentar-se por um período prolongado. Nestes países, o
crescimento demográfico é baixo ou mesmo nulo, a pirâmide demográfica é invertida e o
padrão de vida já é muito elevado. Manter o alto crescimento da demanda interna depende,
simultaneamente, da capacidade de criar novas necessidades de consumo e da possibilidade
de expandir os mecanismos de financiamento para famílias cada vez mais endividadas.
De fato, o eixo da crise está ligado à inclusão no mercado hipotecário daquele
segmento de agentes econômicos que, pelas normas de concessão de crédito das instituições
privadas e públicas, não tinham condições de arcar com as parcelas de seus respectivos
financiamentos – os chamados subprimes (TORRES FILHO, 2008).
Sem a inserção desse nicho, o ciclo imobiliário expansionista não teria se sustentado.
À medida que as taxas de juros de mercado dos EUA iam caindo e, simultaneamente, os
preços dos imóveis continuavam a subir, as famílias que enfrentavam dificuldades podiam
liquidar o financiamento hipotecário antigo e adquirir um novo, em geral, a taxas mais
atraentes.
Entre 1997 e 2006, o mercado imobiliário norte-americano vivenciou um longo
período de valorização dos preços dos imóveis, que chegaram a triplicar de valor, conforme
15
gráfico 1. Esse processo foi, em boa medida, impulsionado pelo aumento do crédito
imobiliário americano, que esteve apoiado em taxas de juros relativamente baixas.
Todavia, as possibilidades de manutenção dessa bolha imobiliária deixaram de existir
na medida em que a taxa básica de juros norte-americana foi sendo gradativamente elevada,
saindo do patamar de 1% a.a., em maio de 2004, para 5,25% a.a., em junho de 2006. Assim,
sem os constantes aumentos no preço dos imóveis, o processo de refinanciamento das
hipotecas ficou inviabilizado e, ao mesmo tempo, provocou uma ampliação da inadimplência
e das execuções.
Gráfico 1 – Evolução do Índice de Preços dos Imóveis nos EUA de 1987 a 2010
250
200
150
100
50
0
Fonte: S&P/Case-Shiller Home Price Index
O crescimento do mercado de hipotecas e a securitização dos créditos subprime
envolviam uma complexa engenharia financeira, que garantia a viabilidade das operações. O
processo se iniciava com a transferência de diferentes contratos de hipotecas para um único
fundo de investimentos – o mortgage pool. Esse fundo, por sua vez, emitia cotas (tranches) de
classes diferentes. Cada uma possuía uma taxa de retorno proporcional ao seu risco, ou seja,
era tanto maior quanto maior fosse o risco assumido por seu cotista.
A parcela do fundo de hipotecas que assumiria as primeiras perdas no caso de atrasos
ou inadimplência era chamada de patrimônio líquido (equity), mas também era conhecida
como “lixo tóxico” (toxic waste) pela dificuldade de ser descartada. Os detentores dessas
cotas recebiam, em troca, a taxa de remuneração mais elevada do fundo e serviam, assim,
16
como amortecedores de risco para os demais investidores. Caso os prejuízos viessem a ser
superiores ao montante aportado como equity, o excedente passava a ser automaticamente de
responsabilidade dos investidores da classe de risco seguinte, no caso a “B”, e assim
sucessivamente.
As tranches de risco médio eram transferidas a um fundo CDO - Collateralised Debt
Obligations (“Títulos Garantidos por Dívidas”), junto com outros títulos de dívida, como
recebíveis de cartões de créditos, recebíveis de financiamentos a automóveis, empréstimos
estudantis (students loans) e, até mesmo, outros investimentos imobiliários. Segundo Torres
Filho (2008), um fundo CDO podia ser composto por direitos sobre milhares de contratos
agrupados de diferentes formas, por meio dos mais diversos instrumentos. Com toda essa
fragmentação, esperava-se produzir a máxima diluição do risco associado a cada hipoteca
individualmente e assim, obter uma carteira que, por sua distribuição estatística, alcançasse
melhores classificações de risco comparativamente às dos títulos que lhe deram origem.
O Fundo CDO emitia novas séries de títulos com escalonamento semelhante ao
mortgage pool. Ainda de acordo com Torres Filho (2008), mediante esse processo, os bancos
conseguiam que grande parte das dívidas colocadas no fundo CDO se transformasse em
títulos, qualificados pelas agências de classificação, em níveis superiores aos ratings dos
ativos que constituíam originalmente o fundo. Dessa forma, os bancos podiam captar recursos
a um custo menor no mercado de capitais para financiar essa parte “menos nobre” dos ativos
lastreados nas hipotecas subprime.
Em relação às tranches de maior risco, resíduo necessariamente produzido em cada
uma das etapas do processo de transformação financeira descrito acima, para se obter uma
forma menos onerosa de financiá-las, a saída encontrada foi a criação de empresas de
investimentos estruturados – as SIV (Structured Investment Vehicles). O único propósito
dessas empresas era emitir títulos de curto prazo lastreados nas hipotecas. A maior dificuldade
nesse tipo de estruturação era a curta maturidade dos commercial papers, de três ou seis
meses, enquanto os ativos que as SIV mantinham em carteira, lastreados nos fluxos de
pagamentos futuros dos financiamentos imobiliários, eram de até trinta anos.
Todo esse complexo mecanismo financeiro veio abaixo com o esfriamento do mercado
imobiliário americano. Após atingir recordes de vendas em 2005, o mercado iniciou uma
grande trajetória de queda. Segundo Torres Filho (2008), em meados de 2008, um ano após o
início da crise, as vendas trimestrais anualizadas atingiram 5,4 milhões de unidades, queda
global de 36,5% no período e no caso dos imóveis novos a redução foi de, aproximadamente,
17
61,5%. Devido à redução na demanda, os preços das residências começaram a ceder a partir
de 2007. Com isso, ficou mais difícil renegociar as hipotecas subprime, elevando as taxas de
inadimplência e execuções de hipotecas.
O acúmulo de prestações em atraso comprometeu inclusive as tranches de menor risco
que formavam os fundos CDO. Os investidores correram para resgatar suas aplicações em
fundos imobiliários e, simultaneamente, pararam de renovar as aplicações em commercial
papers lastreados em ativos emitidos pelas SIV. A conseqüência foi a elevação de suas taxas
de captação, indicando problemas de liquidez a curto prazo no sistema financeiro americano.
Nestes termos, os grandes bancos americanos e europeus ficaram expostos ao risco
imobiliário, uma vez que as SIVs passaram a fazer uso das linhas de crédito que mantinham
com essas instituições, transferindo dessa forma parte dos prejuízos. Os bancos passaram a
sofrer com a elevação dos seus custos de captação, inclusive nos mercados interbancários.
Esse foi o sinal para que os Bancos Centrais interviessem, oferecendo liquidez a taxas mais
baixas, mesmo a instituições com carteiras de crédito problemáticas.
O quadro a seguir resume alguns fatos importantes que marcaram a crise.
Tabela 1 – Principais Eventos nos Mercados Financeiros durante a Crise do Subprime
Data
Evento
Agosto 2007
O BNP-Paribas, maior banco francês, suspende os resgates das quotas de
três grandes fundos imobiliários sob sua administração – Parvest Dynamic
ABS, BNP Paribas ABS Euribor e BNP Paribas ABS Eonia.
Março 2008
FED estende linha de crédito de cerca de US$ 30 bilhões ao JP Morgan
Chase para a aquisição do Bear Stearns, que estava em iminente falência.
Julho 2008
As agências (privadas) garantidas pelo governo norte-americano – Fannie
Mae e Freddie Mac – recebem pacote de ajuda do Tesouro americano que,
entre outras ações, contemplava uma injeção de liquidez da ordem de US$
200 bilhões.
Setembro 2008 Lehman Brothers, o quarto maior banco de investimento americano, entra
com pedido de concordata na Corte de Falências de Nova York após o
anúncio de um prejuízo de US$ 3,9 bilhões no terceiro trimestre de 2008 e
da negativa do governo americano em fornecer respaldo financeiro a uma
possível operação de compra da instituição.
18
A decisão das autoridades americanas de não prover apoio financeiro ao Lehman
Brothers agravou profundamente a crise. Bancos e empresas passaram a ter dificuldades na
obtenção de novos recursos e linhas de crédito de curto prazo. Pairavam ainda, preocupações
e desconfianças com relação à solvência do sistema bancário norte-americano e seus impactos
recessivos sobre o lado real da economia.
No dia seguinte à falência do Lehman Brothers, a maior companhia de seguros dos
EUA – a American Interegional Group (AIG) – recorreu a um empréstimo do FED no valor
de US$ 85 bilhões em função de suas necessidades de liquidez. As implicações sistêmicas que
uma possível falência da AIG geraria sobre o já fragilizado sistema financeiro norteamericano levaram a autoridade monetária a realizar a intervenção, modificando sua postura
em relação ao caso do Lehman Brothers.
O pós-crise foi marcado principalmente pelas incertezas em relação à saúde do lado
real das economias, com temores em relação a uma estagnação das principais locomotivas do
crescimento mundial. Em resposta, as autoridades monetárias prepararam diversos pacotes de
estímulo à economia.
Ainda em 2008, o Tesouro americano preparou um pacote no valor de US$ 700
bilhões para a compra dos ativos imobiliários ilíquidos (“podres”) dos bancos, com a intenção
de sanear de vez seu sistema financeiro. No entanto, os efeitos esperados das novas medidas
não se materializaram, e os mercados ao redor do mundo voltaram a apresentar turbulências.
Em certas ocasiões, chegou-se mesmo a um estado de pânico generalizado, com quedas
recordes nas principais bolsas de valores do mundo.
A partir de setembro de 2009, as preocupações com os riscos decorrentes da
fragilidade das instituições bancárias deu lugar à crescente inquietação com a deterioração da
situação fiscal em várias economias do mundo (BACEN, 2010). Esse problema com os
indicadores de solvência fiscal pode ter sido, em grande parte, consequência do conjunto de
medidas de estímulo fiscal e de socorro a bancos que foram adotadas desde o colapso do
Lehman Brothers.
No Brasil, os anos de 2009 e 2010 marcaram a consolidação da recuperação
econômica, estampada nos bons números de crescimento do PIB, geração de emprego, fluxo
de capitais estrangeiros e até então, inflação sob controle. Nas grandes economias, entretanto,
o momento ainda era de incerteza. Os Estados Unidos têm enfrentado grandes problemas
com desemprego e a conta dos pacotes econômicos é retratada no seu elevado e crescente
19
déficit. Na Europa, nações como Espanha, Irlanda e Grécia têm vivido situação fiscal
preocupante, com grandes dificuldades de refinanciamento de suas dívidas.
A crise do subprime despertou uma enorme preocupação com relação a gestão do risco
no sistema financeiro, desencadeando uma onda de estudos e surveys por parte do BIS, dos
agentes reguladores, consultorias e associações de profissionais de risco. Como a crise deixou
clara a ineficácia do marco regulatório e da gestão de risco que vigoravam até então, essas
pesquisas tinham o intuito de redesenhar o próprio gerenciamento de risco e fortalecer o
sistema financeiro para futuras crises.
No âmbito do marco regulatório 2, verificou-se que o aumento da exigência de capital
dos bancos estaria no cerne dessa nova receita para a blindagem do sistema financeiro contra
novos estresses.
2.2. Evolução da Regulação Bancária
O Comitê de Basileia para supervisão Bancária propôs em 1988 um conjunto mínimo
de diretrizes para adequação de capital com o objetivo de garantir a solidez e a estabilidade do
sistema bancário por meio do Acordo de Basileia I. Este Acordo estabelecia requerimento de
capital apenas para risco de crédito. Em abril de 1993, foi apresentado um conjunto de
propostas para construir um modelo padrão para o risco de mercado, com o objetivo de
capturar os riscos inerentes às operações advindas da crescente concorrência dentro dos
mercados financeiros, ajustando as práticas de administração de risco às permanentes
inovações financeiras. Porém, apenas em 1996, o Comitê emitiu o documento Amendment to
the Capital Accord to Incorporate Market Risks, conhecido como a “Emenda de 1996” ou,
após ter sido implementada, “BIS 98”, que tornou obrigatório a mensuração e a reserva de
capital pelas instituições financeiras para cobrir sua exposição ao risco de mercado.
No BIS 98, as autoridades permitiram a flexibilidade na modelagem dos muitos
componentes de risco mercado para determinar o capital regulatório, em função da
complexidade da correta avaliação da exposição a este risco, especialmente no caso de
produtos derivativos. E às instituições financeiras mais sofisticadas foi permitido escolher
entre os seus próprios modelos VaR – conhecida como “abordagem dos modelos internos” - e
o “modelo padrão” proposto pelo próprio BIS – conhecido como “abordagem padronizada”.
2
Na seção 3 fizemos uma discussão mais detalhada sobre as alterações no marco regulatório recomendadas
por Basileia III.
20
No Brasil, a partir da publicação da Resolução CMN nº. 2.692/2000, as instituições
financeiras implementaram o Modelo Padrão para compor o cálculo do requerimento de
capital, ou Patrimônio Líquido Exigido – PLE – necessário para cobertura do risco decorrente
da exposição das operações registradas nos demonstrativos contábeis à variação das taxas de
juros praticadas no mercado.
O cálculo do capital regulamentar para risco de mercado foi incorporado às regras
prudenciais pelas Resoluções CMN nº. 2.606/99 e 2.692/00, que contemplavam o
requerimento de capital mínimo para risco de câmbio/ouro e taxa de juros, respectivamente.
A exigência de capital para taxa de juros se restringia ao risco de taxas de juros préfixadas e a metodologia utilizada foi a de um modelo intermediário entre o padrão e o interno,
empregando o conceito de VaR com parâmetros estabelecidos pelo BACEN.
Em junho de 2004, o BIS publicou o documento International Convergence of Capital
Measurement and Capital Standards, conhecido como Basileia II, que incorporou aos riscos
já mensurados no primeiro acordo – crédito e mercado – o capital regulamentar para risco
operacional.
Entre junho de 2007 e abril de 2008, o BACEN publicou o novo arcabouço
regulamentar abrangendo os três pilares de Basileia II:
No Pilar I estabeleceu o modelo padronizado por meio da Resolução CMN nº.
3.490/07, e das Circulares BACEN nº. 3.360/07, 3361/07, 3362/07, 3363/07, 3364/07,
3365/07, 3366/07, 3367/07, 3368/07 e 3383/08.
Esta regulamentação dispõe sobre a nova metodologia padronizada de apuração da
exigência de capital, chamado de Patrimônio de Referência Exigido (PRE). O PRE passou a
ser composto de três parcelas distintas: a referente às exposições ponderadas por fator de risco
(PEPR), relativa ao risco de crédito, a parcela para risco de mercado (PRM) e a de risco
operacional (POPR).
Nos Pilares II e III, o BACEN definiu a implementação da estrutura de gerenciamento
de risco operacional, por meio da Resolução CMN nº. 3.380/06, e a implementação da
estrutura de gerenciamento de risco de mercado, por meio da Resolução CMN nº. 3.464/07.
Após a crise do subprime, diversas medidas foram tomadas pelo Comitê de
Estabilidade Financeira do BIS com o objetivo de construir um sistema financeiro mais
seguro e assegurar sua resiliência em períodos de estresse.
21
Segundo Caruana (2010), a visão do Comitê é de que a promoção da estabilidade
financeira requer: 1) regulação prudencial; 2) reconhecimento do papel essencial das políticas
macroeconômicas, tanto monetária quanto fiscal e 3) disciplina de mercado. Ainda segundo
ele, a crise do subprime revelou uma gama de deficiências relacionadas à governança,
gerenciamento de riscos, due diligence, entre outros, que o setor privado precisa tratar.
Foi nesse contexto que surgiu o então denominado Basileia III, o pacote de reformas
anunciadas de julho a setembro de 2010 pelo BIS, visando:
1. melhorar consideravelmente a qualidade do capital dos bancos;
2. aumentar o nível de capital requerido;
3. reduzir risco sistêmico;
4. considerar tempo suficiente para uma transição suave ao novo regime.
Os itens 1 e 2 tratam basicamente da redefinição do capital dos bancos, especialmente
a parte do capital do banco que é considerado de alta qualidade e do aumento no nível de
capital exigido, como o aumento no requerimento mínimo de capital de 2% (Basileia II) para
4,5%.
O terceiro ponto tem dois aspectos importantes: o aspecto pró-cíclico e contra-cíclico.
No aspecto pró-cíclico, Basileia III pretende promover a acumulação de reservas em bons
tempos que podem ser reduzidas em períodos de estresse.
Já o estoque de capital contra-cíclico, que têm sido calibrado entre 0% e 2,5%, seria
acumulado durante períodos de rápido crescimento do crédito agregado, caso as autoridades
monetárias julgassem que esse crescimento estaria agravando o risco sistêmico. Por outro
lado, esse capital poderia ser liberado na diminuição do ciclo. Isso poderia, por exemplo,
reduzir o risco de o crédito disponível ser restringido pelos requerimentos de capital
regulamentar. A intenção é, assim, atenuar os impactos do sobe-e-desce dos ciclos
econômicos.
Em relação ao último ponto, a preocupação do Comitê de Basileia é introduzir as
reformas de modo que não impeça a recuperação da economia real, que vem sofrendo com o
temor de recessão de economias como a dos EUA e China, ainda em conseqüência da crise de
2007.
Apesar de Basileia III não introduzir novas diretrizes para o gerenciamento do risco de
mercado, em julho de 2009 já haviam sido publicados pelo Comitê de Basileia os documentos
Enhancements to the Basel II Framework, Revisions to the Basel II Market Risk Framework e
22
Guidelines for computing capital for incremental risk in the trading book, propondo medidas
adicionais para o fortalecimento e maior solidez do mercado financeiro.
Os novos documentos, entre outras alterações, incluíram no cômputo da alocação de
capital da parcela de risco de mercado o resultado do VaR estressado – sVaR –, que somado
ao VaR tradicional forma a PRM calculada por modelos internos.
As opiniões a respeito de Basileia III muitas vezes são opostas. De um lado, a
preocupação de que as novas regras pesem sobremaneira sob a capacidade dos bancos em
conceder crédito, o que seria danoso à recuperação da economia mundial neste período póscrise. De outro, a afirmação de que este é o caminho mais assertivo rumo à solidificação,
recuperação e, principalmente, fortalecimento do mercado financeiro internacional.
No Brasil, em dezembro de 2009, foi divulgada a Circular BACEN nº. 3.478 que
estabeleceu os requisitos mínimos e os procedimentos para o cálculo diário da PRM por meio
de modelos internos de risco de mercado, confirmando a inclusão do sVaR na apuração da
exigência dos bancos que desejem utilizar seus modelos para esse fim. Contudo, em junho de
2010, por meio da Circular BACEN nº. 3.498, foi introduzido um fator de transição gradual,
que retardou para 2012 a incorporação do sVaR no cálculo das parcelas.
Dessa maneira, o requerimento de capital para cobrir os riscos de mercado também
será substancialmente elevado, alinhado aos princípios de Basileia III descritos. As questões
que surgem, entretanto, dizem respeito: 1) à capacidade dos modelos de VaR utilizados pelas
instituições financeiras em medir adequadamente o risco da carteira trading e 2) à suficiência
da parcela de capital para risco de mercado em cobrir as perdas da carteira em situações
extremas do mercado.
2.3. Cálculo da parcela de capital para risco de mercado
O BACEN adotou a seguinte fórmula para o cálculo da PRM, a parcela de risco de
mercado do PRE:


 M 60

 M 60





PRM t  max max  VaRt i ,VaRt 1   S 2  max   sVaRt i , sVaRt 1 , S1 VPad t 




 60 i 1

 60 i 1



Onde:
PRMt = valor diário referente à parcela de risco de mercado, para o dia útil t;
23
VaRt = valor em risco (VaR) do dia útil t, calculado por meio de modelos internos de
risco de mercado;
sVaRt = VaR estressado do dia útil t, calculado por meio de modelos internos de risco
de mercado;
M = multiplicador;
VPadt = valor diário referente à parcela de risco de mercado calculada conforme
modelos padronizados;
S1 = fator de transição para modelos internos;
S2 = fator de transição para o sVaR.
Em relação à fórmula anterior, a inovação recomendada por Basileia e adotada pelo
BACEN foi a soma dos resultados do VaR estressado (sVaR) aos do VaR, já existentes na
regra anterior.
No âmbito dos modelos internos, apesar do BACEN não estabelecer uma metodologia
para o cálculo do VaR, ficando a critério da instituição financeira escolher o modelo mais
adequado ao perfil de risco da carteira e sujeito à autorização de seu uso pelo regulador,
alguns parâmetros para o cálculo devem ser obedecidos, independentemente do modelo
utilizado.
De acordo com o artigo 8º da Circular BACEN nº. 3.478, o VaR deve ser apurado
diariamente, para um intervalo de confiança unicaudal de 99% e período de manutenção
(holding period) de, no mínimo, dez dias úteis, adequado ao tamanho da exposição e às
condições de liquidez do instrumento. Podem ser utilizados valores de VaR calculados para
períodos de manutenção mais curtos, se convertidos para dez dias úteis ou mais.
Outra exigência é que os modelos que utilizem base histórica de retornos para o
cálculo do VaR, devem utilizar janela de observações de, no mínimo, um ano. É admitida a
utilização de períodos históricos de observações menores do que um ano, desde que
adequados às características das volatilidades e ao modelo utilizado, e sujeita à avaliação do
Supervisor.
O VaR estressado (sVaR) deve seguir as mesmas diretrizes do cálculo do VaR,
podendo, todavia, ser apurado semanalmente. Seu objetivo é replicar o cálculo do VaR que
seria feito em um determinado período histórico de estresse, porém utilizando a carteira atual
da instituição. Assim, os parâmetros do modelo devem estar calibrados com dados referentes
24
a um período histórico de doze meses que represente um estresse relevante para o perfil atual
da carteira da instituição. A base histórica para seleção do período de estresse deve considerar
dados a partir de janeiro de 2004.
O multiplicador “M”, utilizado na equação do PRM, corresponde à equação:
M  3  Abkt  Aqlt
Na qual Abkt é o adicional relativo aos testes de aderência e A qlt é o adicional relativo à
avaliação qualitativa do banco pelo BACEN.
O valor do adicional Abkt deve ser apurado nas datas-base de 31 de março, 30 de junho,
30 de setembro e 31 de dezembro, da seguinte forma:
a.
Identificação, entre os últimos 250 dias úteis, do número de dias nos quais
ocorreram perdas efetivas que excederam o respectivo VaR, considerando o total
da carteira, com base em um intervalo de confiança unicaudal de 99% e período
de manutenção de um dia;
b.
Identificação, entre os últimos 250 dias úteis, do número de dias nos quais
ocorreram perdas hipotéticas que excederam o respectivo VaR, considerando o
total da carteira, com base em um intervalo de confiança unicaudal de 99% e
período de manutenção de um dia;
c.
Considerar o máximo entre os valores identificados nas alíneas a e b, na tabela a
seguir:
Tabela 2 – Valor do Adicional de Backtesting
Máximo de perdas que
excederam o VaR
Abkt
4 ou menos
0,00
5
0,40
6
0,50
7
0,65
8
0,75
9
0,85
10 ou mais
1,00
Fonte: Circular BACEN 3.478/09
O novo valor determinado para o Abkt deve ser utilizado a partir do 1º dia útil do
segundo mês subseqüente às respectivas datas-base.
25
O valor do adicional Aqlt é determinado pelo BACEN, para cada instituição, com base
na avaliação dos aspectos qualitativos do modelo interno de risco de mercado e da estrutura
de gestão do risco de mercado, assumindo um valor entre zero e um.
Os fatores de transição estão assim definidos na Circular BACEN nº 3.498/10, que
alterou a Circular BACEN 3.478/09, introduzindo o fator de transição para o sVaR (S 2):
“§ 1º O fator S1 corresponde, para os períodos mencionados a seguir, contados a
partir do início da utilização do modelo interno de risco de mercado para o cálculo
do valor diário referente às parcelas PJUR, PACS, PCOM e PCAM do PRE, aos
seguintes valores:
I - do 1º ao 365º dia: 0,90 (noventa centésimos);
II - do 366º ao 730º dia: 0,80 (oitenta centésimos);
III - do 731º ao 1.095º dia: 0,70 (setenta centésimos); e
IV - a partir do 1.096º dia: zero.
§ 2º O fator S2 corresponde, para os períodos mencionados a seguir, aos seguintes
valores:
I - até 31 de dezembro de 2011: zero;
II - de 1º de janeiro de 2012 a 30 de março de 2012: 0,50 (cinquenta
centésimos);
III - de 31 de março de 2012 a 29 de junho de 2012: 0,75 (setenta e cinco
centésimos);
IV - a partir de 30 de junho de 2012: 1,00 (um inteiro).”
Para que a instituição financeira requeira ao BACEN a autorização para o uso de
abordagens internas para o cálculo do PRM da carteira trading, aquela deve cumprir uma série
de requisitos tanto qualitativos quanto quantitativos, se submetendo a um criterioso processo
de validação tanto interna quanto externa da sua estrutura de gerenciamento de risco de
mercado. A efetiva utilização dos modelos internos gera, portanto, um indicativo para o
mercado de que o banco tem políticas e estrutura consistentes e compatíveis com a
complexidade de seus negócios.
Um dos aspectos quantitativos necessários é a definição de um modelo de VaR que
mensure corretamente o risco dos instrumentos da carteira. Atualmente, há uma série de
metodologias no mercado que se diferenciam nas suas premissas e técnicas utilizadas. As
abordagens paramétricas, como a Delta-Normal, assumem que a distribuição dos retornos
segue uma normal, enquanto que a abordagem de Simulação Histórica é não-paramétrica e
independe da forma como os retornos se distribuem.
Dessa forma, as instituições passam pelo problema de definição de um modelo VaR
robusto para cálculo da exigência de capital, que mensure corretamente as perdas máximas
26
que a carteira podem sofrer em situações de normalidade e no caso do sVaR, em situações de
estresse do mercado.
Uma discussão importante também surge com a exigência de que o holding period seja
de no mínimo 10 dias úteis, mas que a acurácia do modelo e o cálculo do Abkt devam
considerar o horizonte de 1 dia útil. Um dos fatos estilizados dos retornos diários de ativos
financeiros é a sua não-normalidade. Entretanto, sabe-se que para horizontes de tempo
maiores, esses retornos tendem a se distribuir de maneira mais semelhante à curva normal.
Assim, pode acontecer que modelos bons para horizontes iguais ou superiores a 10 dias úteis
apresentem desempenho ruim quando avaliados a partir de retornos diários e a um nível de
significância tão alto quanto o de 99%.
27
3.
3.1.
RISCO DE MERCADO E MODELOS VAR
O que é Valor em Risco?
As preocupações com o risco de mercado também foram motivadas por
acontecimentos do mercado financeiro. O mais famoso deles, aconteceu em fevereiro de
1995, quando o Barings, um banco de investimento do Reino Unido, tornou-se insolvente em
conseqüência de perdas em operações com contratos futuros de índice no Japão estruturadas
por Nick Leeson.
O risco de mercado pode ser definido como a possibilidade de perdas no valor de
mercado da carteira de investimento, resultante de mudanças nas condições do mercado,
flutuação nos preços dos ativos, taxas de juros, volatilidade de mercado e liquidez
(RISKMETRICS, 1996). Em atividades de negociação, o risco surge de posições abertas (sem
hedging) e de correlações imperfeitas entre posições de mercado destinadas a se
compensarem entre si.
A medição desse risco tem mudado ao longo do tempo. Segundo Crouhy et al (2004),
ela evoluiu de simples indicadores, como o valor de face ou montante “nocional” de um título
individual, passando por medições mais complexas de sensibilidade de preços, como a
duration e a convexidade de um título de dívida, até alcançar as mais recentes metodologias
de cálculo de Valor em Risco.
Duffie e Pan (1997) definem valor em risco, ou simplesmente VaR (sigla do inglês,
Value at Risk), como a perda máxima esperada da carteira para um determinado período de
tempo e um nível de confiança estabelecido, sob condições normais de mercado.
Formalmente, Jorion (2003) expõe que o VaR descreve o percentil da distribuição de retornos
projetada sobre um horizonte estipulado.
Se dizemos que uma posição tem VaR diário de R$ 10 mil ao nível de confiança de
99%, queremos dizer que as perdas diárias da posição serão maiores do que R$ 10 mil em
apenas 1 dia em cada 100 dias de negociação (ou seja, 2 ou 3 dias por ano).
O objetivo do VaR é traduzir em um número apenas, todo o risco de mercado de uma
instituição, levando em conta os diversos tipos de instrumentos e as respectivas correlações
entre eles.
28
Como opção para o cálculo do VaR, Jorion (2003) descreve os métodos de avaliação
plena, que calcula o valor da carteira para um espectro grande de níveis de preço, onde os
novos valores de preço podem ser gerados por métodos de simulação. Dentre as opções
destaca-se a abordagem da simulação de Monte Carlo, que depende de distribuições
específicas, e a abordagem da Simulação Histórica, que efetua a tiragem de dados históricos
recentes.
A primeira das abordagens, e que deu origem ao conceito de VaR, é a metodologia
paramétrica desenvolvida pelo RiskMetrics™ (1996) e denominada frequentemente de Delta
Normal, e que pela sua facilidade de implementação, se mantêm como uma das mais
populares até hoje. Esta técnica assume a distribuição normal para os retornos e calcula o VaR
na forma quadrática, utilizando a matriz de covariância dos dados históricos.
Entretanto, o VaR não é destinado a oferecer a pior perda possível. O risco presente na
cauda da distribuição dos retornos pode trazer sérios problemas práticos em alguns casos. O
comportamento na cauda da distribuição dos retornos pode ser analisado por meio de técnicas
de testes de estresse ou medidas de tail risk, que devem ser vistas como complemento
indispensável ao VaR.
Gráfico 2 – Análise da Distribuição Empírica dos Retornos
Média
Testes de
Estresse
VaR 100α%
Desde o surgimento da exigência de alocação de capital para risco de mercado, onde os
bancos passaram a manter, junto à autoridade monetária, capital suficiente para cobrir sua
exposição a esse risco, o VaR sempre foi consenso de que seria a medida adequada para
calcular o montante a ser alocado. Por outro lado, a utilização de resultados de cenários de
29
estresse para alocação de capital sempre foi rejeitada pelas instituições financeiras, sob a
alegação de que negócios habituais seriam paralisados (JORION, 2003).
Apesar das constantes inovações nas metodologias de cálculo do VaR, com intenção
de reproduzir com maior precisão a distribuição empírica dos retornos, que, como se sabe,
apresentam assimetria e caudas pesadas, na indústria bancária, em geral, ainda se tem
utilizado os modelos clássicos de mensuração do risco de mercado, com assunção de
distribuição normal na maioria dos casos.
3.2. Parâmetros Gerais
Independentemente do modelo adotado, o VaR estabelece uma medida da perda
máxima esperada para um dado horizonte de tempo e um determinado grau de confiança.
Além desses dois parâmetros, as abordagens que utilizam observações históricas também
variam de acordo com o tamanho da amostra escolhida. Nesta pesquisa, esses parâmetros
gerais foram padronizados para permitir a comparação dos modelos testados.
3.2.1. Horizonte temporal
O período de carregamento, ou holding period, em termos de risco, é caracterizado
pelo prazo mínimo necessário para se desfazer ou se proteger contra as variações adversas da
posição. Geralmente, esse período é utilizado nos modelos de zeramento de carteira como
variável exógena, ou calculado endogenamente, onde se obtém um holding period ótimo.
Para a comparação dos modelos quanto à acurácia em prever a perda máxima da
carteira foi utilizado o horizonte de 1 dia útil, horizonte considerado padrão, inclusive para o
teste de aderência de Basileia.
Apesar do mínimo exigido pela Circular BACEN 3.478/09 ser de 10 dias úteis, devido
ao tamanho da carteira, a exigência da capital foi calculada com os números de VaR
calculados ou escalonados para o horizonte de 21 dias úteis, correspondente a 1 mês.
3.2.2. Nível de confiança
O cálculo do VaR e do sVaR foram realizados com intervalo de 99% de confiança
unicaudal, exigência do regulador.
30
3.2.3. Período histórico dos dados
Nos modelos baseados em observações passadas, o VaR em cenário de normalidade
(VaR) e o VaR Estressado (sVaR) foram mensurados utilizando-se período histórico de
retornos de 252 dias úteis. A escolha do período histórico de observação está em
conformidade com Basileia e a Circular BACEN 3.478/09.
As informações utilizadas no cálculo do VaR foram atualizadas diariamente e do sVaR
mensalmente.
3.3.
Delta Normal
A abordagem Delta-Normal para o cálculo do VaR é uma metodologia paramétrica
baseada no modelo analítico de matriz de covariância, que supõe que os retornos da carteira
são normalmente distribuídos.
Classificada por Jorion (2003) como um método de avaliação local ou analítica, essa
metodologia depende da hipótese de normalidade para os fatores de risco, assumindo a
propriedade de invariância das variáveis normais: carteiras compostas por variáveis normais
são também normalmente distribuídas.
Essa avaliação abrange somente a primeira derivada parcial ou a sensibilidade da
carteira a mudanças nos preços avaliada na posição inicial. Para uma carteira de renda fixa
isso se assimilaria à modified duration e para uma carteira de derivativos ao delta.
De acordo com Jorion (2003), para carteiras sem opções e cujas distribuições são
próximas de uma normal, o método delta-normal pode ser a melhor escolha. Rapidamente se
obtém uma medida de VaR precisa, pouco propensa ao risco de modelo (devido a suposições
ou cálculos imperfeitos), facilmente explicável à gerência e ao público. A característica
analítica permite fácil análise dos resultados por meio do VaR marginal e do VaR de
componentes.
As premissas básicas do modelo são:

os retornos diários são suficientemente pequenos, de modo que pode-se
assumir que os retornos aritméticos são equivalentes aos retornos geométricos;

os retornos condicionais têm distribuição normal com média igual a zero e
matriz de covariâncias.
31
A limitação mais citada pelas bibliografias correntes dessa metodologia é a assunção
da distribuição normal dos retornos em séries financeiras, que geralmente têm caudas grossas.
(Jorion, 2003) “Um primeiro problema é oriundo da existência de caudas
pesadas, ou grossas, para a distribuição de retornos da maioria dos
ativos financeiros. Essas caudas pesadas são particularmente
preocupantes justamente porque o VaR tenta analisar o comportamento
do retorno da carteira na cauda esquerda. Nessa situação, um modelo
baseado na distribuição normal subestimaria a proporção de outliers e,
portanto, o verdadeiro valor em risco.”
(Crouhy et al, 2004) “Há inúmeras evidências de que muitas
distribuições de retornos individuais não são normalmente distribuídas e
exibem o que chamamos de “caudas gordas” (fat tails). A expressão
“caudas gordas” decorre da forma de certas distribuições quando
plotadas em um gráfico. Nessas distribuições há mais observações
distantes da média do que seria o caso de uma distribuição normal, ou
em forma de sino. Assim, enquanto uma distribuição normal se encerra
rapidamente para refletir a raridade de eventos improváveis, a cauda da
distribuição de cauda gorda permanece relativamente espessa.”
(Alexander, 2001) “It assumes that the portifolio distributions at any
point in time are normal. This is certainly true if the returns to individual
assets, or risk factors, in the portfolio are normally distributed. But often
they are not.”
Foram testados três parâmetros de VaR para a abordagem Delta Normal: EWMA com
lambda 0,94, variância amostral e modelo híbrido.
Na primeira, utilizou-se a técnica de ponderação dos dados conhecida como EWMA3 –
Exponentially Weightd Moving Average, utilizando para o alisamento exponencial o fator de
decaimento 0,94. Segundo a metodologia EWMA, que é um aperfeiçoamento do método de
média móvel simples, com a diferença de que nessa atribuem-se pesos iguais a todos os
retornos enquanto que no EWMA são atribuídos pesos maiores aos retornos mais recentes, o
estimador da variância dos retornos é representado matematicamente pela equação:
Onde
é a previsão de volatilidade para t+1,
é o retorno do ativo em t e λ é o
fator de decaimento ou de alisamento exponencial que deve estar entre zero e um.
3
Exponencially Weighted Moving Average - método de suavização exponencial que pondera as observações
conforme o parâmetro lambda escolhido. O Riskmetrics utiliza o modelo EWMA com fator de decaimento 0,94
para retornos diários e 0,97 para retornos mensais, obtidos após estudo realizado em 480 séries temporais de
diferentes ativos em diversos países.
32
Em mudanças abruptas da conjuntura macroeconômica, a diminuição do fator de
decaimento faz com que o modelo reflita com mais rapidez à nova situação. Após um
movimento extremo, a volatilidade declina exponencialmente, à medida que o peso da
observação do choque diminui, diferentemente do método da média móvel, em que os
movimentos são lentos.
Ao ponderar o período histórico de dados com a utilização do lambda 0,94, 99,99% do
resultado é influenciado pelos dados do período compreendido entre 1 e 149 dias úteis, ou
seja, a partir de 149 dias a influência da amostra é de apenas 0,01%, conforme tabela:
Tabela 3 – Quantidade de Dias de Retornos que Influenciam a Estimação do VaR pela
Metodologia EWMA para Diferentes Fatores de Decaimento
Lambda x Janela dias úteis
Precisão
Decaimento
0,01%
0,10%
1%
0,84
53
40
26
0,84
61
46
31
0,88
72
54
36
0,90
87
66
44
0,91
97
73
49
0,92
110
83
55
0,94
149
112
74
0,95
177
132
88
0,96
226
169
113
0,97
302
227
151
0,98
456
342
228
0,99
916
687
458
Fonte: RiskMetrics™ (1996)
No segundo cálculo, não foi utilizada nenhuma técnica de ponderação dos dados,
calculando-se, portanto a variância amostral dos retornos.
Além disso, utilizou-se o que foi chamado de modelo híbrido, onde o resultado do VaR
de uma determinada data é sempre o máximo entre:

VaR calculado com EWMA lambda 0,94 e

VaR por variância amostral.
33
A escolha do modelo híbrido se baseou no documento Revisions to the Basel II market
risk framework, item 4.d nota 12, que indicou a possibilidade de utilização de técnicas para
ponderação dos dados em desacordo com o período histórico mínimo desde que o resultado
do capital alocado fosse mais conservador.
4.(d) The choice of historical observation period (sample period) for
calculating value-at-risk will be constrained to a minimum length of one
year. For Banks that use a weighting scheme or other methods for the
historical observation period, the “effective” observation period must be at
least one year (that is, the weighted average time lag of the individual
observations cannot be less than 6 months).12
12
A bank may calculate the value-at-risk estimate using a weighting
scheme that is not fully consistent with (d) as long as that method results in
a capital charge at least as conservative as that calculated according to
(d).
Empiricamente, torna-se difícil definir um modelo para o cálculo da volatilidade que
apresente resultados mais conservadores entre as várias opções de fatores de decaimento, pois
a eficácia dos modelos ao longo do tempo depende exclusivamente dos ciclos de volatilidade
dos ativos financeiros.
O modelo com lambda 0,94 dá maior peso às observações mais recentes, o que
provoca variações mais bruscas e torna o modelo mais sensível ao regime de volatilidade do
curto prazo, ou seja, tem resposta mais rápida aos últimos retornos dos ativos. Entretanto, em
momentos de calmaria, o VaR tende a subestimar o risco por dar maior peso para as
observações mais atuais.
De outra forma, a ausência de ponderação dos dados, a variância amostral, torna o
modelo de reação lenta a estresses no mercado, porém, é geralmente mais conservador em
tempos de pouca turbulência. Daí a escolha pelo modelo híbrido, que representa o resultado
máximo entre as duas medidas.
A matriz de variâncias/covariâncias do portfólio é construída em duas etapas:

cálculo dos retornos;

construção da Matriz de Covariância.
Os retornos para os fatores de risco são calculados por meio dos preços dos ativos
financeiros, pela fórmula:
34
onde:
Re t.FRi ,d 
Valor do Retorno de um fator de risco “i” para determinada data de
cálculo “t”;
= Preço do ativo para determinada data de cálculo “t”;
= Preço do ativo para o dia útil anterior à data de cálculo.
Os parâmetros de entrada para a construção da Matriz de Covariância são:

Valor de λ (constante de decaimento para o cálculo das volatilidades e das
correlações segundo a metodologia de decaimento exponencial – EWMA): 1
ou 0,94

Tamanho da janela de cálculo: 252 dias
A Matriz de covariância é dada por:
 11

 21
MCov  
.

 .
 12
.
 22
.
.
 n 1n 1
.
 nn1


. 
 n 1n 

 nn 
.
onde:



 t 1 


* r  r * r  r 
 ij    N
j t
j t
 i t it

j 1
t 1 


 


 j 1

N



N = tamanho da amostra para se estimar a Matriz de Covariância;
r
= Valor do Retorno correspondente ao fator de risco i, no “t-ésimo dia retroagido”;
r
= Valor do Retorno Médio correspondente ao fator de risco i que, em razão do
i t
i t
tamanho da amostra, é estimado como igual a zero (retorno médio da população = zero);
r
j t
= Valor do Retorno correspondente ao fator de risco j, no “t-ésimo dia retroagido”;
35
r
j t
= Valor do Retorno Médio correspondente ao fator de risco j que, em razão do
tamanho da amostra, é estimado como igual a zero.
Alguns autores, como Dowd (2002), levantam a necessidade de verificar se a matriz da
correlação/covariância é positiva-definida, como um dos itens de levantamento da
consistência do cálculo do VaR. Entretanto, como essas mesmas matrizes foram utilizadas no
cálculo do VaR por simulação de Monte Carlo, onde necessariamente a matriz deve ser
positiva-definida para ser realizada a decomposição de Cholesky, passo necessário ao cálculo,
não foi necessária essa verificação.
O VaR com Efeito Diversificação da carteira é determinado pela fórmula:
Onde:
Z = Fator correspondente ao intervalo de 99% de confiança (2,3263419...);
= horizonte de tempo;


V = P1 P2 ... Pn = Vetor linha das posições marcadas a mercado classificadas por
fator de risco;
Ω = Matriz de Covariância entre os retornos das posições;
V'’= Matriz transposta de V.
O sVaR com efeito diversificação é calculado a partir das posições marcadas a
mercado na data de cálculo e da matriz de covariância de estresse, matriz apurada para o
período histórico de estresse relevante para o portfólio.
A matriz de covariância de estresse é a que gera o maior resultado de VaR entre as
diversas matrizes calculadas a partir de 1º de janeiro de 2004 e para o período histórico de
observações de 252 dias úteis.
O sVaR procura medir o risco de mercado da carteira de negociação em momentos
históricos de estresse e é representado pela fórmula:
sVaRcd  V   Estresse  V   Z ic  t
Onde
 Estresse
é a matriz de covariância de estresse.
36
Devido ao tempo necessário para o processamento da definição do período histórico de
estresse, este foi revisado somente a cada 30 dias corridos, tempo máximo permitido pelo
BACEN.
3.4.
Simulação Histórica
A Simulação Histórica (SH) como método de estimação do VaR foi introduzido em
uma série de papers por Boudoukh et al. (1998) e Barone-Adesi et al. (1998, 1999).
A principal vantagem desse método, também chamado de VaR Histórico, é que não
requer qualquer assunção sobre a forma de distribuição paramétrica dos retornos dos fatores
de risco. Conforme observa Alexander (2008, b), apesar de que outros modelos podem incluir
assimetria e caudas pesadas nos retornos dos fatores de risco, eles ainda falham em
estabelecer uma forma paramétrica para modelar os retornos multivariados. E usualmente as
dependências entre os fatores de risco nessa distribuição multivariada são assumidas serem
bem mais simples do que elas são na realidade.
O VaR Histórico também não é limitado a portfólios lineares, como a abordagem Delta
Normal. Então, as vantagens do modelo SH sobre o paramétrico linear são bem claras.
Entretanto, esse método possui alguns problemas. Primeiramente, é difícil aplicá-lo
para calcular com horizontes de tempo maiores que alguns dias. Isso porque a limitação de
dados é um problema central. Para evitar uma instabilidade na estimação do VaR quando o
modelo é re-estimado dia após dia, é necessário uma quantidade considerável de dados
históricos. Mesmo quatro anos de dados históricos diários são insuficientes para um grau de
confiança aceitável. Dados sobrepostos de retornos para h-dias poderiam ser usados, mas,
como demonstra Alexander (2008, b), isso pode distorcer seriamente o comportamento da
cauda da distribuição dos retornos.
Outra falha é a limitação do modelo em lidar somente com cenários que já ocorreram
no passado. A assunção feita é de que se um cenário já ocorreu no passado, ele poderá
acontecer novamente no horizonte de risco do modelo. Mas, frequentemente, quando uma
crise ocorre, traz um cenário que não havia sido experimentado no passado.
O VaR Histórico é mensurado a partir dos retornos diários dos fatores de risco/vértices
da carteira. Calcula-se a variação no valor de mercado do portfólio supondo-se que as
oscilações ocorridas dia a dia dentro da janela utilizada (no caso, 252 dias úteis) ocorreriam
37
na data de movimento. Assim, teríamos 252 cenários alternativos que poderiam acontecer
entre hoje e amanhã. Isso define a distribuição de probabilidade para as mudanças diárias no
valor do portfólio. O VaR é a perda no α-ésimo percentil, onde α = (1-p) e p é o nível de
confiança do VaR.
O percentil de 1% de uma janela temporal de 252 dias será algum retorno situado entre
a segunda e a terceira pior perda verificada nesta carteira durante o intervalo de tempo em
questão. De acordo com Souza (1999), para uma amostra de tamanho N de retornos:
As observações são ordenadas de modo que:
Então o quantil empírico relativo ao nível de significância de α% será:
De posse da estimativa do quantil empírico
dos retornos, constrói-se, então, o
VaR para o nível de significância de α% como sendo:
Como visto, uma dificuldade essencial na SH é mensuração do VaR para períodos de
tempo longos. Uma alternativa é o escalonamento do VaR de 1 dia para horizontes maiores.
Entretanto, o VaR Histórico corresponde a um quantil de uma distribuição empírica não
especificada e não obedecem à “regra da raiz quadrada do tempo”, exceto se os retornos
forem i.i.d. e normalmente distribuídos. Essa assunção será feita neste trabalho, com o VaR
sendo escalonado pela regra da raiz do tempo, assim como o Delta Normal. Essa assunção
pode levar a uma subestimação do risco, entretanto, conforme veremos na seção 6, isso
somente ratificaria as conclusões da pesquisa.
O sVaR é calculado a partir do período histórico de estresse considerando a
volatilidade dos retornos dos fatores de risco a partir de 1º de janeiro de 2004, e das posições
marcadas a mercado na data de cálculo.
Esse período de estresse é definido como o intervalo de 252 dias úteis que gera o maior
resultado de VaR Histórico para o portfólio.
38
Devido ao tempo necessário para o processamento da definição do período histórico de
estresse, este foi revisado somente a cada 30 dias corridos, tempo máximo permitido pelo
BACEN.
3.5. Monte Carlo
Assim como a Simulação Histórica, a Simulação de Monte Carlo (MC) é um método
não-paramétrico. Dowd (1998) coloca que é a abordagem mais popular quando se precisa de
um sistema de VaR robusto e sofisticado, mas também de longe a mais desafiadora de se
implementar.
Segundo Alexander (2008, b), a grande vantagem de MC é que esse método usa os
dados históricos mais inteligentemente que a Simulação Histórica padrão. Após escolher um
modelo de comportamento paramétrico (preferivelmente com distribuição não-normal dos
retornos condicionais) para os dados históricos, simulam-se alguns milhares de cenários
possíveis que podem ocorrer com o modelo, não ficando restrito ao comportamento passado
dos dados.
O número de simulações, entretanto, é um dos problemas do modelo. MC converge
para o verdadeiro valor de VaR à taxa
, onde N é o número de simulações. De modo a
aumentar a acurácia do modelo em 10 vezes, deve-se rodar 100 vezes mais simulações
(WIENER, 1999). Portanto, MC é sujeito à variância amostral, a qual é causada por um
número limitado de simulações.
Jorion (2003) dá o exemplo de que o VaR para uma carteira de instrumentos lineares é
facilmente calculado usando a abordagem variância-covariância. MC baseado na mesma
matriz de variância-covariância gera somente uma aproximação sendo, desse modo,
enviesado. A acurácia aumenta somente quando o número de simulações é incrementado.
A geração de números aleatórios é o primeiro passo na simulação de Monte Carlo, seu
propósito é gerar uma sequência de números entre zero e um que são uniformemente
distribuídos, independentes e não-periódicos.
Segundo Alexander (2008, a), o único modo de gerar números aleatórios é medir, sem
erros, um fenômeno físico verdadeiramente aleatório, sendo que, na prática, os computadores
39
geram números pseudo-aleatórios4, produzidos, por exemplo, no Excel pela função
ALEATÓRIO().
Cada simulação exige a geração de um número aleatório U.I.D. (uniforme e
independentemente distribuído) para cada ativo. Neste trabalho foram utilizadas 5000
simulações.
O passo seguinte para se calcular o VaR é transformar a amostra de variáveis
aleatórias U.I.D. em uma amostra aleatória de variáveis correlacionadas e que seguem uma
distribuição normal multivariada com média e correlação apropriadas.
Supondo que os fatores de risco/vértices tenham matriz de correlação V, que por sua
vez tem matriz de Cholesky, C, gerando uma matriz Z com simulações normais padrão
independentes, então ZC’ será uma matriz com colunas que representam variáveis normais
correlacionadas e com média zero. Para o cálculo da matriz de correlação, foi utilizada janela
de 252 dias úteis.
Conforme Alexander (2008, a), uma matriz quadrada (número de linhas igual a
número de colunas) é chamada triangular inferior se ela possui somente zeros acima da
diagonal principal. Se uma matriz simétrica A é positiva definida então existe uma matriz
quadrada triangular inferior Q da mesma dimensão de A, tal que A = QQ’. Essa matriz Q é
chamada de matriz de Cholesky de A.
A partir dos números pseudo-aleatórios gerados, para transformá-los em uma
amostragem aleatória de uma variável X com uma função de distribuição contínua F, deve-se
calcular x = F-1(u), onde F é a função inversa da distribuição normal padrão.
Ou seja, dado um número aleatório u, a simulação correspondente para X é o quantil u
da distribuição normal padrão.
A partir das matrizes anteriormente calculadas, basta multiplicar a matriz Z pela
transposta da matriz de Cholesky, C. Cada linha da matriz ZC’ representa uma simulação de
variáveis correlacionadas, seguindo uma distribuição normal padrão – N(0,1).
Foi utilizada a equação de movimento browniano, frequentemente utilizada na
precificação de carteiras, para estimar o preço dos ativos ao final do período (MUN, 2006):
4
Em http://support.microsoft.com/kb/828795 pode-se obter detalhes da geração de números aleatórios no Excel
(2003 em diante).
40


2 
  t    t  z 
Pt  P0  exp   
2 


Onde:
P0 = preço do ativo i na data do cálculo;
 = média dos log-retornos;
 2 = variância dos log-retornos, calculada pelo processo de otimização descrito a
seguir;
t = defasagem do cálculo do VaR em dias;
z = número aleatório que segue uma N(0,1). É um elemento da matriz ZC’.
Idealmente, um VaR acurado deve ter desempenho nos testes de aderência consistente
com o nível de probabilidade. Isso significa que as perdas da carteira irão exceder o VaR na
porcentagem de casos próxima ao α escolhido.
Tradicionalmente, as técnicas de backtesting são aplicadas para avaliar os modelos de
VaR e, nenhum método de estimação garante um VaR com perfeita performance fora-daamostra. Entretanto, Huang (2010) propõe aplicar-se um conceito similar para ajustes dentroda-amostra durante o processo de estimação. Considere a seguinte razão:
Onde:
= número de vezes em que o VaR previsto é excedido (unicaudal);
= número de vezes em que o VaR não é excedido (unicaudal).
Então o desempenho do VaR pode ser medido anteriormente à estimação, usando a
expressão:
Um método que produz estimativas de VaR que minimizem a equação acima tenderão
a apresentar resultados ótimos de backtesting.
Para iniciar o processo de otimização, são produzidas estimativas de VaR por MC para
cada um dos 252 dias anteriores à data de cálculo utilizando-se a variância dos log-retornos
41
nos últimos 252 dias. As estimativas são comparadas com os respectivos valores de P/L
calculados, estimando-se ˆ t  k , t  1 .
Se
for igual a α, então a variância amostral pode ser utilizada para estimar o VaR
para a data. No caso de 99%, o modelo com 2 ou 3 violações estaria consistente com o nível
de acurácia.
De outro modo, se
for diferente de α, aplica-se um multiplicador à variância,
calculada por:
Onde
é o inverso da distribuição normal padrão no ponto x, conforme
proposto por Wichura (1988).
As estimativas de VaR são novamente geradas utilizando o mesmo multiplicador para
cada dia dentro da janela. Ao final, calcula-se novamente
. O processo continua até que
.
Apesar do modelo utilizado considerar assunções fortes, como a normalidade, o
processo de otimização irá alterar o multiplicador no tempo, desde que
vez que
. De fato, uma
, onde o modelo subjacente do VaR subestima o risco, o multiplicador pode ser
aplicado para aumentar a variância e por sua vez o VaR. Consequentemente, os resultados
finais de VaR são livres de qualquer assunção distribucional implícita ao modelo subjacente
(HUANG, 2010).
A partir dos cenários gerados para os preços, calcula-se a variação da carteira em cada
cenário somando-se os retornos dos n ativos da carteira:
Calcula-se o percentil (α = 0,01) correspondente na série de 5000 P/L da carteira. Esse
percentil é o valor de VaR para o horizonte de tempo definido.
O Valor em Risco Estressado é definido como o pior VaR dentre a série de valores de
VaR gerados tomando-se a carteira do dia e utilizando as correlações e a variância (ajustada
pelo processo de otimização) calculadas em cada dia da janela, utilizando dados desde 2004.
42
Devido ao tempo necessário para o processamento da definição do período histórico de
estresse, este foi revisado somente a cada 30 dias corridos, tempo máximo permitido pelo
BACEN.
43
4.
MÉTODOS DE AVALIAÇÃO DOS MODELOS VAR
Modelos VaR são úteis unicamente quando conseguem prever o risco de forma
razoável. A avaliação de um modelo é o processo geral por meio do qual se verifica se uma
metodologia é ou não adequada. Entre as ferramentas para tal análise, encontram-se os testes
de aderência, ou backtesting. Jorion (2003) define backtesting como a ferramenta estatística
formal para verificar a consistência entre as perdas observadas e as perdas previstas. Isto é,
comparar o histórico das perdas estimadas pelo VaR com os retornos observados da carteira.
4.1. Teste Regulamentar de Basileia
A possibilidade de uso de modelos internos de VaR para mensuração do tamanho da
alocação de capital para risco de mercado torna óbvia a necessidade de um mecanismo
consistente de backtesting para evitar que os bancos subestimem suas medidas de risco.
Assim, Basileia (1996a) estabeleceu uma metodologia padrão para a avaliação dos modelos
de VaR baseada na contagem do número de violações/exceções da variação da carteira em
relação ao VaR calculado.
O teste considera apenas a violação unicaudal, uma vez que o enfoque é a perda. A
violação unicaudal ocorre quando o resultado negativo supera a perda máxima prevista (VaR
calculado).
A abordagem do teste é o arcabouço clássico de testes para sequências de sucessos e
fracassos também chamados de eventos de Bernoulli. O número de exceções, N, possui
distribuição de probabilidade binomial:
T 
f ( N )    p N (1  p)T  N
N
Onde:
T 
 
 N  = Combinação de T, tomado N a N.
p = nível de probabilidade
T = nº de observações
N = nº de violações
44
O Comitê da Basileia (1996a) definiu zonas de risco de acordo com o número de
violações observadas no período de 250 dias úteis e VaR calculado com 99% de confiança:

Zona verde: até 4 violações

Zona amarela: entre 5 e 9 violações

Zona vermelha: mais que 10 violações
A classificação na zona verde sugere que não há problema com a qualidade ou
acurácia do modelo. Resultados na zona amarela são cabíveis tanto para modelos acurados
como inacurados, porém, a presunção de inacurácia aumenta com o número de violações (de
5 a 9) e, consequentemente, o modelo sofre penalização gradativa pelo A bkt. O enquadramento
na zona vermelha indica problemas com o modelo e a instituição deve usar o adicional
máximo no cálculo do requerimento de capital.
O delineamento das zonas e suas fronteiras foram definidos balanceando os dois tipos
de erros estatísticos:
Erro tipo I - possibilidade de classificar um modelo acurado como inacurado;
Erro tipo II – possibilidade de se aceitar um modelo inacurado.
Tabela 4 – Zonas do Teste Regulamentar de Basileia (Cobertura: 99%, 250 dias)
Zona
Violações Abkt Probabilidade Erro Tipo I Distr. Acum.
0
0,00
8,11%
100,0%
8,11%
1
0,00
20,47%
91,9%
28,58%
Verde
2
0,00
25,74%
71,4%
54,32%
3
0,00
21,49%
45,7%
75,81%
4
0,00
13,41%
24,2%
89,22%
5
0,40
6,66%
10,8%
95,88%
6
0,50
2,75%
4,1%
98,63%
Amarela
7
0,65
0,97%
1,4%
99,60%
8
0,75
0,30%
0,4%
99,89%
9
0,85
0,08%
0,1%
99,97%
10
1,00
0,02%
0,0%
99,99%
Vermelha
> 10
1,00
0,00%
0,0%
100,00%
Fonte: Comitê de Basileia (1996a)
A classificação das zonas se dá pela probabilidade acumulada da distribuição binomial,
que é a probabilidade de obter um número exato ou menor de exceções quando o modelo é
correto. A zona amarela começa no ponto onde probabilidade acumulada excede 95% e a
zona vermelha se inicia a 99,99%.
45
Jorion (2003) atribui a falta de poder desse teste à escolha de nível de confiança muito
alto para o VaR, que resulta em exceções insuficientes para um teste confiável.
4.2. Teste de Kupiec
O mais amplamente conhecido teste baseado em taxas de exceções foi desenvolvido
por Kupiec (1995). O teste de Kupiec, também conhecido como teste de proporção de falhas,
mede se o número de violações é consistente com o grau de confiança.
A hipótese nula do teste é:
H o : p  pˆ 
N
T
Onde:
p = nível de probabilidade
T = nº de observações
N = nº de violações
O Teste de Kupiec utilizou a distribuição binomial para testar se a taxa de exceções é
significativamente diferente de p, a proporção de falhas sugerida pelo nível de confiança do
VaR.
Kupiec gerou regiões de confiança de aproximadamente 95% para o teste, cujos
resultados estão na tabela 5. Esse nível de confiança refere-se à regra de decisão usada para
aceitar ou rejeitar o modelo, com regiões definidas pela seguinte razão de logverossimilhança, com distribuição assintótica qui-quadrada com um grau de liberdade, sob a
hipótese que p é a verdadeira probabilidade:



LRuc  2 ln (1  p)T  N p N  2 ln 1  ( N / T )
T N
(N / T ) N

Se o valor da estatística LR exceder o valor crítico da distribuição qui-quadrada, a
hipótese nula é rejeitada e o modelo considerado inadequado.
O teste de Kupiec é suscetível a dois tipos de deficiências. Primeiro, o teste é
estatisticamente fraco em tamanhos de amostra pequenos. Segundo, considera somente a
freqüência das violações e não o tempo em que elas ocorreram. Como resultado, pode-se
cometer um erro ao rejeitar um modelo que produziu exceções clusterizadas. Assim, a
46
avaliação dos modelos não deve recair somente sobre testes de cobertura incondicional
(CAMPBELL, 2005).
Tabela 5 – Regiões de Não Rejeição do Teste de Kupiec
Nível de
Confiança do
VAR
Região de não-rejeição para o número de
violações N
T= 255 dias
T= 510 dias
T= 1000 dias
99
N<7
1 < N < 11
4 < N < 17
97,5
2 < N < 11
6 < N < 21
15 < N < 36
95
6 < N < 21
16 < N < 36
37 < N < 65
92,5
11 < N < 28
27 < N < 51
59 < N < 92
90
16 < N < 36
38 < N < 65
81 < N < 120
Fonte: Jorion (2003)
O teste de Kupiec é suscetível a dois tipos de deficiências. Primeiro, o teste é
estatisticamente fraco em tamanhos de amostra pequenos. Segundo, considera somente a
freqüência das violações e não o tempo em que elas ocorreram. Como resultado, pode-se
cometer um erro ao rejeitar um modelo que produziu exceções clusterizadas. Assim, os a
avaliação dos modelos não devem recair somente sobre testes de cobertura incondicional
(CAMPBELL, 2005).
4.3. Teste de Christoffersen
Os testes regulamentar e de Kupiec focam somente sobre o número de exceções.
Entretanto, espera-se que essas violações sejam uniformemente espalhadas no tempo.
Nieppola (2009) afirma que bons modelos de VaR são capazes de reagir à mudanças de
volatilidade e correlações de modo que falhas ocorram independentemente uma das outras,
enquanto modelos ruins tendem a produzir sequências de exceções consecutivas. Um método
condicional tem a propriedade de levar em conta as informações existentes em cada ponto da
amostra, verificando se o VaR se agrupa de forma dependente no tempo.
Christoffersen (1998) define um procedimento para a verificação da precisão das
previsões para intervalos de confiança que tenta capturar a condicionalidade das estimativas.
47
Ele usa a mesma base do teste de log-verossimilhança de Kupiec (1995), mas estende o teste
para incluir uma estatística separada para a independência das exceções.
Seja
a sequência observada da variável aleatória
, o retorno de um ativo ou
do portfólio. O teste é conduzido por uma variável binária que tem o valor de 1, se o VaR é
excedido e 0, se não há violação:
Assim, tem-se um vetor de zeros e uns e a propriedade de independência das exceções
ao longo do tempo implica que cada par de elementos desse vetor deve ser independente um
do outro. Um modelo de VaR bem ajustado também irá gerar uma sequência de modo que
, para todo t.
Para testar estas duas hipóteses, Chistoffersen (1998) sugere um teste conjunto de dois
testes de razão de verossimilhança. O primeiro testa a adequação não-condicional das
estimativas. O segundo testa a independência da sequência
No primeiro teste a hipótese nula de que
.
é testada contra a alternativa de que
. Sobre a nula a verossimilhança é igual a:
Onde N é o número de observações em que
. Sobre a alternativa, a
verossimilhança fica:
Onde Π = N/T é o estimador de máxima verossimilhança de Π.
A estatística do teste de razão de verossimilhança é igual a:
Assim, aceita-se a hipótese nula se esta estatística não exceder os valores críticos da
distribuição qui-quadrada com um grau de liberdade.
No teste de independência o autor usa uma cadeia de Markov para dois resultados
consecutivos de It. A matriz de transição de probabilidade é dada por:
48
Aqui
é a probabilidade de j ocorrer, dado que i ocorreu no
tempo t-1. A fórmula abaixo mostra a função de verossimilhança neste caso:
Onde nij é o número de observações com valor i seguido de j. Estima-se a matriz de
transição markoviana por meio dos estimadores de máxima verossimilhança da verdadeira
matriz:
Porém, se os elementos do vetor de resultados I t são independentes, a matriz de
transição de probabilidade deve ser:
Ou seja, não há diferença entre as probabilidades de uma exceção ou não-exceção para
um certo dia, não importando o resultado no dia anterior. A hipótese nula do teste fica H 0: π01
= π11 = π2. O estimador de máxima verossimilhança para π2 é:
A função de verossimilhança sob a hipótese nula fica:
Finalmente, podemos computar a estatística do teste, que também segue uma
distribuição qui-quadrada com um grau de liberdade, pela seguinte fórmula:
O teste conjunto consiste em testar a hipótese nula do teste não condicional contra a
alternativa do teste de independência. A estatística do teste conjunto de razão de
verossimilhança é dada por:
49
Que se aproxima de uma distribuição qui-quadrada com dois graus de liberdade e
equivale a soma das estatísticas dos dois testes independentes:
4.4. Testes de Estresse
Os modelos estatísticos de cálculo de risco de mercado costumam apresentar
problemas em períodos de variação no padrão de comportamento dos dados.
O teste de estresse é uma ferramenta complementar para a avaliação do risco de
mercado, sendo utilizado em conjunto com o VaR, este último refletindo o risco cotidiano e o
primeiro o risco em situação de crise.
Desde a crise de outubro de 1997, a atenção dada aos testes de estresse pelos órgãos
regulatórios e bancos aumentou significativamente. O teste de estresse é uma ferramenta que
quantifica a perda em situação de crise nas quais o VaR, que prevê perdas em cenários de
normalidade, não pode prever.
Dowd (2002) lista três diferentes maneiras para sua utilização no gerenciamento de
risco:
• como fonte de informações: avaliação do apetite ao risco, identificação das maiores
contribuições ao risco e revelação de fontes de risco não aparentes;
• como guia de decisão e auxiliar no estabelecimento de limites e alocação de capital;
• como auxílio no desenho de sistemas para proteção contra eventos turbulentos (ex:
crise de liquidez) e planejamento de contingência.
As duas principais abordagens de testes de estresse existentes são:
•
Análise de cenário: avalia-se o impacto de cenários específicos no portfólio. A
ênfase está em especificar o cenário e suas ramificações.
•
Testes de estresse mecânicos (automáticos): avalia-se um número (geralmente
grande) de possibilidades definidas matematicamente ou estatisticamente (por exemplo,
aumento ou decréscimo de fatores de risco de mercado por certo número de desvios-padrões)
para determinar o máximo de combinações de eventos e a perda que produziria.
50
Pela análise de cenários, existem três cenários que podem ser considerados: cenários
estilizados (movimento em uma ou mais taxas de juros, taxas de câmbios, preços de ações ou
preços de commodity), eventos históricos reais, eventos hipotéticos (sem precedentes).
Nesta pesquisa, foi desenvolvida a análise de cenários com a reprodução de períodos
históricos e um teste de estresse baseado na aplicação de desvios-padrão na volatilidade
histórica dos preços dos ativos da carteira.
4.4.1 Teste de Estresse Histórico
A análise de cenários baseados em eventos históricos, segundo Dowd (2002), tem duas
vantagens em comparação a outros cenários:

o fato de que já tenham realmente ocorrido reduz a arbitrariedade e é mais
plausível;

é mais inteligível e útil, considerando que uma afirmação como “o banco
poderia perder R$ X milhões se a crise de 1987 se repetisse amanhã” tem maior
efetividade na comunicação do risco.
As premissas básicas assumidas pelo modelo são:

movimentos históricos de estresse nas curvas de mercado podem ocorrer
novamente;

choques históricos de estresse podem se repetir independentemente das
condições macroeconômicas vigentes.
A construção dos cenários está baseada no trabalho de Vieira Neto e Urban (2000), que
se tornou clássico no mercado financeiro brasileiro. A partir da análise dos impactos das
oscilações diárias dos fatores de desconto das curvas de mercado, dos índices da BM&F
Bovespa e das taxas de câmbio sobre a carteira, as datas de estresse são definidas como
aquelas cujos deslocamentos no valor dos ativos geram os piores resultados para a carteira de
negociação, sendo este valor definido como VaR de estresse5.
No estudo, foram utilizados dados de 2004 a 2010. Em cada data na janela, calcula-se
a variação, ou choque, efetivamente ocorrida nos fatores de risco entre a data d e d-h:
5
Note que esta medida é diferente do conceito de Valor em Risco estressado (sVaR) adotado por Basileia.
51
Onde:
= choque calculado na data d para o fator de risco f e vértice i (para
títulos públicos);
= preço na data d do fator de risco f e vértice i;
= preço na data d - h do fator de risco f e vértice i;
h = horizonte do cálculo (holding period).
O valor marcado a mercado de estresse é dado por:
Onde:
= valor marcado a mercado original na data de cálculo para o fator de risco
f e vértice i (para títulos públicos);
Para os títulos públicos, calcula-se o valor MtM Estresse por fator de risco em cada
data d somando-se os
para todos os vértices e o MtM Estresse da
carteira é dado pela somatória de todos os fatores de risco. Assim, tem-se uma série de MtM
Estresse para cada dia na janela testada.
O teste de estresse – cenários históricos considera duas possibilidades:

a ocorrência do efeito diversificação entre os fatores de risco ou o pior cenário
para uma data;

a não ocorrência do efeito diversificação ou o pior cenário por fator de risco.
Considerado o efeito da diversificação, a data de estresse na data de cálculo é aquela
que gera o menor MtM Estresse para a carteira de negociação.
O VaR de estresse da carteira de negociação será a diferença entre o valor marcado a
mercado na data de cálculo e o menor valor de mercado após a aplicação do choque, ou seja,
o menor MtM Estresse.
52
Desconsiderando o efeito da diversificação, em que se quebra a premissa das
correlações, as datas de estresse são aquelas que geram o menor valor de mercado para cada
fator de risco, podendo haver datas distintas de estresse. O VaR de estresse da carteira trading
é a soma de cada um dos resultados de VaR de estresse dos fatores de risco.
4.4.2 Cenários
Alternativamente, é possível gerar cenários baseando-se na volatilidade dos ativos na
data de cálculo. Através da aplicação de desvios-padrão nessas volatilidades, obtêm-se
cenários de possíveis realizações para o movimento dos preços.
Com o objetivo de se obter o pior cenário possível, foram desconsideradas as
correlações entre os ativos e o choque foi calculado da seguinte maneira:
Onde:
= volatilidade diária dos preços do fator de risco f e vértice i (para títulos
públicos);
n = número de desvios-padrão.
Da mesma maneira que no teste histórico, aplica-se o choque aos valores de mercado
dos fatores de risco e vértices, somando-se os MtM Estresse para se obter o valor da carteira
em situação de estresse. A diferença do valor original do portfólio e do valor de estresse
caracteriza a perda que a carteira sofreria na ocorrência de determinado movimento das taxas
e preços.
53
5.
CARTEIRA TRADING
Para a definição da carteira trading utilizada na pesquisa, o objetivo foi montar uma
carteira simulada que se assemelhasse às dos grandes bancos em operação no Brasil. Para a
composição, foram consultados os últimos balancetes das maiores instituições financeiras e
verificou-se uma predominância em três tipos de ativos, por ordem de importância: títulos
públicos, ações e moedas.
Os títulos públicos detém a maior participação em todas as carteiras dos principais
bancos consultados. Ações e moedas estrangeiras representam um percentual menor mais
ainda significativo dos ativos. Títulos privados em geral representam parcela irrelevante na
carteira de negociação dos bancos e foram deixados de fora da pesquisa, entretanto, não se
pode desconsiderar o risco de crédito que esses papéis possuem, em especial em situações de
estresse.
Em relação aos derivativos, bancos em geral os utilizam como proteção de ativos da
carteira. O maior exemplo são os contratos futuros de DI de 1 dia, que em geral são vendidos,
de forma que o banco troca a remuneração prefixada que receberia dos títulos da carteira pela
correção do CDI, reduzindo a sensibilidade da carteira a variações nas taxas de juros. Como o
desejado na pesquisa era obter uma carteira de maior risco, não foi introduzido hedge no
portfólio.
Tendo em vista que a posse de mercadorias (commodities) e títulos estrangeiros é
muito baixa mesmo nos grandes bancos brasileiros, não foram considerados esses tipos de
ativos na pesquisa.
A carteira de negociação simulada de 2005 a 2010 (junho), período em que foram
testados os modelos VaR, foi, em média, composta de 77% de títulos públicos, 15% de ações
e 8% de moedas. As participações permaneceram relativamente estáveis, devido ao
rebalanceamento anual da carteira, tendo essas porcentagens oscilado durante o ano devido
apenas às variações nos preços de mercado dos ativos.
A carteira de títulos públicos foi composta por papéis de diferentes indexadores, e a
participação de cada um foi espelhada na composição da carteira teórica utilizada para cálculo
do Índice de Mercado da ANBIMA – IMA. Foram excluídas as Notas do Tesouro Nacional
série C, NTN-C, indexadas ao IGP-M e em extinção pelo Tesouro Nacional devido ao IPCA
ser adotado como índice de preços oficial do Governo Federal, e as série D, NTN-D, que eram
54
remuneradas pela variação do dólar e que foram extintas em julho de 2008. As parcelas
detidas por cada indexador foram redefinidas anualmente com base na composição do IMA
do último dia útil de cada período.
Gráfico 3 – Composição da Carteira de Renda Fixa por Indexador (Posição de Fechamento)
SELIC
15%
20%
25%
Prefixado
IPCA
30%
30%
30%
35%
35%
35%
35%
35%
35%
35%
2007
2008
2009
2010
30%
40%
40%
55%
40%
2005
2006
O indexador SELIC foi composto pelas Letras Financeiras do Tesouro – LFT, títulos
remunerados pela variação diária da taxa básica da economia sem pagamento de juros, sendo
o valor nominal e a devida correção pagos na data de resgate definida na emissão.
Na categoria dos títulos prefixados estão as Letras do Tesouro Nacional – LTN e as
Notas do Tesouro Nacional série F – NTN-F, ambos títulos com rentabilidade definida (taxa
fixa) no momento da compra, com a diferença de que os últimos possuem prazo de
vencimento mais longos e cupom de juros semestral.
As Notas do Tesouro Nacional série B – NTN-B, compõem os ativos remunerados
pela variação do IPCA, Índice de Preços ao Consumidor Amplo, índice de inflação calculado
pelo IBGE e utilizado no regime de metas para inflação do BACEN.
Em cada indexador, foi simulada a posse de títulos com variados prazos de
vencimento, onde os mais líquidos na época do rebalanceamento receberam maior
participação.
A carteira de ações foi distribuída em investimentos nos principais segmentos de
atuação das empresas listadas na BM&F Bovespa além da simulação da posse de um índice
55
de mercado. Para o cálculo dos preços, foram utilizados os índices setoriais da Bovespa que
utilizam a capitalização de mercado como fator de ponderação.
As participações de cada índice foram mantidas constantes nos rebalanceamentos
anuais: mercado (25%), setor financeiro (25%), bens de consumo (15%), setor industrial
(15%), companhias de óleo e gás (10%) e empresas de telecomunicações (10%).
De modo análogo, na carteira de moedas, as parcelas permaneceram fixas. Pela sua
importância nas carteiras dos bancos, o dólar dos Estados Unidos representa metade da
carteira de câmbio, com a libra detendo 30% de participação e o euro o restante, 20%.
5.1
Preços e Taxas
Os preços de mercado dos ativos foram coletados com periodicidade diária (dias úteis)
para o período de 02/01/2004 a 02/07/2010.
Os índices dos segmentos da BM&F Bovespa, ponderados pelo fator de capitalização
do mercado, e as taxas de câmbio utilizados na pesquisa foram coletados na Economática.
Os preços de mercado e as taxas indicativas dos títulos públicos foram coletadas no
site da ANBIMA.
5.2
Mapeamento em Fatores de Risco e Vértices
O grande número de ativos da carteira de negociação exige o agrupamento das
posições em fatores de risco para a redução do custo computacional na estimação do VaR.
Na presente pesquisa, foi adotado o mapeamento referencial, metodologia do
Riskmetrics™ que consiste na escolha de um conjunto de ativos referenciais para o qual a
posição em todos os outros ativos é mapeada. Na metodologia original o Riskmetrics™
seleciona como ativos de referência as moedas mais negociadas, índice das principais bolsas
do mundo, vértices fixos da curva de juros e commodities. A metodologia utiliza técnicas para
transformar posições nos ativos originais em posições sintéticas nos ativos referência para as
quais se calcula o VaR.
O mapeamento em fatores de risco está previsto na Circular BACEN 3.478/09, que
traz em seu artigo 7º:
“Art. 7º Os fatores de risco utilizados para mensuração do risco de mercado das
56
exposições devem ser classificados nas seguintes categorias:
I – taxa de juros;
II – taxa de câmbio;
III – preço de ações; e
IV – preço de mercadorias (commodities).
§ 1º Devem ser especificados fatores de risco para cada uma das moedas e
mercados em que a instituição possua exposição relevante.”
As exposições em taxas de juros, representada pelos títulos públicos, foram divididas
nos fatores de risco SELIC, Prefixado e Cupom IPCA, conforme os indexadores de cada
título.
As volatilidades desses ativos foram calculadas com base nos retornos das curvas de
mercado de cada um dos fatores de risco. As curvas de mercado, ou estrutura a termo, são
vetores de taxas de desconto para cada ponto no tempo e são calculadas de forma que ao se
dividir o valor nominal do papel (mais os pagamentos de juros para os títulos com cupom)
pelo fator de desconto no ponto da curva correspondente à data do fluxo, obtém-se os preços
unitários de mercado divulgados diariamente pela ANBIMA.
Para as LTN e LFT, títulos sem pagamento de juros intermediários, a taxa indicativa
divulgada pela ANBIMA para os diversos vencimentos corresponde à taxa a termo da curva
de juros, ou curva de ágio e deságio no caso da LFT, nas respectivas datas de resgate de cada
papel, sendo os pontos intermediários calculados através de interpolação. O fator de desconto
corresponde a transformação da taxa a termo, que tem base anual (252 dias úteis), para o fator
do período correspondente da data de movimento à data de vencimento.
Para NTN-F e NTN-B, devido aos cupons de juros, a taxa indicativa informada pela
Associação não poderia ser utilizada, já que consiste em uma taxa interna de retorno para
todos os fluxos daquele vencimento. Assim calcula-se a curva de mercado até a data de
resgate do primeiro papel a vencer em relação à data de movimento por meio da ferramenta
Atingir Meta do MS Excel, de modo que, ao se trazer a valor presente os fluxos de juros e
pagamento do principal descontando-se pela curva, obtém-se o preço de mercado divulgado
pela ANBIMA.
Para o segundo papel a vencer, os fluxos de juros que tiverem data de pagamento
anterior ou igual à data de vencimento do primeiro papel são descontados pelos fatores de
desconto já calculados no passo anterior, e os posteriores calculados através do Atingir Meta,
57
novamente pretendendo igualar os fluxos descontados ao preço de mercado. O processo
continua de modo semelhante até o último vencimento.
Foi especificado um fator de risco para cada uma das moedas da carteira – dólar, libra
e euro – sendo seus retornos calculados a partir das respectivas taxas de conversão para o real.
Para as exposições em preço de ações, cada fator de risco representa um segmento de
mercado, e os retornos calculados a partir dos números índice de cada segmento.
Outra exigência do supervisor para o cálculo do VaR é a utilização de estruturas a
termo e número de vértices suficientes para avaliar adequadamente os riscos das exposições
em taxas de juros. Os vértices são prazos padrões estabelecidos para fluxos de caixa de uma
carteira de títulos, visando à simplificação dos cálculos matemáticos. Diversos títulos
possuem pagamento de juros periódicos (em geral, semestrais ou anuais) e alguns são
amortizados em diversas parcelas. Se cada fluxo desses papéis fosse tratado como um ativo
zero coupon, a quantidade de ativos do portfólio seria demasiadamente grande, dificultando o
processamento dos cálculos do VaR. Então, agrupa-se esses diversos fluxos de pagamento em
prazos preestabelecidos, que são os vértices.
Foram definidos 18 vértices de forma a abranger os prazos representativos no mercado
e assim obter um número razoável de volatilidades e correlações para o cálculo do valor em
risco da carteira.
Tabela 6 – Mapeamento dos Fluxos de Pagamentos dos Ativos de Renda Fixa em Vértices
Mapeamento em Vértices
Vértice Prazo do Vértice Prazo do
Fluxo
Fluxo
1
1 dia
378
1,5 anos
21
1 mês
504
2 anos
42
2 meses
756
3 anos
63
3 meses
1.008
4 anos
84
4 meses
1.260
5 anos
105
5 meses
2.520
10 anos
126
6 meses
3.780
15 anos
189
9 meses
5.040
20 anos
252
1 ano
7.560
30 anos
A alocação dos fluxos de caixa em vértices é baseada no RiskMetricsTM (1996). O
método consiste na distribuição do valor de mercado nas proporções α0 e (1- α0) nos vértices
imediatamente anterior (vértice 1) e posterior (vértice 2), onde α0 é definido por:
58
0 
Prazo Vértice 2 - Prazo Fluxo
Prazo Vértice 2 - Prazo Vértice 1
Desta forma, cada fluxo que não tenha o prazo coincidente com um dos vértices será
mapeado em dois outros fluxos cujos valores serão proporcionais ao valor presente do fluxo
original:
VMTM v1   0  VMTM
VMTM v 2  1   0   VMTM
onde:
VMTM = Valor do fluxo marcado a mercado original
VMTM v1
= Valor do fluxo marcado a mercado alocado no vértice 1
VMTM v 2 = Valor do fluxo marcado a mercado alocado no vértice 2
Como a curva de mercado foi construída de modo a cada vértice ser considerado um
título zero cupom, cada vértice pode ser considerado um ativo, assim, a carteira simulada
possui o total de 82 ativos. Para a definição da carteira de títulos públicos, foram priorizados
os papéis líquidos de médio e longo prazo, por naturalmente estarem sujeitos a maiores
volatilidades. Considerando o período de 2005 a 2010, a distribuição média em vértices para
os três diferentes indexadores utilizados está mostrada nos gráficos a seguir:
Gráfico 4 – Distribuição Média entre os Vértices dos Ativos Prefixados (2005 a 2010)
1.200,0
1.000,0
R$ Milhões
800,0
600,0
400,0
200,0
0,0
1
21
42
63
84
105 126 189 252 378 504 756 1008 1260 2520 3780 5040 7560
Valor MtM - Títulos Públicos Prefixados
59
Gráfico 5 – Distribuição Média entre os Vértices dos Ativos Indexados ao IPCA (2005 a
2010)
2.000,0
1.800,0
1.600,0
1.400,0
R$ Milhões
1.200,0
1.000,0
800,0
600,0
400,0
200,0
0,0
1
21
42
63
84
105 126 189 252 378 504 756 1008 1260 2520 3780 5040 7560
Valor MtM - Títulos Públicos Indexados ao IPCA
Gráfico 6 – Distribuição Média entre os Vértices dos Ativos Indexados à SELIC (2005 a
2010)
3.500,0
3.000,0
2.500,0
R$ Milhões
2.000,0
1.500,0
1.000,0
500,0
0,0
1
21
42
63
84
105 126 189 252 378 504 756 1008 1260 2520 3780 5040 7560
Valor MtM - Títulos Públicos Indexados à SELIC
60
6.
ANÁLISE DOS RESULTADOS
6.1
Estatística Descritiva dos Retornos
Com o objetivo de dar destaque à crise subprime, a amostra de dados foi dividida em
quatro períodos de análise: pré-crise, compreendendo o período entre janeiro de 2005 a junho
de 2007; crise, abrangendo a fase de maior volatilidade da crise do subprime, entre julho de
2007 e dezembro de 2008; pós-crise, de 2009 a junho de 2010; e a análise da amostra
completa dos dados, de 2005 a 2010.
O ponto de corte dos períodos foi determinado por meio da observação dos retornos e
dos fatos acontecidos nos mercados financeiros durante a crise, conforme descrito na seção 2.
Deve-se notar, entretanto, que já em maio e junho de 2006, os mercados de ações,
dólar e renda fixa viveram um estresse, com as más notícias vindas da economia norteamericana: as incertezas em relação à extensão do ciclo de aperto monetário, preocupações
com estagflação e os primeiro indícios de esfriamento do mercado imobiliário. A tabela 7
resume as estatísticas do P/L diário da carteira em cada um desses momentos.
Tabela 7 – Estatísticas Descritivas dos Retornos da Carteira nos Períodos de Análise
Período
Pré-crise
Crise
Pós-crise
Amostra Completa
03/01/2005 a
29/06/2007
01/07/2007 a
31/12/2008
02/01/2009 a
30/06/2010
03/01/2005 a
30/06/2010
Dias Úteis
624
380
373
1377
Média P/L
18.486.242,88
(9.285.017,16)
9.184.381,59
8.302.747,54
5.733.859,18
13.806.290,91
7.469.006,90
5.041.397,77
18.084.730,07
(7.167.748,78)
8.343.255,00
10.568.226,09
143.231.756,46
269.134.156,38
144.250.483,11
187.075.939,44
Curtose P/L
2,23
3,91
0,99
6,30
Assimetria P/L
0,06
0,03
0,07
(0,07)
Erro padrão P/L
Mediana P/L
Desvio padrão P/L
6
P/L Mínimo
P/L Máximo
(628.214.869,08) (1.284.500.874,05) (433.384.991,91) (1.284.500.874,05)
718.801.335,18
1.244.141.421,12
507.112.853,37
1.244.141.421,12
Nota-se que somente durante o período da crise, a média das variações da carteira foi
negativa, com assimetria próxima de zero, entretanto. Outro fato marcante é o desvio padrão
6
A fórmula utilizada para a curtose,
, considera a curva normal como tendo curtose 0 (zero).
61
na ordem de R$ 269,1 milhões, o maior entre os analisados. Não coincidentemente, encontrase também nesse período a maior perda e lucros obtidos na carteira em um único dia, em
patamares acima de R$ 1 bilhão.
Na pré e pós-crise, a volatilidade foi reduzida, bem como ficaram mais limitadas as
perdas e ganhos da carteira. A curtose após 2009 foi a que mais se aproximou da curva
normal.
Apesar de todos os cortes da amostra apresentarem excesso de curtose em relação à
gaussiana, a totalidade da amostra apresentou curtose bem acima daquela. Também com a
amostra completa, a assimetria se diferencia dos demais períodos, se tornando negativa,
mostrando que as caudas superiores apresentam bastante curtose.
6.2
Contagem das Violações
Os momentos analisados apresentaram grandes diferenças no que tange às violações
observadas e ao modelo considerado mais adequado para cálculo do VaR.
Tabela 8 – Violações Acumuladas pelos Modelos VaR nos Períodos de Análise
Amostra
Pós-crise
completa
Crise
Pré-crise
Metodologias
Quantidade Violações
Quantidade Esperada
Frequência (dias)
Quantidade Violações
Quantidade Esperada
Frequência (dias)
Quantidade Violações
Quantidade Esperada
Frequência (dias)
Quantidade Violações
Quantidade Esperada
Frequência (dias)
DN - Variância
DN DN Amostral
EWMA 0,94
Híbrido
10
7
6
6a7
62
18
89
12
SH
11
MC
9
104
11
57
13
69
9
35
1
29
0
42
3
373
18
24
124
21
77
57
66
3a4
21
1
32
7
3a4
373
29
53
26
13 a 14
47
53
No período pré-crise, apenas os modelos Delta Normal, com EWMA 0,94 e Híbrido,
apresentaram número de violações consistente com o grau de confiança adotado (99%).
Devido a serem metodologias de reação lenta, a Simulação Histórica e o Delta Normal com
62
variância amostral, apresentaram o maior número de violações, não capturando os estresses de
maio e junho de 2006, somente neste período tendo apresentado seis exceções cada,
quantidade esperada para todo o intervalo de 30 meses que constitui o pré-crise.
Durante a crise, todos os métodos de estimação do VaR tenderam a subestimar o risco
da carteira, apresentando violações bem acima do normal. O modelo de Monte Carlo, devido
ao gatilho utilizado para aumentar a volatilidade quando o número de violações se eleva,
apresentou o melhor comportamento, com nove violações, ainda assim acima do esperado (3 a
4 violações). Calculado pela técnica Delta Normal por variância amostral, o VaR apresentou a
média de uma violação por mês (21 d.u.).
Com o passar da volatilidade gerada pela crise, os modelos que extraem informações
por igual de toda a amostra tenderam a ficarem mais conservadores e se mantiveram em
patamares elevados, influenciados pela volatilidade do período anterior. Assim, a Simulação
Histórica não sofreu nenhuma violação e o Delta Normal – Variância Amostral, e
consequentemente o Híbrido, apresentaram uma violação apenas.
De modo contrário, o alisamento exponencial (0,94) fez com que o VaR rapidamente
decrescesse, violando a cada estresse isolado do mercado, motivados pelas incertezas em
relação à recuperação das grandes nações, que faziam os mercados se agitarem com a
divulgação de indicadores e/ou fatos ruins da economia, porém, logo se sucedendo a dias de
calmaria. Dentro da faixa de exceções esperadas, apenas o modelo de Monte Carlo com três
violações.
Por conta do péssimo desempenho durante a crise, os modelos ficaram acima da faixa
de exceções esperada, considerando toda a amostra. O modelo Híbrido, que na crise se
beneficiou do poder de reação do EWMA 0,94 e, após ela, da lentidão da variância amostral,
se mostrou a abordagem que menos subestimou o VaR (18), seguido do modelo de Monte
Carlo (21). Os demais métodos apresentaram, em média, o dobro de violações do que seria o
ideal.
Nos gráficos abaixo, foram plotados o comportamento dos resultados hipotéticos da
carteira e das perdas máximas esperadas para as diferentes metodologias durante o ápice da
crise do subprime. Nota-se a maior estabilidade dos valores de VaR para os modelos de
variância amostral e de simulação histórica, que dão peso igual a todas as observações da
amostra, o que acarreta em constantes violações nos períodos de crise. De maneira contrária, o
63
modelo com decaimento exponencial mostrou grandes oscilações no período, tendo reagido
rapidamente aos picos de volatilidade.
Gráfico 7 – Evolução do VaR Simulação Histórica e do P/L da Carteira durante a Crise do
Subprime
1,50
1,00
Bilhões
0,50
-
-0,50
-1,00
-1,50
SH
P/L
Gráfico 8 – Evolução do VaR Delta Normal e do P/L da Carteira durante a Crise do Subprime
1,50
1,00
Bilhões
0,50
-
-0,50
-1,00
-1,50
DN - Híbrido
P/L
DN - Variância Amostral
DN - EWMA 0,94
64
Gráfico 9 – Evolução do VaR Monte Carlo e do P/L da Carteira durante a Crise do Subprime
1,50
1,00
Bilhões
0,50
-
-0,50
-1,00
-1,50
MC
6.3
P/L
Teste Regulamentar de Basileia
Como o teste de Basileia estabelece a janela padrão de 250 observações,
aproximadamente um ano, foram realizados testes nos últimos dias úteis de cada ano,
abrangendo períodos de volatilidades distintas.
Conforme mostrado no gráfico 10, onde as linhas amarelas e vermelhas indicam o
começo das zonas de mesma cor, nos anos de 2005, 2009 e 2010 (até junho), quando os
mercados viveram períodos de calmaria, os modelos de forma geral se enquadraram na zona
verde.
Nos anos de 2006, com o estresse vivido nos meses de maio e junho, e em 2007 e
2008, no auge da crise subprime, as metodologias estiveram na maior parte do tempo na zona
amarela, situação que embora exiga a atenção do gestor, não desqualifica os modelos como
previsores das perdas máximas da carteira.
Somente a abordagem Delta Normal por variância amostral foi classificada na zona
vermelha do teste de Basileia na data base 31 de dezembro de 2008, status que considera o
modelo como inacurado.
65
O modelo híbrido obteve o melhor desempenho no teste, se enquadrando, na maior
parte dos anos, na zona verde, onde é alta a probabilidade de Erro Tipo I.
Gráfico 10 – Avaliação dos Modelos VaR no Teste Regulamentar de Basileia
ZONA
VERMELHA
14
12
ZONA
AMARELA
8
6
4
ZONA VERDE
Quantidade de violações
10
2
0
dez-05
dez-06
DN - Variância Amostral
dez-07
dez-08
DN - EWMA 0,94
dez-09
DN - Híbrido
jun-10
SH
MC
Segundo as diretrizes dadas por Basileia III, de primar pelo conservadorismo, pelo
aumento na exigência de capital, o modelo híbrido pode ser considerado o modelo mais
adequado dentre os analisados para a alocação de capital de um banco com esse perfil de
carteira. Isso pelo caráter misto que tem, de combinar a maior estabilidade do modelo de
variância amostral, evitando que o VaR caia abruptamente em épocas de mercados mais
amenos, e a rapidez em capturar os regimes de volatilidade de curto prazo do método EWMA.
Entretanto, deve-se ressaltar a pouca adequação do modelo para carteiras nãi-lineares e
a alta flexibilidade do modelo de Monte Carlo, que pode ser ajustada para diferentes
distribuições e diferentes formas de cômputo da variância e média dos retornos, tendo no
trabalho sido utilizada a forma mais simples, que é a estimação da variância e média
diretamente da amostra dos dados. Ajustes nesse modelo poderiam torná-lo mais aderente às
características dos retornos. Essa flexibilidade não existe no modelo Delta Normal, em que
podem ser ajustados somente o parâmetro de alisamento e a janela de observação dos
retornos.
A diferença na ponderação dos dados fica clara no gráfico. Durante o ano de 2008,
notadamente volátil, o EWMA manteve-se com menores níveis de violação, enquanto que nos
66
anos seguintes, menos instáveis, principalmente para uma carteira de títulos concentrada em
títulos públicos, o modelo frequentemente subestimou o risco.
O valor do Abkt, utilizado para o cálculo da PRM, apurado nas mesmas datas-base,
pode ser visto no gráfico abaixo. Por terem saído da zona verde, todos os modelos foram
penalizados com um valor do adicional diferente de zero ao fim dos anos de 2007 e 2008.
Gráfico 11 – Valor do Adicional de Backtesting (Abkt) para os Modelos VaR
1
ZONA
VERMELHA
0,9
0,8
ZONA
AMARELA
0,7
Abkt
0,6
0,5
0,4
0,3
ZONA VERDE
0,2
0,1
MC
SH
DN - Híbrido
DN - EWMA 0,94
DN - Variância …
0
dez-06
dez-07
dez-08
dez-09
mar-10
Data base
6.4
jun-10
Teste de Kupiec
O teste de Kupiec (1995) foi conduzido nos quatro períodos de análise detalhados na
seção 6.1. O teste apresentou resultados distintos, dependendo do período. No pré-crise, os
modelos se mantiveram dentro da região de confiança do teste, aceitando-os como bons
preditores das perdas máximas da carteira.
Já durante a crise, todos os modelos caíram na zona de rejeição, extrapolando o limite
superior. Kupiec (1995) afirma que as abordagens que violam o limite superior tendem a
subestimar o risco da carteira, podendo ocorrer perdas relevantes além do VaR.
No pós-crise, novamente as metodologias voltaram a se enquadrar na zona de
aceitação, à exceção da Simulação Histórica que ficou abaixo do limite inferior, tendo
superestimado o VaR no período.
67
Abrangendo todo o período de análise, o teste não rejeitou apenas os modelos Híbrido
e Monte Carlo.
Gráfico 12 – Avaliação dos Modelos pelo Teste de Kupiec
Pré-crise
Crise
Pós-crise
Amostra Completa
30
29
28
27
26
25
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
DN - Variância Amostral
DN - EWMA 0,94
DN - Híbrido
SH
MC
Zona de Não-Rejeição do Teste
Considerando os diversos períodos, a Simulação Histórica obteve o pior desempenho,
sendo considerado acurada somente no período pré-crise. No geral, os modelos tiveram
tendência a subestimar o risco de mercado da carteira de negociação, sendo considerados
pouco conservadores, na contramão do que Basileia vem tentando pregar para o mercado no
seu pilar III, a disciplina de mercado. Assim, o supervisor deveria ter atenção aos bancos que
utilizem esses modelos para o cálculo do VaR. Tanto os métodos paramétricos quanto os nãoparamétricos não foram capazes de medir os riscos na cauda da distribuição empírica dos
retornos durante períodos de maior volatilidade.
6.5
Teste de Christoffersen
No período pré-crise, o teste condicional de Christoffersen (1998), a 95% de confiança,
considerou todas as técnicas como adequadas para cálculo do VaR. Entretanto, o modelo de
simulação histórica ficou próximo do valor crítico para o teste de cobertura, e seria rejeitado a
nível de significância de 10%.
68
Tabela 9 – Resultado do Teste de Christoffersen para o Período Pré-Crise
Metodologias
Valor
Crítico
DN Variância
Amostral
DN - EWMA
0,94
DN Híbrido
MC
SH
Teste
Estatística
Independência
RV
p-valor
3,84
0,326
0,159
0,117
0,264
0,395
5%
57%
69%
73%
61%
53%
RV
p-valor
3,84
1,95
0,09
0,01
1,09
3,00
5%
16%
76%
93%
30%
8%
RV
p-valor
5,99
2,27
0,25
0,13
1,36
3,40
5%
32%
88%
94%
51%
18%
Cobertura
Conjunto
Entretanto, ao avaliarmos os modelos durante a crise, todos foram rejeitados nos testes
de cobertura e no teste conjunto, tendo a metodologia DN – Variância Amostral extrapolado o
valor crítico também no teste de independência, que implica que, a expectativa de ocorrer
uma violação no dia seguinte (t+1), depende do comportamento observado em t, o que
contraria a assunção do modelo de independência dos retornos.
Tabela 10 – Resultado do Teste de Christoffersen para o Período da Crise
Metodologias
Valor
Crítico
DN Variância
Amostral
DN - EWMA
0,94
DN Híbrido
MC
SH
Teste
Estatística
Independência
RV
p-valor
3,84
5,05
0,78
0,66
3,55
2,48
5%
2%
38%
42%
6%
12%
RV
p-valor
3,84
28,14
11,38
9,12
5,19
13,81
5%
0%
0%
0%
2%
0%
RV
p-valor
5,99
33,18
12,16
9,78
8,74
16,29
5%
0%
0%
1%
1%
0%
Cobertura
Conjunto
Novamente em épocas de calmaria, com o passar da crise, os modelos se comportaram
bem, mas o teste revelou algumas particularidades. A Simulação Histórica foi rejeitada pelo
teste devido a não ter apresentado violações no período. Por apresentarem somente uma
violação, as abordagens Híbrida e por Variância Amostral mantiveram-se próximas do valor
crítico do teste.
Na direção contrária, os resultados do modelo EWMA (0,94) também ficaram perto do
limite, mas por excesso de violações. A Simulação de Monte Carlo apresentou melhor
resultado, tendo sido aprovado com folga nos três testes.
69
Tabela 11 – Resultado do Teste de Christoffersen para o Período Pós-Crise
Metodologias
Valor
Crítico
DN Variância
Amostral
DN - EWMA
0,94
DN Híbrido
MC
SH
Teste
Estatística
Independência
RV
p-valor
3,84
0,005
0,27
0,005
0,05
0,00
5%
94%
60%
94%
83%
100%
RV
p-valor
3,84
2,85
2,30
2,85
0,15
7,50
5%
9%
13%
9%
69%
1%
RV
p-valor
5,99
2,85
2,57
2,85
0,20
7,50
5%
24%
28%
24%
90%
2%
Cobertura
Conjunto
Analisando todo o período, apenas o modelo Delta Normal – Híbrido foi considerado
adequado em todos os testes. Monte Carlo teve desempenho ruim no teste conjunto, tendo
ficado próximo dos valores críticos nos demais testes.
Tabela 12 – Resultado do Teste de Christoffersen para a Amostra Completa
Metodologias
Valor
Crítico
DN Variância
Amostral
DN - EWMA
0,94
DN Híbrido
MC
SH
Teste
Estatística
Independência
RV
p-valor
3,84
5,96
1,00
0,48
2,91
2,57
5%
1%
32%
49%
9%
11%
RV
p-valor
3,84
12,93
8,72
1,20
3,31
6,30
5%
0%
0%
27%
7%
1%
RV
p-valor
5,99
18,89
9,72
1,68
6,23
8,86
5%
0%
1%
43%
4%
1%
Cobertura
Conjunto
6.6
Testes de Suficiência da Exigência de Capital
Nas subseções anteriores, observou-se que os modelos de VaR mais amplamente
utilizados na indústria bancária possuem um viés de subestimar o risco de mercado da
carteira. Todavia, a questão que surge é se o aumento na exigência de capital para os modelos
menos acurados, por meio do maior valor de Abkt, representa uma compensação suficiente
para que o banco não incorra em riscos de mercado maiores que o previsto. E ainda, mesmo
para modelos acurados, o valor da PRM é satisfatório para suportar perdas extremas?
Os próximos dois tópicos procuraram responder a essas questões, através da simulação
de dois testes, com o segundo sendo conduzido conforme a metodologia descrita na seção 4.4.
70
6.6.1 Crise do Subprime
Durante a crise financeira, verificou-se que a maior queda no valor da carteira (período
de 21 d.u.) ocorreu no intervalo de 26/09/2008 a 27/10/2008, período em que houve um
aumento na volatilidade reflexo ainda da quebra do banco de investimentos Lehman Brothers.
Nesse período o portfólio diminuiu R$ 4,9 bilhões em valor de mercado. Desse modo,
calculou-se a exigência de capital com a fórmula atual, na posição 26/09/2008, com o objetivo
de se testar a suficiência do capital regulatório frente à perda que se seguiria. Os resultados
para cada metodologia estão detalhados nas tabelas 13 a 17.
Neste período, os modelos VaR já estavam incorporando uma maior volatilidade,
estando em patamares elevados. Além disso, em 30/06/2008, última data-base de apuração do
fator Abkt, com exceção da simulação de Monte Carlo, os demais modelos acumulavam
número de violações suficientes para serem penalizados com o aumento da PRM por meio do
fator. O fator Aqlt, relativo à qualidade da estrutura de gerenciamento de risco de mercado, foi
considerado como zero, assumindo que a instituição financeira fictícia teria tido boa avaliação
de sua gestão de risco de mercado.
Se a instituição financeira detentora da carteira trading simulada utilizasse o VaR
Histórico, a exigência de capital dessa carteira seria de R$ 16,0 bilhões, ou 26% do valor do
portfólio, conforme tabela 13. Este valor de capital, requerido pelo BACEN, seria o suficiente
para cobrir pouco mais de três vezes o que a carteira viria a perder um mês à frente.
O sVaR seria responsável pela metade da alocação de capital, após ser multiplicado
por 3,5, dado que o modelo foi penalizado por acumular 6 violações, acrescendo dessa forma
0,5 ao fator 3 aplicado a qualquer metodologia. Sem o sVaR, ou seja, retornando à formula
anterior de Basileia, mesmo assim a exigência seria satisfatória para suportar a volatilidade do
período.
Tabela 13 – PRM pelo Modelo de Simulação Histórica em 26/09/2008
VaR
Data do VaR / sVaR
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
sVaR
25/09/2008
25/09/2008
2.268.787.402,58
2.268.787.402,58
2.261.138.593,03
2.299.952.203,70
6
N/A
0,5
0
3,5
71
Tabela 13 – PRM pelo Modelo de Simulação Histórica em 26/09/2008 (continuação)
VaR
sVaR
VaR Médio x M (B)
Máximo A e B
7.913.985.075,60
7.913.985.075,60
8.049.832.712,94
8.049.832.712,94
Fator S2
Valor Transição
PRM
MtM Carteira
% da Carteira
P/L realizado
% da Exigência
N/A
1
7.913.985.075,60
8.049.832.712,94
15.963.817.788,54
62.447.150.434,89
26%
-4.900.467.537,99
31%
Pelo método do RiskMetrics™ com lambda 0,94, tanto o VaR quanto o sVaR se
encontravam em níveis mais altos, e juntamente com um fator Abkt de 0,65, fizeram com que
o requerimento de capital da carteira saltasse para R$ 19,8 bilhões, o que representa 32% do
total de ativos e quatro vezes superior ao resultado negativo do portfólio nos 21 dias. De
acordo com o mostrado na tabela 14, mesmo representando 61,51% da PRM, o sVaR poderia
ser retirado da fórmula sem comprometer a estabilidade almejada pelo supervisor.
Tabela 14 – PRM pelo modelo DN EWMA (0,94) em 26/09/2008
VaR
sVaR
Data do VaR / sVaR
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
VaR Médio x M (B)
Máximo A e B
25/09/2008
25/09/2008
3.621.403.941,41
3.785.024.716,24
2.092.540.210,01
3.343.370.594,92
7
N/A
0,65
0
3,65
7.637.771.766,54 12.203.302.671,45
7.637.771.766,54 12.203.302.671,45
Fator S2
Valor Transição
PRM
MtM Carteira
% da Carteira
P/L realizado
% da Exigência
N/A
1
7.637.771.766,54 12.203.302.671,45
19.841.074.437,99
62.447.150.434,89
32%
-4.900.467.537,99
25%
72
Na tabela 15, podemos notar que embora recebesse a maior penalização, 0,75, com 8
violações acumuladas, a abordagem paramétrica sem alisamento exponencial foi a que gerou
a menor parcela, R$ 15,7 bilhões, 1/4 dos ativos. Apesar disso, a desvalorização do portfólio
equivaleria somente a 31% do capital alocado. Da mesma forma que as duas metodologias
anteriores, mesmo considerando um fator S2 igual a zero, onde a alocação passaria a ser
determinada apenas pelo VaR, as perdas seriam suportadas com relativa folga.
Tabela 15 – PRM pelo modelo DN Variância Amostral em 26/09/2008
VaR
sVaR
Data do VaR / sVaR
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
VaR Médio x M (B)
Máximo A e B
25/09/2008
25/09/2008
2.135.345.180,95
2.135.345.180,95
2.055.452.863,59
2.124.719.840,17
8
N/A
0,75
0
3,75
7.707.948.238,46
7.967.699.400,63
7.707.948.238,46
7.967.699.400,63
Fator S2
Valor Transição
PRM
MtM Carteira
% da Carteira
P/L realizado
% da Exigência
N/A
1
7.707.948.238,46
7.967.699.400,63
15.675.647.639,09
62.447.150.434,89
25%
-4.900.467.537,99
31%
Considerando sempre o máximo entre os dois modelos Delta Normal, o modelo
Híbrido teve exigência levemente superior ao EWMA 0,94, devido à média dos últimos 60
dias do VaR e sVaR. A PRM de R$ 20,4 bilhões corresponderia a aproximadamente 1/3 do
portfólio, muito acima da pior perda sofrida pela carteira durante a crise do subprime.
Tabela 16 – PRM pelo modelo DN Híbrido em 26/09/2008
VaR
Data do VaR / sVaR
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
sVaR
25/09/2008
25/09/2008
3.621.403.941,41
3.785.024.716,24
2.252.568.112,96
3.343.370.594,92
7
N/A
0,65
0
3,65
73
Tabela 16 – PRM pelo modelo DN Híbrido em 26/09/2008 (continuação)
VaR
sVaR
VaR Médio x M (B)
Máximo A e B
8.221.873.612,30
8.221.873.612,30
12.203.302.671,45
12.203.302.671,45
Fator S2
Valor Transição
PRM
MtM Carteira
% da Carteira
P/L realizado
% da Exigência
N/A
1
8.221.873.612,30 12.203.302.671,45
20.425.176.283,76
62.447.150.434,89
33%
-4.900.467.537,99
24%
O Modelo de Monte Carlo acumulava quatro violações em 30/06/2010 e não sofreu
penalização pelo adicional de Backtesting. Entretanto, a alocação ainda se manteve acima das
abordagens de Simulação Histórica e DN Variância amostral, que acumulavam 6 e 8
exceções, respectivamente. Essa exigência, de R$ 16,4 bilhões, corresponderia a 26,3% do
valor de mercado dos ativos e poderia suportar prejuízos três vezes maiores que o ocorrido.
Tabela 17 – PRM pelo modelo Monte Carlo em 26/09/2008
VaR
sVaR
Data do VaR / sVaR
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
VaR Médio x M (B)
Máximo A e B
25/09/2008
2.708.284.285,48
2.570.375.278,60
4
25/09/2008
2.861.435.456,06
2.898.147.662,44
N/A
Fator S2
Valor Transição
PRM
MtM Carteira
% da Carteira
P/L realizado
% da Exigência
N/A
1
7.711.125.835,80
8.694.442.987,31
16.405.568.823,10
62.447.150.434,89
26%
-4.900.467.537,99
30%
0
0
3
7.711.125.835,80
7.711.125.835,80
8.694.442.987,31
8.694.442.987,31
Portanto, uma crítica que pode ser feita ao framework atual é a falta de incentivos para
os bancos manterem modelos adequados de VaR. Como visto, o modelo Delta Normal por
variância amostral, que acumulava maior quantidade de violações à época, e, portanto, recebia
74
a maior penalização pelo fator Abkt, gerou uma alocação menor do que a Simulação de Monte
Carlo, que estava classificada na zona verde do Sistema Basileia e não era punido por meio do
fator.
Num apanhado geral, todos os modelos, apesar de apresentarem desempenhos
diferentes nos testes de aderência durante a crise, não mostraram problemas em seu uso no
cálculo da exigência da carteira de negociação, mesmo na ausência do sVaR na equação da
parcela. A alocação, em média, foi de 28,3% da carteira de negociação, enquanto a perda
efetiva foi de apenas 7,8% do valor do portfólio..
A nova fórmula da PRM atende aos requisitos de conservadorismo disseminados por
Basileia. Em relação à diretriz trazida por Basileia III de se gerar um colchão de liquidez
durante épocas de calmaria para serem utilizados durante momentos de estresse, a crise
financeira das hipotecas norte-americanas seria uma situação onde o regulador poderia utilizar
um fator S2 menor que um, de modo a se diminuir o percentual da carteira mantido junto ao
órgão supervisor e não inviabilizar os negócios, já que os modelos de VaR encontravam-se
em patamar elevado.
6.6.2 Análise de Cenários de Estresse
Diferentemente do estresse vivido durante o cenário anterior, em 2010 a volatilidade
encontrava-se em níveis baixos e a maioria dos modelos não apresentava violações nos
últimos 250 dias úteis, não sendo necessário, portanto, penalização por meio do Abkt. O fator
Aqlt foi novamente considerado como zero.
Apesar disso os modelos geravam valores de alocação bastante distintos, devido quase
que exclusivamente ao sVaR. Pelo sVaR ser definido atualmente como o pior VaR gerado,
utilizando a carteira do dia e um período de estresse relevante para a instituição, e
considerando dados desde 2004 aos dias atuais, o sVaR para a carteira simulada se manterá
em níveis elevados enquanto o cálculo abranger a crise de 2007/2008, período que deu origem
ao pior VaR (sVaR) em todos os modelos.
Realizando o teste de estresse histórico em 01/07/2010, a pior perda da carteira, em 21
dias úteis consecutivos, aconteceria se os movimentos dos preços presenciados na crise do
subprime ocorressem novamente naquela data. Esse cenário geraria uma desvalorização de
R$ 5,5 bilhões em função principalmente das quedas de R$ 3,6 bilhões no valor das ações da
75
carteira e R$ 2,5 bilhões na carteira de títulos públicos, contrabalanceadas pelo modesto
ganho de R$ 623,5 milhões em moedas estrangeiras.
Desconsiderando o efeito diversificação, isto é, obtendo o pior período de 21 d.u. de
estresse para cada ativo individualmente e supondo que as variações nos preços vividas nesse
intervalo ocorressem simultaneamente na data do teste, 01/07/2010, a perda de valor seria de
aproximadamente R$ 7,0 bilhões, principalmente pelas moedas que deixariam de dar o
contrapeso da carteira e gerariam um resultado negativo de R$ 703,9 milhões.
No cenário prospectivo, onde se considerou que as volatilidades dos ativos seriam
realizadas um mês à frente com três desvios-padrão, a queda no valor de mercado do portfólio
seria de R$ 3,3 bilhões.
Embora as alocações tenham se mostrado discrepantes, à exceção de algumas
particularidades que serão descritas adiante, em todos os modelos VaR as conclusões foram
idênticas. Conforme as tabelas 18 a 22 a seguir, a PRM seria suficiente para suportar os
cenários de estresse calculados, onde o pior cenário corresponderia, em média, a apenas 35%
do montante de capital demandado pelo BACEN. Porém, sem o sVaR, caso uma crise
semelhante a do subprime viesse a acontecer novamente, o requerimento de capital gerado
somente pelo VaR seria insuficiente, visto que o VaR estava sendo calculado sob um regime
de baixa volatilidade. Assim, o princípio de conservadorismo de Basileia justifica a inclusão
de uma medida de estresse no cômputo da PRM, visando torná-la adequada para suportar
esses cenários, a despeito das suas baixas probabilidades de ocorrência.
Algumas pessoas podem alegar que, como o cálculo da alocação é diário, se o mercado
começasse a passar por um período de crise, o VaR iria incorporar essa volatilidade e gerar
uma alocação maior a cada dia e, ao final do período de 21 dias, o capital alocado já seria
suficiente. Contudo, na tabela 18, pode-se notar que a média do VaR vezes o multiplicador
encontrava-se bem acima do VaR, sendo improvável que 1) o VaR aumentasse de forma a se
tornar-se maior que aquele e 2) este acréscimo fosse suficiente para ampliar rapidamente a
média dos últimos 60 dias de VaR.
Tabela 18 – Avaliação da PRM pelo modelo Simulação Histórica em 01/07/2010
VaR
Data do VaR / sVaR
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
30/06/2010
1.486.866.119,02
1.575.765.048,57
-
sVaR
30/06/2010
3.611.845.388,40
3.625.253.816,56
N/A
76
Tabela 18 – Avaliação da PRM pelo modelo Simulação Histórica em 01/07/2010 (cont.)
VaR
sVaR
0
0
3
Abkt
Aqlt
Multiplicador (M)
VaR Médio x M (B)
Máximo A e B
4.727.295.145,72
4.727.295.145,72
Fator S2
Valor Transição
PRM
MtM Carteira:
% da Carteira
Estresse Histórico
% da Exigência
Estresse s/ E.D.
% da Exigência
Cenário (3 d.p.)
% da Exigência
N/A
1
4.727.295.145,72 10.875.761.449,68
15.603.056.595,40
64.786.243.511,86
24%
-5.527.701.034,78
35%
-6.971.555.428,01
45%
-3.339.853.898,56
21%
10.875.761.449,68
10.875.761.449,68
O VaR Histórico gerou uma exigência de R$ 15,6 bilhões, aproximadamente ¼ da
carteira trading. A introdução do sVaR na fórmula fez com que a alocação aumentasse
230,1%.
Pela metodologia Delta Normal com alisamento exponencial, a alocação chegou a
metade da carteira de negociação, R$ 32,7 bilhões, devido ao sVaR ter tornado o
requerimento de capital quase sete vezes superior à antiga fórmula. O modelo foi o único a
sofrer penalização, por ter acumulado 6 violações na data-base junho de 2010.
Tabela 19 – Avaliação da PRM pelo modelo DN EWMA (0,94) em 01/07/2010
VaR
Data de Cálculo
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
sVaR
30/06/2010
30/06/2010
1.408.644.918,44
7.919.614.594,71
1.375.501.271,83
7.961.303.200,62
6
N/A
0,5
0
3,5
77
Tabela 19 – Avaliação da PRM pelo modelo DN EWMA (0,94) em 01/07/2010 (cont.)
VaR Médio x M (B)
Máximo A e B
VaR
sVaR
4.814.254.451,41
4.814.254.451,41
27.864.561.202,18
27.864.561.202,18
Fator S2
N/A
1
Valor Transição
4.814.254.451,41 27.864.561.202,18
PRM
32.678.815.653,59
MtM Carteira:
64.786.243.511,86
% da Carteira
50%
Estresse Histórico
-5.527.701.034,78
% da Exigência
17%
Estresse s/ E.D.
-6.971.555.428,01
% da Exigência
21%
Cenário (3 d.p.)
-3.339.853.898,56
% da Exigência
10%
Sem alisamento exponencial, o modelo gerou a menor exigência entre os métodos
avaliados, porém, ainda assim muito superior às perdas estimadas nos cenários.
Tabela 20 – Avaliação da PRM pelo modelo DN Variância Amostral em 01/07/2010
VaR
sVaR
Data de Cálculo
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
VaR Médio x M (B)
Máximo A e B
30/06/2010
1.279.087.736,11
1.349.918.977,80
1
30/06/2010
3.542.949.722,15
3.558.328.500,56
N/A
Fator S2
Valor Transição
PRM
MtM Carteira:
% da Carteira
Estresse Histórico
% da Exigência
Estresse s/ E.D.
% da Exigência
Cenário (3 d.p.)
% da Exigência
N/A
1
4.049.756.933,40 10.674.985.501,69
14.724.742.435,09
64.786.243.511,86
23%
-5.527.701.034,78
38%
-6.971.555.428,01
47%
-3.339.853.898,56
23%
0
0
3
4.049.756.933,40
4.049.756.933,40
10.674.985.501,69
10.674.985.501,69
78
Embora considere o máximo entre as duas abordagens anteriores, o Delta Normal
Híbrido gerou alocação pouco abaixo do EWMA, por ter fator Abkt zero na data do teste. Com
o sVaR, a PRM teve incremento de 534% em relação à que parcela que seria calculada sem a
medida.
Tabela 21 – Avaliação da PRM pelo modelo DN Híbrido em 01/07/2010
VaR
SVaR
Data de Cálculo
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
VaR Médio x M (B)
Máximo A e B
30/06/2010
1.408.644.918,44
1.489.482.917,38
1
30/06/2010
7.919.614.594,71
7.961.303.200,62
N/A
Fator S2
Valor Transição
PRM
MtM Carteira:
% da Carteira
Estresse Histórico
% da Exigência
Estresse s/ E.D.
% da Exigência
Cenário (3 d.p.)
% da Exigência
N/A
1
4.468.448.752,14 23.883.909.601,87
28.352.358.354,00
64.786.243.511,86
44%
-5.527.701.034,78
19%
-6.971.555.428,01
25%
-3.339.853.898,56
12%
0
0
3
4.468.448.752,14
4.468.448.752,14
23.883.909.601,87
23.883.909.601,87
Sem a inclusão do sVaR, a simulação de Monte Carlo geraria a menor alocação, muito
próxima à desvalorização obtida no cenário mais brando, com a projeção dos preços
considerando que as volatilidades realizadas no período de 21 dias úteis à frente se dariam
com três desvios padrão.
Tabela 22 – Avaliação da PRM pelo modelo Monte Carlo em 01/07/2010
Data de Cálculo
Valor em Risco (A)
Média 60 dias
Violações (250 dias)
Abkt
Aqlt
Multiplicador (M)
VaR
30/06/2010
1.135.541.962,48
1.149.939.285,64
3
sVaR
30/06/2010
5.405.947.861,84
5.440.894.888,78
N/A
0
0
3
79
Tabela 22 – Avaliação da PRM pelo modelo Monte Carlo em 01/07/2010 (continuação)
VaR Médio x M (B)
Máximo A e B
VaR
3.449.817.856,93
3.449.817.856,93
sVaR
16.322.684.666,33
16.322.684.666,33
Fator S2
Valor Transição
PRM
MtM Carteira:
% da Carteira
Estresse Histórico
% da Exigência
Estresse s/ E.D.
% da Exigência
Cenário (3 d.p.)
% da Exigência
N/A
1
3.449.817.856,93 16.322.684.666,33
19.772.502.523,26
64.786.243.511,86
31%
-5.527.701.034,78
28%
-6.971.555.428,01
35%
-3.339.853.898,56
17%
6.6.3 Uma Nova Proposta para a Exigência de Capital
Conforme os resultados expostos no subitem anterior, a alocação de capital pela regra
antiga não seria suficiente para suportar determinados estresses inesperados que poderiam
atingir os mercados em épocas de baixa volatilidade. Assim, essa dissertação corrobora a
necessidade de mudança na fórmula.
No entanto, a modificação realizada pelo Comitê e acatada pelo BACEN tornou o
requerimento da carteira trading extremamente conservador, e no caso do modelo Delta
Normal EWMA 0,94, gerou-se uma alocação equivalente a metade do portfólio. Crouhy et al
(2011) também traça críticas ao novo arcabouço, mostrando em um exercício simples que sob
determinadas condições, o montante de capital regulatório chegaria ao absurdo de ser maior
que o valor de exposição de uma carteira de negociação ativa.
Outra questão é a adoção do sVaR ao invés de uma medida mais estudada e conhecida
de tail risk baseada em VaR. O VaR estressado por ter base histórica, com o passar do tempo
tende a ficar defasado devido às mudanças nas condições do mercado. Principalmente no
Brasil, que vive um processo de amadurecimento e crescimento da liquidez dos seus
mercados, a assunção de que um cenário acontecido, por exemplo, durante o ano de 2004
possa acontecer novamente e com as mesmas características tende a tornar-se cada dia menos
plausível.
80
Além disso, conforme RAAJI e RAUNIG (1998), as instituições financeiras, ao
utilizarem seus modelos internos e reportarem diariamente suas medidas de risco provêem os
reguladores com uma informação útil. Ainda segundo eles, do ponto de vista do regulador os
números de VaR podem ser utilizados para comparar o apetite a risco entre diferentes bancos
em uma dado ponto do tempo ou ao longo deste. Entretanto, conforme visto, o sVaR
apresentou grande variabilidade entre os modelos, perdendo a comparabilidade entre
diferentes instituições financeiras, casos essas utilizem metodologias diferentes mesmo que
tenham investimentos semelhantes.
Apesar da enorme exigência para a carteira de negociação, não há previsão formal nas
normas, tanto de Basileia quanto do BACEN, de redução da PRM em épocas de crise, o que
poderia ser mais um instrumento anticíclico, além do Capital Contracíclico adotado pelo
Comitê.
Esta seção sugere duas alterações no cômputo da PRM, visando eliminar as críticas
discutidas nos parágrafos anteriores.
A primeira é a substituição do sVaR pelo Conditional VaR (CVaR), medida de tail
risk também conhecida como Expected Shortfall. CVaR traz informação sobre o nível de
perda média da carteira quando há uma violação do VaR, ou seja, mede a perda esperada na
cauda da distribuição dos retornos. Mais formalmente, é dado pela fórmula:
O CVaR é uma medida de risco coerente, é sub-aditivo mesmo quando o VaR não o é.
Isso significa que o CVaR é uma métrica de risco mais adequada para ser usada para fins
regulatórios e alocação de capital econômico (ALEXANDER, 2008b). Além disso, o CVaR
evolui no tempo assim como o VaR, reconhecendo as características recentes dos mercados.
A segunda alteração é a introdução de um parâmetro S2 móvel, ao invés de fixo como
previsto nas normas do BACEN. A ideia é torná-lo dependente dos níveis de volatilidade
vivenciados pelos preços dos instrumentos financeiros. Assim, em tempos de calmaria, com
as perdas restritas, o S2 permanece próximo ou igual a um, levando os bancos a alocarem
mais capital.
Ao iniciar-se um estresse, indicado pelo aumento na volatilidade de curto prazo, o S2
tenderá a cair chegando, em casos extremos, a assumir o valor zero, caso as últimas variações
nos preços sejam bruscas, diminuindo o requerimento e gerando folga de capital para os
bancos concederem mais crédito ou reporem as perdas de suas carteiras.
81
Propõe-se então, um S2, como o a seguir:


S 2  0,1 onde S 2   2  21d
 252d 

Onde σxd é uma volatilidade de referência para o mercado medida nos últimos x dias
úteis. Essa medida deve ser capaz de representar o comportamento de diferentes mercados,
assim como a volatilidade do índice Ibovespa reflete o mercado de ações. Neste trabalho,
utilizamos a volatilidade das perdas e lucros do portfólio fictício utilizado nos testes e descrito
na seção 5, por este ter sido construído para simular as carteiras dos principais bancos e ser
composto de diferentes ativos.
O gráfico a seguir demonstra o comportamento do S2 para diferentes relações entre a
volatilidade de curto prazo, calculada para os últimos 21 dias úteis, e a volatilidade de longo
prazo, em 252 dias úteis.
Gráfico 13 – Valor do S2 Móvel X Razão da Volatilidade
1,20
1,00
S2
0,80
0,60
0,40
0,20
0%
50%
100%
150%
200%
250%
σ21d/σ252d
Refazendo o teste do subprime com as alterações propostas, as novas exigências
geradas caíram para uma média de R$ 9,9 bilhões, suficiente para suportar as perdas que a
carteira sofreria, conforme pode ser visto no gráfico 14. Um ponto positivo foi a redução da
variabilidade do montante alocado entre as metodologias, já que todos estão baseados na
mesma carteira e, à exceção do Monte Carlo, todas acumulavam violações entre 6 e 8
violações, não havendo desse modo motivo para grandes diferenças entre os modelos. Um
82
aumento no fator Abkt faria com que as abordagens não acuradas fossem punidas de forma
semelhante.
Bilhões
Gráfico 14 – PRM Após Modificações na Regra (Teste do Subprime)
25,0
20,0
15,0
10,0
5,0
0,0
Simulação Histórica
EWMA 0,94
PRM Antiga
Variância amostral
Nova PRM (Modificada)
Híbrido
Nova PRM
Monte Carlo
P/L realizado
No teste, o capital requerido variou entre 15% e 17% da carteira, contra 25% e 33% do
framework regulatório atual. Essa queda foi devido exclusivamente ao S2 móvel, que na data
era de 0,23, com a volatilidade de curto prazo 88,21% superior à de longo prazo. Durante o
período subsequente ao teste do subprime, o aumento da volatilidade fez o S2 cair para zero,
com uma redução da exigência em torno de R$ 2 bilhões, sem comprometer, no entanto a
suficiência dessa. As medidas de CVaR estiveram muito próximas do sVaR e a troca não
causou, assim, grande impacto na alocação.
No gráfico 15, podemos observar que, de modo inverso, no teste de cenários, realizado
no dia 01/01/2010, com as volatilidades de curto e longo prazo em patamares menores e
muito próximos, o fator S2 foi igual a 0,99 e as diferenças de alocação foram causadas
exclusivamente pela substituição do sVaR. Os números de CVaR, que também refletem o
comportamento recente do mercado, sofreram redução de 53,39% em relação aos calculados
na crise. Com isso, a alocação esteve entre 11% e 16% do portfólio, ao invés de 23% e 50%
da regra atual, com queda no volume e na variabilidade das estimativas.
A exigência média entre os modelos de R$ 9,2 bilhões também seria suficiente para
suportar os diversos cenários calculados, inclusive o cenário mais improvável, sem efeito
83
diversificação, onde se assume que as piores perdas de cada fator de risco desde 2004 possam
acontecer novamente em uma única data, a data do teste.
Bilhões
Gráfico 15 – PRM Após Modificações na Regra (Cenários)
35,0
30,0
25,0
20,0
15,0
10,0
5,0
0,0
Simulação Histórica
PRM Antiga
EWMA 0,94
Variância amostral
Nova PRM (Modificada)
Nova PRM
Híbrido
Estresse Histórico
Monte Carlo
Estresse s/ ED
84
7.
CONSIDERAÇÕES FINAIS
Com a adoção integral pelo BACEN das novas recomendações de Basileia motivadas
pela crise do subprime e com o início, em junho de 2010, do processo de autorização para os
bancos brasileiros utilizarem seus modelos internos para cálculo da PRM, este trabalho
procurou responder a duas questões: 1) se os modelos VaR mais populares, e que a maior
parte da indústria bancária no Brasil usa para mensurar seu risco de mercado, são acurados
para medir a volatilidade dos ativos brasileiros e 2) se a nova parcela de risco de mercado é
adequada para suportar as perdas da carteira trading em situações extremas dos mercados.
Por meio da simulação de uma carteira trading, baseada na composição das carteiras
de negociação dos principais bancos em operação no Brasil e por isso composta, por ordem de
importância, de ativos de renda fixa, de ações e de moedas estrangeiras, calculou-se o VaR de
1 dia com 99% de confiança, grau de confiança exigido pelo regulador, para o período de
2005 a 2010 pelos modelos Delta-Normal, com e sem alisamento exponencial (EWMA), por
uma metodologia Híbrida, que considera o máximo entre as duas abordagens anteriores, e
pelas Simulações Histórica e de Monte Carlo.
Verificou-se que em na maior parte da amostra, observou-se que esses modelos VaR
tenderam a subestimar o risco, principalmente durante a crise do subprime. Os modelos Delta
Normal Híbrido e Monte Carlo obtiveram desempenho ligeiramente superior aos demais nas
diferentes técnicas de backtesting.
Contudo, apesar dessa inadequação, os testes com a exigência de capital revelaram
que mesmo modelos inacurados geraram alocação suficiente para cobrir as perdas da carteira
nos diferentes cenários.
No teste da crise do subprime, calculou-se o requerimento de capital da carteira de
negociação pela nova fórmula anteriormente ao pior período de desvalorização dos ativos da
carteira, sendo que independentemente do modelo que o banco detentor desta carteira
utilizasse, a alocação seria bastante superior a essas perdas, ocorridas durante setembro e
outubro de 2008, quando houve um aumento da volatilidade reflexo ainda da quebra do banco
de investimentos Lehman Brothers.
Isso porque os modelos VaR já capturavam o aumento da volatilidade que se iniciou
em 2007. Nesse período, os supervisores poderiam reduzir, e até mesmo zerar, o percentual S 2
aplicado ao sVaR, retornando à fórmula anterior da PRM. Outro fato observado foi que apesar
85
de acumular o maior número de violações, o modelo DN – Variância Amostral gerou a menor
PRM entre as abordagens, mesmo com um Abkt de 0,75.
Tomando o portfólio em julho de 2010, quando a volatilidade estava reduzida, foram
conduzidos os testes de estresse descritos na subseção 4.4. Nesse contexto, caso os piores
cenários de perda para os fatores de risco se repetissem nessa data, novamente a alocação
seria suficiente. Diferentemente da crise, a maior parte da parcela era gerada pelo sVaR, e no
caso do modelo DN EWMA 0,94 o requerimento chegou a representar metade do valor do
portfólio. Houve grande variabilidade entre as metodologias, mas mesmo as abordagens que
geraram as menores exigências, cobriram com folga as perdas em situações de estresse.
Entretanto, com a fórmula anterior, as alocações não seriam suficientes para suportar
os estresses históricos. No cenário prospectivo, utilizando três desvios-padrão na volatilidade
dos ativos, mesmo essa estando em níveis relativamente baixos, as perdas chegariam muito
próximas ao montante de capital requerido para a carteira de negociação. Assim, tendo em
vista as diretrizes propostas por Basileia III, corrobora-se com a necessidade de mudança na
fórmula anterior, já que esta não seria capaz de exigir capital quando os mercados estivessem
em regime de baixa volatilidade suficiente para cobrir as perdas em situações extremas da
carteira e poder ser utilizado como mais um instrumento anti-cíclico pelo Regulador.
Entretanto, de acordo com os resultados, a alteração realizada por Basileia na fórmula
fez com que esta se tornasse demasiadamente conservadora. Em alguns modelos, a nova
fórmula geraria alocação tão grande, que possivelmente desestimularia o banco a manter sua
carteira trading descoberta, sem uso de derivativos. Bancos que resolvessem seguir um
modelo de otimização de carteiras do tipo média-variância possivelmente encontrariam
problemas com a alocação de capital dessa carteira. A PRM deve passar a representar,
portanto, uma variável dentro de qualquer modelo de otimização de portfólios bancários, não
sendo nenhuma surpresa que a carteira ótima encontrada seria de baixíssimo risco, dado o
custo de oportunidade do capital exigido pelo BACEN.
Outra crítica que pode-se fazer ao framework regulatório, é que ele não traz incentivos
aos bancos em manterem um modelo interno de VaR acurado. Segundo a norma atual, o
supervisor poderá intervir apenas quando o modelo se encontrar na zona vermelha, mas para
isso este deve acumular 10 violações em apenas um ano, mais de três vezes a quantidade que
seria apropriada. Abaixo disso o modelo ainda é considerado acurado e, conforme visto, a
punição recebida através do Abkt não representou maior alocação de capital, principalmente no
contexto da crise.
86
Visto o tamanho do capital exigido, este arcabouço pode gerar incentivos aos bancos
subestimarem o seu risco de mercado visando diminuir o requerimento, a revelia do aumento
do Abkt. Os incentivos, não apenas de ter uma boa metodologia de cálculo do VaR, mas
também de uma estrutura de gerenciamento de riscos adequada ao tamanho da exposição e à
complexidade dos negócios, como requer o BACEN, são advindos atualmente da necessidade
de maior governança corporativa imposta pelos próprios bancos, passando para o mercado a
confiabilidade de retorno de seus investimentos. De forma a haver também um incentivo
externo, os reguladores deveriam impor um Abkt que punisse um banco com um modelo VaR
inadequado, fazendo-o alocar mais capital do que se este mesmo banco fizesse uso de uma
metodologia mais acurada.
Apesar de verificar-se a necessidade de uma medida de estresse no cálculo da PRM,
principalmente em períodos de normalidade, a aplicação do multiplicador também na média
do sVaR tornou a alocação consideravelmente alta. Além disso, a adoção do sVaR ao invés de
uma medida mais estudada e conhecida de tail risk baseada em VaR, como o CVaR, trouxe
grande variabilidade para as alocações, apesar de se basearem em um mesmo portfólio e os
modelos VaR terem apresentado desempenhos semelhantes nos testes de aderência.
Com o foco nesses pontos, propomos duas modificações na regra atual da exigência,
com a substituição do sVaR pelo CVaR e a introdução de um S2 móvel, que decai assim que
a volatilidade dos mercados aumente, gerando menor alocação em épocas de estresse, e de
modo contrário, aumenta o capital exigido em momentos de normalidade.
Verificamos que as alterações diminuíram tanto a variabilidade quanto o volume das
alocações em ambos os testes, sem, no entanto comprometer a sua suficiência frente às perdas
estimadas. O S2 móvel fez com que o requerimento decrescesse durante a crise do subprime
enquanto que no teste dos cenários de estresse, em regime de baixa volatilidade, onde as
medidas VaR e CVaR tendem a cair consideravelmente, ao contrário do sVaR, este último foi
responsável pela redução da alocação para níveis menos punitivos aos bancos.
Deve-se destacar, no entanto, que as conclusões feitas neste trabalho são
completamente dependentes da carteira trading utilizada. Pesquisas futuras poderão testar a
acurácia dos modelos VaR e a suficiência da nova regra da PRM para carteiras com perfis
mais arriscados. Entretanto, é necessário atentar que para utilizarem os modelos internos, o
BACEN exige que os bancos se sujeitem a limites de exposição a risco de mercado, assim o
portfólio tem risco e concentração restringidos a esses limites.
87
Trabalhos futuros também podem propor frameworks mais apropriados para o cálculo
da exigência de capital da carteira trading, de modo a gerar incentivos corretos aos bancos
para manterem modelos internos de VaR adequados e evitar alocações excessivas, sem
comprometer, no entanto, a estabilidade buscada por Basileia III.
88
REFERÊNCIAS
ALEXANDER, C. Market Models. Chichester, England: John Wiley & Sons, 2001.
_______________. Market Risk Analysis: Quantitative Methods in Finance. Chichester,
England: John Wiley & Sons, 2008, a.
_______________. Market Risk Analysis: Value-at-Risk Models. Chichester, England: John
Wiley & Sons, 2008, b.
BACEN. Relatório de Estabilidade Financeira – Abril/2010. Relatório de Estabilidade
Financeira, v. 9, n. 1. 2010. Disponível em: http://www.bcb.gov.br/?RELESTAB201004.
BARONE-ADESI, G.; BOURGOIN, F.; GIANNOPOULOS, K. Don’t look back. Risk v. 11,
p. 100–103, 1998.
BARONE-ADESI, G.; GIANNOPOULOS, K.; VOSPER, L. VaR without correlations for
nonlinear portfolios. Journal of Futures Markets v. 19, p. 583–602, 1999.
BASEL COMMITTEE ON BANKING SUPERVISION. Supervisory Framework for the Use
of “Backtesting” in Conjunction with the Internal Models Approach to Market Risk Capital
Requirements. Basel, Switzerland: BIS, 1996, a.
_______________. Amendment to the Basel Capital Accord to Incorporate Market Risk.
Basel, Switzerland: BIS, 1996, b.
_______________. International Convergence of Capital Measurement and Capital
Standards. Basel, Switzerland: BIS, 2004.
_______________. Revisions to the Basel II market risk framework. Basel, Switzerland: BIS,
2009.
BOUDOUKH, J.; RICHARDSON, M.; WHITELAW, R. The best of both worlds. Risk 11(5),
p. 64–67, 1998.
CAMPBELL, S. A Review of Backtesting and Backtesting Procedure. Finance and Economics
Discussion Series, Divisions of Research & Statistics and Monetary Affairs, Federal Reserve
Board, Washington D.C: 2005.
89
CARUANA, J. Basel III: Towards a Safer Financial System. In: 3rd Santander International
Banking Conference. Madrid: 2010.
CHRISTOFFERSEN, P. F. Evaluating Interval Forecasts. International Economic Review,
v.39, p. 841-862. 1998.
CROUHY, M.; GALAI, D.; MARK, R. Gerenciamento de Risco – Abordagem Conceitual e
Prática. São Paulo: Qualitymark, 2004.
_______________. A Stress Testing Perspective: Insights on risk management to the global
risk community. Intelligent Risk, v.1, p. 4-6. 2011.
DOWD, K. Beyond Value at Risk: The New Science of Risk Management. Chichester,
England: John Wiley & Sons, 1998.
_______________. Measuring Market Risk. Chichester, England: John Wiley & Sons, 2002.
DUFFIE, D., PAN, J. An overview of value at risk. Journal of Derivatives, v. 4, p. 7−49. 1997.
HUANG, A. Y. An Optimization Process in Value-at-Risk Estimation. Review of Financial
Economics, p. 109-116. 2010.
JORION, P. Value at Risk: A Nova Referência no Controle do Risco. São Paulo: BM&F,
2003.
KUPIEC, P. Techniques for Verifying the Accuracy of Risk Management Models. Journal of
Derivatives, v.3, p. 73-84, 1995.
MUN, J. Modeling Risk: Applying Monte Carlo Simulation, Real Options Analysis,
Forecasting, and Optimization Techniques. Chichester, England: John Wiley & Sons, 2006.
NIEPPOLA, O. Backtesting Value-at-Risk Models. Master’s Thesis. Department of
Economics, Helsink School of Economics, 2009.
RAAJI, G.; RAUNIG, B. A Comparison of Value-At-Risk Approaches and their Implications
for Regulators. Focus on Austria, p. 57-71. 1998.
RESENDE, A. L. Além da crise: desequilíbrio e credibilidade. Caderno Valor, nº 445. 2009.
Disponível em: http://www.oeb.org.br/ADM/depoimentos/public/meus_arquivos/Alemdacrise.pdf
90
RISKMETRICS™. Technical Document, 4ed., New York: J.P. MORGAN, 1996.
SOUZA, L.A.R. Valor em Risco em Épocas de Crise. Dissertação de Mestrado em Economia,
FEA-USP, 1999.
TORRES FILHO, E. T. Analisando a Crise do Subprime. Revista do BNDES, v. 15, n. 30, p.
129-159. 2008.
VIEIRA NETO, C. A.; URBAN, F. Um Modelo de Teste de Stress menos Subjetivo e mais
Abrangente. 2000. Disponível em: http://www.risktech.com.br
WICHURA, M. Algorithm AS 241: The Percentage Points of the Normal Distribution.
Applied Statistics, v. 37, p. 477−484. 1988.
WIENER, Z. Introduction to VaR, Risk Management and Regulation in Banking. Boston:
Kluwer Academic Publishers, 1999.
Download