Estudo da Variabilidade dos Instrumentos Instalados em Blocos

Propaganda
COMITÊ BRASILEIRO DE BARRAGENS
XXX - SEMINÁRIO NACIONAL DE GRANDES BARRAGENS
FOZ DO IGUAÇU – PR, 12 A 14 DE MAIO DE 2015
RESERVADO AO CBDB
Estudo da Variabilidade dos Instrumentos Instalados em Blocos Chave da
Barragem de ITAIPU para Determinação de Modos de Falha
Orlando Catarino Da SILVA
Doutorando – PPGMNE/UFPR.
Cleverson Gonçalves Dos SANTOS
Doutorando – PPGMNE/UFPR.
Jair Marques MENDES
Prof. Doutor – PPGMNE/UFPR
Cassius Tadeu SCARPIN
Prof. Doutor – PPGMNE/UFPR.
RESUMO
Um plano de instrumentação detalhado é uma das formas de verificar as reais
condições de segurança apresentadas por uma estrutura. Nesse trabalho serão
aplicadas as técnicas da análise fatorial em uma matriz gerada a partir das leituras
dos instrumentos instalados num bloco chave da barragem. Nosso objetivo é
identificar os instrumentos que são altamente correlacionados além de calcular os
fatores latentes que podem estar associados a algumas anomalias na estrutura,
como o tombamento e o deslizamento. A partir desses resultados testes de
normalidade serão aplicados nos escores fatoriais e como a condição de
normalidade dos dados é muitas vezes exigida para aplicação de técnicas de
inferência estatística, se comprovada, os resultados obtidos serão utilizados
futuramente como a base para a determinação de uma função de desempenho para
a análise de confiabilidade estrutural, assumindo a estrutura do bloco com um
sistema altamente interligado.
ABSTRACT
A detailed plan of instrumentation is one way to verify the actual conditions of safety
presented by a structure. In this paper the techniques of factor analysis on a matrix
generated from the readings of the instruments installed in one block of the dam are
applied. Our goal is to identify the instruments that are highly correlated and
calculates the latent factors that may be associated with some anomalies in the
structure, such as tipping and sliding. From these results of normality tests will be
applied to the factor scores and how the condition of normality of the data is often
required for application of techniques of statistical inference, if proven, the results will
be used in the future as the basis for the determination of a function performance for
the analysis of structural reliability, assuming the structure of the block with a highly
interconnected system.
XXVI Seminário Nacional de Grandes Barragens
1
1. INTRODUÇÃO
A segurança das barragens constitui uma preocupação permanente para as
entidades governamentais, tanto por sua importância econômica específica como
pelo risco potencial que representa a possibilidade de ruptura ou outro acidente
grave, em termos de vidas humanas, impacto ao meio ambiente, prejuízos materiais
e os reflexos econômico-financeiros [1].
Considerando o risco, embora remoto, as barragens requerem muita
vigilância. No mundo todo a segurança de barragens é um assunto muito discutido,
e o Brasil mostra-se preocupado com a "saúde" de suas barragens.
Segundo [2] o sinal de alerta veio com o rompimento da barragem de
Algodões, no Piauí, em 2009.
Em outubro de 2002, o banco mundial publicou o livro (Regulatory
frameworks for dam safety), contendo modelo de regulamento, operação,
manutenção e inspeção de barragens. Neste documento, o significado de
segurança de barragens engloba fatores que contribuem para a operação com
segurança da estrutura e obras complementares, o risco potencial para a vida
humana, aspectos sanitários e de saúde pública, danos a propriedades e proteção
da área no entorno do reservatório. A segurança tem a ver com a operação
adequada, manutenção, inspeção e planos de emergência para lidar com situações
de risco ao meio ambiente, assim como definição das medidas mitigadoras dos
impactos ambientais.
Segundo estimativas, no Brasil existem cerca de 300 mil barragens de
importância econômica vital, em termos de abastecimento de água, geração de
energia, e apoio à indústria e mineração. A Agência Nacional de Águas do Brasil
(ANA) estimou que cerca de 200 barragens pudesse estar em perigo de fracassar
[3].
O 3° Simpósio de segurança de barragens realizado nos dias 18 e 19 de
novembro de 2008 em Salvador tiveram como tema principal "Barragens
Contemporâneas: Conhecimento, Durabilidade, Riscos e Falhas". Nesse evento foi
discutido os acidentes ocorridos em barragens nos últimos 50 anos, fato que
ocasionou na busca de providências como elaboração de manuais de inspeção e
segurança, análises refinadas por processos computacionais, uso de sistemas
remotos de auscultação, análises de riscos e implementação de planos
emergenciais.
Em 20 de setembro de 2010 entra em vigor [4] que estabelece a Política
Nacional de Segurança de Barragens destinadas à acumulação de água para
quaisquer usos, à disposição final ou temporária de rejeitos e à acumulação de
resíduos industriais, e cria o Sistema Nacional de Informações sobre Segurança de
Barragens (PNSB).
No art. 2° item III dessa lei a segurança de barragens é definida como sendo
a providência de condições que visam manter a sua integridade estrutural e
operacional e a preservação da vida, da saúde, da propriedade e do meio ambiente.
Em seguida veio [5] que estabelece diretrizes para implantação da política
nacional de segurança de barragens, aplicação de seus instrumentos e atuação do
sistema nacional de informação sobre segurança de barragens.
Diante de normas que visam o controle da segurança de barragens, neste
artigo é proposto um estudo da variabilidade dos blocos chaves da barragem de que
possibilite identificar os modos de falha dominantes, através das leituras dos
instrumentos instalados nestes blocos. Para realizar essa tarefa com maior
XXVI Seminário Nacional de Grandes Barragens
2
eficiência, é necessário um planejamento para coleta dos dados em conjunto com
técnicas de mineração dos dados. Isso pode garantir maior eficiência na aplicação
dos métodos estatísticos da análise multivariada que é sugerido.
2. SEGURANÇA DE BARRAGENS
Uma barragem é uma estrutura construída no caminho das águas e
destinada a retê-la para os mais diversos fins, como abastecimento de água,
energia hidroelétrica, irrigação, controle das enchentes e da erosão, canalização
dos rios, turismo e etc [6].
As barragens podem ser classificadas em barragens de concreto e barragens
de aterro. As barragens de aterro são construídas de material pouco resistente
quando comparadas com as de concreto, sendo comuns as barragens de terra e
barragens de enrocamento. Cada um desses tipos de barragens tem características
de construção diferentes, solicitações diversas e desempenho distintos [6].
De acordo com [7] o objetivo fundamental da segurança de barragens é
proteger as pessoas, os bens e o ambiente do prejudicial efeito da falha de
operação ou falha de barragens e reservatórios, e, além disso, o objetivo de
proteger pessoas, bens e o ambiente contra os efeitos da falha da represa tem que
ser alcançado sem limitar indevidamente os benefícios criados pela operação de
barragens e reservatórios. Para alcançar os mais altos padrões de segurança que
podem ser razoavelmente atingidos, devem ser tomadas medidas para:
1. Controlar a liberação de descargas prejudiciais à jusante da barragem
através de controles embutidos no regime de funcionamento normal da barragem;
2. Restringir a probabilidade de eventos que podem levar a uma perda de
controle sobre o volume de armazenado do vertedouro e outras descargas;
3. Através de medidas preventivas detectarem locais de possíveis acidentes,
mediando às consequências de tais eventos antes que eles ocorram, possibilitando
medidas emergências satisfatórias.
Portanto, quando são realizados todos os mecanismos de segurança de
barragens, implica que foram tomadas todas as medidas razoavelmente práticas
para evitar falha, e, para mitigar as consequências, devendo ocorrer um alto nível de
confiança de que a probabilidade de eventos com potencial para causar sérios
danos é extremamente baixa e um alto nível de confiança de que, se ocorrer algum
evento de falha as consequências adversas serão extremamente baixas.
O problema então consiste em determinar formas de avaliar essas incertezas.
Na avaliação de risco de falha de uma barragem várias forças estão atuando na
estrutura algumas forças com funções estabilizadoras e outras desestabilizadoras,
tais forças podem provocar anomalias na estrutura. Diante disso, um sistema de
monitoramento deve ser implantado logo no início da construção da barragem,
possibilitando o acompanhamento do comportamento da estrutura.
O trabalho apresentada por [8] apresentou-se uma metodologia enquadrada
no contexto KDD "Descoberta de Conhecimento em Bases de Dados", que
possibilitou a hierarquização dos instrumentos para automatização por suas
importâncias. Não obstante, com o desenvolvimento dos computadores nos últimos
anos, as técnicas de estatísticas multivariadas e confiabilidade estrutural ganharam
força e estão sendo amplamente aplicadas.
Segundo [9] a avaliação de confiabilidade de um sistema é complexa, pois
depende de muitos fatores como, contribuição da falha dos componentes na falha
do sistema, redundância da falha no sistema, comportamento de uma componente
XXVI Seminário Nacional de Grandes Barragens
3
ou de todo o sistema após uma falha e correlações estatísticas entre os eventos de
falha progressiva de componentes.
2.1 INSTRUMENTAÇÃO
A instrumentação refere-se ao conjunto de dispositivos instalados nas
estruturas e em suas fundações, objetivando monitorar seu desempenho através de
medições de parâmetros, cujos resultados, devidamente analisados e interpretados,
servirão para avaliar suas condições de segurança [1].
O sistema de instrumentação faz-se através de um plano de instrumentação
que consiste em um projeto de instrumentação obtido, primeiramente, através dos
resultados do estudo detalhado das características geológico-geotécnicas da região
e do entorno onde estará locada a barragem, através do qual são definidas seções
e blocos "chaves" a serem observados e instrumentados [10].
Blocos chaves são seções representativas do comportamento típico de um
determinado trecho da barragem, levando-se em consideração basicamente o tipo
de fundação e as características geométricas da estrutura, que recebem uma
instrumentação mais completa [11].
As grandezas a serem medidas são basicamente as seguintes: subpressões
na fundação, deslocamentos na fundação, deslocamentos da barragem, tensões
internas e vazões de infiltração. Para as barragens de concreto, a observação das
temperaturas máximas do concreto, em decorrência do calor de hidratação do
cimento e da possibilidade de ocorrerem fissuras de origem térmica, é também de
grande importância [11].
Em Itaipu foram instalados mais de 2000 instrumentos, 90% dos quais
considerados permanentes. Após oito anos de operação do empreendimento, a
maioria dos instrumentos está funcionando ou em condições de uso [12].
Alguns dos instrumentos instalados, e suas funções, que fazem parte do
sistema de monitoramento da barragem de ITAIPU são:
 Piezômetros para medir a pressão dos poros e a subpressão hidráulica em
juntas ou contatos escolhidos no maciço rochoso ou no contato barragemfundação;
 Furos de drenagem para medição de percolação total e da subpressão a
jusante da cortina de injeção principal;
 Extensômetros múltiplos para medição das deformações totais e diferenciais,
tanto na direção vertical como na horizontal, das fundações em relação às
estruturas.
 Piezômetros para medir a pressão dos poros no núcleo e no contato núcleofundação;
 Pêndulos diretos e invertidos para medir os deslocamentos horizontais das
estruturas de concretos como também das deformações horizontais
absolutas da rocha de fundação e da estrutura acima dela;
 Marcos e alvos topográficos para medir os deslocamentos horizontais da
crista da barragem em relação às linhas de referências entre marcos situado
nas margens em locais afastados e não afetado pelos recalques;
 Bases e pinos, instalados na superfície através das juntas de contração e
nas fissuras que ocorreram em alguns blocos de contrafortes, para medição
das aberturas com medidor de juntas removível;
 Medidores de juntas embutidos, instalados através das juntas de contração,
para medição das aberturas antes e depois da injeção.
XXVI Seminário Nacional de Grandes Barragens
4

Termômetros embutidos no concreto para medição da temperatura durante a
construção e operação.
Uma correlação entre os tipos de instrumentos usualmente empregados na
ascultação de barragens, conjuntamente com as inspeções visuais e os principais
tipos de deterioração é apresentada em [11].
FIGURA 1: Instrumentação de Barragens de Concreto
Fonte: Fread - 1988
Na Figura 1 vemos que muitos instrumentos tem a mesma finalidade,
monitorando uma mesma anomalia. Por exemplo, de acordo com esse quadro se
um Recalque Diferencia estiver ocorrendo, o mesmo deverá ser detectado pelos
pendulos diretos, clinometros, medidores de junta e os extensômetros. Caso ocorra
uma Distensão a Montante, a percepção se dará através dos tensômetros,
Deformimetros, extensômetro e piezometros.
Essa propriedade apresentada pelos instrumentos é utilizada adiante para
justificar o monitoramento através dos Fatores, e dos Escores Fatoriais.
2.2 MONITORAMENTO
Segundo [13] leituras dos instrumentos de uma barragem devem ser
realizadas por equipes de bom nível técnico e treinadas para tal, visto que a
precisão dos dados obtidos estará diretamente condicionada à qualidade e cuidado
dos leituristas. Estes deverão receber treinamento apropriado, e serem
periodicamente motivados através de palestras e conferências; além disso, é
importante que as medições sejam realizadas sempre pelos mesmos leituristas,
para manter-se os erros sistemáticos sob controle e, também, para que os mesmos
atuem como os primeiros inspetores visuais, informando imediatamente aos seus
superiores quaisquer observações encontradas que possam ser indícios de
comportamento anômalo das estruturas.
XXVI Seminário Nacional de Grandes Barragens
5
De acordo com [14] (Aproveitamento Hidrelétrico de Itaipu), as frequências de
leituras dos instrumentos já sofreram várias alterações ao longo das diversas fases
do projeto (instalação, construção, enchimento, 1° ano de operação e operação
subsequente), de acordo com as necessidades inerentes a cada uma destas
etapas.
Esse relatório propôs novas medidas de leituras, tomando como base os
boletins n°41 e n°68 do ICOLD, os quais tratam desse assunto. Afirma também que
as leituras adotadas nos Estados Unidos coincidem com as que estão sendo
adotadas atualmente em ITAIPU, tendo até uma frequência maior de leituras (mais
rigorosa) nos casos dos piezômetros, drenos e medidores de vazão, para os quais
são especificadas leituras semanais enquanto para a ITAIPU é recomendado uma
frequência quinzenal.
Existe hoje com a melhoria das técnicas de mineração de dados, uma
preocupação na forma que os dados são coletados e armazenados, com o objetivo
de garantir a robustez dessas informações, proporcionando a melhor interpretação
do conhecimento.
No trabalho realizado por [15], a finalidade da pesquisa era identificar o efeito
da variação diária da temperatura do ar na resposta estrutural de uma barragem de
concreto, cujo objetivo era obter um melhor conhecimento sobre o comportamento
estrutural da barragem, condição que a maior parte dos modelos ignoravam como
uma variação diária. O procedimento apresentado pemitiu a detecção precoce de
anomalias através da análise dos efeitos diários da temperatura do ar sobre o
comportamento da barragem.
Em geral sistemas de monitoramento de grandes barragens são geralmente
baseadas em ambas as condições de contorno (temperatura, precipitação, nível de
água, etc) e as respostas estruturais (deslocamentos, rotações, pressão de poros,
etc) [16]. Esse trabalho Utilizou amplamente as ferramentas de análse estatísticas
para comparar a resposta da corrente da barragem para uma série de dados
armazenados, a fim de destacar em tempo hábil eventuais comportamentos
indesejados.
A análise estrutural deve usar métodos adequados para atingir o seu efeito
final. Esses métodos devem ser capazes de, (i) modelar as características
geométricas e físicas da estrutura, em particular, as descontinuidades e
articulações, (ii) modelar as cargas de uma maneira integrada, tendo em conta a
interação entre os fenômenos importantes envolvidos, e (iii) avaliar o
comportamento não-linear, em particular permitindo a definição de mecanismos de
falha [17].
Segundo [18] um percentual significativo de barragens de concreto
existentes, em especial na Europa e na América do Norte, depois de uma vida de
várias décadas de serviço, apresenta algum tipo de deterioração, justificando mais
esforços de pesquisa dedicados a análise de diagnóstico de grandes barragens de
concreto, com o objetivo de criar novas metodologias aptas a identificar os locais de
possíveis danos estruturais.
3. TRATAMENTO DOS DADOS
Um plano de instrumentação, sem a correspondente análise periódica e
interpretação sistemática dos resultados, é inútil, ou mesmo nocivo, na medida em
que pode causar uma falsa impressão de segurança em relação ao
empreendimento [1].
XXVI Seminário Nacional de Grandes Barragens
6
Neste artigo será propostos uma metodologia que busca um tratamento para
obter inferências sobre os dados coletados em um bloco chave de uma barragem de
concreto, considerando os dados dos instrumentos coletados ao longo de um
período 13 anos, compreendidos entre 2000 a 20013. Os dados foram coletados
seguindo as normas de segurança adotadas pelo proprietário da barragem. Por
outro lado, se espera uma grande melhoria nos resultados, se for incorporada novas
estratégias para as coletas de dados, isto é, seguir rigorosamente um planejamento
tático de coleta de dados, onde serão considerados espaçamentos e horários prédeterminados.
A Descoberta do Conhecimento em Banco de Dados (Knowledge Discovery
in Databases - KDD) é um processo não trivial de identificar padrões de dados
válidos, novos, potencialmente úteis e desconhecidos em grandes bancos de dados
[19].
A principal etapa da KDD é a mineração de dados (MD), que se trata de uma
metodologia que combina métodos tradicionais de análise de dados com algoritmos
sofisticados para processar grandes massas de dados. A mineração de dados,
devido ao seu procedimento científico, identifica todas as possibilidades de
correlações existentes nas fontes de dados, diferente das análises tradicionais [20].
A Análise Multivariada é uma ferramenta estatística que faz uso de técnicas
de mineração de dados, através de um conjunto de métodos estatísticos torna
possível a análise simultânea de medidas múltiplas para cada indivíduo, objeto ou
fenômeno observado. Desse modo, os métodos que permitem a análise simultânea
de mais de duas variáveis podem ser considerados como integrantes da análise
multivariada. Essa análise requer testes de suposições para as variáveis separadas
e em conjunto. As principais suposições a serem testadas são:
1. Normalidade;
2. Homoscedasticidade;
3. Linearidade.
A suposição de normalidade é a mais comum, a qual se refere à forma da
distribuição de dados para uma variável quantitativa individual e sua
correspondência com a distribuição normal, que representa um padrão de referência
para métodos estatísticos [21].
O teste mais simples é uma verificação visual do histograma, comparando os
valores de dados observados com uma distribuição aproximadamente normal.
Testes de normalidade mais utilizados são: testes de Komogorov-Smirnov, JarqueBera e Shapiro-Wilks.
Análise multivariada também pode ser definida como um conjunto de técnicas
estatísticas que tratam dos dados correspondentes às medidas de muitas variáveis
simultaneamente. Basicamente, consiste no estudo estatístico dos problemas
relacionados com:
1. Inferência sobre médias multivariadas;
2. Análise da estrutura de covariância de uma matriz de dados;
3. Técnicas de reconhecimento de padrão, classificação e agrupamento.
Por esse motivo a análise multivariada foi escolhida para fazer o tratamento
dos dados coletados dos instrumentos do bloco chave. Pretende-se com esta
técnica classificar e agrupar os instrumentos em grupos, de forma a reduzir o
número de variáveis na análise, para facilitar a associação desses grupos com as
possíveis anomalias que um bloco de concreto possa sofrer. A análise multivariada
também é dividida em técnicas para processamento de dados, para nosso propósito
é utilizada a Análise Fatorial.
XXVI Seminário Nacional de Grandes Barragens
7
A Análise Fatorial (AF) é uma técnica estatística que busca, através da
avaliação de um conjunto de variáveis, a identificação de dimensões de
variabilidade comuns existentes em um conjunto de fenômenos, o intuito é
desvendar estruturas existentes, mas que não observáveis diretamente. Cada uma
dessas dimensões de variabilidade comum recebe o nome de Fator.
Encontra-se na literatura aplicações em várias áreas para a análise fatorial,
[22] utiliza-se da análise fatorial para a identificação do constructo essencial dos
dados. [23] concorda que se utilize a análise fatorial nas seguintes circunstâncias:
1. Identificação das dimensões latentes ou fatores que expliquem as correlações
entre um conjunto de variáveis;
2. Identificar um conjunto novo, menor, de variáveis não correlacionadas para
substituir o conjunto de variáveis correlacionadas;
3. Identificação, em um conjunto maior, de um conjunto menor de variáveis que se
destacam para uso em uma análise multivariada subsequente.
Uma descrição completa do método para realizar uma análise fatorial dos
dados é encontrada em [21] e [24].
4. CARACTERIZAÇÃO DO PROBLEMA
Os dados das leituras dos instrumentos podem revelar informações
importantes sobre a estrutura da barragem, as quais se pretende utilizar
futuramente, em conjunto com as técnicas de confiabilidade estrutural, para
substituir as variáveis aleatórias físicas comumente utilizadas nessa análise, como
as forças hidrostáticas, coeficientes de atrito, resistência do concreto e peso do
bloco.
O estudo encontra-se focado num bloco chave da barragem de Itaipu, do qual
os dados dos instrumentos estão disponíveis em um bando de dados. Este banco
de dados é formado pelos dados de cada um dos instrumentos instalados no bloco
e contém 30 anos de informação, foi utilizado um período de 2000 a 2013, onde
foram coletados dados de 52 instrumentos.
A quantidade de leituras realizadas em cada instrumento do bloco depende
da natureza do instrumento e da sua localização, de acordo com o sistema de
monitoramento atualmente implantado na barragem de Itaipu. Assim, existem
instrumentos com leituras semanais, quinzenais, mensais e para alguns a leitura é
realizada de forma trimestral.
Para realizar a análise dos dados, uma padronização foi realizada, escolheuse um representante para cada mês, ou seja, para os instrumentos que possuíam
mais de uma leitura mensal, foram calculadas as médias, para os que possuíam
leituras trimestrais, utilizou-se uma técnica de interpolação Spline cúbica para obter
um representante mensal dos meses do qual a leitura não ocorreu.
Para realizar a análise fatorial nos dados, antes é necessário a confirmação
de alguns testes estatísticos, para garantir a significância do método.
4.1 TESTES ESTATÍSTICOS
Para iniciar a análise fatorial deve-se testar a normalidade multivariada da
matriz de dados. Por exemplo, o teste computacionalmente intensivo baseado na
distância de Mahalanobis.
A hipótese nula do teste da distância de Mahalanobis afirma que a matriz de
dados amostrais é proveniente de uma população normal multivariada [25].
XXVI Seminário Nacional de Grandes Barragens
8
Diante da normalidade multivariada dos dados, é utilizado o Teste de Bartlett
para testar as hipóteses.
{
𝐻0 :
𝐻1 :
A matriz de correlação é igual a matriz identidade, ou seja, 𝜌 = 1;
A matriz de correlação é diferente da matriz identidade, ou seja, 𝜌 ≠ 1.
Se a hipótese nula for rejeitada, significa que a amostra multivariada é
proveniente de uma população com matriz de correlação significativamente
diferente da matriz identidade.
Para finalizar os testes se deve checar a Medida de Adequacidade dos
Dados (KMO) para realização de uma análise fatorial satisfatória, devemos
encontrar um valor para estatística do teste 𝑀𝑆𝐴 superior a 0,50, mostrando que a
amostra multivariada satisfaz essa condição.
4.2 ANÁLISE FATORIAL
Comprovado todos os testes estatísticos necessários, se inicia a análise
fatorial. Existem dois métodos para aplicar a análise fatorial nos dados, o método
das componentes principais e o método da máxima verossimilhança. Os dois
métodos serão aplicados e o que apresentar uma explicação maior da variabilidade
deve ser escolhido.
A obtenção dos fatores é sem duvida a etapa mais importante da análise
fatorial, e, para decidir quantos fatores utilizar, pode se usar o método para
determinação do número de fatores sugerido por [26], do mínimo autovalor, que
considera apenas os fatores cujos autovalores sejam superiores a um.
Uma vez decidido o número de fatores, deve se verificar se alguns dos
instrumentos que compõem a matriz multivariada apresentam comunalidade baixa,
caso exista alguns, os mesmos devem ser retirados da matriz e todos os testes
estatísticos devem ser refeitos, antes de realizar novamente a análise fatorial. Se
todos os testes forem bem sucedidos novamente, a nova análise fatorial deverá ter
um melhor desempenho na explicação da variabilidade.
4.2.1 Extração dos Escores Fatoriais
Decidido o número de fatores, é possível gerar os escores fatoriais, os quais
serão as variáveis aleatórias que substituirão as leituras dos instrumentos na análise
dos dados.
Para o propósito é fundamental que os escores fatoriais satisfaçam a
condição de normalidade, pois essa garantia facilita a identificação das regiões de
falha e futuramente no cálculo da probabilidade de falha. Para checar esta condição
é utilizado o teste apresentado em [27], que é uma modificação do teste de
Komolgorov - Sminov, para o caso onde possuí apenas a média e o desvio padrão
da amostra.
Aplicado o teste, e identificado os escores fatoriais que possuem distribuição
normal, então esses escores serão utilizados para o monitoramento de anomalias
na estrutura. Para utilizar os demais escores fatoriais, deve-se encontrar a
distribuição normal equivalente em torno de cada ponto 𝑥𝑖 . A determinação dessas
distribuições equivalentes é tema de um próximo trabalho, nesse momento, serão
avaliados apenas os escores que já possuem a condição de normalidade, para
efetuar o monitoramento do bloco.
XXVI Seminário Nacional de Grandes Barragens
9
5. DETEMINAÇÃO DOS MODOS DE FALHA
Segundo [28] e [29] a determinação de todos os modos de falha em um
sistema estrutural é inviável. Por esse motivo, serão apenas dedicado esforços em
conseguir determinar os modos de falha que a análise fatorial realizada permitir,
com uma boa precisão.
Como análise fatorial agrupa os instrumentos altamente correlacionados a um
mesmo fator, a ideia é utilizar as associações dos instrumentos com as anomalias
apresentadas em [11], [6], [30] e o conhecimento prático dos profissionais da
barragem, para relacionar os fatores com as anomalias.
Se mais de um fator for necessário para monitorar certa anomalia entramos
no caso de modos de falha de sistemas, onde a ocorrência de mais de um evento é
necessário para ocasionar uma falha.
Segundo [31] modos de falha de sistema podem ser em série, paralelos ou
mistos.
Como não serão utilizadas as grandezas físicas, se deve verificar o
comportamento anormal da estrutura através das leituras dos instrumentos. De
acordo com as literaturas citadas e do que foi repassado por profissionais que
atuam há muitos anos na barragem, para que certas anomalias ocorram, é
necessário que exista uma combinação de leituras fora do seu comportamento
normal simultaneamente. Assim, deve-se determinar em quais fatores esses
instrumentos estarão agrupados.
Como os escores fatoriais dependem dos fatores obtidos na análise fatorial e,
consequentemente, dependem dos instrumentos agrupados neles, quando houver
alguma mudança brusca nas leituras desses instrumentos correlacionados com uma
determinada anomalia, o resultado do escore fatorial também deverá sofrer
alteração. Portanto, para realizar esse monitoramento busca-se determinar as
regiões críticas desses escores fatoriais para a qual deverá indicar quais as
anomalias ocorreram.
Para determinar as regiões críticas são utilizados os intervalos de projeto dos
instrumentos instalados no bloco e os intervalos de 95% de confiança da média dos
últimos dois anos, e, determina-se um intervalo que representa uma mudança de
comportamento, definido como sendo
MC   min li , Li  , máx li , Li    min lS , LS  , máx lS , LS 
(0.1)
onde 𝑙𝑖 , 𝑙𝑆 são os limites inferiores e superiores, respectivamente, do intervalo de
confiança de 95% da média e 𝐿𝑖 e 𝐿𝑆 são os limites inferiores e superiores,
respectivamente, do intervalo de projeto do início da construção.
Usando um programa gerador de números aleatórios, é possível gerar
vetores de simulação das anomalias, que são possíveis de monitorar a partir do que
foi apresentado pela análise fatorial. Por exemplo, se três instrumentos estão
relacionados com certa anomalia, basta gerar leituras para esses instrumentos em
seus respectivos intervalos 𝑀𝐶, e para os demais instrumentos gerar leituras dentro
dos intervalos de confiança de 95% da média 𝐼𝐶, fazendo isso, temos a geração de
um vetor que simula essa anomalia.
É importante destacar, que essa geração por mais que seja aleatória deve
seguir o seguinte princípio, se existem 3 instrumentos altamente relacionados com
XXVI Seminário Nacional de Grandes Barragens
10
essa anomalia, então antes é necessário verificar qual é o instrumento com maior
influência no fator, essa informação é revelada pela análise fatorial. Além disso, a
análise fatorial também revela qual é a correlação entre todos os instrumentos
nesse estudo.
Assim, reordenamos os instrumentos, de forma que todos relacionados com a
anomalia fiquem nos primeiros lugares, e, o primeiro instrumento deve ser o que
possui maior influência no fator. Dessa forma, quando for gerado o primeiro número
aleatório para o primeiro instrumento, é verificado em qual dos conjuntos do
intervalo 𝑀𝐶 ele pertence, visto que o intervalo 𝑀𝐶 é formado pela união de dois
conjuntos. Se por exemplo, for gerado um número do intervalo esquerdo do
conjunto 𝑀𝐶, quando for gerado o próximo número aleatório para o próximo
instrumento, deve ser verificado qual é a correlação do segundo instrumento com o
primeiro. Se a correlação for positiva, este número aleatório deve estar do mesmo
lado esquerdo do intervalo 𝑀𝐶 do segundo instrumento, caso contrário, ou seja, se
a correlação for negativa, o número aleatório deve estar do lado direito do intervalo
𝑀𝐶 do segundo instrumento. Seguindo esse princípio para todos os instrumentos,
mesmo aqueles que não têm relação com a anomalia, contudo, neste caso, deve
ser verificado o lado esquerdo e/ou direito do intervalo de confiança da média para
tais instrumentos.
Esse processo tem a finalidade de respeitar o comportamento da estrutura,
onde os instrumentos são altamente correlacionados. Dessa forma, é garantido um
vetor de simulação condizente com a realidade.
O algoritmo de geração do vetor de simulação e obtenção da região crítica
para uma determinada anomalia é descrito como segue.
Considere certa anomalia 𝑖, e suponha que existam 𝑚 instrumentos
correlacionados com a anomalia 𝑖. Considere também que desses 𝑚 instrumentos,
um número 𝑚′ < 𝑚 esteja altamente correlacionado com um fator 𝑗.
Passos
1) Ordene os 𝑚′ instrumentos em ordem decrescente, isto é, de forma que o
instrumento com maior influência no fator esteja em primeiro lugar no vetor de
simulação e sucessivamente;
2) gere um número aleatório para o primeiro instrumento no seu respectivo
intervalo 𝑀𝐶;
3) gere números aleatórios para os instrumentos 2, . . . , 𝑚′, dos seus
respectivos intervalos 𝑀𝐶, verificando suas correlações com o primeiro instrumento;
4) gere os demais números aleatórios para os demais instrumentos, dentro
dos intervalos de 95% de confiança da média, verificando as correlações com o
primeiro instrumento.
5) gerar o vetor de simulação, padronizando todas as entradas, subtraindo as
respectivas médias, e dividindo pelos respectivos desvios padrões de cada
instrumento.
6) Multiplique esse vetor pelo vetor de coeficientes fatoriais do fator 𝑗,
obtendo o valor do escore fatorial correspondente 𝐸𝑖𝑗 .
7) Padronize 𝐸𝑖𝑗 obtendo 𝑧𝑖𝑗 , utilizando a média e o desvio padrão do escore
fatorial 𝑗.
8) Plote 𝑧𝑖𝑗 no eixo 𝑥, abaixo da curva normal padrão.
9) Repita esse processo para um número suficientemente grande de vezes.
Nesse algoritmo, 𝐸𝑖𝑗 representa o valor encontrado do escore fatorial 𝑗
quando simulado a anomalia 𝑖, 𝑧𝑖𝑗 é a transformação desse escore em variável
XXVI Seminário Nacional de Grandes Barragens
11
normal padrão. Como o escore fatorial 𝑗 é uma variável aleatória normal padrão, e o
valor 𝑧𝑖𝑗 foi obtido simulando uma situação anormal, o valor obtido para ele se
distanciará da média 0. Se for realizada essa simulação para um número
suficientemente grande de vezes, então é obtido um número suficientemente grande
de pontos no eixo 𝑥, que normalmente distanciarão da média, formando uma região
em uma ou ambas as caldas da curva de Gauus, assim é utilizado essas regiões
para determinar a região crítica da anomalia 𝑖, monitorada a partir do fator 𝑗.
FIGURA 2: Fluxograma Para Determinação das Regiões Críticas
Para determinar as regiões críticas, são analisados os pontos plotados no
eixo 𝑥. Escolhemos a região onde eles se agrupem, ignorando um número de
pontos fora dela, dependendo do percentual de acerto que se deseja. Se um
percentual de 90% for satisfatório ao simular um número suficientemente grande de
vetores, se podem rejeitar 10% dos pontos que estejam distantes da região onde
eles mais se agrupem, e para essa região, determinar um intervalo, considerando
ele como um intervalo da reta real, mesmo sabendo que esse conjunto possui
pontos discretos de simulações. Porém, em 90% das vezes em que foi simulado
aquela anomalia, os pontos se acumularam nesse intervalo.
A Figura 3 abaixo mostra a simulação de uma certa anomalia, nesse caso os
pontos se concentrar na calda direita da curva de gauss, com a ocorrência de
poucos pontos próximos da média. Nesse caso ignoramos esse pontos próximos da
média e determinamos a região crítica como sendo o intervalo formado por dois
pontos de simulação de tal forma que a região onde os pontos mais se agruparam
pertençam a esse intervalo.
Na Figura 4, o caso foi oposto ao anterior, pois o pontos se concentraram na
calda esquerda da curva de Gauss, e, de forma análoga definisse um intervalo da
XXVI Seminário Nacional de Grandes Barragens
12
reta formada por dois pontos de simulação, de tal forma que a região onde os
pontos se concentraram esteja contida nesse intervalo.
A Figura 5 apresenta o caso onde uma anomalia foi simulada e ouve
concentração dos pontos nas duas caldas da curva de Gauss. Nesse caso
rejeitamos um número pequeno de pontos próximos a média, e assumimos como
região crítica a união dos intervalos que contenham as regiões onde os pontos mais
se concentraram das duas caldas da curva de Gauss.
Assim, dado um vetor com as leituras dos instrumentos instalados no bloco
em estudo, fazemos as transformações necessárias e calculamos os escores
fatoriais que sejam capazes de monitorar as anomalias. Se o valor do escore fatorial
pertencer à respectiva região crítica dessa anomalia, dizemos que existem indícios
estatísticos para acreditar que essa anomalia pode estar ocorrendo.
FIGURA 3: Região Crítica à Direita
FIGURA 4: Região Crítica à Esquerda
FIGURA 5: Região Crítica Bilateral
Se for necessário mais de um fator para simular uma anomalia, utilizamos o
mesmo algoritmo para cada fator, e geramos mais de uma região crítica. Nestes
XXVI Seminário Nacional de Grandes Barragens
13
casos, após dado um vetor de leituras dos instrumentos, é verificado se todos os
valores dos escores fatoriais pertencem a todas as regiões críticas determinadas, se
ocorrer à intersecção desses eventos, então essa anomalia pode estar ocorrendo.
Esse método é capaz de determinar apenas as regiões críticas através dos
escores fatoriais que possuem uma distribuição normal. Mas pode servir como mais
um critério na tomada de decisão, intensificando o monitoramento onde acusar uma
possível anomalia.
6. CONCLUSÃO E TRABALHOS FUTUROS
O procedimento descrito nesse trabalho fornece uma alternativa para
determinação de modos de falha na estrutura de um bloco chave, que pode servir
como uma ferramenta para o monitoramento e auxiliar na tomada de decisão.
A determinação das regiões críticas dos modos de falha, através dos escores
fatoriais, que possuem uma distribuição normal, também auxiliará, nos próximos
trabalhos, na determinação de uma função de desempenho multivariada, o que
permitirá a utilização das técnicas de confiabilidade estrutural, para determinação do
índice de confiabilidade e da probabilidade de falha do bloco.
A quantidade de modos de falha, que são monitoradas através das regiões
críticas, que esse processo pode fornecer dependerá exclusivamente do número de
escores fatoriais que possuem uma distribuição normal e das associações dos
instrumentos instalados com as anomalias.
Um novo estudo será realizado com o objetivo de encontrar transformações
especiais para os escores fatoriais que não possuem uma distribuição normal. Se
for possível encontrar tais transformações, esses escores poderão ser incorporados
no processo para monitorar um número maior de modos de falha, aumentando a
capacidade do monitoramento, e futuramente, incorporado na função de
desempenho multivariada.
A qualidade do monitoramento também depende da qualidade dos dados.
Pretende se desenvolver, em um próximo trabalho, uma nova metodologia para
realizar a etapa de coleta e padronização dos dados, para diminuir os erros de
aproximação e da filtração dos dados. O ideal seria coletar os dados de todos os
instrumentos do bloco em estudo no mesmo dia e na mesma hora, no entanto, é
uma tarefa que exigiria um custo muito elevado, pois dependeria do aumento do
número de leituristas.
Nesse sentido, pretende se efetuar um planejamento estratégico tático
operacional, para otimizar a coleta dos dados, permitindo a coleta nos dias mais
próximos possíveis e de preferência na mesma hora, já que a temperatura é uma
variável que influência praticamente todos os instrumentos.
O planejamento tático a ser formulado permitirá uma coleta mais robusta dos
dados, e, em conjunto com a análise estatística mencionada, um monitoramento
mais eficiente pode ser obtido, o qual poderá ser repetido para os demais blocos
chave.
A obtenção desse planejamento tático também tem o objetivo de comparação
futura com a análise estatística anteriormente realizada. Só assim será possível
quantificar quais foram às perdas de informações adquiridas, como por exemplo, se
todos os instrumentos foram agrupados corretamente, ou se alguns instrumentos
ficaram de fora de algum grupo especifico. Se realmente forem encontradas tais
ocorrências nas análises anteriores, isso poderá ser associado aos erros
acumulados nas coletas e minerações de dados, possibilitando um embasamento
XXVI Seminário Nacional de Grandes Barragens
14
teórico mais eficiente, e que sirva de inspiração para novos métodos de coleta,
armazenamento e filtração de dados para pontos específicos da barragem, quando
uma análise mais detalhada for exigida.
7. AGRADECIMENTO
À ITAIPU por apoiar e incentivar o desenvolvimento da pesquisa na região. Pelo
apoio financeiro na formação sólida dos alunos de doutorado.
Ao Centro de Estudos Avançados em Segurança de Barragens (CEASB) que
sempre esteve a frente de proporcionar linhas de pesquisas aos doutorandos.
Ao Parque Tecnológico de Itaipu (PTI) por proporcionar a formação de um ambiente
favorável para a inovação, a pesquisa e o desenvolvimento científico e tecnológico.
Agradeço também ao professor e co-autor Itamar Pena Nieradkav pelo sua
contribuição na implementação computacional do método.
8. PALAVRAS-CHAVE
Análise Multivariada, Probabilidade de Falha, Análise Fatorial, Modos de Falha.
9. REFERÊNCIAS BIBLIOGRÁFICAS
[1]
ICOLD (2003) - "Critérios de Projeto Civil de Usinas Hidrelétricas", Centrais
Elétricas Brasileiras S.A. - ELETROBRÁS.
[2]
ALBERTO, S. (2009) - "A Segurança das Barragens Brasileiras", Acessado em
3 de novembro de 2014 ás 10 horas, http://ie.org.br/site/noticias/exibe/id_ sess
ao/5/id_noticia/1643/A-seguran%C3%A7a-das-barragens-brasileiras.
[3]
SCALETTA, M.; MESANIA, F.; OSTERLE, J. P. (2012) – "Regulatory
framework for dam safety - comparative assessment", 3-f (25- 27). Presented
at Hydrovision Brazil, Rio de Janeiro: Paul C. Rizzo Associates, Inc.
[4]
Brasil. Lei n°12.334, de 20 de setembro de 2010.
[5]
Brasil. Resolução n°144 de 10 de julho de 2012.
[6]
GUSMÃO FILHO, J. (2006) – "Desempenho de Obras Geotécnicas", 264 f (01528) Recife, Editora Universitária da UFPE.
[7]
David, S. Bowles, Francisco L. Giuliani. (2002) - "Dam Safety Management:
Operational Phase of the Dam Life Cycle", 170-f. Committee on Dam Safety
International Commission on Large Dams (ICOLD).
[8]
VILLWOCK, R (2009) - "Tecnicas de Agrupamento e a Hierarquização no
contexto KDD Aplicação a dados Temporais de Instrumentação Geotecnica-
XXVI Seminário Nacional de Grandes Barragens
15
Estrutural da Usina Hidreletrica de Itaipu", 125-f (01 - 125). Doutorado em
Métodos Numéricos em Engenharia. Universidade Federal do Paraná.Curitiba.
[9]
KRüGER, C. M (2008) - "Análise de Confiabilidade Estrutural Aplicada às
Barragens de Concreto", 157-f (01-157). Doutorado em Numéricos em
Engenharia. Universidade Federal do Paraná. Curitiba.
[10] MATOS, S. F (2002) - "Avaliação de Instrumentos para Auscultação de
Barragem de Concreto", 106-f (01-106). Metrado em Construção Civil.
Universidade Federal do Paraná. Curitiba.
[11] FREAD, D. L. (1988) - "Thechnique for Implicit Dynamic Routing in Rivers with
Tributaries", 8f (918-926), Water Research Resources, V 9, N° 4.
[12] ITAIPU (2003) - "Usina Hidrelétrica de Itaipu - Aspectos Teóricos de
Engenharia", 784-f (01-784). Foz do Iguaçu: TAB Marketing Editorial.
[13] Comitê Brasileiro de Grandes Barragens – CBDB (1996) – "Auscultação e
Instrumentação de Barragens no Brasil" – II Simpósio Sobre Instrumentação
de Barragens. Belo Horizonte, MG, de 19 a 21/08/96. Vol. I.
[14] ITAIPU (1991) - "Proposta para Reavaliação da Frequência de Leituras da
Instrumentação". 21-f (01-21). Relatório N° 4006.50.0020.P. IECO-ILC.
[15] MATA, J. TAVARES, A. SÁ DA COSTA, J. (2013) - "Time–frequency analysis
for concrete dam safety control: Correlation between the daily variation of
structural response and air temperature", 7-f (658 - 665). Engineering
Structures. V. 48.
[16] DE SORTIS A, A. PAOLIANI, P. (2007) - "Statistical Analysis and Structural
Identification in Concrete Dam Monitoring", 10-f (110 - 120). Engineering
Structures. V. 29.
[17] BRETAS EDUARDO, M. LEMOS JOSÉ, V. LOURENÇO PAULO, B (2014) "A DEM based tool for the safety analysis of masonry gravity dams", 12-f (248 260). Engineering Structures. V. 59.
[18] ARDITO, R. MAIER, G. MASSALONGO, G (2008) - "Diagnostic Analysis of
Concrete Dams Based on Seasonal Hydrostatic Loading", 9-f (3176 - 3185).
Engineering Structures. V. 30.
[19] FAYYAD, U. M. PIATETSKY-SHAPIRO, G. SMYTH, P. UTHRUSAMY, R.
(1996) - "Advances in knowledge Discovery & Data Mining". California:
AAAI/MIT.
[20] OHANA, J (2012) - "Experimentos de Mineração de Dados Aplicados a
Sistemas Scada de Usinas Hidrelétricas", 95-f (1 - 92). Doutorado em
Engenharia Elétrica. Universidade Federal do Pará - Belém.
XXVI Seminário Nacional de Grandes Barragens
16
[21] JOHNSON, R. A. WICHERN, D.W. (1998) - "Applied Multivariate Statistical
Analysis". Fourth Edition. New Jersey: Prentice Hall.
[22] AAKER, D. A (2012) - "Administração Estratégica de Mercado". Porto Alegre.
Bookman.
[23] MALHOTRA, N. K (2001) - "Pesquisa de Marketing: uma orientação aplicada".
Porto Alegre. Bookman.
[24] CORRAR, L. J. PAULO, E. FILHO, J. M. (2009) - "Análise Multivariada para os
Cursos de Administração, Ciências Contábeis e Economia", 539-f (73-129).
São Paulo: Atlas.
[25] BIASE, A. G.; FERREIRA, D. F (2012) - "Teste Computacionalmente Intensivo
Baseado na Distância de Mahalanobis para Normalidade Multivariada". 22-f (1
- 22). Bras. Biom, Universidade Federal de Lavras, V. 30, N° 1.
[26] KAISER, H. F. RICE, J (1974) - "Educational and Psychological Measurement".
16-f (111 - 117). J. Little Jiffy, V. 34.
[27] LILLIEFORS, H. W (1967) - "On the Kolmogorov-smirnov Test for Normality
with Mean and Variance Unknown". 3-f (399 - 402). Journal of the American
Statistical Association, V. 62. N°318.
[28] MOSES, F (1982) - "System Realiability Developmentes in Structural
Engineering". 10-f (3 - 13). Struct Safety. V. N°1.
[29] RANGANATHAN, R (1987) - "Generation of Dominant Modes and Reliability
Analysis of Frames". 11-f (217 - 228). Structural Safety. V. 4, N° 3.
[30] SILVEIRA, JOÃO FRANCISCO ALVES (2006) – "Instrumentação e Segurança
de Barragens de Terra e Enrocamento”. 208-f (001-416). Editora Oficina de
Textos, São Paulo.
[31] FABER, M. H. (2006) - "Risk in Safety Civil, Surveying and Environmental
Engineering”, 11-f (171–182). Risk in Safety.
XXVI Seminário Nacional de Grandes Barragens
17
Download