Análise de Disponibilidade Utilizando Abordagem Nebulosa

Propaganda
UNIVERSIDADE FEDERAL DE MINAS GERAIS
Escola de Engenharia
Programa de Pós-Graduação em Engenharia Elétrica
Análise de Disponibilidade Utilizando
Abordagem Nebulosa
Alessandra Lopes Carvalho
Tese
pelo
de Doutorado submetida à Banca Examinadora designada
Programa
de
Pós-Graduação em Engenharia Elétrica da
Escola de Engenharia da Universidade Federal de
Minas Gerais,
como requisito para obtenção do Título de Doutor em Engenharia
Elétrica
Orientador: Benjamim Rodrigues de Menezes
Co-Orientador: Walmir Matos Caminhas
Belo Horizonte
Julho de 2008
2
RESUMO
O objetivo principal deste trabalho é contribuir na análise de disponibilidade de
sistemas reparáveis utilizando abordagem nebulosa. A principal justificativa para
utilização da abordagem nebulosa em análise RAM (Reliability, Availability and
Maintainability) é a inexistência de bancos de dados consistentes contendo
informações sobre datas de ocorrências de falhas e tempos de reparo. Embora
grande parte das indústrias não possua um banco de dados adequado à análise de
falhas convencional, existem especialistas que detêm o conhecimento acerca da
operação de seus processos. A abordagem nebulosa é útil para modelar o
conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta
forma, o processo de tomada de decisão no planejamento das atividades de
manutenção. Os resultados obtidos pelo método proposto são validados através de
comparações com o método convencional utilizando-se como exemplo um sistema
de laminação.
Palavras Chave: disponibilidade,
nebulosos, sistemas reparáveis.
mantenabilidade,
-i-
confiabilidade,
sistemas
3
ABSTRACT
This work focuses on an alternative approach, using the fuzzy set theory for
availability evaluation of repairable systems. The main reason to use fuzzy approach
in RAM analysis (Reliability, Availability and Maintainability) is the lack of consistent
data bases that relate dates of failure occurrences with repair time. Although many
industrial data base are not adequate for the conventional RAM analysis of a
particular plant, there are specialists who withhold the knowledge concerning the
operation of its processes. Fuzzy set theory is useful for modeling human knowledge
that is held in tacit form by the specialists, assisting the process of decision making
and planning of maintenance activities. The results of the approach developed are
compared against the conventional RAM analysis using a rolling mill system.
Key-words: availability, maintainability, reliability, fuzzy systems, repairable systems.
- II -
4
LISTA DE SIGLAS
pdf (probability density function) - função densidade de probabilidade
cdf (cumulative distribution function) - função distribuição acumulada
FMEA (Failure Mode and Effect Analysis ) - análise de modos e efeitos de falhas
FTA (Faut Tree Analysis) - árvore de falhas
HPP ( homogeneous Poisson process) - processo de Poisson homogêneo
MTBF (mean time between failure) - tempo médio entre falhas
MTTF (mean time to failure) - tempo médio para falha
MTTR (mean time to repair) - tempo médio para o reparo
NHPP (non homogeneous Poisson process) processo de Poisson não homogêneo
POSBIST (POSsibility Assumption and BInary-STate)
POSFUST (POSsibility Assumption and FUzzy-STate)
PROBIST (PRObability Assumption and BInary-STate)
PROFUST (PRObability Assumption and FUzzy-STate)
RAM (Reliability, Availability and Maintainability)
RBD (reliability block diagram) - diagrama em blocos de confiabilidade
RCM (reliability centered maintenance) - manutenção centrada em confiabilidade
TTF ( time to failure) – tempo até a falha
TBF (time between failure) - tempo entre falhas
TTR ( time to repair) - tempo para o reparo
- iii –
5
LISTA DE SÍMBOLOS
A(t)
disponibilidade instantânea
Ao
disponibilidade operacional
AN
disponibilidade nebulosa
Ad
disponibilidade desejada
ANi
disponibilidade nebulosa inicial
ANA
disponibilidade nebulosa adaptativa
β
parâmetro de forma da distribuição Weibull
E(T)
valor esperado da variável aleatória T
fT(t)
função densidade de probabilidade
f(t)
função densidade de probabilidade de falhas
FT(t)
função densidade de probabilidade acumulada
F(t)
função densidade de probabilidade acumulada de falhas
γ
parâmetro de vida mínima da distribuição Weibull
g(t)
função densidade de probabilidade de reparo
G(t)
função mantenabilidade
η
parâmetro de vida característica da distribuição Weibull
h(t)
função taxa de falhas
i(t)
função intensidade de falhas
λ
taxa de falhas
λs
taxa de falhas sistema série
λp
taxa de falhas sistema paralelo
L
função verossimilhança
µ
média (parâmetro da distribuição lognormal)
µr
taxa de reparo
µTR
média dos tempos de reparo (banco de dados)
QF
quantidade de falhas
R(t)
função confiabilidade
σ
desvio padrão (parâmetro da distribuição lognormal)
τ DC
tempo para detectar a falha
τ DE
tempo para desmontar o equipamento
- iv -
6
τ DF
tempo para disponibilizar ferramentas
τ EF
tempo entre falhas médio nebuloso
τ l ; τ lA
tempo logístico; tempo logístico adaptativo
τ m ; τ mA
tempo efetivo de manutenção; tempo efetivo de manutenção adaptativo
τ MO
tempo para montar o equipamento
τ MP
tempo para mobilizar pessoas
τp
taxa de reparo sistema paralelo
τ R ; τRA
tempo de reparo médio nebuloso; tempo de reparo médio adaptativo
τRd
tempo de reparo médio desejado
τ RE
tempo para reparar o equipamento
τRi
tempo de reparo médio inicial
τ RM
tempo de reparo médio nebuloso calculado por Mamdani
τ RS
tempo para repor sobressalentes
τ RSU
tempo de reparo médio nebuloso calculado por Sugeno
τs
taxa de reparo sistema série
τT
tempo total de observação considerado
τ TE
tempo para testar a efetividade do reparo
T
variável aleatória
U(t)
indisponibilidade instantânea
xm
matriz de entrada genérica do sistema nebuloso tempo de manutenção
xl
matriz de entrada genérica do sistema nebuloso tempo logístico
xd
matriz de entrada genérica do sistema nebuloso disponibilidade
xCX
entrada complexidade do modo de falha
xLO
entrada localização do modo de falha dentro do equipamento
xDF
entrada dimensão física do sobressalente
xCS
entrada custo do sobressalente
xFO
entrada freqüência de ocorrência de falhas
X(t)
estado de um sistema genérico
Y
matriz transição de estados
-v–
7
SUMÁRIO
1 INTRODUÇÃO ........................................................................................................ 01
1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01
1.2 Objetivos e Justificativas .................................................................................. 02
1.3 Organização do trabalho ................................................................................... 05
2 ANÁLISE CONVENCIONAL DE FALHAS.............................................................. 06
2.1 Definições Preliminares...................................................................................... 06
2.2 Função Confiabilidade........................................................................................ 08
2.3 Função Mantenabilidade e Conceito de Manutenção...................................... 13
2.4 Função Disponibilidade...................................................................................
14
2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes............. 17
2.5.1 Modelos não Paramétricos.............................................................................. 18
2.5.2 Modelos Paramétricos..................................................................................... 18
2.5.3 Estimação de Parâmetros................................................................................ 26
2.5.4 Validação de Modelos...................................................................................... 27
3 MODELAGEM DE SISTEMAS ............................................................................... 29
3.1 Modelagem de Sistemas não Reparáveis......................................................... 29
3.1.1 Análise de Modos e Efeitos de Falhas........................................................... 30
3.1.2 Análise por Árvore de Falhas ........................................................................ 22
3.1.3 Diagrama de Blocos de Confiabilidade ........................................................ 23
3.1.4 Simulação de Monte Carlo............................................................................... 37
3.2 Modelagem de Sistemas Reparáveis................................................................. 37
3.2.1 Abordagem por componentes........................................................................ 38
3.2.2 Abordagem por sistemas................................................................................ 44
4 ANÁLISE NEBULOSA DE FALHAS....................................................................... 46
4.1 Análise de Falhas Considerando Inexistência de dados................................. 46
4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ........ 48
- VI -
8
4.3 Modelo Nebuloso para Análise de Falhas......................................................... 52
4.4 Modelo Nebuloso Adaptativo para Análise de Falhas..................................... 54
5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS....... 58
5.1 Descrição do Processo Produtivo..................................................................... 58
5.2 Implementação dos Modelos Nebulosos Propostos....................................... 60
5.2.1 Cálculo do Tempo de Reparo Nebuloso........................................................ 63
5.2.2 Cálculo de Disponibilidade Nebulosa ........................................................... 70
5.2.3 Cálculo do Tempo entre Falhas Nebuloso .................................................... 72
5.3 Resultados Obtidos através da Análise Nebulosa de Falhas........................ 73
5.4 Cálculo Convencional e Validação de Resultados........................................... 76
6 CONCLUSÕES........................................................................................................ 83
6.1 Contribuições e Relevância do Trabalho.......................................................... 83
6.2 Sugestões para Trabalhos Futuros................................................................... 85
REFERÊNCIAS BIBLIOGRÁFICAS........................................................................... 86
APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA.................... 94
APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO........................ 102
APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO................................ 106
ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO..................................... 109
- VII -
1
1
SUMÁRIO
1 INTRODUÇÃO ........................................................................................................ 01
1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01
1.2 Objetivos e Justificativas .................................................................................. 02
1.3 Organização do trabalho ................................................................................... 05
2 ANÁLISE CONVENCIONAL DE FALHAS.............................................................. 06
2.1 Definições Preliminares...................................................................................... 06
2.2 Função Confiabilidade........................................................................................ 08
2.3 Função Mantenabilidade e Conceito de Manutenção...................................... 13
2.4 Função Disponibilidade...................................................................................
14
2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes............. 17
2.5.1 Modelos não Paramétricos.............................................................................. 18
2.5.2 Modelos Paramétricos..................................................................................... 18
2.5.3 Estimação de Parâmetros................................................................................ 26
2.5.4 Validação de Modelos...................................................................................... 27
3 MODELAGEM DE SISTEMAS ............................................................................... 29
3.1 Modelagem de Sistemas não Reparáveis......................................................... 29
3.1.1 Análise de Modos e Efeitos de Falhas........................................................... 30
3.1.2 Análise por Árvore de Falhas ........................................................................ 22
3.1.3 Diagrama de Blocos de Confiabilidade ........................................................ 23
3.1.4 Simulação de Monte Carlo............................................................................... 37
3.2 Modelagem de Sistemas Reparáveis................................................................. 37
3.2.1 Abordagem por componentes........................................................................ 38
3.2.2 Abordagem por sistemas................................................................................ 44
4 ANÁLISE NEBULOSA DE FALHAS....................................................................... 46
4.1 Análise de Falhas Considerando Inexistência de dados................................. 46
4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ........ 48
- VI -
2
4.3 Modelo Nebuloso para Análise de Falhas......................................................... 52
4.4 Modelo Nebuloso Adaptativo para Análise de Falhas..................................... 54
5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS....... 58
5.1 Descrição do Processo Produtivo..................................................................... 58
5.2 Implementação dos Modelos Nebulosos Propostos....................................... 60
5.2.1 Cálculo do Tempo de Reparo Nebuloso........................................................ 63
5.2.2 Cálculo de Disponibilidade Nebulosa ........................................................... 70
5.2.3 Cálculo do Tempo entre Falhas Nebuloso .................................................... 72
5.3 Resultados Obtidos através da Análise Nebulosa de Falhas........................ 73
5.4 Cálculo Convencional e Validação de Resultados........................................... 76
6 CONCLUSÕES........................................................................................................ 83
6.1 Contribuições e Relevância do Trabalho.......................................................... 83
6.2 Sugestões para Trabalhos Futuros................................................................... 85
REFERÊNCIAS BIBLIOGRÁFICAS........................................................................... 86
APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA.................... 94
APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO........................ 102
APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO................................ 106
ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO..................................... 109
- VII -
1
1
1 INTRODUÇÃO
1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais
A importância da análise de falhas tem aumentado nas últimas décadas
devido à complexidade crescente dos sistemas e as severas implicações
decorrentes de eventuais falhas.
A história da confiabilidade remonta a meados de 1930 quando os conceitos
da teoria da probabilidade foram aplicados a problemas relacionados à geração de
energia elétrica. O conceito de confiabilidade surgiu na indústria aeronáutica após a
Primeira Guerra mundial. Nesta época iniciaram-se os estudos sobre causas e
efeitos de falhas bem como a utilização de redundâncias em virtude do aumento dos
transportes aéreos. Durante a Segunda Guerra os alemães aplicaram os conceitos
básicos de confiabilidade para melhorar o desempenho de seus foguetes (DHILLON,
1999) e muitos outros avanços ocorreram nesta época devido ao aumento do
tamanho e da diversidade dos sistemas.
Em 1950 o Departamento de Defesa dos Estados Unidos estabeleceu um
comitê para estudo de confiabilidade que em 1952 foi transformado em uma
subdivisão permanente. Em 1954 foi organizado o primeiro Simpósio Nacional sobre
Confiabilidade e Controle de Qualidade e no ano seguinte o Instituto de Engenheiros
Eletricistas e Eletrônicos (Institute of Electrical and Electronic Engineers-IEEE)
fundou a Sociedade de Confiabilidade e Controle de Qualidade (DHILLON, 1999).
Todo o arcabouço relacionado à teoria de Controle de Qualidade estabelece
procedimentos através dos quais um determinado produto é confrontado com uma
especificação ou um conjunto de atributos a serem alcançados. Assim, a verificação
da qualidade é feita no momento da avaliação. Por outro lado, a confiabilidade é
centrada no estudo de falhas no decorrer do tempo. Portanto, a confiabilidade pode
ser interpretada como o estudo da qualidade ao longo do tempo sendo esta a
principal diferença entre as duas abordagens (O’CONNOR, 2002).
2
É intuitivo perceber a relação entre confiabilidade e custo. Normalmente a
confiabilidade de um sistema cresce de maneira proporcional aos recursos
financeiros investidos para este propósito. Este custo pode estar relacionado à
utilização de matéria prima de melhor qualidade, acréscimo de algum tipo de
redundância ou mesmo à introdução de políticas de manutenção mais adequadas.
A necessidade por sistemas mais confiáveis está inserida em um contexto de
interesses conflitantes que envolvem a minimização de gastos e maximização de
lucros. Existe, portanto, um delicado ponto de equilíbrio a ser alcançado uma vez
que baixa confiabilidade pode acarretar perda de vidas humanas
e prejuízos
materiais.
Desde a criação do conceito de confiabilidade, ocorreu ao longo dos anos o
desmembramento em vários ramos de aplicação como confiabilidade de
equipamentos mecânicos, confiabilidade de software, confiabilidade humana,
otimização da confiabilidade, crescimento da função confiabilidade (reliability
growth), entre muitos outros. O trabalhos de Vouk (2005), Fragola(2005) e Mettas
(2000) apresentam amplas revisões bibliográficas sobre confiabilidade de software,
confiabilidade humana
e otimização respectivamente. Quanto ao estudo de
sistemas reparáveis, pode ser citado o livro de Ascher e Feingold (1984).
Especificamente com relação ao crescimento da função confiabilidade os trabalhos
de Larry Crow (CROW, 1990; CROW, 2005 a; CROW, 2005 b) são referências
importantes.
1.2 Objetivos e Justificativas
A análise de Confiabilidade, Disponibilidade e Mantenabilidade (RAM Reliability, Availability and Maintainability) convencional é baseada na abordagem
probabilística e pressupõe a existência de uma grande quantidade de dados. Existe,
portanto, uma forte correlação entre a precisão de uma estimativa probabilística e o
tamanho da amostra onde os dados foram obtidos.
O principio da intratabilidade de Zadeh (1973) estabelece que à medida que a
complexidade de um sistema aumenta, a capacidade de se realizar inferências
precisas e significativas sobre seu comportamento diminui até que seja atingido um
3
limite a partir do qual relevância e precisão sejam atributos mutuamente exclusivos.
Este princípio traduz a constatação de que em sistemas complexos não é fácil obter
ao mesmo tempo precisão e relevância em patamares aceitáveis. Esta afirmativa
aplica-se claramente à análise de confiabilidade. Considerando-se que os sistemas
em geral tornam-se cada vez mais complexos, os fatores de precisão são
determinantes na metodologia de aquisição de dados capazes de representar sua
operação de forma abrangente.
Em uma avaliação convencional de confiabilidade os valores coletados dos
sistemas, componentes, etc. são tratados como valores precisos. A análise clássica
de confiabilidade normalmente não aborda a suscetibilidade a eventos externos ou
ao erro humano em operação e manutenção. Sendo desejável considerar a
contribuição relativa da incerteza para o risco total, mesmo os modelos mais
sofisticados, precisos e bem construídos podem fornecer resultados incorretos se
esta incerteza não é tratada de alguma forma (BOWLES; PELÁEZ, 1995)
Nachtmann e Chimka (2003) definem a incerteza como uma condição onde a
possibilidade de erro existe devido à falta de informação a respeito de um
determinado ambiente.
A incerteza pode manifestar-se como resultado da
aleatoriedade ou como resultado da imprecisão.
A incerteza devido à imprecisão tem origem na própria natureza do
pensamento, raciocínio, cognição e percepção humanos. A incerteza devido à
aleatoriedade é conseqüência da dependência de um grande número de fatores que
podem ser classificados em inerentes, ambientais ou operacionais. Podem ser
citados como exemplos de fatores de imprecisão a composição da matéria prima,
tolerâncias dimensionais ou fatores aos quais o sistema é vulnerável como
temperatura, unidade, vibração entre outras condições estressantes.
A incerteza com relação aos dados pode ocorrer em qualquer fase do ciclo de
vida de um componente ou sistema. Nas fases iniciais de desenvolvimento ocorre
escassez de dados considerando-se que em um novo projeto a probabilidade de
falha usualmente é desconhecida. Nestes casos são utilizadas estimativas baseadas
no julgamento de engenharia ou na experiência adquirida ao longo do tempo. No
caso de um componente ou sistema que já se encontra em funcionamento, pode
ocorrer a incerteza devido ao fato que as falhas são eventos relativamente raros
(tipicamente poucas falhas por milhões de horas de operação). Outro aspecto a ser
considerado é que uma coleta de dados que forneça subsídios suficientes a uma
4
análise de confiabilidade consistente é uma tarefa árdua e demorada.
Podem
acontecer ainda problemas devido à falta de uma documentação clara e precisa na
qual conste data, local, origem e causa da falha (BOWLES; PELÁEZ, 1995).
Devido à todos os fatores expostos considera-se que os tempo até a falha e
os tempos de reparo de um sistema possam ser interpretados de uma maneira
ampla como função de fatores inerentes, ambientais e operacionais. Assim, é
razoável supor que a abordagem probabilística possa ser insuficiente para modelar a
confiabilidade e mantenabilidade de sistemas complexos onde exista falta de dados
devido à imprecisão ou incertezas de naturezas diversas.
Numerosas ferramentas estatísticas têm sido desenvolvidas para auxiliar a
análise de confiabilidade de sistemas. Entretanto, as metodologias existentes
dependem de dados e parâmetros que, em muitas situações, são ora suficientes
mas imprecisos, ora insuficientes ou em muitos casos inexistentes. Como
conseqüência, a escassez e ou a imprecisão de dados pode originar análises e
informações errôneas, mesmo sendo obtidas a partir de metodologias corretas
(BOWLES; PELÁEZ, 1995, UTKIN; GUROV, 1995). Este fato motivou a criação de
técnicas alternativas baseadas em inteligência computacional
para a análise de
falhas em geral.
O cálculo de confiabilidade baseado em técnicas de inteligência computacional
(LEVITIN, 2006) pode abranger o uso de sistemas nebulosos, redes neurais,
algoritmos genéticos ou técnicas híbridas. Aplicações de confiabilidade nebulosa
(fuzzy) têm sido desenvolvidas por diversos autores como, por exemplo, Cai (1991);
Nachtmann e Chimka (2003); Guimarães e Lapa (2004).
O objetivo principal deste trabalho é contribuir na análise de disponibilidade de
sistemas reparáveis utilizando uma abordagem nebulosa e tendo como base a
experiência de especialistas em operação destes sistemas. A principal justificativa
para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and
Maintainability) é a inexistência de bancos de dados consistentes contendo
informações sobre datas de ocorrências de falhas e tempos de reparo. Embora
grande parte das indústrias não possua um banco de dados adequado à análise
RAM convencional, existem especialistas que detêm o conhecimento acerca da
operação de seus processos. A abordagem nebulosa pode ser útil para modelar o
conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta
5
forma, o processo de tomada de decisão no planejamento das atividades de
manutenção.
1.3 Organização do trabalho
Este texto está organizado em seis capítulos. Considerando-se a característica
multidisciplinar do trabalho, os capítulos de 2 e 3 referem-se a conceitos
elementares. Estes capítulos têm a função de facilitar a compreensão dos capítulos
subseqüentes e estabelecer a padronização da notação a ser utilizada. O capítulo 2
descreve conceitos básicos e aborda os métodos estatísticos utilizados para
quantificar a disponibilidade, confiabilidade e mantenabilidade de componentes. O
capítulo 3 descreve as técnicas mais utilizadas para cálculo da confiabilidade de
sistemas reparáveis e não reparáveis. O capítulo 4 apresenta as principais
metodologias encontradas na literatura para análise de falhas a partir da abordagem
nebulosa e detalha o modelo proposto.
A descrição do processo utilizado como exemplo de aplicação do modelo
proposto e todos os resultados obtidos são detalhados no capítulo 5. Neste capítulo
é apresentado ainda o cálculo convencional para fins de validação do trabalho.
Finalmente, no capítulo 6 são apresentadas as conclusões e propostas de
continuidade.
6
2 ANÁLISE CONVENCIONAL DE FALHAS
2.1 Definições Preliminares
A análise convencional de falhas de sistemas reparáveis estabelece o estudo
de duas variáveis aleatórias de interesse: tempo entre falhas (TBF) e o tempo de
reparo (TR). Será considerado neste trabalho que após a ocorrência de uma falha
será realizado um reparo imediatamente. Será considerado ainda que o reparo é
capaz de levar o item falho (componente ou sistema) novamente a sua condição
original. A literatura refere-se a este conjunto de considerações através do termo
“tão bom quanto novo” (as-good-as-new). Como conseqüência, a distribuição da
variável aleatória tempo até a falha (TTF) será considerada igual a distribuição da
variável aleatória tempo entre falhas (TBF).
Objetiva-se apresentar genericamente os conceitos de variável aleatória e
distribuição de probabilidade. Posteriormente estes conceitos serão utilizados para
definir as funções confiabilidade e mantenabilidade a partir das variáveis aleatórias
tempo entre falhas e tempo de reparo, respectivamente.
Seja um espaço amostral S. Uma variável aleatória T é uma função que
associa um número real a cada resultado de um experimento aleatório
(MONTGOMERY; RUNGER, 2003).
A função distribuição acumulada fda ( cumulative distribution function -cdf), de
uma variável aleatória qualquer T, é definida como a probabilidade do evento (T ≤ t )
(LEON GARCIA, 1994). Este conceito é expresso através de (2.1) e representa a
probabilidade da variável aleatória T assumir valores no intervalo (-∞ , t].
FT (t ) = P(T ≤ t )
Onde: t é a variável tempo;
(2.1)
7
T é a variável aleatória;
FT(t) é a função distribuição acumulada da variável aleatória T.
A probabilidade que a variável aleatória T pertença ao intervalo limitado por t
e t+ ∆t quando ∆t torna-se infinitamente pequeno (∆t→0 ) é representada por (2.2)
(LEWIS, 1987).
fT (t )∆t = P(t ≤ T ≤ t + ∆t )
(2.2 )
Onde fT(t) : função densidade de probabilidade.
O termo fT(t) em (2.3) é a função densidade de probabilidade fdp( probability
density function- pdf) da variável aleatória T. Este conceito é apresentado em (2.3),
sendo definido como a derivada da função distribuição acumulada ou cdf.
Obviamente, a função distribuição acumulada F(t) pode ser apresentada como em
(2.4).
fT (t ) =
dFT (t )
dt
t
FT (t ) =
∫f
T
(t ) dt
(2.3)
(2.4)
−∞
Considerando-se a função densidade de probabilidade continua representada
na figura 2.1, a área sob a curva tem valor unitário pois descreve a probabilidade de
todos os valores da variável T (O’ CONNOR, 2002; PEEBLES, 1993). Este conceito
pode ser descrito através de (2.5).
8
Figura 2.1: Função densidade de probabilidade contínua
+∞
FT (t ) = P(−∞ < T < + ∞) =
∫f
T
(t )dt =1
(2.5 )
−∞
De maneira análoga, a probabilidade de um valor ocorrer entre t1 e t2 é dada
por (2.6).
t2
P (t1 ≤ T ≤ t2 ) =
∫
f (t ) dt
(2.6 )
t1
A média ou valor esperado da variável aleatória T, modelada através da
função densidade de probabilidade continua fT(t), é dada por (2.7).
+∞
E (T ) = ∫ t f (t ) dt
(2.7 )
−∞
Para fins de simplificação a função fT(t) será representada como f(t) em todo o
texto subseqüente. Idem para as demais funções onde o sub-índice que representa
a variável aleatória T será omitido.
2.2 Função Confiabilidade
A confiabilidade de um componente, equipamento ou sistema pode ser
definida como a probabilidade de funcionamento isento de falhas durante um
9
período de tempo pré-determinado, sob condições de operação estabelecidas.
Define-se como falha o término da capacidade de um item desempenhar uma função
requerida.
A teoria clássica de confiabilidade considera a condição de operação de um
sistema como um experimento aleatório, no qual podem ser identificados
qualitativamente dois estados: “falha” ou “operação normal”. Estes estados podem
ser expressos numericamente utilizando-se o conceito de variável aleatória.
Seja um item qualquer em operação em um instante de tempo
especificado
(t = 0). Se este item for observado até que falhe, a duração do tempo até falhar T,
pode ser considerada uma variável aleatória contínua com alguma função densidade
de probabilidade. O valor de T não pode ser previsto a partir de um modelo
determinístico. Isto implica que componentes idênticos sujeitos aos mesmos
esforços falharão em instantes diferentes (MEYER,1983).
Analisando-se a definição de confiabilidade percebe-se claramente sua
dependência em relação ao tempo. Portanto, pode-se criar uma variável aleatória
“tempo até a falha” – T para quantificar a probabilidade de ocorrência de uma falha
(2.8).
F (t ) = P(T ≤ t )
(2.8)
Onde: F(t) é a função distribuição acumulada de falhas.
Considerando que um item que não falhou para um tempo T≤ t possa falhar
em um tempo T>t, pode-se definir o conceito de confiabilidade utilizando-se a
expressão (2.9) (LEWIS, 1987).
t
R (t ) = P (T > t ) = 1 − F (t ) = 1 − ∫ f (t )dt
0
Onde: T é a variável aleatória tempo até a falha (TTF);
R(t) é a função confiabilidade;
f(t) é a função densidade de probabilidade de falhas;
F(t) é a função distribuição acumulada de falhas.
(2.9 )
10
(2.10)
t
R (t ) = 1 − ∫ f (t )dt
0
Onde: f(t) é a função densidade de probabilidade de falhas;
A expressão (2.10) pode ser reescrita como em (2.11) que fornece a pdf do
tempo até a falha em termos da função confiabilidade R(t).
f (t ) = −
(2.11 )
dR (t )
dt
O parâmetro MTTF (mean time to failure) é definido como o valor esperado da
variável aleatória T:
(2.12)
+∞
MTTF = E [T ] = ∫ t f (t ) dt
0
O MTTF pode ser escrito diretamente em termos da função confiabilidade (LEWIS,
1987). Sustituindo-se (2.11) em (2.12) e integrando-se por partes obtem-se (2.13).
+∞
MTTF = − ∫ t
0
∞
dR (t )
dt = −tR (t )| +
0
dt
+∞
∫ R(t )dt
(2.13)
0
Considerando-se que lim t R(t ) = 0 , então:
t →∞
+∞
MTTF =
∫ R(t )dt
(2.14)
0
Cabe ressaltar que uma análise de confiabilidade deve ser realizada a partir
do maior número possível de informações e que somente o valor do MTTF (ou
MTBF) não é suficiente para traduzir o comportamento de falhas de um determinado
item.
A velocidade de ocorrência de falhas pode ser expressa através do parâmetro
taxa de falhas sendo a análise de falhas um processo interativo cujo sucesso
depende de se determinar relações implícitas entre causa e efeito. A taxa de falhas
instantânea h(t) pode ser definida em termos da confibilidade R(t) e da função
11
densidade de probabilidade f(t), como expresso em (2.15). Maiores detalhes podem
ser obtidos em Lewis (1987)
h(t ) =
f (t )
R(t )
(2.15)
As falhas podem ser classificadas em relação ao tempo de acordo com o
mecanismo que as originaram. O comportamento da taxa de falhas pode ser
representado graficamente através da curva conhecida como curva da banheira
(figura 2.2) e que apresenta três fases distintas: falhas prematuras, vida útil e
velhice. A região de falhas prematuras (ou mortalidade infantil) é caracterizada por
taxa de falhas alta e rapidamente decrescente com o tempo. A região de vida útil
apresenta taxa de falha aproximadamente constante e a região de velhice é
caracterizada por taxas de falha crescente (LEWIS, 1987; FILHO,1997; FREITAS;
COLOSIMO, 1997).
Figura 2.2: Curva da banheira
Fonte: MOUBRAY, 1999
Cabe ressaltar que existem classes particulares de sistemas nos quais podem
prevalecer uma das três fases descritas. Por exemplo, no estudo do comportamento
da taxa de falhas de softwares, não existe o período de envelhecimento
prevalecendo a fase de falhas prematuras (LEWIS, 1987). Neste caso, não se deve
confundir o término da vida útil, em termos de confiabilidade, com a obsolescência
do ponto mercadológico (LAFRAIA, 2001).
12
Embora a curva da banheira ainda seja muito utilizada, ela foi considerada
um padrão de representação somente até o início da década de 70 (LUCATELLI,
2002). Posteriormente, devido à própria evolução dos equipamentos, verificou-se a
existência de outros tipos de comportamento conforme ilustra a figura 2.3
(MOUBRAY, 1999).
Figura 2.3: Padrões de falha
Fonte: MOUBRAY, 1999
O padrão de falha A representado na figura 2.3 é conhecido como curva da
banheira conforme figura 2.2. O padrão B apresenta uma taxa de falhas
aproximadamente constante, ou com um aumento lento, seguido por um período de
desgaste. O padrão C mostra uma taxa de falhas com crescimento lento sem
apresentar desgaste ao final da vida útil. O padrão D apresenta baixa taxa de falhas
no início da vida seguido por um patamar constante (MOUBRAY, 1999).
O padrão de falha E é representativo para computadores e outros tipos de
hardware formados essencialmente por componentes eletrônicos (LEWIS, 1987).
Observa-se que este tipo de componente normalmente apresenta falhas aleatórias.
O padrão F começa com uma alta taxa de falhas no periodo de falhas prematuras
(mortalidade infantil) que tende a estabilizar-se rapidamente em torno de um valor
aproximadamente constante.
13
Estudos realizados na aviação civil demonstram que 68% das falhas
obedecem ao padrão F e 14% ao padrão E. Os outros padrões apresentam índices
muito menores. Não é possível afirmar que estes mesmos percentuais se repitam na
indústria porém sabe-se que, quanto maior a complexidade do equipamento em
estudo, maiores as chances de predominância dos padrões E e F (MOUBRAY,
1999; LAFRAIA, 2001; LUCATELLI, 2002).
2.3 Função Mantenabilidade e Conceito de Manutenção
O desenvolvimento matemático apresentado para a função confiabilidade R(t)
é válido para a função mantenabilidade G(t). Esta função relaciona-se à capacidade
de reparo e quantifica a probabilidade de que uma falha seja reparada até um tempo
t previamente estabelecido. A mantenabilidade depende do tipo de componente,
sua localização no sistema ou equipamento, ferramentas existentes, conhecimento
técnico, dentre outros fatores. Portanto, o tempo necessário para se realizar um
reparo em um sistema pode ser definido como uma variável aleatória da mesma
forma que o tempo entre falhas. As funções distribuição acumulada de reparo ou
função mantenabilidade G(t) e densidade de probabilidade de reparo g(t) são assim
definidas:
g (t ) =
dG (t )
dt
( 2.16)
O tempo médio para o reparo (mean time to repair) MTTR é definido de
maneira análoga ao MTTF:
+∞
MTTR = E [T ] = ∫ t g (t ) dt
0
Onde T é a variável aleatória tempo de reparo (TR).
( 2.17)
14
Concluindo,
todas
as
expressões
apresentadas
anteriormente
para
modelagem de confiabilidade também são válidas para a modelagem de
mantenabilidade. Apresenta-se a seguir o conceito de manutenção.
Define-se como manutenção o conjunto de ações destinadas a manter ou
recolocar um item em um estado no qual possa executar sua função requerida. O
propósito da manutenção é estender a vida de um equipamento ou, no mínimo,
aumentar o tempo médio até a próxima falha. A ação de não realização de um
procedimento de manutenção pode ter como conseqüência um alto custo em caso
de uma falha. Paradoxalmente, pode não ser viável, do ponto de vista econômico, a
realização de ações de manutenção com uma freqüência muito alta. Assim, o custo
devido a uma provável falha e o custo de manutenção devem ser balanceados de
forma a se obter um ponto ótimo (ENDRENYI et al., 1998)
A manutenção é apenas uma das ferramentas utilizadas para garantir que a
confiabilidade de um componente ou sistema seja satisfatória. Outras opções podem
incluir o aumento da capacidade do sistema, utilização de redundâncias ou o
emprego de componentes intrinsecamente mais robustos (IEEE,2001). Maiores
detalhes sobre manutenção podem ser obtidos em Moubray (1999).
2.4 Função Disponibilidade
Qualitativamente a disponibilidade A (availability)
mede a proporção de
tempo que um produto ou processo encontra-se em estado operativo. Define-se por
estado operativo o somatório dos tempos de uso ativo e o tempo de espera (tempo
do qual o equipamento não está em operação mas está disponível para utilização
imediata).
Considerando-se um sistema constituído somente de componentes não
reparáveis, o tempo de reparo deixa de existir porque o componente é substituído.
Assim, o conceito de disponibilidade torna-se o mesmo de confiabilidade sendo a
probabilidade que o sistema funcione continuamente do tempo 0 até um tempo t
(DUTUIT; RAUZY, 2005). Como esta situação não corresponde à realidade na
grande maioria das vezes, torna-se necessário o estudo dos estados que um
15
sistema pode assumir e consequentemente, a sua disponibilidade. É possível
representar o estado de um sistema genericamente através da função X(t) (2.18)
1 se o sistema está funcionando no tempo t
X (t ) = 
0 se o sistema não está funcionando no tempo


t
(2.18)
A partir da função X(t) define-se a função disponibilidade instantânea A(t)
como a probabilidade que o sistema esteja em condição operacional no instante t
(2.19)
A(t ) = P[X (t ) = 1]
(2.19)
A probabilidade que um sistema esteja indisponível no instante de tempo t é
definida como U(t). É obvio concluir que a soma de A(t) e U(t) deve ser unitária. A
variação da disponibilidade do instante t para o instante (t+ ∆t) é expressa por (2.20)
(CASSADY, 2005). Um procedimento análogo pode ser realizado com relação à
indisponibilidade.
A(t + ∆t ) = A(t ) − λ ∆t A(t ) + µ r ∆t U (t )
(2.20)
Onde A(t): disponibilidade;
U(t) : indisponibilidade;
λ: taxa de falha ;
µr : taxa de reparo;
(λ ∆t) : probabilidade do sistema falhar em um tempo finito ∆t;
(µr ∆t) : probabilidade do sistema ser reparado em um tempo finito ∆t.
Considerando-se o caso limite onde a variação ∆t tende a zero, a expressão
(2.21) pode ser reescrita através da equação diferencial:
dA(t )
= − λ A(t ) + µ r U ( t )
dt
Considerando-se condições iniciais nulas e solucionando (2.21) tem-se que:
(2.21)
16
A( t ) =
µr
+
λ + µr
λ
λ + µr
[
exp − (λ + µ r )t
(2.22)
]
Quando a disponibilidade assume um valor constante no tempo define-se o
conceito de disponibilidade estacionária, que pode ser ilustrado na figura 2.4 e
deduzido através de (2.22) Neste caso o valor do tempo tende a infinito resultando
em (2.23)
A = lim A(t ) =
t →∞
µr
λ + µr
(2.23)
A(t)
1
µr
λ+µr
t
Figura 2.4: Disponibilidade dinâmica
Sabe-se que no período de vida útil de um equipamento as taxas de falha λ e reparo
µr são aproximadamente constantes. Nestas condições, o tempo médio para reparo
MTTR (mean time to repair) é o inverso da taxa de reparo e o tempo médio entre
falhas MTBF (mean time between failures) é o inverso da taxa de falhas. Assim, é
possível definir a disponibilidade em função do MTBF e do MTTR (2.24)
Procedimento análogo pode ser realizado em relação à indisponibilidade U(t)
obtendo-se (2.25)
A=
µr
λ + µr
=
MTBF
MTBF + MTTR
(2.24)
17
U=
λ
(2.25)
λ + µr
A expressão (2.24) considera que o MTTR (mean time to repair) deve-se
somente ao tempo efetivo de manutenção e não leva em consideração aspectos
administrativos ou logísticos. Quando estes aspectos são considerados define-se o
termo disponibilidade operacional Ao (PALLEROSI, 2004) conforme expressão (2.26)
Ao =
(2.26)
tempo disponível (eficaz)
tempo disponível (eficaz) + tempo indisponível (ineficaz)
2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes
Neste tipo de análise podem ser utilizadas técnicas não paramétricas (nas
quais não é necessário especificar nenhuma distribuição de probabilidade) ou
técnicas paramétricas onde é realizada a modelagem dos dados segundo uma
distribuição de probabilidade. Como exemplo de técnicas não paramétricas podem
ser citados os estimadores da Tabela de Vida e
Kaplan-Meier (FREITAS E
COLOSIMO,1997)
As técnicas não paramétricas são muito simples em termos matemáticos e
possibilitam obter distribuições de probabilidades empíricas. Estas técnicas podem
ser úteis como testes preliminares principalmente quando não se sabe a priori qual
distribuição de probabilidade poderia ser utilizada para a modelagem dos dados em
estudo (O’ CONNOR, 2002). As técnicas paramétricas permitem realizar uma
análise mais detalhada dos dados e, após a obtenção do modelo, é possível avaliálo para qualquer tempo que seja de interesse.
As
funções
confiabilidade
e
mantenabilidade
podem
ser
estimadas
considerando-se a ausência ou presença de dados censurados. Dados censurados
ocorrem quando os testes são terminados antes que todos os itens falhem ou
quando ocorre a presença de dados incompletos e ou parciais.
18
2.5.1 Modelos não Paramétricos
A estimação da Função Confiabilidade na ausência de censura é feita
empiricamente a partir do histograma da distribuição aproximada do tempo de falha.
Neste caso divide-se o número de itens que falharam em um determinado intervalo
pelo número de itens em operação até o tempo que corresponde ao início do
intervalo. O mesmo procedimento pode ser realizado com relação à mantenabilidade
considerando-se o histograma da distribuição aproximada do tempo de reparo.
A estimação da Função Confiabilidade na presença de censura pode ser feita
através da Tabela de Vida (Método Atuarial) ou Estimador de Kaplan-Meier (LimiteProduto). O Estimador de Kaplan-Meier é uma adaptação da função confiabilidade
empírica definida em (2.27). A expressão (2.28) apresenta sua definição matemática
(FREITAS; COLOSIMO, 1997).
n o de itens em operação até o tempo t
n o de itens sob teste
(2.27)
∧
 ( n − d 1 )   ( n 2 − d 2 )   ( nt 0 − d t 0 ) 
R (t ) =  1

 
...
nt 0
 n1   n2
 

(2.28)
∧
R (t ) =
Onde di : número de falhas no tempo ti ;
ni : número de itens sob risco (não falhou e não foi censurado) em ti exclusive;
to : maior tempo de falha menor que t.
2.5.2 Modelos Paramétricos
A modelagem de confiabilidade e mantenabilidade através de técnicas
paramétricas pode ser realizada utilizando-se modelos de distribuição de variável
discreta ou contínua. Dentre as distribuições discretas, são mais utilizadas as
19
distribuições binomial e Poisson. Entretanto, ressalta-se a importância das
distribuições continuas (LEWIS, 1987, DHILLON, 1999), detalhas a seguir. O quadro
2.1 apresenta uma síntese com as principais distribuições de probabilidade utilizadas
nos estudos de confiabilidade e mantenabilidade e suas respectivas equações.
0
Quadro 2.1- Principais distribuições de probabilidade continuas utilizadas em análise de confiabilidade e mantenabilidade
Distribuição
f(t)
f (t ) = λ e − λt
F(t)
para t ≥ 0
F (t ) = 1 − e − λt
R (t ) = e −λt = e
Exponencial
f (t ) =
Lognormal
 − 1  ln t − µ  2 
e 
 
σ 2π  2  σ  
1
F (t ) =
1
σ 2π
R(t)
∫
+∞
−∞
 − 1  ln t − µ  2 
e  
  dt
 2  σ  
h(t)
−t
R(t ) = 1 − F (t )
MTBF
h(t ) = λ
h(t ) =
f (t )
R (t )
h(t ) =
β
(t − γ )β −1
β
η
para t ≥ 0
Weibull
  t −γ  β 
−



β −1   η  
β
f (t ) = β (t − γ )
η
e
F (t ) = 1 − e
  t −γ  β 
−
 
  η  


R (t ) = e
  t −γ  β 
 −
 
  η  


para t ≥ 0
Onde
λ: taxa de falhas
MTBF: tempo médio entre falhas
µ: média (parâmetro de localização)
σ :desvio padrão (parâmetro de dispersão)
β : parâmetro de forma ou inclinação;
γ: parâmetro de localização ou vida mínima;
19
η: parâmetro de escala ou vida característica.
20
A distribuição exponencial é uma das mais simples em termos matemáticos e
caracteriza-se por apresentar uma taxa de falhas constante (FREITAS; COLOSIMO,
1997). Esta distribuição é aplicada em situações nas quais as falhas ocorrem de
forma aleatória com uma taxa fixa. Nestes casos não ocorre um mecanismo de
desgaste ou degradação expressivo (propriedade de falta de memória). Nesta
situação específica, na qual a função taxa de falhas h(t) é constante, o parâmetro λ
é o inverso do MTBF.
A distribuição normal é utilizada para modelar a confiabilidade em situações
nas quais existe um tempo de desgaste definido µ (LEWIS, 1987). Apesar de ser
muito utilizada e conhecida, o uso da distribuição normal em engenharia de
confiabilidade é restrito (MEYER,1983 ; DHILLON, 1999).
Tomando-se como referência a distribuição normal, a distribuição Log-Normal
é obtida substituindo-se a variável independente t por ln(t) (FREITAS; COLOSIMO,
1997). Esta distribuição descreve adequadamente tempos de vida de componentes
cujos mecanismos de falha envolvem processos de degradação, fadiga e desgastes
de uma maneira geral (LEWIS, 1987).
A distribuição Log-Normal apresenta uma grande variedade de formas devido
ao efeito da interação da escala logarítmica do tempo com os parâmetros média µ e
dispersão σ. A função densidade de probabilidade f(t) existe somente para valores
positivos de t. Este fato representa uma vantagem com relação à distribuição normal
em termos de representatividade uma vez que o mesmo ocorre com a variável de
interesse (tempo até a falha), em estudos de confiabilidade (O’ CONNOR, 2002).
A distribuição Weibull foi proposta por W.Weibull em 1954 a partir de estudos
relacionados ao tempo de fadiga de metais (FREITAS; COLOSIMO, 1997). Esta
distribuição apresenta grande variedade de formas tendo como propriedade básica
uma função taxa de falhas
h(t) monótona que, portanto, pode ser crescente,
decrescente ou constante. A figura 2.5 apresenta a função densidade de
probabilidade da distribuição Weibull considerando β=0.5, β=1 e β=3,4. Observa-se
que quando β tem valor unitário a distribuição de Weibull aproxima-se da distribuição
exponencial. Quando este parâmetro assume um valor no intervalo 3≤ β ≤ 4 a
distribuição de Weibull aproxima-se da distribuição normal (NELSON, 1982). A figura
2.6 apresenta a função taxa de falha h(t) correspondente às distribuições de
probabilidade da figura 2.5. Observa-se que quando β=1 a taxa de falhas é
constante, para valores menores que 1 é decrescente e para valores maiores que 1
21
é crescente (O’ CONNOR, 2002). As figuras 2.7 e 2.8 mostram as funções
distribuição acumulada F(t) e as funções confiabilidade R(t) correspondentes. Todas
as figuras foram geradas utilizando o software Weibull++7™ (RELIASOFT, 2007).
Figura 2.5: Função densidade de probabilidade
Variação de β considerando η = 2 e γ= 0
Figura 2.7:Função densidade de falhas acumulada
Variação de β considerando η = 2 e γ= 0
Figura 2.6:Função taxa de falhas
Variação de β considerando η = 2 e γ= 0
Figura 2.8:Função confiabilidade
Variação de β considerando η = 2 e γ= 0
22
Além das distribuições citadas anteriormente, existem muitas outras que
podem ser utilizadas em estudos de confiabilidade e mantenabilidade. A figura 2.9
(PALLEROSI, 2007) apresenta uma visão geral destas distribuições. Observa-se
que, dependendo da variação de seus parâmetros, a distribuição gama generalizada
pode dar origem às distribuições gama,
Weibull triparamétrica, lognormal ou
exponencial. O mesmo ocorre com a distribuição Weibull triparamétrica, que pode
originar as distribuições Weibull biparamétrica, normal, lognormal e exponencial.
Figura 2.9:Relação entre as Distribuições de Probabilidade
Fonte: PALLEROSI, 2007
23
2.5.3 Estimação de Parâmetros
Uma vez que a distribuição de probabilidade que supostamente se ajusta aos
dados foi escolhida é necessário estimar seus parâmetros. Dentre os métodos mais
utilizados para esta finalidade podem ser citados os papeis de probabilidade,
mínimos quadrados e máxima verossimilhança. A escolha do método de estimação
a ser utilizado é dependente da quantidade de dados disponíveis e principalmente
da forma como os mesmos são apresentados.
Para a criação de um papel de probabilidade no contexto da engenharia de
confiabilidade, o primeiro passo é promover a linearização da função densidade
acumulada F(t). Assim, será gerado um gráfico cujo eixo das ordenadas representa
F(t) e o eixo das abscissas representa o tempo de vida (ou variável de interesse) em
escala logarítmica. Cabe ressaltar que o termo “papel de probabilidade” neste texto
refere-se à gráficos gerados através de ferramentas computacionais.
Tomando-se como exemplo uma distribuição de Weibull, a equação
linearizada (2.29) pode ser interpretada como a equação de uma reta na forma
Y=AX+B.

 1 
ln  ln = 
  = β ln (t − t0 ) − β ln (η )
1
−
F
(
t
)



(2.29 )
O parâmetro de forma β corresponde ao coeficiente de inclinação da reta. O
parâmetro de escala η pode ser calculado como o tempo no qual a função F(t)
corresponde a 63,2% (O’ CONNOR, 2002) conforme (2.30). Observa-se que, neste
caso, o parâmetro de vida mínima γ foi considerado igual a zero. Considerando
situações nas quais este parâmetro apresentar outro valor qualquer poderá ser
utilizada a mesma metodologia proposta considerando-se que todos os resultados
encontrados serão deslocados.
 B

 A
η = exp −
(2.30)
24
Existe a necessidade de se ordenar os dados e calcular o percentual
acumulado de falhas F(t). Este cálculo é normalmente realizado pela aproximação
de Bernard (O’ CONNOR, 2002) conforme (2.31).
ri =
100(i − 0,3)
N + 0,4
(2.31)
Onde i : número de ordem.
N : tamanho da amostra;
A figura 2.9 apresentada, como exemplo, um Papel de Probabilidade para a
distribuição Weibull.
F(t)%
99,00
90,00
6,0
2,0
β
1,0
β≈2
η
63,2
50,00
10,00
5,00
10000
t = η ≈ 28000
100000
ln(t)
Figura 2.9: Estimativa de β e η utilizando-se o papel de probabilidade Weibull
Quando não é possível ou desejável estimar os parâmetros da distribuição de
probabilidade de interesse de forma gráfica, tem-se a opção de utilizar o método dos
mínimos quadrados. Partindo-se do modelo de uma reta como, por exemplo,
apresentado em (2.29) o método de Mínimos Quadrados objetiva minimizar a soma
dos quadrados do erro. Formalmente, as estimativas de mínimos quadrados dos
parâmetros A e B são os valores que tornam mínima a expressão 2.32. O símbolo
“^” indica o valor estimado (MEYER, 1983).
25
∧
n
∧
ε ( A, B) = ∑ [Yi − ( A X i + B)]2
(2.32)
i =1
Onde n : número de observações
A fim de obter as estimativas desejadas dos parâmetros A e B deve-se
resolver (2.33) e (2.34) condição necessária para que o erro ε (A,B) seja mínimo.
∂ε
=0
∂A
(2.33)
∂ε
=0
∂B
(2.34)
A soma do quadrado do erro pode ser calculado com relação ao eixo das
abscissas (eixo y) conforme descrito por (2.32). Como uma outra opção, o mesmo
cálculo pode ser feito com relação ao eixo das ordenadas (eixo x) conforme (2.35)
n
ε ( A, B) = ∑ [ X i − ( AYi + B)]2
(2.35)
i =1
Onde n : número de observações.
O método regressão linear apresenta restrições quando aplicado a estudos
que envolvam tempos de vida devido a sua incapacidade de lidar com dados que
são fornecidos em intervalos ou que apresentem censuras (FREITAS; COLOSIMO,
1997). Em geral, é recomendado usar esta técnica somente quando se tem uma
amostra pequena e sem censuras.
Uma outra opção para estimação de parâmetros no contexto da engenharia
de confiabilidade é o método de Máxima Verossimilhança. Este método estima os
valores dos parâmetros de uma dada distribuição de probabilidade tal que a função
de verossimilhança L seja maximizada. A expressão 2.36 apresenta uma pdf
genérica.
f (t; θ1, θ2,...θk)
Onde t : tempo até a falha;
( 2.36)
26
θk : parâmetros a serem estimados.
Sejam t1,...,tn os valores amostrais da variável aleatória “tempo até a falha” e θ
o vetor de parâmetros que se deseja estimar. A função de verossimilhança L é
definida por (2.37) (MEYER, 1983; DHILLON, 1999). Considera-se que não
ocorreram censuras.
L (t1,t2,...tn; θ) = f (t1; θ) f (t2;θ)...f (tn; θ)
(2.37)
Onde L : função de verossimilhança;
tn : tempos até a falha;
θ : vetor de parâmetros a serem estimados.
Portanto, considerando-se conjuntos de dados não censurados, a função de
verossimilhança é o produto das funções pdf resultantes de cada observação do
conjunto de dados. Este conceito é expresso por (2.38)
n
L ( t1,t2,...tn;θ1, θ2,...θk ) = ∏ f (ti ; θ1, θ2,...θk )
(2.38)
i=1
Onde L : função de verossimilhança;
tn : tempos até a falha;
θk : parâmetros a serem estimados;
k : quantidade de parâmetros da distribuição;
n : número de observações.
Para se maximizar a função de verossimilhança L, é usual utilizar sua versão
em forma logarítmica, conforme (2.39)
n
ln L ( t1,t2,...tn;θ1, θ2,...θk ) = ∑ ln f (ti ; θ1, θ2,...θk )
(2.39)
i =1
A partir de 2.39 deve-se encontrar o conjunto de parâmetros que a maximiza.
Este cálculo é realizado determinando-se as derivadas parciais em relação a cada
parâmetro e igualando o resultado a zero. Assim, a maximização de ln L resulta da
27
solução simultânea de k equações , conforme expresso em (2.40)
∂ ln L
= 0 , j = 1,2, ... , k
∂θ j
(2.40)
Considerando-se dados censurados, a contribuição de cada observação é
apenas informar que o tempo de falha é maior que o tempo de censura observado.
Portanto, a contribuição de um dado censurado para a Função Verossimilhança L é
expresso pela sua função confiabilidade R(t). As observações podem ser divididas
em dois conjuntos conforme (2.41) (FREITAS; COLOSIMO, 1997).
r
L ( t1,t2,...tn;θ1, θ2,...θk ) = ∏ f (ti ; θ1, θ2,...θk )
i=1
n
∏R(t ; θ , θ ,...θ
i
1
2
k
)
(2.41)
i=r+1
Onde L : função de verossimilhança;
R : função confiabilidade;
tn : tempos até a falha;
θk : parâmetros a serem estimados ;
k : quantidade de parâmetros da distribuição;
n : número total de observações;
r : observações que não apresentam censura.
Conforme mencionado anteriormente, é recomendado usar a técnica de
regressão quando se tem uma amostra pequena e sem censuras. Quando existem
grandes quantidades de dados ou muitas censuras estejam presentes, o estimador
de máxima verossimilhança pode ser indicado como a melhor opção.
2.5.4 Validação de Modelos
A validação de modelos é uma etapa posterior à estimação de parâmetros na
qual pretende-se verificar se o modelo escolhido é adequado para representar os
dados observados. Esta análise pode ser realizada a partir de técnicas gráficas ou
testes de adequação.
28
O gráfico conhecido como Papel de Probabilidade (detalhado anteriormente)
apresenta eixos calculados de tal forma que, se os dados puderem ser ajustados por
uma reta, a distribuição de probabilidade escolhida é adequada para modelar os
dados em estudo. Portanto, um método gráfico simples e intuitivo para a validação
consiste em traçar os dados em diferentes papeis de probabilidade e verificar qual
deles é mais adequado.
Uma outra opção gráfica consiste em comparar os valores da função
confiabilidade (ou da função probabilidade de falha) obtidos através de um modelo
paramétrico candidato e um estimador não paramétrico (FREITAS; COLOSIMO,
1997).
A validação de modelos pode ainda ser realizada a partir de técnicas
numéricas ou testes de adequação. Um teste de adequação tem por finalidade
verificar a hipótese de que uma determinada distribuição de probabilidade possa
modelar satisfatoriamente um conjunto de dados amostrais.
O teste do Qui-Qradrado é muito versátil uma vez que pode ser aplicável a
qualquer distribuição de probabilidade. Os dados são inicialmente divididos em
classes (ou células), sendo que, para que se tenha precisão, é desejável ter no
mínimo três classes com no mínimo cinco valores em cada uma. (O’ CONNOR,
2002). Embora o teste estatístico do Qui-Quadrado seja muito utilizado para verificar
a adequação de modelos probabilísticos, este teste não é muito indicado para
estudos de confiabilidade. Esta afirmação deve-se à eventual presença de dados
censurados e à exigência de uma grande quantidade de dados, nem sempre
disponíveis (FREITAS; COLOSIMO, 1997).
O teste Kolmogorov-Smirnov é um pouco mais simples do que o teste QuiQradrado e pode oferecer melhores resultados quando a quantidade de dados
disponíveis é pequena. Este teste pode ser utilizado em conjunto com a técnica
gráfica papel de probabilidade uma vez que também é baseado na pdf (função
distribuição acumulada) dos dados (O’ CONNOR, 2002). Dhillon (1999) cita os testes
Bartlet e Geral Exponencial, porém ambos são aplicáveis somente quando a
distribuição a ser testada é exponencial.
Concluindo, não existe na literatura pesquisada um consenso sobre um teste
de aderência com aplicação universal. Ressalta-se, portanto a importância do
conhecimento de engenharia a ser utilizado no processo de escolha de um modelo
adequado para representar os dados em estudo.
29
3 MODELAGEM DE SISTEMAS
Entende-se por sistema um conjunto de itens integrados de forma a atender um
determinado objetivo. A confiabilidade de um sistema é dependente da
confiabilidade de seus componentes e da forma como os mesmos estão interligados.
Considerando-se um sistema não reparável, a variável aleatória de interesse é o
tempo até a falha. Neste caso não é possível (ou viável economicamente) realizar
ações de reparo de forma a reconduzir o sistema ao estado operativo após uma
falha.
Define-se como sistema reparável aquele que, após uma falha, pode ter sua
condição normal de operação restabelecida através de alguma ação de
manutenção. Tratando-se um sistema reparável, as variáveis aleatórias de interesse
são os tempo entre falhas e os tempos de reparo. Assim, deve ser realizado não
somente o cálculo de confiabilidade mas também os cálculos de mantenabilidade e
disponibilidade.
O cálculo da confiabilidade e demais variáveis de interesse (mantenabilidade e
disponibilidade) pode ser realizado de forma analítica ou através de simulação,
conforme detalhado nos itens subseqüentes. Uma outra classificação possível é a
subdivisão em métodos qualitativos e quantitativos.
3.1 Modelagem de Sistemas não Reparáveis
Existe um amplo espectro de técnicas disponíveis para a modelagem da
confiabilidade de sistemas não reparáveis. Uma das classificações usualmente
utilizada é agrupá-las em técnicas quantitativas e qualitativas (ROUVROYE; VAN
DEN BLIEK, 2002).
Dentre as técnicas qualitativas mais importantes para a modelagem de
sistemas podem ser citadas a análise de modo e efeito de falhas (FMEA - Failure
Mode and Effect Analysis) e a Árvore de Falhas (FTA- Faut Tree Analysis)
(HELMAN; ANDERY, 1995).
30
Observa-se que a FTA pode ser desenvolvida segundo uma abordagem
qualitativa ou quantitativa. Apesar de não ser um procedimento
intrínseco à
metodologia original, a FMEA também pode assumir uma abordagem quantitativa
se a análise for baseada em dados históricos.
O Diagrama de Blocos de Confiabilidade (RBD - Reliability Block Diagram)
(MURPHY; CARTER, 2003) é citado na literatura como uma das técnicas
quantitativas mais utilizadas.
Outra classificação possível seria a subdivisão em métodos analíticos e
numéricos (METTAS; SAVVA, 2001). O enfoque analítico envolve a determinação
de uma expressão matemática que descreve a confiabilidade do sistema em estudo
através da confiabilidade de seus componentes. O valor da confiabilidade de cada
componente Ri(t) pode ser estimado através de uma distribuição de probabilidade
pelo método de Análise de Tempo de Falha. Logo, o principal desafio é encontrar a
relação entre os componentes do sistema e expressá-la matematicamente.
Embora os métodos analíticos para cálculo de confiabilidade forneçam valores
exatos, a complexidade de suas expressões matemáticas faz com que estes sejam,
às vezes, intratáveis. Neste caso, podem ser empregados métodos numéricos
também definidos como métodos de simulação. O termo simulação refere-se a uma
família de técnicas baseadas em cálculos computacionais que objetivam reproduzir o
comportamento de um dado sistema.
A modelagem através de simulação tem se tornado uma poderosa ferramenta
que possibilita o estudo de sistemas complexos e facilita o processo de tomada de
decisão (BARZAGAN; MCGRATH, 2003). Existe uma tendência em considerar que
as técnicas baseadas em simulação apresentam um capacidade de representação
da realidade superior às técnicas analíticas (MARSEGUERRA; ZIO, 2005). Esta
suposição deve-se à incerteza intrínseca com relação aos tempos de reparo e
atrasos logísticos, bem como a disponibilidade de recursos.
3.1.1 Análise de Modos e Efeitos de Falhas
A Análise de Modos e Efeitos de Falhas FMEA (Failure Mode and Effect
Analysis) é um método padronizado de análise que visa identificar todos os
31
possíveis modos potenciais de falha e determinar o efeito de cada um sobre o
desempenho do sistema (produto ou processo). A aplicação da metodologia FMEA
requer uma equipe multidisciplinar e multi-hierárquica de forma a ser o mais
abrangente possível (HELMAN; ANDERY, 1995).
Define-se como modo de falha um evento que provoca uma diminuição parcial
ou total da função do produto e de suas metas de desempenho. As causas são
eventos que geram, provocam ou induzem o aparecimento do tipo (modo) de falha e,
finalmente, os efeitos são formas como os modos de falha afetam o desempenho do
sistema (PALADY, 1950).
O resultado da análise é consolidado através de um formulário (figura 3.1),
constando uma identificação inicial que especifica se a análise refere-se a um
produto ou processo e dados de registro particulares. Em seqüência, são
introduzidos o nome do item, componente ou etapa do processo e sua função.
Posteriormente, são registradas as falhas e respectivos modo, efeito, causa e a
possível existência de alguma ação de controle para que a falha analisada não
ocorra. Finalmente, são computados os índices de gravidade (G), detecção (D),
ocorrência (O) e risco (R). A última etapa consiste na sugestão de uma ação
corretiva para evitar a falha. A seta indicada na figura 3.1 representa a necessidade
de atualização contínua da análise.
Figura 3.1: Exemplo de um formulário utilizado para FMEA
32
3.1.2 Análise por árvore de falhas
A análise por árvore de falhas (FTA - Faut Tree Analysis)
é um método
sistemático que correlaciona um determinado efeito com suas possíveis causas,
estabelecendo relações operacionais entre as mesmas (HELMAN; ANDERY, 1995).
O processo de construção da árvore de falha de um sistema começa com a
escolha de evento específico (evento de topo) e trabalha no sentido de obter todas
as falhas básicas que podem causar o evento analisado. Os eventos são
relacionados através de portas lógicas sendo que a seqüência de eventos conduzem
a causas básicas para as quais a taxa de falha é conhecida (DHILLON,1999).
A figura 3.2
apresenta um exemplo de uma árvore de falhas. As causas
básicas são denotadas por círculos e representam os limites de resolução da árvore
de falha. Eventos que possuem mais de uma causa
retângulos) podem ser desdobrados.
básica (denotados por
Esta técnica permite a visualização do
problema a ser analisado através de uma representação gráfica simples e objetiva,
além
de direcionar a análise. Conhecendo-se as taxas de falhas dos eventos
básicos e a relação de causa e efeito entre elas (representada pelas portas lógicas)
é possível calcular a confiabilidade do evento de topo.
Evento de
Topo
E2
E1
E3
A
C
E4
F
B
G
H
Figura 3.2: Exemplo de uma Árvore de Falhas
33
3.1.3 Diagrama de Blocos de Confiabilidade
A lógica de falha de um sistema pode ser representada como um Diagrama de
Blocos de Confiabilidade também conhecido através da abreviação RBD (Reliability
Block Diagram). Este diagrama é um modelo que mostra as conexões lógicas entre
os elementos de um sistema e permite visualizar a relação existente entre a
confiabilidade geral do sistema em estudo R(t) e a confiabilidade parcial de cada um
de seus componentes Ri (t).
Um RBD apresenta três elementos básicos: componentes, ligações (links) e
nós. Os componentes são tradicionalmente representados como blocos e possuem
numerosos atributos como por exemplo a função distribuição probabilidade de falha.
Um link é simplesmente uma linha que conecta dois blocos e os nós promovem a
ligação entre os links. Os links e nós são construções lógicas que definem os
caminhos (paths) de um sistema. Um caminho é definido como um percurso
contínuo e sem sobreposições da entrada a saída de um RBD (MURPHY; CARTER,
2003).
Uma análise de confiabilidade em um sistema qualquer deve ser precedida da
definição inequívoca do que constitui uma falha. Dependendo da complexidade do
sistema pode ser possível definir diferentes possibilidades para a ocorrência de falha
e nestes casos é necessária a construção de um RBD diferente para cada situação.
Portanto, uma restrição significativa quanto à utilização de RBD’s é a necessidade
da existência de somente uma entrada e uma saída.
Um RBD mostra as conexões lógicas entre os elementos de um sistema e não
necessariamente tem a mesma formatação do diagrama esquemático de
funcionamento. Assim, em sistemas cujos componentes apresentam formas
complexas de interações, a construção de um RDB pode tornar-se uma tarefa com
grande grau de dificuldade (O’ CONNOR, 2002).
A figura 3.3 apresenta um exemplo de RBD formado pelos subsistemas 1
(configuração série), 2 (configuração paralelo), 3 (configuração k de n) e 4
(configuração stand-by).
A confiabilidade R(t) de um sistema em série é dada por (3.1) e a
probabilidade de que ambos falhem F(t) é dada por (3.2). Este procedimento pode
34
ser generalizado para n componentes ligados em série (3.3) quando os
componentes tiverem a mesma confiabilidade Rm (LAFRAIA, 2001).
2
3
1
D
B
E
A
B
F
k/n
B
C
4
C
C
j
Figura 3.3: Exemplo de um diagrama de blocos de confiabilidade
R(t ) = R A (t ) Rb (t )
(3.1 )
F (t ) = FA (t ) + Fb (t ) − FA (t ) Fb (t )
(3.2 )
Rs (t ) = Rm (t ) n
( 3.3)
Onde n : número total de componentes;
Rm(t) : confiabilidade de cada um dos componentes.
A confiabilidade de um sistema em paralelo é dada por (3.4) e a probabilidade
de que ambos falhem F(t) é dada por (3.5).
R(t ) = RA (t ) + Rb (t ) − R A (t ) Rb (t )
(3.4 )
F (t ) = FA (t ) Fb (t )
(3.5 )
35
Este procedimento pode ser generalizado para n componentes ligados em
paralelo (3.6) quando os componentes tiverem a mesma confiabilidade Rm.
Rs (t ) = 1 − [1 − Rm (t )] n
(3.6 )
Onde n : número total de componentes;
Rm(t) : confiabilidade de cada um dos componentes.
Um sistema com redundância em stand-by apresenta unidades adicionais que
são acionadas caso ocorra uma falha na unidade em operação (figura 3.3,
subsistema 4). Neste caso as falhas de cada bloco são estatisticamente
independentes e supõe-se que a unidade de chaveamento é isenta de falhas
(LAFRAIA, 2001). A expressão (3.7) apresenta o valor da função confiabilidade R(t)
para este sistema considerando-se que todas as unidades são idênticas e com a
mesma taxa de falha.
R (t ) =
n
∑
i=0
(λ t ) i e − λt
i!
( 3.7 )
Onde n: N-1 ( número de unidades em stand by – não ativas).
A figura 3.3 (subsistema 3) apresenta um exemplo de redundância “k” de “n”.
Nesta configuração um número “k” de unidades deve estar operando para o sucesso
do sistema . A função confiabilidade R(t) neste caso
é dada por (3.8)
(LAFRAIA,2001)
n
R (t ) = ∑ C in R i (1 − R ) n − i
(3.8 )
i=k
Onde n : número de unidades total do sistema;
k :número de unidades requerida;
R : confiabilidade de cada unidade;
Cin : combinação “n”, “i” a “i”.
A maneira mais intuitiva de se calcular a confiabilidade de um RBD é reduzir o
diagrama global em agrupamentos de componentes ligados em série ou em
36
paralelo. Nesta metodologia considera-se que os eventos são independentes e os
cálculos de confiabilidade podem ser facilmente executados.
Quando é inviável realizar a redução do diagrama global em ligações série
paralelo podem ser utilizadas técnicas alternativas que fornecerão resultados
aproximados como o método dos cortes (cut set) ou o método dos caminhos (path
set). Outra possibilidade é a utilização de métodos numéricos como a simulação de
Monte Carlo detalhada no item 3.2.4.
Um conjunto de corte mínimo é uma combinação da menor quantidade de
falhas primárias tal que, se todas ocorrerem simultaneamente o evento de topo
também ocorrerá (FREITAS; COLOSIMO, 1997). Por definição cada conjunto de
corte mínimo é a intersecção das falhas primárias que o constitui. A confiabilidade de
um sistema Rsist calculada através do método dos cortes mínimos é expressa por
(3.9) (O’ CONNOR, 2002).
R sist > 1 −
n
N
∑ ∏ (1 − R )
i =1
(3.9)
i
j =1
Onde Ri: confiabilidade de cada unidade;
n : número blocos;
N : número total de conjuntos de corte .
Os caminhos (paths) de um sistema podem ser definidos como um percursos
contínuos e sem sobreposições do início ao final de um RDB (MURPHY; CARTER
2003). A análise através de caminhos objetiva encontrar conjuntos de blocos tais
que se todos estiverem funcionando o sistema estará em funcionamento. Esta
metodologia é formalizada através de (3.10) (O’ CONNOR, 2002).
R sist <
T
i =1
(3.10 )
n
∑∏ R
i
j =1
Onde Rsist : confiabilidade do sistema;
Ri : confiabilidade de cada unidade;
n : número blocos;
T: número total de conjuntos de caminhos.
37
3.1.4 Simulação de Monte Carlo
Esta metodologia é
baseada na simulação de variáveis aleatórias para
resolução de problemas e por ser considerada muito simples e flexível pode ser
aplicada à problemas de qualquer nível de complexidade (MARSEGUERRA; ZIO,
2005).
É importante ressaltar que a simulação de Monte Carlo pode ser aplicada a
sistemas não reparáveis e também a sistemas reparáveis. Considerando-se um
sistema não reparável, a variável aleatória de interesse é o tempo até a falha.
Tratando-se um sistema reparável, as variáveis aleatórias de interesse são os
tempos entre falhas e os tempos de reparo.
A simulação de Monte Carlo pode ter uma abordagem seqüencial ou não
seqüencial. Na primeira possibilidade os estados do sistema são sequencialmente
amostrados por vários períodos de tempo simulando uma realização do processo
estocástico de operação do sistema. Considerando a abordagem não seqüencial o
espaço de estados é amostrado aleatoriamente sem levar em consideração a
cronologia do processo de operação do sistema.
A simulação pode ser utilizada
tendo como base a maioria das diversas
topologias utilizadas para modelar a confiabilidade de um sistema. Uma grande
vantagem é que as probabilidades de transição entre os estados do sistema podem
assumir qualquer valor e não necessariamente devem permanecer constantes.
Como conseqüência deste fato, a simulação de Monte Carlo permite efetuar o
cálculo de sistemas cujos componentes são modelados por qualquer distribuição de
probabilidade (Weibull, normal, lognormal, etc.) o que permite maior flexibilidade e
maior compromisso com a realidade.
3.2 Modelagem de Sistemas Reparáveis
Tratando-se de um sistema reparável, as variáveis aleatórias de interesse são
tempo entre falhas e tempo de reparo. Assim, conforme citado anteriormente, deve
ser realizado não somente o cálculo de confiabilidade mas também os cálculos de
mantenabilidade e disponibilidade.
38
Os métodos para análise de sistemas reparáveis podem ser divididos em duas
grandes vertentes. A primeira vertente, chamada abordagem por componentes,
considera os componentes individualmente (lowest replaceable unit). Neste caso é
necessário se conhecer as funções densidade de probabilidade de falha e de reparo
relativas a cada componente e a forma como os mesmos estão conectados
(METTAS, 2006).
A outra forma de análise, chamada abordagem por sistema,
consiste em
considerar os dados de falhas como realizações de um processo estocástico de
contagem (COIT, 2005). Neste caso, todas as falhas do sistema são consideradas
em conjunto sendo muito utilizados os processos de Poisson homogêneo (HPP) e
não homogêneo (NHPP) (RIGDON, BASU, 2000).
Um modelo de confiabilidade de um sistema reparável inclui usualmente a
confiabilidade dos componentes, a arquitetura do sistema, o esquema físico de
operação, bem como aspectos relacionados à disponibilidade, mantenabilidade e
práticas de manutenção utilizadas. É desejável ainda que, na medida do possível,
também inclua fatores subjetivos como erro humano e atrasos logísticos, dentre
outros (LOGMAN; WANG, 2002).
A modelagem de sistemas reparáveis a partir da abordagem por componentes
é detalhada no item 3.3.1 no qual são deduzidas expressões analíticas que
permitem calcular a confiabilidade e a disponibilidade do sistema a partir das taxa de
falha e o tempo de reparo (CARVALHO; MENEZES; CAMINHAS, 2006).
A abordagem por sistema é apresentada no item 3.3.2 no qual são
apresentados os processos de Poisson homogêneo (HPP) e não homogêneo
(NHPP) segundo Ascher e Feingold (1984).
3.2.1 Abordagem por componentes
A abordagem por componentes para análise de um sistema reparável
considera os componentes individualmente (lowest replaceable unit) conforme
Cassady e Pohl (2005) e Mettas (2006). A figura 3.4 representa as funções
densidade de probabilidade de falha f(t) e de reparo g(t) relativas a um componente
hipotético. Em um nível de detalhamento maior é possível ainda considerar as
39
funções f(t) e g(t) para cada modo de falha de cada componente. O tempo em que o
sistema encontra-se em estado operativo to é
determinado por f(t) e o tempo
indisponível ti é determinado por g(t). Sendo conhecidas estas distribuições e a
forma como os componentes estão interligados é possível calcular a disponibilidade
do sistema a partir de métodos analíticos ou numéricos.
Figura 3.4: Distribuições de probabilidade para um componente reparável genérico
Fonte: Adaptado a partir do trabalho de METTAS, 2006.
Considera-se neste trabalho que após a ocorrência de uma falha é realizado
um reparo imediatamente e que o reparo é capaz de levar o item falho novamente a
sua condição original. Esta condição pode ser observada na figura 3.4, pois as
distribuições de probabilidade de falha antes e após o reparo são idênticas. Neste
caso as ações de reparo conduzem o sistema à condição “tão bom quanto novo”
(METTAS; ZHAO, 2005). Ao admitir esta premissa como válida, supõe-se que os
dados de falha não exibem nenhuma tendência de comportamento (intensidade de
falhas aproximadamente constante) e que o sistema pode ser modelado através de
processo de renovação.
Uma vez realizada a modelagem das variáveis aleatórias tempos entre falhas e
tempos de reparo, se for constatada a adequação da distribuição exponencial para
ambas as variáveis, o sistema pode ser modelado
utilizando-se Diagramas de
Markov. A análise de Markov é aplicável desde que as seguintes restrições sejam
respeitadas:
40
1-As probabilidades de transição entre os estados permanecem constantes ao
longo do tempo.
2- A probabilidade de um estado futuro independe dos estados anteriores
excetuando-se o estado imediatamente precedente (propriedade de falta de
memória).
A figura 3.5 apresenta um Diagrama de Markov para um único componente X
que pode assumir os estados O em funcionamento e o estado F
falho. A
probabilidade de transição do estado de funcionamento para o estado falho é P0→F e
a probabilidade de transição no sentido contrário é PF→0. Este é um exemplo de
processo discreto (O’ CONNOR, 2002).
P0
F
O
1 - P0
F
PF
F
0
1 - PF
0
Figura 3.5 - Diagrama de Markov para um componente
O somatório das probabilidades de transição incluindo a auto-transição deve
ser unitário. Considerando um estado inicial é possível construir o diagrama em
árvore onde são representadas todas as possibilidades de transição para n
intervalos de tempo.
A partir do diagrama em árvore pode-se calcular a probabilidade de o item
estar em qualquer estado após um determinado número de intervalos de tempo
(MAILLART; POHL, 2005). Os mesmos resultados podem ser obtidos através da
matriz de transição de estados (3.11). Esta matriz elevada a n- ésima potência
corresponde ao n- ésimo intervalo de tempo.
Y =
PS 0 → S 0 PS 0 → S1
PS 1→ S 0 PS 1→ S 1
(3.11 )
41
Onde Elemento (1,1): probabilidade do item estar disponível;
Elemento (1,2): probabilidade do item estar indisponível;
Elemento (2,1): probabilidade do item ser reparado;
Elemento (2,2): probabilidade do item não ser reparado.
Portanto, um diagrama de Markov representa eventos dependentes e permite o
cálculo da evolução temporal dos estados de um sistema desde que as
probabilidades de transição entre estes estados permaneçam constantes. Esta
imposição é uma limitação significativa e
probabilidade exponenciais
implica no uso de distribuições de
para a modelagem das taxas de falha e de reparo.
Embora o diagrama de Markov seja capaz de descrever intricadas relações
dinâmicas entre modos de falhas, existe uma falta de flexibilidade considerável.
Pode ser observado ainda que, dependendo do tamanho do sistema modelado,
pode existir um número demasiadamente grande de estados possíveis, o que
inviabiliza a análise do comportamento do sistema. Desta forma, conclui-se que este
método é mais adequado para análise da confiabilidade de sistemas de pequeno
porte (VOLOVOI, 2004) (MAILLART; POHL, 2005)
Um segundo método para calcular a confiabilidade e a disponibilidade de um
sistema reparável de forma analítica é a Metodologia Lambda-Tau. A proposta desta
metodologia é calcular a confiabilidade de um sistema reparável a partir da taxas de
falha λ (lambda) e tempo de reparo τ (tau) de seus componentes. O método baseiase no fato de que o sistema pode ser representado através de uma árvore de
falhas livre de eventos redundantes (KENEZEVIC; ODOOM, 2001)
A partir do modelo em árvore de falhas podem ser deduzidas expressões
analíticas para o cálculo da taxa de falha λ e do tempo de reparo τ associadas aos
operadores lógicos OR (componentes em série) e AND (componentes em paralelo),
a partir dos conceitos de disponibilidade e análise em espaço de estados.
A metodologia Lambda-Tau é baseada na análise em espaço de estados
(detalhada anteriormente). Considerando-se dois componentes atuando em conjunto
é possível reconhecer quatro estados conforme representado na figura 3.6. A
condição de operação é indicada pelo sub-índice “ O” e a condição de falha pelo subíndice “F”. No estado P1 os dois componentes estão em funcionamento
simultaneamente, nos estados P2 e P3 um dos dois componentes está em condição
42
de falha e no estado P4 ambos os componentes encontram-se em falha
(BILLINTON, 1978).
λ1
Estado P1
1O 2O
λ2
Estado P2
1F 2O
µ r1
µr 2
λ2
λ1
Estado P3
1O 2F
µr 2
Estado P4
1F 2F
µ r1
λ
µ11
Figura 3.6: Possíveis estados
para 2 componentes
Fonte: BILLINTON, 1978
Os estados P1 e P2 podem ser expressos matematicamente através das
expressões 3.12 e 3.13 respectivamente. Os estados P3 e P4 podem ser definidos
de forma análoga.
 µ r1 

P1 = 
+
λ
µ
 1
r1 
 µr2 


+
λ
µ
 2
r2 
(3.12)
 λ1 

P2 = 
λ
µ
+
 1
r1 
 µr2

 λ2 + µ r 2
(3.13)



A disponibilidade de um sistema reparável composto por n componentes em
série
é condicionada ao funcionamento simultâneo de todos os componentes.
Considerando-se um sistema reparável composto por n componentes em paralelo,
uma falha ocorrerá somente se todos os componentes falharem. A partir destas
hipóteses, as expressões para o cálculo de dois componentes podem ser deduzidas
e posteriormente generalizadas para n componentes conforme quadro 3.1
(CARVALHO; MENEZES; CAMINHAS, 2006).
43
Expressão
Sistema série
(porta OR)
λ para 2 componentes
τ para 2 componentes
λ genérica completa
λ P = λ1λ 2 (τ 1 + τ 2 )
λ S = λ1 + λ 2
τS =
Sistema paralelo
( porta AND)
λ1λ2τ 1τ 2 + λ1τ 1 + λ 2τ 2
λS
τP =
τ1 τ 2
τ1 + τ 2
n n 
λi ∑∏τ i 
∏
 j =1 i =1 
i =1
 i ≠ j 
n
n
λ S = ∑ λi
i =1
λP =
λ genérica simplificada
∑λ
i =1
n
τ genérico simplificado
τs =
∑
i =1
n
n
i =1
i =1
∏ (λiτ i + 1) − ∏ (λiτ i )
n n 
λ P = ∏ λi ∑∏τ i 
 j =1 i =1 
i =1
 i ≠ j 
n
-

 n
∏ (λiτ i + 1) − 1

τ s =  i =1 n
τ genérico completo
n
i
n
τP =
∏τ
i
i =1
n
n
∑∏τ
j =1 i =1
i≠ j
i
λiτ i
-
∑ λi
i =1
Quadro 3.1: Expressões metodologia Lambda-Tau
Outra opção para análise de um sistema reparável considerando os
componentes individualmente é a utilização de simulação de Monte Carlo. Conforme
mencionado anteriormente, a maior
vantagem desta técnica é possibilidade de
utilização de qualquer distribuição de probabilidade para modelagem das variáveis
aleatórias tempos entre falhas e tempos de reparo. Este fato permite grande
flexibilidade.
44
3.3.2 Abordagem por sistemas
Os modelos aplicáveis a sistemas reparáveis podem ser divididos em
processos estocásticos pontuais (stochastic point processes) e modelos que
envolvem equações diferenciais (ASCHER; FEINGOLD, 1984). O segundo tipo tem
tido aplicação restrita a estudos de crescimento da função confiabilidade (Reliability
Growth) (CROW, 2005).
Um
processo
adequadamente
um
estocástico
fenômeno
pontual
físico
(stochastic
caracterizado
point
por
process)
eventos
modela
altamente
localizados e distribuídos randomicamente. Neste caso os tempos de reparo são
desprezados e considera-se que as falhas ocorreram em uma seqüência específica.
Quando são considerados o número de falhas e os respectivos instantes de
ocorrência é caracterizado um processo estocástico de contagem (counting
process).
Um sistema reparável pode ser modelado como um processo de contagem de
falhas sendo considerados os efeitos de sucessivas ações de reparo. A função
intensidade de falha um processo estocástico i(t) é definida (ASCHER; FEINGOLD,
1984; SANTOS, 2003) por:
i (t ) = lim ∆t → o
P{ocorrência de falha (t , t + ∆t )}
∆t
(3.14)
P{N (t + ∆t ) − N (t )}
∆t
(3.15)
i (t ) = lim ∆t → o
Onde N(t) : número de falhas
Quando os dados de falha não exibem nenhuma tendência de comportamento
(intensidade de falhas aproximadamente constante) o sistema pode ser modelado
através de processo de renovação. Neste caso as ações de reparo conduzem o
sistema à condição “tão bom quanto novo” (METTAS; ZHAO, 2005). Quando a
intensidade de falhas i(t) apresenta característica decrescente caracteriza-se o
crescimento da confiabilidade (Reliability Growth) e quando exibe tendência
45
crescente são caracterizados processos de degradação e/ou deterioração (COIT,
2005).
Um processo de Poisson homogêneo (HPP) é um caso especial de processo
de
renovação
que
apresenta
tempos
entre
falhas
independentes
e
exponencialmente distribuídos. Portanto, a função intensidade para um HPP é
constante.
O processo de Poisson não homogêneo (NHPP) modela o comportamento não
estacionário (variante no tempo) descrevendo adequadamente intensidades de falha
crescentes e decrescentes.
46
4 ANÁLISE NEBULOSA DE FALHAS
Inicialmente será apresentada uma rápida discussão sobre técnicas para
análise de falhas quando não existem dados. No item 4.2 será realizada uma breve
revisão bibliográfica sobre metodologias nebulosas para cálculo de confiabilidade.
Considera-se que todas as metodologias apresentadas possam ser adaptadas para
o cálculo de mantenabilidade.
No item 4.3 será detalhado o modelo nebuloso
proposto para análise de falhas. No item 4.4 será introduzida a característica de
adaptação à estrutura apresentada no item anterior.
4.1 Alternativas para Análise de Falhas Considerando Inexistência de Dados
Apresenta-se a seguir uma visão geral das alternativas para análise de falhas
quando não existem dados. Objetiva-se introduzir a proposta apresentada em uma
contexto amplo que englobe técnicas convencionais e técnicas baseadas em
inteligência computacional (figura 4.1). Cabe ressaltar que as duas abordagens,
convencional e baseada em inteligência computacional não são conflitantes e sim
complementares.
A abordagem convencional apresenta as opções de utilização de
acelerados,
modelagem
não
paramétrica,
modelagem
paramétrica
testes
com
conhecimento a priori e casos particulares da estatística Bayesiana. Os testes
acelerados normalmente são utilizados nas fases iniciais de desenvolvimento de um
produto e, portanto, teriam pouco ou nenhuma utilidade para auxiliar o processo de
tomada de decisão em atividades de manutenção. Além disso, o projeto de um teste
acelerado envolve uma grande complexidade devendo levar em consideração
inúmeros fatores.
47
Testes Acelerados
Modelos não paramétricos
Abordagem
tradicional
Modelos paramétricos com
conhecimento a priori
Inexistência de
dados
Números Nebulosos
Sistemas Nebulosos
Inteligência
computacional
Redes Neurais
Processo de
Inferência Nebulosa
Abordagem Neuro
Nebulosa
Algoritmos Genéticos
Figura 4.1: Alternativas para cálculo de confiabilidade quando não existem dados
A utilização de modelos não paramétricos, como por exemplo, o estimador de
Kaplan-Meier, apresenta muitas limitações. Apesar destes modelos serem
excelentes como ferramentas exploratórias, existem, por exemplo, dificuldades de
se realizar predições fora da escala de observação.
Quando o comportamento da taxa de falha é aproximadamente aleatório e
existem poucos dados é possível
supor a adequação de uma distribuição de
probabilidade contínua exponencial. Nesta situação utiliza-se conhecimento a priori
para auxiliar a modelagem. Entretanto, a suposição de um comportamento de falha
puramente aleatório, normalmente não é verdadeira.
48
A abordagem Bayesiana (PAULINO et al,2003) oferece uma metodologia que
possibilita a incorporação de conhecimento tácito aos modelos convencionais. Estas
informações são traduzidas na forma de uma distribuição de probabilidade a priori.
Um caso particular desta abordagem é a modelagem estatística quando não existem
dados. No trabalho de Carvalho et.al. (2007) são explorados alguns exemplos desta
situação específica porém observa-se ser necessário um profundo conhecimento
sobre o componente modelado.
Concluindo, quando não existem dados, o conhecimento de engenharia e o
bom senso desempenham um papel fundamental no processo de tomada de
decisão. Enfim, neste caso, as decisões cabem exclusivamente aos especialistas
humanos. As técnicas de inteligência computacional apresentam uma opção natural
uma vez que valorizam a experiência humana.
O
cálculo
computacional
de
confiabilidade
baseado
em
técnicas
de
inteligência
pode abranger o uso de sistemas nebulosos, redes neurais,
algoritmos genéticos
ou técnicas híbridas. A abordagem nebulosa, ferramenta
principal utilizada neste trabalho, oferece uma metodologia formal para modelar o
conhecimento humano. Esta é sua principal vantagem.
4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas
O conceito de confiabilidade nebulosa foi introduzido e desenvolvido por vários
autores. CAI (1991) apresenta abordagens distintas considerando a combinação de
hipóteses válidas para a entrada e saída do sistema a ser estudado. As medidas
realizadas podem estar no âmbito da probabilidade ou da possibilidade e os estados
de saída podem ser binários ou nebulosos (figura 4.2). A combinação destas
hipóteses gera a classificação dos sistemas em PROBIST (PRObability Assumption
and
BInary-STate),
PROFUST
(PRObability
Assumption
POSBIST (POSsibility Assumption and BInary-STate)
and
FUzzy-STate)
e POSFUST (POSsibility
Assumption and FUzzy-STate). A aplicação da metodologia nebulosa (fuzzy) a estes
sistemas é detalhada a seguir. Conceitos elementares sobre teoria de conjuntos
nebulosos podem ser encontrados em JANG et al. (1997) e Pedrycz e Gomide
(1998).
49
A teoria PROBIST (PRObability Assumption and BInary-STate)
equivale à
teoria convencional de confiabilidade (CAI,1991) e é baseada em duas suposições
fundamentais. A primeira delas estabelece que o comportamento de um item ou
sistema em estudo pode ser completamente caracterizado em um contexto de
medidas de probabilidades. A segunda suposição estabelece que o sistema
comporta-se através de estados binários. Ou seja, só é possível a ocorrência dos
estados sucesso (funcionamento normal) ou falha.
Estados de saída
Medidas realizadas
probabilidade
possibilidade
binários
PROBIST
PROFUST
POSBIST
nebulosos
POSFUST
Figura 4.2: Metodologias nebulosas (fuzzy) para cálculo da confiabilidade de sistemas
O termo probabilidade pressupõe a disponibilidade de uma grande quantidade
de dados coletados. Os sistemas classificados como PROBIST satisfazem as
hipóteses de probabilidade e estados binários, porém estão sujeitos a vários tipos de
incertezas. Para muitos destes sistemas é difícil avaliar a probabilidade de falha a
partir de experiências anteriores porque o ambiente sofre mudanças com o tempo.
Esta característica dinâmica faz com que os dados disponíveis sejam insuficientes
para a estimação estatística de probabilidades (MISRA; WEBER, 1990). Pode
ocorrer ainda uma situação onde exista a necessidade de considerar componentes
que nunca falharam antes (TANAKA et al., 1983). Nestes casos pode ser difícil
determinar a probabilidade de uma maneira objetiva e pode ser necessária a
introdução do julgamento humano. Percebe-se claramente a necessidade de uma
técnica que permita a incorporação da subjetividade e da imprecisão e a abordagem
50
nebulosa surge como uma alternativa natural.
A teoria de confiabilidade PROFUST (PRObability Assumption and FUzzySTate) considera que o comportamento de um item ou sistema em estudo pode ser
caracterizado em um contexto de medidas de probabilidades, exatamente como nos
sistemas PROBIST. Uma segunda hipótese estabelece que a falha ou o sucesso do
sistema é caracterizado através de estados nebulosos. Assim, o significado de uma
falha não é definido de uma maneira precisa mas de forma nebulosa (CAI,1991).
(CAI et al.,1993).
Normalmente o sistema típico nos estudos sobre confiabilidade PROFUST é
formado por elementos independentes cuja falha individual diminui parcialmente o
desempenho do sistema como um todo. Esta situação caracteriza um modo
degradado de funcionamento situado entre os estados de falha e sucesso.
Sabe-se que o comportamento de falha difere em sistemas mecânicos,
eletrônicos, softwares, etc. Os sistemas mecânicos, em geral, estão sujeitos à
degradação e ao envelhecimento e apresentam tempo de desenvolvimento de falha.
Normalmente estes tipos de sistemas estão sujeitos a falhas incipientes e que,
portanto, podem ser detectadas previamente.
Outros tipos de sistemas, como por exemplo os eletrônicos, apresentam falhas
de natureza aleatória e de difícil previsão (falhas abruptas). Devido à estas
características acredita-se que políticas de manutenção que envolvam estudos de
confiabilidade baseados em estados nebulosos (PROFUST) possam ser de grande
valia.
Os sistemas POSBIST (POSsibility Assumption and BInary-STate) assumem
que o comportamento de falhas é caracterizado como uma medida de possibilidade.
A falha ou o sucesso do sistema é caracterizado através de estados binários (CAI et
al., 1991). Na abordagem POSBIST é possível definir uma distribuição de
possibilidade π (x) tal que esta distribuição seja igual a função de pertinência µA(x)
conforme definido por Zadeh (1978).
A teoria de confiabilidade POSFUST (POSsibility Assumption and FUzzy-STate)
considera que o comportamento de um item ou sistema em estudo pode ser
caracterizado em um contexto de medidas de possibilidades, como nos sistemas
POSBIST. A falha ou o sucesso do sistema é caracterizado através de estados
nebulosos. Portanto, da mesma forma que nos sistemas PROFUST o significado
preciso do que exatamente constitui uma falha não é definido (CAI, 1996).
51
A confiabilidade POSFUST de um sistema é interpretada como a possibilidade
que uma falha não ocorra em um intervalo de tempo especificado, sob condições
ambientais pré-estabelecidas. A ocorrência de uma falha neste contexto é um evento
nebuloso e, portanto é necessário utilizar ferramentas matemáticas que sejam
capazes de calcular a possibilidade de conjuntos nebulosos.
Concluindo, considerando-se os inúmeros trabalhos encontrados na literatura,
inclusive anteriores à classificação de Cai (1991), observou-se que existem duas
grandes vertentes de aplicação de conjuntos nebulosos para análise de falhas. A
primeira delas utiliza números nebulosos (TANAKA et al., 1983, MISRA; WEBER,
1990, WEBER, 1994, BOWLES; PELÁEZ, 1995, CAI,1996,
EL-IRAKI; ODOOM,
1998, NACHTMANN; CHIMKA, 2003).para modelagem da imprecisão dos dados de
falha como, por exemplo, taxas de falha, tempos de reparo, etc. Uma segunda
vertente consiste na utilização de um processo de inferência nebulosa baseado em
regras (BOWLES; PELÁEZ, 1995, CAI,1996). Algumas aplicações desta abordagem
podem ser encontradas em Weber (1994), Knezevic; Odoom (2001) e Guimarães;
Lapa (2004).
Os principais métodos convencionais de análise de confiabilidade de sistemas
utilizados atualmente como árvore de falhas (FTA) (KRASICH, 2005), diagramas de
blocos de confiabilidade (RBD) (MURPHY; CARTER, 2003) e análise de modos e
efeitos de falhas (FMEA) (BOWLES, 2003) podem ser interpretados sob a ótica da
teoria dos conjuntos nebulosos. São apresentados exemplos de análise nebulosa de
falhas no APÊNDICE A.
O objetivo deste trabalho é contribuir na análise de disponibilidade de sistemas
reparáveis utilizando uma abordagem nebulosa e tendo como base a experiência de
especialistas em operação destes sistemas. Embora grande parte das indústrias não
possua um banco de dados adequado à análise convencional de falhas, existem
especialistas que detêm o conhecimento acerca da operação de seus processos. A
abordagem nebulosa é útil para modelar o conhecimento armazenado em forma
tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão
no planejamento das atividades de manutenção.
52
4.3 Modelo Nebuloso para Análise de Falhas
A análise de falhas convencional, cujos conceitos foram apresentados nos
capítulos 2 e 3, pode ser realizada utilizando-se a abordagem nebulosa. Neste item
é proposta uma estrutura para cálculo de tempo médio de reparo e a disponibilidade.
O tempo de reparo depende do tempo gasto efetivamente com a manutenção e
também do tempo logístico. Considera-se este tempo relacionado a procedimentos
administrativos como, por exemplo, localizar pessoas, peças sobressalentes e
ferramentas adequadas. A figura 4.3 apresenta, de forma simplificada, o modelo
proposto. Considerando-se um equipamento sujeito a ação de vários modos de
falha, o processamento do modelo proposto é realizado com relação a cada um
deles, utilizando-se a teoria de modos de falha competitivos (NELSON, 1982;
MIJAILOVIC, 2003).
As matrizes de entradas xm, xl e xd dependem do processo modelado e serão
definidas pelos especialistas consultados. Podem ser citados como exemplos de
possíveis entradas a complexidade do modo de falha, a freqüência de ocorrência de
falha, etc. Informações sobre sistemas nebulosos podem ser encontradas em
Pedrycz e Gomide (1998).
xm
Sistema Nebuloso:
Tempo Manutenção
xl
Sistema Nebuloso:
Tempo Logístico
xd
Sistema Nebuloso:
Disponibilidade
τm
τl
∑
τR
AN
Figura 4.3: Modelo nebuloso proposto para análise nebulosa de falhas
53
O tempo de reparo médio nebuloso τ R
é calculado a partir da soma das
τ m e tempo logístico τ l conforme (4.1).
variáveis tempo efetivo de manutenção
τ R = τm +τl
O tempo efetivo de manutenção
(4.1)
τ m será calculado como função dos tempos
equivalentes às várias atividades realizadas para eliminar a falha e restabelecer o
funcionamento normal do processo ou equipamento:
km
τ m = ∑ τ mi
(4.2)
i =1
Onde τ mi : tempo equivalente a cada atividade;
km : número de atividades consideradas relevantes para o cálculo do tempo
efetivo de manutenção.
O cálculo do tempo logístico
τ l é realizado de maneira análoga ao apresentado
anteriormente para o cálculo do tempo efetivo de manutenção
kl
τ l = ∑ τ li
τ m conforme (4.3)
(4.3)
i =1
Onde τ li : tempo equivalente a cada atividade,
kl: número de atividades consideradas relevantes para o cálculo do tempo
logístico.
Os tempos τ mi e τ li , equivalentes à cada uma das variáveis que compõe o
cálculo de
τ m e τ l respectivamente são calculados através de um processo de
inferência nebulosa (fuzzy inference system - FIS) baseado em um conjunto de
54
m
regras do tipo IF-THEN. As variáveis que compõem as matrizes de entrada ( x e
xl ), bem como a base de regras a ser utilizada, serão obtidas através de entrevistas
com os especialistas.
A disponibilidade é calculada através de um processo de inferência nebulosa
d
tendo como matriz de entrada x . Esta matriz é composta por vetores contendo
como componentes o tempo de reparo médio nebuloso
τ R e a freqüência de
ocorrência de falhas xFO em um período pré-determinado.
O tempo entre falhas médio nebuloso τ EF é calculado de forma indireta.
considerando a relação entre o tempo de reparo nebuloso e o tempo total de
observação (tempo de missão).
A validação dos modelos nebulosos propostos, detalhada no capítulo 5, será
realizada através da comparação com os resultados obtidos pelos métodos
convencionais.
4.4 Modelo Nebuloso Adaptativo para Análise de Falhas
A utilização de modelos
nebulosos para análise de falhas é plenamente
justificada quando não existe um banco histórico de dados que possibilite a
utilização de modelos probabilísticos. O desenvolvimento do modelo, entretanto, é
totalmente dependente do conhecimento que o pessoal técnico (experiência do
especialista) tem a respeito do funcionamento do processo a ser modelado. Uma
forma de se tornar estes modelos mais robustos em relação às interferências
externas é incorporar a ele a capacidade de se adaptar em função de novos dados e
informações. Será utilizada para este fim uma classe de redes adaptativas
funcionalmente equivalentes aos sistemas de inferência nebulosa. Estas arquiteturas
são denominadas na literatura, de maneira geral, como sistemas adaptativos de
inferência neuro-nebulosa (adaptative neuro-fuzzy inference system- ANFIS) (JANG
et al.,1997).
55
A condição inicial do modelo adaptativo é determinada pelo modelo estático de
forma a utilizar o conhecimento dos especialistas como ponto de partida para o
modelo adaptativo. Maiores detalhes são fornecidos no APÊNDICE B.
O modelo nebuloso adaptativo proposto para o cálculo do tempo de reparo é
apresentado genericamente pelo diagrama de blocos da figura 4.4. Este diagrama é
análogo ao modelo não adaptativo apresentado anteriormente, na secção 4.3.
y1m
x1m
xkm
∑
M
ykm
τ RA
∑
y1l
x1l
x
τ mA
l
p
M
∑
τ lA
y lp
Figura 4.4: Modelo nebuloso adaptativo para cálculo do tempo de reparo
O tempo de reparo médio adaptativo
τ RA é calculado através da soma das
variáveis tempo efetivo de manutenção adaptativo τ mA e tempo logístico adaptativo
τ lA conforme (4.4).
τ RA =τ mA + τ lA
Cada uma das variáveis
yim , yil
(4.4)
cujo somatório compõe o tempo efetivo de
manutenção adaptativo τ mA e o tempo logístico adaptativo τ lA é calculada através
de uma rede neurofuzzy com propriedade de aproximação universal de funções
(figura 4.5). O treinamento destas redes será realizado utilizando-se o método de
56
minimização do erro quadrático conforme detalhado no APÊNDICE C. O erro a ser
−−
minimizado é dado por (4.5) onde τ R será obtido através do banco de dados.
− 
1
e = .τ R − τ R 
2

(4.5)
2
O modelo nebuloso adaptativo para o cálculo da disponibilidade utiliza apenas
uma
rede
adaptativa,
cujo
desenvolvimento
é
análogo
ao
apresentado
anteriormente. Este modelo é representado na figura 4.5 através da variável
d
genérica yi .
x1
x jm , x lj , x jd
xi
xr
w1
y1
wj
yj
wr
yr
∑
∏
yim , yil , yid
∑
Figura 4.5: Módulo adaptativo da rede neurofuzzy
Os vetores de entrada
xim , xil
para o cálculo dos tempos de manutenção e
logísticos são específicos para cada módulo adaptativo componente do modelo. O
número de variáveis utilizadas nos cálculos dos tempos efetivos de manutenção e
logístico estão diretamente relacionados com o sistema ou componente analisado e
com o conhecimento do especialista.
Na sub-rede adaptativa representada na figura 4.5 para o caso do cálculo do
tempo efetivo de manutenção (ou do tempo logístico), a entrada é uma matriz dada
por:
57
x m = [x1m x2m L xkm ] e x l = [x1l x2l L x pl ]
(4.6)
Onde k (p) é o número de vetores de dimensão r (número de linhas), sendo que
cada vetor representa a entrada dos k (p) módulos desta sub-rede rede e m é o
número de regras a ser utilizado.
58
5 AVALIAÇÃO E VALIDAÇÃO DO MODELO NEBULOSO PROPOSTO
Para validar o modelo nebuloso proposto será utilizado um equipamento de
uma cadeia de laminação de uma indústria siderúrgica. Este processo industrial
possui um banco de dados suficientemente adequado para análise de falhas
convencional.
A metodologia de obtenção e análise dos resultados utilizada é constituída de
três etapas:
i)
Obtenção dos resultados a partir da abordagem nebulosa de falhas proposta;
ii)
Obtenção dos resultados a partir da modelagem convencional (probabilística);
iii)
Validação dos resultados através de uma análise crítica tendo como bases os
resultados obtidos utilizando as duas abordagens.
5.1 Descrição do Processo Produtivo
O nome da indústria na qual foi realizado o trabalho de campo será omitido
devido à imposição contratual, por motivo de sigilo industrial. Pelo mesmo motivo
informações
que
eventualmente
pudessem
identificá-la
foram
omitidas
ou
modificadas.
Este trabalho é focado em um equipamento de uma cadeia de laminação
considerado crítico para o processo produtivo e que apresenta falhas com índice de
severidade mais alto e também em maior quantidade. O banco de dados foi
delimitado a um período de 13 meses.
O processo de laminação consiste na redução de espessura e mudança da
forma geométrica de uma determinada quantidade de metal. A matéria prima a ser
laminada alimenta uma série de estágios constituídos basicamente de cilindros que
giram com a mesma velocidade em direções opostas. A prensagem dos cilindros
produz altas pressões até que o material laminado atinja a espessura e o formato
desejados. O produto final é então conduzido a uma etapa de resfriamento para
posteriormente ser cortado em tamanhos especificados comercialmente. A figura
5.1 apresenta uma representação esquemática do processo em estudo. O
59
equipamento utilizado para validar o modelo nebuloso proposto é identificado na
referida figura como laminador primário.
Laminador
Primário
Grupo Laminador
Secundário
Serras
Serras
Forno de
Reaquecimento
Leito de
Resfriamento
Figura 5.1: Representação esquemática do processo de laminação em estudo
O processo produtivo estudado apresenta a característica de fluxo contínuo,
ou seja, encontra-se em funcionamento 24 horas por dia durante os sete dias da
semana. Considerou-se que o turno de trabalho exerce forte influência sobre os
modelos de análise de falhas desde que os operadores e as condições ambientais
são diferentes. Durante o turno diurno as equipes de manutenção contam com o
apoio do corpo administrativo para resolver quaisquer problemas logísticos que
venham a surgir. Durante o turno noturno e o turno que compreende o final da tarde
e o inicio da noite não existe o apoio do corpo administrativo, pelo menos de forma
direta. Decidiu-se, portanto, considerar modelos distintos para o turno diurno e para
os outros turnos. Este trabalho apresenta o modelo nebuloso desenvolvido para o
turno diurno. A mesma metodologia é facilmente aplicável aos demais turnos.
Os dias da semana foram subdivididos em dias úteis e feriados. Foram
considerados dias úteis inclusive sábados e domingos uma vez que, pelo histórico
da empresa, a probabilidade dos funcionários se locomoverem grandes distâncias
em apenas dois dias é pequena. Portanto, tendo ocorrido algum problema, é
possível localizar pessoas qualificadas para resolvê-lo com relativa facilidade.
60
Quando ocorre um feriado de duração maior que três dias esta dinâmica pode ser
alterada porque as pessoas podem se locomover a locais mais distantes. O Quadro
5.1 apresenta a classificação das variáveis determinísticas turno e dia da semana. A
proporção de feriados prolongados durante o ano é pequena em relação aos dias
úteis. Portanto, a variável dia da semana foi considerada insignificante.
Variável
Estratificação
Turno
1- N (noturno) 00:00 as 8:00h
2- D (diurno)
08:00 as 16:00h
3- PN (parcialmente noturno) 16:00 as 00:00h
Dia da semana
U - (útil- segunda a segunda)
F - (feriados prolongados)
Quadro 5.1: Classificação das variáveis determinísticas
Os cálculos para análise de falhas (tanto nebulosos quanto convencionais)
foram realizados somente com relação às paradas não planejadas (interrupções).
Estas interrupções são classificadas como tempo de manutenção não programada
(TMNP) e tempo de parada operacional (TPO). Não foram feitas distinções com
relação aos modos de falha provenientes dos dois tipos de interrupções.
5.2 Implementação dos Modelos Nebulosos Propostos
Nesta etapa, o banco de dados do equipamento escolhido para estudo foi
considerado indisponível para não influenciar na avaliação da capacidade de
estimação do modelo proposto.
Conforme apresentado anteriormente, o processamento do modelo proposto foi
realizado utilizando-se a teoria de modos de falha competitivos. A primeira parte do
trabalho consistiu, portanto, na identificação de todos os modos de falha atuantes
no equipamento escolhido como foco do trabalho. O ANEXO A apresenta todos os
modos de falha analisados. Foram escolhidos os modos de falha com no mínimo 3
61
ocorrências de forma a possibilitar a posterior comparação com o modelo
convencional.
A escolha e a quantidade de termos lingüísticos para representar cada variável
de entrada do modelo nebuloso foi feita através de entrevistas com os especialistas
conforme Quadro 5.2. Foram consideradas como entradas do modelo a
complexidade do modo de falha xCX ,
localização do modo de falha dentro do
equipamento x LO , dimensão física do sobressalente x DF , custo do sobressalente
xCS e freqüência de ocorrência de falhas x FO . Todos os conjuntos foram igualmente
distribuídos em um universo de discurso entre 0 e 1.
Variável
Granularização
P (pequeno)
xCX
M (médio)
G (grande)
F (fácil)
x LO
M (médio)
D (difícil)
P (pequeno)
x DF
M (médio)
G (grande)
P (pequeno)
xCS
M (médio)
G (grande)
P (pequeno)
x FO
M (médio)
G (grande)
Quadro 5.2: Variáveis de entrada
A figura 5.2 mostra a granularização da variável complexidade do modo de
falha xCX através dos subconjuntos nebulosos
“pequeno”, “médio” e “grande”.
Foram utilizadas funções de pertinência triangulares para representar todos os
subconjuntos. Procedimento análogo foi utilizado para todas as outras variáveis de
62
entrada. Após esta etapa os especialistas atribuíram notas variando de 0 a 1 para
todas as variáveis de entrada, em relação a cada modo de falha.
Figura 5.2: Granularização do conjunto nebuloso complexidade
xCX
5.2.1 Cálculo do Tempo de Reparo Nebuloso
O tempo de reparo médio nebuloso τ R
variáveis tempo efetivo de manutenção
é calculado a partir da soma das
τ m e tempo logístico τ l conforme (4.1). O
tempo efetivo de manutenção será calculado pela expressão (5.1)
km
τ m = ∑ τ mi = τ DC + τ DE + τ RE + τ MO + τ TE
(5.1)
i =1
Onde
τ DC
é o tempo para detectar a falha;
τ DE é o tempo para desmontar o equipamento;
τ RE é o tempo para reparar o equipamento;
τ MO é o tempo para montar novamente o equipamento;
τ TE é o tempo para testar a efetividade do reparo.
A matriz de entrada x
m
possui dimensão (2 x 5), cujos vetores são todos iguais e de
dimensão 2, composto das componentes complexidade do modo de falha xCX e a
localização da falha dentro do equipamento x LO , ou seja:
63
(5.2)
x
x
x
x 
x
x m =  CX CX CX CX CX 
 x LO x LO x LO x LO x LO 
A figura 5.3 ilustra graficamente o modelo proposto para o cálculo do tempo
efetivo de manutenção para o equipamento analisado.
Tempo p/ detectar a
falha
Tempo p/
desmontar
Complexidade
Tempo p/ reparar
Tempo efetivo de
manuntenção
Localizaçäo
Tempo p/ montar
Tempo p/ testar
FIS
∑
Figura 5.3 - Modelo nebuloso para cálculo do tempo efetivo de manutenção
Procedimento análogo é realizado com relação ao tempo logístico
τl
conforme
expressão (5.3).
kl
τ l = ∑ τ li = τ MP + τ DF + τ RS
i =1
Onde: τMP é o tempo para mobilizar pessoas;
τDF é o tempo para disponibilizar ferramentas;
τRS é o tempo para repor sobressalentes.
(5.3)
64
A figura 5.4 ilustra graficamente o modelo proposto para o cálculo do tempo
logístico.
Tempo p/ mobilizar
pessoas
Complexidade
Tempo p/
disponibilizar
ferramentas
Custo
Tempo logístico
Tempo p/ repor
sobressalentes
Dimensão
Física
∑
FIS
Figura 5.4 - Modelo nebuloso para cálculo do tempo logístico
A matriz de entrada x
l
possui dimensão (3 x 3), cujas componentes são a
complexidade do modo de falha xCX , o custo do sobressalente xCS e dimensão física
do sobressalente a ser substituído x DF sendo, portanto, dada por:
 xCX xCX xCX
x l =  0
0 xCS
 0
0 x DF




(5.4)
Observou-se, através de resultados preliminares, que as variáveis custo do
sobressalente xCS e complexidade do modo de falha xCX não exercem influência
significativa no cálculo nebuloso da variável tempo para repor sobressalentes τRS.
Assim, o modelo proposto para cálculo do tempo logístico (figura 5.4) foi substituído
pelo modelo simplificado (figura 5.5).
65
Complexidade
Tempo p/ mobilizar
pessoas
Tempo p/
disponibilizar
ferramentas
Dimensão
Física
Tempo logístico
Tempo p/ repor
sobressalentes
∑
FIS
Figura 5.5: Modelo nebuloso simplificado para cálculo do tempo logístico
l
Devido a simplificação do modelo, a dimensão da matriz de entrada x mudou
para (1x 3). Suas componentes são a complexidade do modo de falha xCX
e
dimensão física do sobressalente a ser substituído xDF.
x l = [xCX xCX x DF
]
(5.5)
O universo de discurso (faixa de variação) de cada uma destas variáveis foi
determinada pelos especialistas conforme quadro 5.3. Os valores adotados como
universo de discurso (em minutos) para cada variável foram diferentes considerando
os dois cenários de modelagem identificados. Este trabalho apresenta o modelo
nebuloso desenvolvido para o turno diurno, conforme mencionado anteriormente.
Observa-se que as variáveis τ DC ,
τ MO , τ TE , τ DF e τ RS não sofreram alterações
devido à mudança do cenário de modelagem (turno diurno ou turnos noturnos). Uma
vez determinado o universo de discurso relativo a cada variável foi necessário
realizar a estratificação dos subconjuntos nebulosos. Foram utilizadas funções de
pertinência triangulares igualmente espaçadas para representar todas as variáveis
com exceção do tempo de reparo. Os especialistas informaram que, neste caso,
qualquer valor de tempo maior que 60 minutos pode ser considerado grande. Por
este motivo foram adotadas funções de pertinência trapezoidais ( figura 5.6).
66
Variável
Sigla
Variação
Variação
turno
turnos
diurno (min)
noturnos(min)
Tempo para detectar a falha
τ DC
0-30
0-30
Tempo para desmontar o equipamento
τ DE
0-30
0-90
Tempo para reparar o equipamento
τ RE
0-300
0-390
Tempo para montar o equipamento
τ MO
0-30
0-30
Tempo para testar a efetividade do reparo.
τ TE
0-30
0-30
Tempo efetivo de manutenção
τm
0-420
0-690
Tempo para mobilizar pessoas
τ MP
0-15
0-90
Tempo para disponibilizar ferramentas
τ DF
0-30
0-30
Tempo para repor sobressalentes
τ RS
0-15
0-15
Tempo logístico
τl
0-60
0-135
Tempo de reparo médio nebuloso
τ
0-480
0-825
R
Quadro 5.3: Universo de discurso (em minutos) para as variáveis de saída
Figura 5.6 : Granularização da variável tempo para reparar
τ RE
Uma vez determinados os valores adotados como universo de discurso para
todas as variáveis e realizada a estratificação dos subconjuntos nebulosos foi
realizada a combinação dos atributos das variáveis de entrada e saída do modelo de
forma a gerar a base de regras a ser utilizada.
67
Foram utilizadas neste trabalho regras IF-THEN com a estrutura genérica:
Se E1
é
é X2 ...e En
X1 e E2
é
Xn então
S
é Y
ξ
Onde En : entradas;
Xn : valor nebuloso da entrada;
S: saída;
Y: valor nebuloso da saída;
ξ: grau de certeza.
O conseqüente das regras geradas foi determinado pelos especialistas
consultados.
Os quadros 5.4 a 5.8 apresentam as regras relativas ao cálculo
nebuloso do tempo efetivo de manutenção.
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
é
é
é
é
é
é
é
é
é
F
M
D
F
M
D
F
M
D
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
é
é
é
é
é
é
é
é
é
P
P
M
M
M
G
M
G
G
(0.8)
(0.8)
Quadro 5.4: Regras para determinar o tempo para detectar a falha
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
e
e
e
e
e
e
e
e
e
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
é
é
é
é
é
é
é
é
é
F
M
D
F
M
D
F
M
D
então τDE
então τDE
então τDE
então τDE
então τDE
então τDE
então τDE
então τDE
então τDE
é
é
é
é
é
é
é
é
é
P
P
M
P
M
G
M
G
G
Quadro 5.5: Regras para determinar o tempo para desmontar o equipamento
68
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
e
e
e
e
e
e
e
e
e
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
é
é
é
é
é
é
é
é
é
F
M
D
F
M
D
F
M
D
então τRE
então τRE
então τRE
então τRE
então τRE
então τRE
então τRE
então τRE
então τRE
é
é
é
é
é
é
é
é
é
P
P
M
P
M
G
M
G
G
Quadro 5.6: Regras para determinar o tempo para reparar o equipamento
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
e
e
e
e
e
e
e
e
e
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
é
é
é
é
é
é
é
é
é
F
M
D
F
M
D
F
M
D
então τMO
então τMO
então τMO
então τMO
então τMO
então τMO
então τMO
então τMO
então τMO
é
é
é
é
é
é
é
é
é
P
P
M
P
M
G
M
G
G
Quadro 5.7: Regras para determinar o tempo para montar o equipamento
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
e
e
e
e
e
e
e
e
e
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
xLO
é
é
é
é
é
é
é
é
é
F
M
D
F
M
D
F
M
D
então τTE
então τTE
então τTE
então τTE
então τTE
então τTE
então τTE
então τTE
então τTE
é
é
é
é
é
é
é
é
é
P
P
M
P
M
G
M
G
G
(0.8)
Quadro 5.8: Regras para determinar o tempo para testar o equipamento
69
Os quadros 5.9 a 5.11 apresentam as regras relativas ao cálculo nebuloso do
tempo logístico..
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
P
P
P
P
P
P
P
P
P
M
M
M
M
M
M
M
M
M
G
G
G
G
G
G
G
G
G
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
e xCS
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
P
P
P
M
M
M
G
G
G
P
P
P
M
M
M
G
G
G
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
e xDF
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
P
M
G
P
M
G
P
M
G
P
M
G
P
M
G
P
M
G
P
M
G
P
M
G
P
M
G
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
então τRS
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
é
Quadro 5.9: Regras para determinar o tempo para repor sobressalentes
P
P
M
P
M (0.8)
G
P
---G
(0.8)
P
P
G
P
M
G
---M
G
P
M
G
P
M
G
P
M
G
70
Se xCX
Se xCX
Se xCX
é
é
é
P
M
G
então τMP
então τMP
então τMP
é
é
é
P
M
G
Quadro 5.10: Regras para determinar o tempo para mobilizar pessoas
Se xCX
Se xCX
Se xCX
é
é
é
P
M
G
então τDF
então τDF
então τDF
é
é
é
P
M
G
Quadro 5.11: Regras para determinar o tempo para disponibilizar ferramentas
Devido a simplificação do modelo para cálculo do tempo logístico (apresentado
na figura 5.5), a base de regras para cálculo nebuloso da variável tempo para repor
sobressalentes τRS foi reduzida. Observa-se uma diminuição do número de regras
de 27 para apenas 3, conforme quadro 5.12.
Se xDF
Se xDF
Se xDF
é
é
é
P
M
G
então τRS
então τRS
então τRS
é
é
é
P
M
G
Quadro 5.12: Regras para determinar o tempo para repor sobressalentes (modelo simplificado)
5.2.2 Cálculo da Disponibilidade Nebulosa
Conforme detalhado no capítulo 4, o cálculo da disponibilidade é realizado
através de um sistema nebuloso em cascata. A saída do modelo nebuloso para
cálculo do tempo de reparo médio nebuloso τ
R
é utilizada como entrada do modelo
para cálculo de disponibilidade. O processamento do modelo é realizado em relação
71
a cada modo de falha e os valores resultantes são convertidos em uma escala com
variação entre 0 e 1. A figura 5.5 apresenta os subconjuntos nebulosos utilizados
(pequeno, médio e grande) representados por funções de pertinência gaussianas.
Figura 5.7: Granularização da variável tempo de reparo médio nebuloso
τR
A variável de entrada freqüência de ocorrência x FO cuja estratificação em conjuntos
nebulosos foi apresentada no quadro 5.2, é apresentada na figura 5.8.
Figura 5.8: Granularização da variável freqüência de ocorrência
x FO
A figura 5.9 apresenta a variável de saída disponibilidade nebulosa AN. Considerouse o universo de discurso com variação entre 0 e 1 subdividido através de quatro
conjuntos nebulosos. Observa-se que todas as variáveis para cálculo de
disponibilidade foram representadas por funções de pertinência gaussianas. Esta
escolha foi realizada através de experimentação prática e entrevistas com os
especialistas.
Figura 5.9: Granularização da variável disponibilidade nebulosa AN
72
Os quadro 5.13 apresenta
as regras relativas ao cálculo nebuloso da
disponibilidade.
Se τR
Se τR
Se τR
Se τR
Se τR
Se τR
Se τR
é
é
é
é
é
é
é
P
G
P
M
G
M
G
e xFO
e xFO
e xFO
e xFO
e xFO
e xFO
e xFO
é
é
é
é
é
é
é
P
P
M
M
M
G
G
então AN
então AN
então AN
então AN
então AN
então AN
então AN
é
é
é
é
é
é
é
MG
G
MG
G
P
P
P
Quadro 5.13: Regras para determinar a disponibilidade nebulosa AN
5.2.3 Cálculo do Tempo entre Falhas Nebuloso
O tempo entre falhas médio nebuloso τ EF é calculado de forma indireta. A
expressão (5.6) apresenta o método empírico proposto considerando a relação entre
o tempo de reparo nebuloso e o tempo total de observação. O tempo de reparo
nebuloso
pode ser calculado através do mecanismo de inferência Mamdani
(PEDRYCZ; GOMIDE, 1988) ou Sugeno (JANG et al.,1997).
τ EF =
Onde
τ T − QF τ R
QF − 1
τ t : tempo total de observação do banco de dados;
QF : quantidade de falhas;
τ R : tempo de reparo médio nebuloso.
(5.6)
73
5.3 Resultados Obtidos através da Análise Nebulosa de Falhas
Foram implementados os processos de inferência Mamdani e Sugeno
utilizando-se o Toolbox Fuzzy do MATLAB™ (MATHWORKS, 2006). A tabela 5.1
apresenta a síntese dos
resultados obtidos a partir do
modelo nebuloso não
adaptativo para cálculo do tempo de reparo médio com relação a cada modo de
falha considerado. As saídas dos modelos nebulosos Mamdani e Sugeno foram
identificadas por τ
RM
eτ
RSU
respectivamente.
A quantidade de falhas QF (ou número de ocorrências de cada modo de falha)
tem influência direta no cálculo convencional uma vez que a abordagem
probabilística pressupõe uma grande quantidade de dados. Observa-se que no
modelo nebuloso esta influência é menos significativa, sendo os resultados
dependentes exclusivamente da experiência dos especialistas.
Tabela 5.1: Resultados modelos nebulosos não adaptativos para cálculo do τR
QF
τ RM
τRSU
Falha de automação
12
19,65
41,04
Geração de sucatas
17
19,28
27,95
Inspeção no laminador
14
44,93
49,46
Material agarrado
6
11,03
19,59
Ajuste axial
6
44,93
49,46
Ajuste na escala de passe
5
11,03
19,40
Perda de estabilidade
4
11,03
19,40
Ajuste “s”
4
49,28
43,24
Troca “s”
3
45,68
52,24
Modos de Falha
A tabela 5.2 apresenta o resultado do modelo nebuloso adaptativo para cálculo
do tempo médio de reparo. Para avaliação dos resultados serão utilizados como
referência os valores desejados para cada modo de falha, calculados pela média
dos tempos de reparo obtidos no banco de dados. O melhor resultado foi obtido
74
considerando-se 1000 iterações e taxa de aprendizado (α) igual a 0,01. Os
parâmetros do modelo Sugeno estático foram utilizados para gerar a condição inicial
τRi do modelo adaptativo conforme detalhado no APENDICE B. Observa-se que os
resultados do modelo adaptativo τRA foram satisfatórios e atingiram valores próximos
aos valores desejados τRd .
Foram utilizados como valores desejados a média dos tempos de reparo µTR
para cada modo de falha.
De modo geral o modelo adaptativo apresentou
resultados melhores que o modelo não adaptativo partindo da condição inicial τRi.
Tabela 5.2: Resultados modelo nebuloso adaptativo para cálculo do tempo médio de reparo
QF
τRd
Falha de automação
12
16,42
41,24
16,75
Geração de sucatas
17
24,00
28,12
21,95
Inspeção no laminador
14
30,29
49,49
40,45
Material agarrado
6
12,83
19,67
14,72
Ajuste axial
6
48,67
49,49
40,45
Ajuste na escala de passe
5
15,60
19,48
15,87
Perda de estabilidade
4
15,75
19,48
15,87
Ajuste “s”
4
32,25
43,36
34,98
Troca “s”
3
42,33
52,37
43,07
Modos de Falha
τRi
τRA
A tabela 5.3 apresenta os resultados de disponibilidade obtidos a partir do
modelo nebuloso adaptativo ANA. De forma análoga ao modelo descrito
anteriormente, os parâmetros do modelo Sugeno estático foram utilizados para gerar
a condição inicial, ANi , do modelo adaptativo.
O valor desejado de disponibilidade Ad foi calculado a partir do conceito de
disponibilidade em estado estacionário. Segundo este conceito, a disponibilidade
pode ser interpretada como a proporção de tempo em que um sistema encontra-se
em estado operativo. Assim é possível calcular a disponibilidade para cada modo de
falha a partir da média dos seus tempos de reparo µTR segundo a expressão (5.7).
Devido à estreita faixa de variação, todos os valores resultantes foram normalizados
75
dentro considerando-se uma faixa entre 0 e 1 para
a fase de treinamento do
modelo.
Ad =
τ t − ( QF µ TR )
τt
(5.7)
Onde τ t : tempo total de observação do banco de dados;
QF : quantidade de falhas;
µTR: média dos tempos de reparo (banco de dados)
Tabela 5.3: Resultados modelo nebuloso adaptativo para cálculo da disponibilidade
Modos de Falha
QF
Ad
ANi
ANA
Falha de automação
12
0,9996
0,9008
0,9731
Geração de sucatas
17
0,9993
0,5888
1,0000
Inspeção no laminador
14
0,9992
0,9992
0,9992
Material agarrado
6
0,9999
1,0000
1,0000
Ajuste axial
6
0,9995
0,9995
1,0000
Ajuste escala de passe
5
0,9999
1,0000
1,0000
Perda de estabilidade
4
0,9999
0,9999
0,9725
Ajuste “s”
4
0,9998
1,0000
1,0000
Troca “s”
3
0,9998
0,6076
0,7602
Observa-se que, de um modo geral, o modelo adaptativo conseguiu obter
valores mais próximos do desejado. Cabe ressaltar que os valores iniciais foram
obtidos sem nenhuma influência do banco de dados, o que enfatiza a utilidade do
modelo proposto.
76
5.4 Cálculo Convencional e Validação de Resultados
Os benefícios da aplicação de análise de falhas convencional são conhecidos
na literatura uma vez que análises de confiabilidade têm sido aplicadas em
processos industriais diversos, inclusive em processos de laminação, com o
propósito de aumentar a sua disponibilidade (DESHANDE; MODAK, 2003).
A condição necessária para a realização da análise de falhas convencional é
que o processo industrial possua um banco de dados com informações de
manutenção suficientemente adequadas, como é o caso do processo sob análise.
Após realizada a estratificação dos dados em modos de falha foram
calculados os tempos entre falhas (TEF) e os tempos de reparo (TR) para cada um
deles.
O mesmo procedimento de cálculo dos tempos entre falhas e tempo de reparo
foi realizado para todos os modos de falha identificados na tabela 5.1. A partir dos
valores de tempo entre falhas e de reparos realizou-se um teste de aderência para
escolha da melhor distribuição de probabilidade para modelagem da confiabilidade e
da mantenabilidade. Em todas as análises foi utilizado o software Weibull++7™
(RELIASOFT CORPORATION, 2007a).
Considerando-se tratar de um equipamento reparável é necessário modelar a
probabilidade de falha e a probabilidade de reparo.
Os testes de aderência
realizados individualmente para confiabilidade e mantenabilidade, não levam em
consideração a iteração entre os dois modelos. Portanto, nem sempre a melhor
distribuição de probabilidade indicada pelo teste de aderência é a mais adequada.
A adequação dos modelos de confiabilidade e mantenabilidade de cada
equipamento em relação a cada modo de falha foi realizado através da simulação de
Monte Carlo utilizando-se o software BlockSim™ (RELIASOFT CORPORATION,
2007b). As duas distribuições de probabilidade encontradas foram utilizadas como
variáveis de entrada para a simulação, que oferece como saída a quantidade de
falhas esperada e o tempo total indisponível. Estes valores foram confrontados com
o histórico de dados de maneira recursiva até a obtenção do menor erro percentual
possível. Considerando-se todos os modos de falha (de todos os turnos) foram
derivados 34 modelos para o turno diurno e 48 modelos para o turno noturno.
77
A tabela 5.4 apresenta a validação dos modelos de confiabilidade e
mantenabilidade para o turno diurno, em relação aos modos de falha em estudo
(tabela 5.1)
Tabela 5.4: Validação dos modelos de confiabilidade e mantenabilidade turno diurno
Simulação
Modos de Falha
Histórico
No Oc.
∑ Ti
No Oc.
∑ Ti
Falha de automação
11,67
242,09
12,00
Geração de sucatas
18,92
434,83
Inspeção no laminador
12,64
Material agarrado
Erro%
Erro%
No Oc.
∑ Ti
257,00
2,75
5,80
17,00
408,00
11,29
6,58
430,09
14,00
424,00
9,71
1,44
6,93
89,07
6,00
77,00
15,50
15,68
Ajuste axial
6,31
300,47
6,00
292,00
5,17
2,90
Ajuste escala de passe
4,97
88,24
5,00
78,00
0,60
13,13
Perda de estabilidade
3,92
67,73
4,00
63,00
2,00
7,51
Ajuste “s”
4,02
136,55
4,00
129,00
0,50
5,85
Troca “s”
2,92
122,85
3,00
127,00
2,67
3,27
As tabelas 5.5 e 5.6 apresentam os modelos derivados para confiabilidade e
mantenabilidade e seus respectivos parâmetros. As principais distribuições de
probabilidade utilizadas para análise RAM convencional foram apresentadas no
capítulo 2.
78
Tabela 5.5: Distribuições de probabilidade para modelagem da mantenabilidade
Modos de Falha
Parâmetros
f(t)
Falha de automação
Weibull
β=1,9400
η=23,4200
Geração de sucatas
Weibull
β =0,7187
η =15,6580
Inspeção no laminador
lognormal
µ= 2,9670
σ = 61,0340
Material agarrado
gama gen*.
µ = 2,8193
σ = 0,2613
Ajuste axial
Weibull
β =1,7931
η =53,1166
Ajuste escala de passe
lognormal
µ=2,5503
σ=0,8036
Perda de estabilidade
Weibull
β =1,4603
η =19,6139
Ajuste “s”
Weibull
β =1,0627
η =34,5865
Troca “s”
Weibull
β =4,0039
η =46,3104
γ=33,8200
λ= 2,1320
γ=-0,7600
*gama generalizada
Tabela 5.6: Distribuições de probabilidade para modelagem da confiabilidade
Modos de Falha
Parâmetros
f(t)
Falha de automação
Weibull
Geração de sucatas
gama gen. µ=10,4211
σ= 0,7063
Inspeção no laminador
Weibull
β=0,4476
η=21755
Material agarrado
Weibull
β=0,7242
η=71213
Ajuste axial
Weibull
β=0,9243
η=86386
Ajuste escala de passe
expon.
λ=8,9030e-6
Perda de estabilidade
expon.
λ=7,1220e-6
Ajuste “s”
expon.
λ=7,1220e-6
Troca “s”
expon.
λ= 5,3410e-6
β=0,5100
η=29530
λ=1,0933
Dentre as distribuições de probabilidade citadas nas tabelas 5.5 e 5.6 a única
não detalhada anteriormente foi a distribuição gama. Maiores informações sobre
distribuições de probabilidade utilizadas em análise RAM convencional podem ser
obtidos em Nelson (1982), Lewis (1987) e O’ Connor ( 2002).
Finalmente, após a obtenção de todos os modelos, foi possível calcular o
MTTR e o MTBF relativo a cada modo de falha de forma a comparar posteriormente
79
com os valores obtidos pelo modelo nebuloso. A tabela 5.7 apresenta os valores de
MTTR em minutos, obtidos para todos os modos de falha do turno diurno.
A tabela 5.8 apresenta os valores de MTBF, também em minutos, obtidos para
todos os modos de falha do turno diurno. Observa-se que, em ambos os casos,
foram calculados intervalos de confiança bilaterais de 90% para os modos de falha
que apresentaram quantidade suficiente de dados. Este valor foi escolhido a partir
da observação dos valores comumente utilizados na indústria de uma maneira geral.
Tabela 5.7: Comparação de valores MTTR (min)
τ RSU
τ RA
19,65
41,04
16,75
38,39
19,28
27,95
21,95
33,19
52,28
44,93
49,46
40,45
9,90
12,85
16,70
11,03
19,59
14,72
Ajuste axial
30,60
47,24
72,94
44,93
49,46
40,45
Ajuste escala de passe
9,80
17,69
31,96
11,03
19,40
15,87
Perda de estabilidade
8,51
17,01
33,28
11,03
19,40
15,87
Ajuste “s”
14,66
33,77
77,79
49,28
43,24
34,98
Troca “s”
31,89
41,97
55,25
45,68
52,24
43,07
Modos de Falha
- 90%
MTTR
+ 90%
Falha de automação
15,53
20,77
27,79
Geração de sucatas
14,64
23,16
Inspeção no laminador
21,06
Material agarrado
τ RM
Tabela 5.8: Comparação de valores MTBF (min)
- 90%
MTBF
+ 90%
τ EF
Falha de automação
16.855,00
56.627,00
90.250,00
51.030,00
Geração de sucatas
21.002,00
29.639,00
41.830,00
35.080,00
Inspeção no laminador
15.714,00
54.570,00
189.510,00
37.040,00
Material agarrado
26.166,00
87.370,00
291.730,00
112.310,00
Ajuste axial
36.839,00
89.619,00
218.020,00
112.270,00
Modos de Falha
Ajuste escala de passe
112.320,00
140.390,00
Perda de estabilidade
140.400,00
187.190,00
Ajuste “s”
140.400,00
187.130,00
Troca “s”
187.200,00
280.730,00
80
A tabela 5.9 apresenta os valores de disponibilidade calculados a partir do
MTTR e do MTBF obtidos através de métodos convencionais Ao (disponibilidade
operacional) e obtidos pelo modelo nebuloso adaptativo ANA. Estes resultados
comprovam claramente a viabilidade do modelo nebuloso proposto. Observa-se que
os resultados obtidos foram promissores apesar da quantidade de modos de falha
disponível ser pequena.
Tabela 5.9: Comparação de valores de disponibilidade
Modos de Falha
QF
MTTR
Falha de automação
12
20,77
56.627,00 0,9996
0,9731
Geração de sucatas
17
23,16
29.639,00 0,9992
1,0000
Inspeção no laminador
14
33,19
54.570,00 0,9994
0,9992
Material agarrado
6
12,85
87.370,00 0,9999
1,0000
Ajuste axial
6
47,24
89.619,00 0,9995
1,0000
Ajuste escala de passe
5
17,69
112.320,00
0,9998
1,0000
Perda de estabilidade
4
17,01
140.400,00
0,9999
0,9725
Ajuste “s”
4
33,77
140.400,00
0,9998
1,0000
Troca “s”
3
41,97
187.200,00
0,9998
0,7602
MTBF
Ao
ANA
Uma segunda abordagem de utilização do modelo proposto para cálculo do
tempo de reparo consiste em seu detalhamento conforme tabela 5.10 (refere-se ao
modelo estático). A estratificação do tempo de reparo permite quantificar a
relevância de cada um dos tempos citados para composição do tempo de reparo.
Uma vez identificada a parcela mais crítica (tempo efetivo de manutenção ou tempo
logístico) é possível direcionar o esforço de manutenção no sentido de direcionar e
otimizar recursos.
81
Tabela 5.10: Tempo de reparo estratificado
Modos de Falha
Falha de automação
τm
14,78
τl
τ
4,88
19,65
R
Geração de sucatas
14,78
4,50
19,28
Inspeção no laminador
22,43
22,50
44,93
8,78
2,25
11,03
22,43
22,50
44,93
Ajuste escala de passe
8,78
2,25
11,03
Perda de estabilidade
8,78
2,25
11,03
Ajuste “s”
26,78
22,50
49,28
Troca “s”
22,43
23,25
45,68
Material agarrado
Ajuste axial
Observa-se na Tabela 5.10 que, na maior parte dos modos de falha
analisados, o tempo efetivo de manutenção foi maior que o tempo logístico. Este
resultado seria esperado uma vez que os dados referem-se ao turno diurno, que
conta com todo o apoio a nível administrativo.
A tabela 5.11 apresenta um segundo nível de estratificação para a variável
tempo logístico τ l . O mesmo procedimento poderia ser adotado para a variável
tempo efetivo de manutenção τ m . Observa-se que todos os modos de falha de
“Geração de sucatas” a “Ajuste s” correspondem a procedimentos operacionais.
Portanto, o tempo para repor sobressalentes τ RS é nulo para todos eles. Observase ainda que a maior parcela de contribuição para o tempo logístico é devida ao
tempo para disponibilizar ferramentas τ DF .
82
Tabela 5.11: Tempo logístico estratificado
Modos de Falha
τ MP
τ DF
τl
τ RS
Falha de automação
1,50
3,00
0,38
4,88
Geração de sucatas
1,50
3,00
0
4,50
Inspeção no laminador
7,50
15,00
0
22,50
Material agarrado
0,75
1,50
0
2,25
Ajuste axial
7,50
15,00
0
22,50
Ajuste escala de passe
0,75
1,50
0
2,25
Perda de estabilidade
0,75
1,50
0
2,25
Ajuste “s”
7,50
15,00
0
22,50
Troca “s”
7,50
15,00
0,76
23,25
Os tempos que compõem o tempo de reparo normalmente não são
registrados em bancos de dados convencionais. Por este motivo o detalhamento
apresentado nas tabelas 5.10 e 5.11 foi validado indiretamente, através de
entrevistas com os especialistas.
83
6 CONCLUSÕES
Este trabalho apresentou a proposta de um modelo nebuloso para o cálculo do
tempo de reparo médio, tempo entre falhas médio e disponibilidade de sistemas
reparáveis a partir do conhecimento de especialistas. Embora grande parte das
indústrias não possua um banco de dados adequado à análise RAM (Reliability,
Availability and Maintainability) convencional, existem especialistas que detêm o
conhecimento acerca de seus processos. A abordagem nebulosa mostrou-se útil
para modelar o conhecimento armazenado em forma tácita pelos especialistas, como
pode ser comprovado pelos resultados apresentados.
6.1 Contribuições e Relevância do Trabalho
O processo de derivação dos modelos teve a duração de aproximadamente um
ano. Neste período a contribuição dos especialistas consultados foi de vital
importância e o ritmo de desenvolvimento foi muitas vezes determinado pela
disponibilidade das pessoas envolvidas.
A principal contribuição deste trabalho é apresentar uma metodologia sistêmica
para análise de falhas que pode ser aplicada quando não existem dados disponíveis
de forma a possibilitar a modelagem convencional. A confrontação dos valores
obtidos a partir das abordagens probabilística e nebulosa indica que esta
metodologia pode conduzir a resultados muito próximos da realidade. Portanto, o
modelo proposto pode ser utilizado para auxiliar o processo de tomada de decisão
em um ambiente totalmente desprovido de informações quantitativas confiáveis.
Uma segunda contribuição deste trabalho, não menos relevante que a primeira,
é possibilitar o cálculo do tempo de reparo de forma detalhada. Através do modelo
proposto é possível calcular separadamente o tempo efetivo de manutenção e o
tempo gasto com questões logísticas ou administrativas.
O tempo efetivo de
84
manutenção foi subdividido em tempo para detectar a falha, tempo para desmontar,
reparar,
montar novamente o equipamento e posteriormente testá-lo. O tempo
logístico foi subdividido em tempo para mobilizar pessoas, tempo para disponibilizar
ferramentas e tempo para repor sobressalentes. A estratificação do tempo de reparo
permite quantificar a relevância de cada um dos tempos citados para composição do
tempo de reparo. Uma vez identificado o componente mais crítico é possível
direcionar o esforço de manutenção no sentido de otimizar recursos.
Conforme exposto anteriormente, o desenvolvimento do modelo nebuloso é
totalmente dependente da experiência de especialistas no processo a ser modelado.
Uma forma de se tornar este modelo mais robusto em relação à interferências
externas é introduzir a ele capacidade de adaptação. Foram utilizadas para este fim
uma classe de redes adaptativas funcionalmente equivalentes aos sistemas de
inferência nebulosa.
Este trabalho encontrou inúmeros obstáculos durante seu desenvolvimento e
acredita-se que um breve relato possa auxiliar futuras pesquisas. A primeira grande
dificuldade foi encontrar uma indústria que possuísse um banco de dados adequado
a análise RAM convencional de forma a possibilitar posteriormente a validação dos
modelos obtidos. Uma vez que a referida indústria foi encontrada, uma segunda
dificuldade foi relativa a imposições contratuais relativas a sigilo industrial.
Considera-se, de modo geral, que dados relativos à falhas representam informações
estratégicas e, portanto, de divulgação indesejável.
Finalmente conclui-se que os resultados obtidos foram muito promissores
apesar da quantidade de modos de falha disponível ser pequena. Considera-se que
a eficácia da metodologia utilizada foi plenamente comprovada justificando
investimentos futuros para modelagem de outros processos produtivos de
complexidade similar ou superior.
85
6.3 Sugestões para Trabalhos Futuros
O desenvolvimento do modelo apresentado foi focado em um equipamento
específico. Considerando-se que a metodologia utilizada foi exaustivamente testada
e validada a mesma pode ser aplicada, com as devidas adaptações, a outros
equipamentos ou processos.
Espera-se que, nos próximos anos, que a engenharia de confiabilidade ostente
um papel de destaque no cenário nacional. Espera-se ainda que este trabalho tenha
oferecido uma parcela de contribuição para a realização deste fato.
86
REFERÊNCIAS BIBLIOGRÁFICAS:
ASCHER, H.; FEINGOLD, H. Repairable Systems Reliability. Modeling,
Inference, Misconceptions and Their Causes. New York: Marcel Dekker, 1984,
223p.
BAZARGAN. M.; MCGRATH, R. N. Discrete Event Simulation to Improve Aircraft
Availability and Maintainability. In: Annual Reliability and Maintainability Symposium.
49o, 2003, Tampa. Proceedings of the … Tampa: IEEE, 2003., p. 63-67.
BILLINTON, R. Power System Reliability Evaluation. 5a ed. United States of
America: Gordon and Breach Science Publishers, 1978. 299 p.
BOWLES, J. B.; PELÁEZ, C. E. Application of Fuzzy Logic to Reliability Engineering.
IEEE, Proceedings …v. 83, n.3, March 1995, p. 435- 449.
BOWLES, J. B. Fundamentals of Failure Modes and Effects Analysis. In: Annual
Reliability and Maintainability Symposium, 49o, 2003, Tampa.
Conference
Tutorials …, Tampa: IEEE, 2003.
CAI, K. Y ; WEN, C. Y.; ZHANG, M. L. Fuzzy Variables as a Basis for a Theory of
Fuzzy Reliability in the possibility context. Fuzzy Sets and Systems, v.42, p.145172, 1991.
CAI, K. Y ; WEN, C. Y.; ZHANG, M. L. Fuzzy States as a Basis for a Theory of
Fuzzy Reliability. Microeletronics Reliability. v. 33, n. 15, p. 2253-2263, 1993.
CAI, K. Y. System failure engineering and fuzzy methodology. An introductory
overview. Elsevier Science Publishers. Fuzzy Sets and Systems, v. 83, p.113-133,
1996.
CARVALHO, A.L.; MENEZES, B. R. M.; CAMINHAS, W. M.
Comparação de
Metodologias para Cálculo de Confiabilidade em Sistemas Reparáveis. In: Simpósio
87
Internacional de Confiabilidade, IV , 2006, Salvador. Anais… São Paulo: Reliasoft
Brasil, 2006.
CARVALHO,
A.
L.
Métodos
Alternativos
para
Cálculo
de
Confiabilidade:
Abordagem Bayesiana e Inteligência Computacional. In: Simpósio Internacional de
Confiabilidade, V, 2007, Belo Horizonte. Conference Tutorials …, Belo Horizonte:
Reliasoft Brasil, 2007.
CASSADY, C. R.; POHL, E. A. Introduction to Repairable Systems Modeling. In:
Annual Reliability and Maintainability Symposium, 49o, 2003, Tampa. Conference
Tutorials …, Tampa: IEEE, 2005.
COIT, D.W. Probabilistic Methods and Statistical Methods in Reliability. In: Annual
Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference
Tutorials …, Alexandria: IEEE, 2005.
CROW, L. Reliability Growth Testing and Data Analysis. In: Annual Reliability and
Maintainability Symposium, 51o,, 2005 a. , Alexandria. Conference Tutorials …,
Alexandria: IEEE, 2005.
.
.CROW, L. Reliability Growth Management, Analysis and Case Studies. In: Simpósio
Internacional de Confiabilidade, III , 2005 b.,Rio de Janeiro.
Anais… São Paulo:
Reliasoft Brasil, 2005.
DESHANDE, V.S, MODAK, J.P. Maintenance strategy for tilting table of rolling mill
based on reliability considerations. Reliability Engineering and System Safety;
v.80, p.1-18., 2003
DHILLON, B.S. Design Reliability. Fundamentals and Applications.
United
States of America: CRC Press LLC, 1999. 382p
DUTUIT, Y; RAUZY, A. Approximate Estimation of System Reliability via Fault Trees.
Elsevier Science Publishers. Reliability Engineering and System Safety, v.87, p.
163-172, 2005.
88
EL-IRAKI A, ODOOM ER.
Fuzzy Probist Reliability Assessment of Repairable
Systems. In: NAFIPS Conference of the North American, 1998, Pensacola Beach.
Anais… , Pensacola Beach:
IEEE Fuzzy Information Processing Society, 1998;
p.96-100.
ENDRENYI, J.;ANDERS, G. J.; LEITE DA SILVA, A. M. Probabilistic Evaluation of
the Effect of Maintenance on Reliability – an application. IEEE Transactions on
Power Systems, v.13, n.2, p.576-583, may 1998.
FILHO, V. B. Confiabilidade Básica e Prática. 1a ed. São Paulo: Editora Edgar
Blucher. 1997 108p.
FRAGOLA, J.R. Human Reliability Analysis. In: Annual Reliability and Maintainability
Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE,
2005.
FREITAS, M. A. e COLOSIMO, E. A. Confiabilidade: Análise do tempo de falha e
Testes de Vida Acelerados. Belo Horizonte : Fundação Cristiano Ottoni, 1997. 308p
(Série Ferramentas da Qualidade, v. 12)
GUIMARÃES, A. C. F; LAPA, C. M. F. Fuzzy FMEA Applied to PWR Chemical and
Volume Control System. Elsevier Science Publishers. Progress in Nuclear Energy,
v. 44, n.3, p.191-213, 2004.
HELMAN, H.; ANDERY, P. R. P. Análise de Falhas (Aplicação dos Métodos de
FMEA-FTA). 1a ed. Belo Horizonte: Fundação Cristiano Ottoni, 1995, 156 p. (Série
Ferramentas da Qualidade, v.11)
JANG, J.-S.R; SUN,C.-T.; MIZUTANI, E. Neuro-Fuzzy and Soft Computing. A
Computacional Approach to Learning and Machine Intelligence. United States of
America: Prentice Hall, 1997.614p.
IEEE The Present Status of Maintenance Strategies and the Impact of Maintenance
on Reliability. IEEE Transactions on Power Systems v.16, n.4, p.638-646,
89
November 2001.
KNEZEVIC J, ODOOM E R. Reliability modelling of repairable systems using Petri
nets and fuzzy Lambda-Tau methodology. Reliability Engineering and System
Safety, v.17, p.1-17, 2001.
KRASICH, M. Fault tree Analysis for Failure Modes Identification and Product
Reliability Improvement. In: Annual Reliability and Maintainability Symposium, 51o,
2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
LAFRAIA,
J.
R.
B.
Manual
de
Confiabilidade,
Mantenabilidade
e
Disponibilidade. 1a ed. Rio de Janeiro: Qualitymark: Petrobrás, 2001. 388p.
LEON
GARCIA,
A.
Probability
and
Random
Processes
for
Electrical
Engineering. Addison-Wesley Publishing Company. 1994
LEVITIN, G. (Ed). Computational Intelligence in Reliability Engineering. 1aed.
Israel: Springer, 2006. 413p
LEWIS, E. Introcduction to Reliability Engineering 4a ed. Canada: John Wiley &
Sons, 1987. 400 p.
LOGMAN J, WANG W. On Reliability Modeling and Analysis of Highly-Reliable Large
Systems. In: Annual Reliability and Maintainability Symposium, 48o, 2002, Seattle.
Proceedings …, Seattle: IEEE, 2002, p. 456-459.
LUCATELLI, M.V. Proposta de Aplicação da Manutenção Centrada em
Confiabilidade em Equipamentos Médico- Hospitalares. 2002. 285f. Tese
(Doutorado) - Universidade de Santa Catarina, Programa de Pós-Graduação em
Engenharia Elétrica,Florianópolis.
MAILLART L.M, POHL AE. Introduction to Markov-Chain Modeling and Analysis. In:
Annual
Reliability
and
Maintainability
Symposium,
Conference Tutorials …, Alexandria: IEEE, 2005.
51o,
2005,
Alexandria.
90
MARSEGUERRA, M.; ZIO, E. Monte Carlo Sampling and Simulation for Application
to RAMS. In: Annual Reliability and Maintainability Symposium,
51o, 2005,
Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
MATHWORKS. MATLAB 7.2 Software Training Guide, 2006.
METTAS, A. Reliability Allocation and Optimization for Complex Systems In: Annual
Reliability and Maintainability Symposium, 46o, 2000, Los Angeles. Proceedings …,
Los Angeles: IEEE, 2000, p. 216-221
METTAS, A.; SAVVA, M. System Reliability Analysis: The Advantages of Using
Analytical Methods to Analyze Non-Repairable Systems. In: Annual Reliability and
Maintainability Symposium, 47o, 2001, Alabama. Proceedings …, Alabama: IEEE,
2001, p. 80-85.
METTAS A, ZHAO W. Modeling and Analysis of Repairable Systems with General
Repair. In:Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria.
Proceedings …, Alexandria: IEEE, 2005, p. 176-182.
METTAS, A. Repairable Systems: Data Analysis and Modeling. In: Simpósio
Internacional de Confiabilidade, IV, 2006,
Salvador. Conference Tutorials …,
Salvador: Reliasoft Brasil, 2006.
MEYER, P. L. Probabilidade. Aplicações à Estatística. 2a ed. Rio de Janeiro:
Livros Técnicos e Científicos Editora (LTC). 1983. 426 p.
MIJAILOVIC, V. Probabilistic method for planning of maintenance activities of
substation components. Electric Power System Research, v. 64, p.53-58, 2003.
MISRA, K. B.; WEBER, G.G. Use of Fuzzy Set Theory for Level I Studies in
Probabilistic Risk Assessment. Elsevier Science Publishers. Fuzzy Sets and
Systems, v.37, p. 139-160, 1990.
91
MOUBRAY, J. Reliability Centred Maintenance – An Introduction.
Aladon,
Inglaterra, 1999. Disponível em: <http:// www.aladon.com> Acesso em 18/08/2006.
MURPHY KE, CARTE CM. Reliability Block Diagram Construction Techniques:
Secrets to Real-life Diagramming Woes. In: Annual Reliability and Maintainability
Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2003.
NACHTMANN, H.; CHIMKA, J. R. Fuzzy Reliability in Conceptual Design. In: Annual
Reliability and Maintainability Symposium, 49o, 2003, Tampa.
Proceedings
…
Tampa: IEEE, 2003. p.360-364.
NELSON W. Applied Life Data Analysis. United States of America: John Willey &
Sons, 1982; 634p.
O’ CONNOR, P. D. T. Practical Reliability Engineering. 4a ed. England: John
Wiley & Sons, 2002. 513p
PALADY, P. FMEA, Análise dos Modos de Falha e Efeitos. Prevendo e
Prevenindo Problemas Antes que Ocorram 3a ed. São Paulo: Instituto IMAM,
2004. 270p.
PALLEROSI, C.A. Os 10 passos para melhorar a Qualidade pela Confiabilidade e
Mantenabilidade. In: Simpósio Internacional de Confiabilidade, II, 2004, São Paulo.
Anais… São Paulo: Reliasoft Brasil, 2004.
PALLEROSI, C.A. Principais Aplicações, Vantagens, Desvantagens e Limitações
das Atuais Distribuições Estatísticas em Confiabilidade. In: Simpósio Internacional de
Confiabilidade, V, 2007, Belo Horizonte. Anais… Belo Horizonte: Reliasoft Brasil,
2007.
PAULINO,
C.
D.; TURKMAN,
A.
A;
MURTEIRA, B. Estatística Bayesiana.
Lisboa: Fundação Calouste Gulbenkian. 2003. 446 p.
92
PEEBLES, P. Z. Probability, Random Variables and Random Signal Principles.
3a ed. Singapore: McGraw-Hill. 1993. 401p.
PEDRYCZ, W.; GOMIDE, F. An Introduction to Fuzzy Sets. Analysis and Design.
England: Massachusetts Institute of Technology, 1998. 465p.
RELIASOFT CORPORATION a, Weibull++ 7.0 Software Package, Tucson, AZ,
2007.
RELIASOFT CORPORATION b, BlokSim 7 Software Package, Tucson, AZ, 2007.
RIGDON, S.E.; BASU, A.P. Statistical Methods for the Reliability of Repairable
Systems. New York: Jonh Wiley &Sons, 2000. 281p.
ROUVROYE, J.L.; VAN DEN BLIEK, E.G. Comparing safety analysis techniques.
Elsevier Science Publishers. Reliability Engineering and System Safety. v.75, p.
289-294, 2002
SANTOS, W.B. Determinação da Periodicidade da Manutenção Preventiva em
Sistemas Reparáveis. 2003. 54f. Dissertação (Mestrado em Estatística) –
Universidade Federal de Minas Gerais, Departamento de Estatística, Belo Horizonte
TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. Fault Tree Analysis by Fuzzy
Probability. IEEE Transactions on Reliability, v.32, n.5, p. 453-457, December,
1983.
UTKIN, L. V.; GUROV, S.V. A general approach for fuzzy reliability analysis in the
possibility context. Elsevier Science Publishers. Fuzzy Sets and Systems, v. 83,
p.203-213, 1996.
VOLOVOI, V. Modeling of System Reliability Petri Nets with Aging Tokens. Elsevier
Science Publishers. Reliability Engineering and System Safety, v.84, p. 149-161,
2004.
93
VOUK, M. A. Software Reliability Engineering. In: Annual Reliability and
Maintainability Symposium,
51o, 2005, Alexandria. Conference Tutorials …,
Alexandria: IEEE, 2005.
WEBER, D.P. Fuzzy Weibull for Risk Analysis. In: Annual Reliability and
Maintainability Symposium, 40o, 1994, Anaheim. Proceedings … Anaheim: IEEE,
1994, p.456-461.
ZADEH, L. Outline of a New Approach to the Analysis of Complex Systems and
Decision Process. IEEE Transactions on Systems, Man, and Cybernetics, v.3, p.
28-44, 1973.
ZADEH, L. Fuzzy Sets as a Basis for a thery of Possibility. Fuzzy Sets and Systems
v.1, p. 3-28, 1978.
94
APÊNDICE A - EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA
A1 - FTA PROBIST Nebulosa
Os eventos básicos em um modelo FTA são conectados através de portas
lógicas cuja forma de interligação representa a seqüência de eventos que causam o
evento de topo. Maiores detalhes sobre este modelo podem ser encontrados no
Capítulo 3, item 3.1.2.
Aproximações
numéricas
que
expressam
imprecisão
tais
como
“a
probabilidade é aproximadamente m”, sendo m um número real, podem ser
modeladas por números nebulosos. Formalmente um número nebuloso é definido no
universo de números reais como um conjunto nebuloso cuja função de pertinência
satisfaz
as
propriedades
de
normalidade
e
convexidade
(PEDRYCZ;
GOMIDE,1998).
Números nebulosos podem ser representados por de funções de pertinência
triangulares, trapezoidais, gaussianas, dentre outras. A largura da função determina
a variação dos valores possíveis sendo que, nos estudos de confiabilidade são mais
comuns números triangulares devido a sua simplicidade.
As operações aritméticas envolvendo números nebulosos representam uma
aplicação direta do princípio da extensão. Particularmente, para o cálculo de
confiabilidade são necessárias as operações de multiplicação e complemento.
Tanaka et al (1983) é citado na literatura como o primeiro a utilizar números
nebulosos para cálculo de confiabilidade. Este autor propôs uma forma simplificada
de cálculo cujos resultados são parcialmente apresentados a seguir.
Seja o número nebuloso trapezoidal A definido no universo X=[0,1] e cuja
função de pertinência µA(x) é função de x e dos pontos a1, b1, c1 e d1 conforme (1).
µ A ( x ) = f ( x ; a 1 , b1 , c 1 , d 1 )
(1)
De maneira análoga, pode ser definido um outro número nebuloso trapezoidal
B, com função de pertinência µB(x) conforme (2).
95
µ B ( x ) = f ( x; a 2 , b2 , c 2 , d 2 )
(2)
A multiplicação dos dois números nebulosos trapezoidais A e B com funções
de pertinência µA(x) e µB(x), respectivamente, resulta no número trapezoidal R com
função de pertinência µR(x). Esta operação pode ser aproximada por (3).
µ R ( x ) = ( x ; a 1 a 2 , b1 b 2 , c1 c 2 , d 1 d 2 )
(3)
O complemento do número nebuloso A é representado por Ā cuja função de
pertinência µĀ(x) é aproximada pela expressão 4. Procedimento análogo de
aproximação pode ser realizado com relação a números nebulosos definidos por
outras funções de pertinência.
µ A ( x ) = ( x ; 1 − a1 , 1 − b1 , 1 − c1 , 1 − d 1 )
(4 )
Considerando-se um modelo FTA PROBIST nebuloso a probabilidade dos
eventos básicos é modelada como um número nebuloso. Assim, aplicando-se o
princípio da extensão, é possível calcular a probabilidade do evento de topo. Esta
metodologia permite especificar um universo de discurso de valores (uma
distribuição de possibilidades) para a probabilidade de falha (BOWLES;PELÁEZ,
1995). O resultado encontrado poderá ser expresso através do número nebuloso
resultante ou ser “defuzzificado” posteriormente se for necessário obter um único
valor.
Um sistema representado por uma porta lógica AND convencional apresentará
falha se os componentes A e B falharem simultaneamente. A probabilidade de que
ambos falhem FAND e a confiabilidade RAND são dadas por (5) e (6) respectivamente.
Maiores detalhes sobre as equações confiabilidade e probabilidade de falha podem
ser encontrados no capítulo 3 item 3.1.3.
FAND = FA FB
(5 )
96
RAND = 1 − [ FA FB ] = 1 − [(1 − RA ) (1 − RB )]
(6)
A confiabilidade ROR de uma porta OR formada pelos componentes A e B é
dada por (7) e a probabilidade de que ambos falhem FOR é dada por (8).
ROR = RA RB
(7)
FOR = 1 − [ RA RB ] = 1 − [(1 − FA ) (1 − FB )]
(8)
Apresenta-se, a seguir a reprodução de um exemplo numérico proposto por
Tanaka et al. (1983) no qual a probabilidade de falha dos eventos básicos é
representada por números nebulosos trapezoidais. (Figura 1). A probabilidade de
falha do evento de topo, FT, deduzida para esta FTA conforme (5) e (8) é
apresentada por
(9). A probabilidade de falha de cada evento básico xi é
apresentada no Quadro1.
Figura 1: Exemplo FTA nebulosa
Fonte: TANAKA et al. (1983)
FT = 1 − [(1 − Fx1 Fx 2 ) (1 − Fx 3 ) (1 − Fx 4 Fx 5 )]
(9)
97
Probabilidade Fuzzy
( a 1 b1 c1 d 1 )
Fx1
(0,1 0,15 0,2 0,25)
Fx2
(0,02 0,03 0,05 0,08)
Fx3
(0,01 0,02 0,03 0,04)
Fx4
(0,2 0,25 0,35 0,5)
Fx5
(0,006 0,008 0,01 0,012)
Quadro1: Dados exemplo Fuzzy FTA
Fonte: (TANAKA et al., 1983)
A partir dos dados fornecidos na Quadro.1 a probabilidade de falha do evento
de topo FT pode ser calculada conforme expressões ( 3) e (4).
(1 − F x1 F x 2 ) = ( 0 ,998 0 ,996 0 ,990 0 ,980 )
(1 − F x 3 ) = ( 0 ,990 0 ,980 0 ,970 0 ,960 )
(1 − F x 4 F x 5 ) = ( 0 ,999 0 ,998 0 ,997 0 ,994 )
FT = ( 0 , 013 0 , 026 0 , 043 0 , 065 )
O procedimento proposto por Tanaka et al.(1983) e reproduzido neste trabalho
pode ser generalizado para números nebulosos com outras funções de pertinência.
Observa-se que grande parte dos trabalhos pesquisados adota números nebulosos
triangulares (BOWLE1S; PELÁEZ, 1995; EL-IRAKI ;ODOOM ,1998). Como já foi
mencionado anteriormente, para cálculo dos valores de interesse em confiabilidade
são necessárias somente as operações multiplicação e complemento.
A metodologia PROBIST nebulosa a partir da utilização de números nebulosos
propõe uma maneira de tratar a incerteza intrínseca à modelagem de confiabilidade.
Números nebulosos são representados por funções de pertinência triangulares,
trapezoidais, gaussianas, dentre outras, sendo que, a dispersão da função
determina a variação dos valores possíveis. Esta abordagem pode ser comparada à
utilização de intervalos de confiança na teoria clássica de confiabilidade segundo a
98
qual a largura do intervalo depende do tamanho da amostra de dados disponíveis.
Portanto, quando não existem dados, o intervalo tende a ser grande. Além disso,
em um intervalo de confiança todos os valores são igualmente prováveis. Um
número nebuloso apresenta valores com diferentes graus de pertinência obtidos a
partir da experiência de um especialista.
A representação gráfica de um número nebuloso A com função de pertinência
µA(x) e um intervalo de confiança delimitado pelos pontos a e b com probabilidade
P(x) é dada pela Figura 2.
µ(x)
P(x)
1
0
a
m
b
x
a
b
x
Figura 2: Comparação de um número nebuloso triangular e um intervalo de confiança
Cabe ressaltar que os valores obtidos segundo a abordagem nebulosa podem
permanecer como uma faixa de valores prováveis ou podem ser “defuzzificados”
com o objetivo de encontrar o valor mais provável. Esta metodologia pode ser
aplicada em sistemas não reparáveis ou reparáveis.
A2- POSBIST FMEA Utilizando Processo de Inferência
Um processo de inferência nebuloso utiliza um conjunto de regras IF-THEN
para realizar um mapeamento do universo de discurso de entrada no universo de
discurso de saída a partir do procedimento proposto por Mamdani (JANG et
al.,1997).
A análise de modos e efeitos de falhas (FMEA) visa identificar todos os
possíveis modos potenciais de falha sobre o desempenho de um sistema (produto
ou processo). O resultado da análise é consolidado através de um formulário no qual
são registrados os efeitos e as causas correspondentes à cada modo de falha
99
observado. Posteriormente é calculado um índice de risco que corresponde à
ponderação de índices de gravidade, detecção e ocorrência. Maiores detalhes sobre
FMEA podem ser encontrados no Capítulo 3, item 3.1.1.
Considerando-se a abordagem nebulosa, os índices de gravidade, ocorrência,
detecção e risco podem ser modelados como conjuntos nebulosos. Guimarães e
Lapa (2004) desenvolveram uma FMEA POSBIST para modelar um sistema de
controle de um reator nuclear. O modelo proposto no referido artigo foi reproduzido
utilizando-se o MATLAB™ conforme mostra a Figura 3.
Índice de Gravidade
Fuzzy
FMEA
Índice de Ocorrência
Índice de Risco
Índice de Não-Detecção
Figura 3: Representação gráfica FMEA nebulosa
Segundo a proposta de Guimarães e Lapa (2004) os índices de gravidade,
ocorrência e não-detecção são representados pelos mesmos conjuntos. Esta
escolha foi feita por um especialista bem como o tipo de função de pertinência e os
termos lingüísticos a serem utilizados. O “R” significa remoto, “B” baixo, “M”
moderado, “A” alto e “MA” muito alto. A Figura 4 reproduz o resultado apresentado
no artigo original.
100
Figura 4: Índice de gravidade
O conjunto nebuloso índice de risco (escolhido pelo mesmo especialista) é
reproduzido pela Figura 4.6 na qual “MB” significa muito baixo, “B” baixo, “AB”
aproximadamente baixo, “M” moderado, “AA” aproximadamente alto e “A” alto.
Figura 5: Índice de risco
Considerando a existência de três índices (ocorrência, gravidade e nãodetecção) e cinco termos lingüísticos para descrever cada um deles, existe a
possibilidade de geração de 125 regras. Entretanto foi definido como significativo um
conjunto de 14 regras (GUIMARÃES; LAPA, 2004), de acordo com a experiência dos
especialistas.
A
partir
de
um
conjunto
de
regras
nebulosas
é
possível
calcular
qualitativamente o índice de risco a partir dos índices de gravidade, ocorrência e
não detecção. Posteriormente o resultado é “defuzzificado” utilizando-se método
centro de área.
Considerando que a FMEA é um método de análise qualitativo por natureza, a
abordagem nebulosa apresenta uma alternativa natural
para modelagem do
raciocínio e inferência humanos. Tanto na abordagem clássica quanto na
101
abordagem nebulosa existe grande dependência do especialista humano. Esta
dependência pode ser observada na escolha dos termos lingüísticos utilizados para
definição de variáveis e também na escolha das regras que serão consideradas
válidas.
Referências Bibliográficas:
BOWLES, J. B.; PELÁEZ, C. E. Application of Fuzzy Logic to Reliability Engineering.
IEEE, Proceedings …v. 83, n.3, March 1995, p. 435- 449.
EL-IRAKI A, ODOOM ER.
Fuzzy Probist Reliability Assessment of Repairable
Systems. In: NAFIPS Conference of the North American, 1998, Pensacola Beach.
Anais… , Pensacola Beach:
IEEE Fuzzy Information Processing Society, 1998;
p.96-100.
GUIMARÃES, A. C. F; LAPA, C. M. F. Fuzzy FMEA Applied to PWR Chemical and
Volume Control System. Elsevier Science Publishers. Progress in Nuclear Energy,
v. 44, n.3, p.191-213, 2004.
JANG, J.-S.R; SUN,C.-T.; MIZUTANI, E. Neuro-Fuzzy and Soft Computing. A
Computacional Approach to Learning and Machine Intelligence. United States of
America: Prentice Hall, 1997.614p.
PEDRYCZ, W.; GOMIDE, F. An Introduction to Fuzzy Sets. Analysis and Design.
England: Massachusetts Institute of Technology, 1998. 465p.
TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. Fault Tree Analysis by Fuzzy
Probability. IEEE Transactions on Reliability, v.32, n.5, p. 453-457, December,
1983.
102
APÊNDICE B – CONDIÇÃO INICIAL PARA O MODELO ADAPTATIVO
Conforme apresentado anteriormente, a condição inicial do modelo adaptativo é
determinada pelo modelo estático de forma a utilizar o conhecimento dos
especialistas como ponto de partida para o modelo adaptativo. Utilizou-se nesta
etapa o processo de inferência Sugeno com função de pertinência gaussiana (1)
devido à facilidade de implementação.
µ ( x) = e
2
 

 −1 x −c 
2 σ 

 




(1)
Onde c : centro;
σ : dispersão.
Foram consideradas como entradas do modelo a complexidade do modo de
falha ( xCX ), localização do modo de falha dentro do equipamento ( x LO ), dimensão
física do sobressalente ( x DF ), custo do sobressalente ( xCS ) e freqüência de
ocorrência de falhas ( x FO ). Todos os conjuntos foram igualmente distribuídos em
um universo de discurso entre 0 e 1. O parâmetro centro c relativo à cada conjunto
nebuloso pode ser obtido diretamente da figura 1. O parâmetro desvio padrão σ foi
considerado igual para todas as funções de pertinência de todas as entradas no
valor de 0,17.
Figura 1: Exemplo variável de entrada
103
A faixa de variação de todas as variáveis de saída foi determinada através de
entrevistas com os especialistas conforme quadro 1.
Variação turno
Variável
Sigla
diurno (min)
Tempo para detectar a falha
τ DC
0-30
Tempo para desmontar o equipamento
τ DE
0-30
Tempo para reparar o equipamento
τ RE
0-300
Tempo para montar o equipamento
τ MO
0-30
Tempo para testar
τ TE
0-30
Tempo para mobilizar pessoas
τ MP
0-15
Tempo para disponibilizar ferramentas
τ DF
0-30
Tempo para repor sobressalentes
τ RS
0-15
Quadro 1: Universo de discurso (em minutos) para as variáveis de saída
Uma regra típica de um modelo Sugeno tem a forma (JANG et al.,1997):
if x é B então y = f (x)
Foram utilizados neste trabalho modelos Sugeno de ordem 0 com parâmetro q.
Este valor foi obtido a partir das funções de pertinência do modelo Mamdani
conforme ilustrado na figura 2. Utilizou-se como exemplo a variável τDC (tempo para
detecção da falha) cuja base de regras é apresentada:
104
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
Se xCX
é
é
é
é
é
é
é
é
é
P
P
P
M
M
M
G
G
G
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
e xLO
é
é
é
é
é
é
é
é
é
F
M
D
F
M
D
F
M
D
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
então τDC
é
é
é
é
é
é
é
é
é
P
P
M
M
M
G
M
G
G
Quadro 2: Regras para determinar o tempo para detectar a falha
Figura 2: Exemplo variável de saída
Regras
1
2
3
Parâmetros de entrada
xCX
c
σ
0
0,17
0,5
0,17
1
0,17
Parâmetros de saída
q
τMP
τDF
1
7,5
15
2
15
30
Quadro 3: Síntese parâmetros de entrada e saída do modelo adaptativo
para cálculo do tempo logístico
τl
(entrada xCX )
105
Regras
1
2
3
Parâmetros de entrada
xDF
c
σ
0
0,17
0,5
0,17
1
0,17
Parâmetros de saída
q
τRS
1
7,5
15
Quadro 4: Síntese parâmetros de entrada e saída do modelo adaptativo
para cálculo do tempo logístico
Regras
1
2
3
4
5
6
7
8
9
Parâmetros de entrada
xCX
xLO
c
σ
c
σ
0
0,17
0
0,17
0
0,17
0,5
0,17
0
0,17
1
0,17
0,5
0,17
0
0,17
0,5
0,17
0,5
0,17
0,5
0,17
1
0,17
1
0,17
0
0,17
1
0,17
0,5
0,17
1
0,17
1
0,17
τl
(entrada x DF )
Parâmetros de saída
q
τDC
τDE
τRE
τMO
τTE
5
5
15
15
15
30
15
30
30
2
2
15
2
15
30
15
30
30
5
5
35
5
35
150
35
150
150
2
2
15
2
15
30
15
30
30
2
2
15
2
15
30
15
30
30
Quadro 5: Síntese parâmetros de entrada e saída do modelo adaptativo
para cálculo do tempo efetivo de manutenção τ m
106
APÊNDICE C - TREINAMENTO DOS MODELOS ADAPTATIVOS
A condição inicial do modelo adaptativo é determinada pelo modelo estático de
forma a introduzir o conhecimento dos especialistas como ponto de partida para o
modelo adaptativo. Assim, o modelo adaptativo poderá calcular ajustar seus
parâmetros à medida que existirem disponibilidade de dados. Utilizou-se nesta etapa
o processo de inferência Sugeno com função de pertinência gaussiana (1) devido a
facilidade de implementação.
µ ( x) = e
2
 

 −1 x −c 
2 σ 

 
(1)




Onde c : centro;
σ : dispersão.
Uma regra típica de um modelo Sugeno tem a forma (JANG et al.,1997):
if x é B então y = f (x)
A variável B no antecedente da regra é um conjunto nebuloso e o conseqüente
da regra y é uma função crisp (não nebulosa). Usualmente f (x) é um polinômio
dependente da entrada x no formato y=px+q. A ordem do polinômio determina o
nome do modelo. Por exemplo, quando f é um polinômio de primeira ordem tem-se
um modelo Sugeno de primeira ordem e assim sucessivamente.
Para cada rede adaptativa representada no capítulo 4 (figura 4.5), a entrada é
uma matriz de pontos do tipo Xk x n, onde k (número de linhas) representa o número
de pontos de cada uma das entradas individuais. A variável n representa o número
de entradas da rede e m é o número de regras a ser utilizado.
Para uma regra j
qualquer, tem-se que:
se ( x1 é B1 j ) e ... ( x j é Bij )...e ( x n é Bnj ), então y j = p1 j x1 + ... pij x1 + ... p nj x n + q j
(2)
107
se ( x1 é B1 j ) e ... ( x j é Bij )...e ( x n é Bnj ), então y j = ∑i =1 pij xi + q j
n
(3)
Os pesos wj são determinados por:
n
w j = µ B1 j ( x1 ) µ B 2 j ( x 2 )...µ Bij ( x j ) µ Bnj ( x n ) = ∏ µ Bij ( xi )
(4)
i =1
O cálculo da saída ys de cada rede adaptativa é dado por (5) e o erro quadrático a
ser minimizado é dado por (6).
(5)
m
ys =
∑ w .y
j =1
j
m
∑w
j =1
j
=
a
b
j
1
2
e = .( ys − yd )
2
(6)
Assim, conclui-se que o erro e é função dos parâmetros c (centro) e σ
(dispersão) das funções de pertinência e dos parâmetros p e q do polinômio de
saída de cada modelo Sugeno. O método de minimização do erro pelo gradiente
descendente resulta em:
∂e ∂e ∂ys ∂w j
=
= ( z − zd )
∂cij ∂z ∂w j ∂cij
 x − c 
 y j − ys  

  w j *  i 2 ij 
 σ

 b  
 ij 
 (xi − cij )2  
 y j − ys 
∂e ∂ys ∂w j
∂e


= (z − zd ) 
=
w j *  σ 3  
∂σ ij ∂z ∂w j ∂σ ij
 b 
ij

 
(7)
(8)
108
 wj 
∂e ∂e ∂ys ∂y j
=
= ( z − zd ) ( xi )
∂Pij ∂z ∂y j ∂Pij
 b 
(9)
 wj 
∂e ∂e ∂z ∂z1 ∂ys ∂y j
=
= ( z − zd )   (1)
∂q j ∂z ∂z1 ∂ys ∂y j ∂q j
 b 
(10)
Após o cálculo das derivadas para cada época de treinamento os parâmetros
de cada rede são ajustados. Dado um ponto k qualquer da entrada, considerando
uma taxa de aprendizado α, tem-se que:
cijk +1 = cijk − α
∂e
∂cij
σ ijk +1 = σ ijk − α
∂e
∂σ ij
pijk +1 = pijk − α
∂e
∂pij
k
q kj +1 = q kj − α
∂e
∂q j
k
k
k
(11)
(12)
(13)
(14)
109
ANEXO A – MODOS DE FALHA LAMINADOR PRIMARIO
Natureza
da Falha
Modo de Falha
Quantidade
de Falhas
Falha de automação
Falha no motor
Inspeção no equipamento
Falha “p”
TMNP
TPO
Falha no Posicionamento
Desalinhamento
Agarramento de batente
Falha de lubrificação
Quebra de estrutura.
Falha no Funcionamento
Curto-Circuito
Inspeção no Laminador
Geração de sucatas
Material agarrado
Ajuste axial
Ajuste na escala de passe
Perda de estabilidade
Lixamento de cilindros
Ajuste “s”
Troca “s”
Atolamento de cilindros
Aperto “s”
Má formação do bean blank
Material preso
Falha operacional
Material atravessado
Inspeção de lâminas
C. equipamento
Sobrecarga operacional
Atraso no desenfornamento
B. empenado
Troca de lâminas
Troca de caçamba
Aferição de Bitola
Quebra de cilindros
Quebra “s”
Ajuste manual
Quadro 1: Modos de falha turno diurno
12
2
2
1
1
1
1
1
1
1
1
14
17
6
6
5
4
1
4
3
2
2
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
110
Natureza
da Falha
TMNP
TPO
Modo de Falha
Quantidade
de Falhas
Falha de refrigeração.
Falha de automação
Falha no Funcionamento
Falha H
DPE
Falha no Motor
Defeito empurrador
Falha de lubrificação
Falha de Acoplamento
Limite de Quebra de Eixo
Falha de freio.
Sobrecarga
Inspeção no equipamento
Fusível
Rompimento de cabo
Falha no Sensor
Falha no Limite
Falha “T”
Quebra de estrutura.
Desarme do Disjuntor
Mau Contato
Geração de sucatas
Ajuste na escala de passe
Inspeção no laminador
Material agarrado
Ajuste “s”
Ajuste Axial
Perda de estabilidade do material
Material atravessado
Consignação de Equipamentos
Lixamento de cilindros
Quebra de cilindros
Troca “s”
Defeito matéria prima
Lixamento “s”
Limpeza de qualquer natureza
Troca de caçamba
Erro de Informação
Aferição de Bitola
Atraso na montagem dos laminadores
B. empenado
Sobrecarga operacional
Troca de lâminas
Troca de cilindros
Atraso no desenfornamento
Falha no posicionamento
Material preso na rampa de sucata da serra
6
4
3
3
3
2
2
2
2
1
1
1
1
1
1
1
1
1
1
1
1
38
27
19
16
13
9
8
5
4
4
4
4
2
2
2
2
2
1
1
1
1
1
1
1
1
1
Quadro 2 : Modos de falha turnos noturnos
Download