UNIVERSIDADE FEDERAL DE MINAS GERAIS Escola de Engenharia Programa de Pós-Graduação em Engenharia Elétrica Análise de Disponibilidade Utilizando Abordagem Nebulosa Alessandra Lopes Carvalho Tese pelo de Doutorado submetida à Banca Examinadora designada Programa de Pós-Graduação em Engenharia Elétrica da Escola de Engenharia da Universidade Federal de Minas Gerais, como requisito para obtenção do Título de Doutor em Engenharia Elétrica Orientador: Benjamim Rodrigues de Menezes Co-Orientador: Walmir Matos Caminhas Belo Horizonte Julho de 2008 2 RESUMO O objetivo principal deste trabalho é contribuir na análise de disponibilidade de sistemas reparáveis utilizando abordagem nebulosa. A principal justificativa para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and Maintainability) é a inexistência de bancos de dados consistentes contendo informações sobre datas de ocorrências de falhas e tempos de reparo. Embora grande parte das indústrias não possua um banco de dados adequado à análise de falhas convencional, existem especialistas que detêm o conhecimento acerca da operação de seus processos. A abordagem nebulosa é útil para modelar o conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão no planejamento das atividades de manutenção. Os resultados obtidos pelo método proposto são validados através de comparações com o método convencional utilizando-se como exemplo um sistema de laminação. Palavras Chave: disponibilidade, nebulosos, sistemas reparáveis. mantenabilidade, -i- confiabilidade, sistemas 3 ABSTRACT This work focuses on an alternative approach, using the fuzzy set theory for availability evaluation of repairable systems. The main reason to use fuzzy approach in RAM analysis (Reliability, Availability and Maintainability) is the lack of consistent data bases that relate dates of failure occurrences with repair time. Although many industrial data base are not adequate for the conventional RAM analysis of a particular plant, there are specialists who withhold the knowledge concerning the operation of its processes. Fuzzy set theory is useful for modeling human knowledge that is held in tacit form by the specialists, assisting the process of decision making and planning of maintenance activities. The results of the approach developed are compared against the conventional RAM analysis using a rolling mill system. Key-words: availability, maintainability, reliability, fuzzy systems, repairable systems. - II - 4 LISTA DE SIGLAS pdf (probability density function) - função densidade de probabilidade cdf (cumulative distribution function) - função distribuição acumulada FMEA (Failure Mode and Effect Analysis ) - análise de modos e efeitos de falhas FTA (Faut Tree Analysis) - árvore de falhas HPP ( homogeneous Poisson process) - processo de Poisson homogêneo MTBF (mean time between failure) - tempo médio entre falhas MTTF (mean time to failure) - tempo médio para falha MTTR (mean time to repair) - tempo médio para o reparo NHPP (non homogeneous Poisson process) processo de Poisson não homogêneo POSBIST (POSsibility Assumption and BInary-STate) POSFUST (POSsibility Assumption and FUzzy-STate) PROBIST (PRObability Assumption and BInary-STate) PROFUST (PRObability Assumption and FUzzy-STate) RAM (Reliability, Availability and Maintainability) RBD (reliability block diagram) - diagrama em blocos de confiabilidade RCM (reliability centered maintenance) - manutenção centrada em confiabilidade TTF ( time to failure) – tempo até a falha TBF (time between failure) - tempo entre falhas TTR ( time to repair) - tempo para o reparo - iii – 5 LISTA DE SÍMBOLOS A(t) disponibilidade instantânea Ao disponibilidade operacional AN disponibilidade nebulosa Ad disponibilidade desejada ANi disponibilidade nebulosa inicial ANA disponibilidade nebulosa adaptativa β parâmetro de forma da distribuição Weibull E(T) valor esperado da variável aleatória T fT(t) função densidade de probabilidade f(t) função densidade de probabilidade de falhas FT(t) função densidade de probabilidade acumulada F(t) função densidade de probabilidade acumulada de falhas γ parâmetro de vida mínima da distribuição Weibull g(t) função densidade de probabilidade de reparo G(t) função mantenabilidade η parâmetro de vida característica da distribuição Weibull h(t) função taxa de falhas i(t) função intensidade de falhas λ taxa de falhas λs taxa de falhas sistema série λp taxa de falhas sistema paralelo L função verossimilhança µ média (parâmetro da distribuição lognormal) µr taxa de reparo µTR média dos tempos de reparo (banco de dados) QF quantidade de falhas R(t) função confiabilidade σ desvio padrão (parâmetro da distribuição lognormal) τ DC tempo para detectar a falha τ DE tempo para desmontar o equipamento - iv - 6 τ DF tempo para disponibilizar ferramentas τ EF tempo entre falhas médio nebuloso τ l ; τ lA tempo logístico; tempo logístico adaptativo τ m ; τ mA tempo efetivo de manutenção; tempo efetivo de manutenção adaptativo τ MO tempo para montar o equipamento τ MP tempo para mobilizar pessoas τp taxa de reparo sistema paralelo τ R ; τRA tempo de reparo médio nebuloso; tempo de reparo médio adaptativo τRd tempo de reparo médio desejado τ RE tempo para reparar o equipamento τRi tempo de reparo médio inicial τ RM tempo de reparo médio nebuloso calculado por Mamdani τ RS tempo para repor sobressalentes τ RSU tempo de reparo médio nebuloso calculado por Sugeno τs taxa de reparo sistema série τT tempo total de observação considerado τ TE tempo para testar a efetividade do reparo T variável aleatória U(t) indisponibilidade instantânea xm matriz de entrada genérica do sistema nebuloso tempo de manutenção xl matriz de entrada genérica do sistema nebuloso tempo logístico xd matriz de entrada genérica do sistema nebuloso disponibilidade xCX entrada complexidade do modo de falha xLO entrada localização do modo de falha dentro do equipamento xDF entrada dimensão física do sobressalente xCS entrada custo do sobressalente xFO entrada freqüência de ocorrência de falhas X(t) estado de um sistema genérico Y matriz transição de estados -v– 7 SUMÁRIO 1 INTRODUÇÃO ........................................................................................................ 01 1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01 1.2 Objetivos e Justificativas .................................................................................. 02 1.3 Organização do trabalho ................................................................................... 05 2 ANÁLISE CONVENCIONAL DE FALHAS.............................................................. 06 2.1 Definições Preliminares...................................................................................... 06 2.2 Função Confiabilidade........................................................................................ 08 2.3 Função Mantenabilidade e Conceito de Manutenção...................................... 13 2.4 Função Disponibilidade................................................................................... 14 2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes............. 17 2.5.1 Modelos não Paramétricos.............................................................................. 18 2.5.2 Modelos Paramétricos..................................................................................... 18 2.5.3 Estimação de Parâmetros................................................................................ 26 2.5.4 Validação de Modelos...................................................................................... 27 3 MODELAGEM DE SISTEMAS ............................................................................... 29 3.1 Modelagem de Sistemas não Reparáveis......................................................... 29 3.1.1 Análise de Modos e Efeitos de Falhas........................................................... 30 3.1.2 Análise por Árvore de Falhas ........................................................................ 22 3.1.3 Diagrama de Blocos de Confiabilidade ........................................................ 23 3.1.4 Simulação de Monte Carlo............................................................................... 37 3.2 Modelagem de Sistemas Reparáveis................................................................. 37 3.2.1 Abordagem por componentes........................................................................ 38 3.2.2 Abordagem por sistemas................................................................................ 44 4 ANÁLISE NEBULOSA DE FALHAS....................................................................... 46 4.1 Análise de Falhas Considerando Inexistência de dados................................. 46 4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ........ 48 - VI - 8 4.3 Modelo Nebuloso para Análise de Falhas......................................................... 52 4.4 Modelo Nebuloso Adaptativo para Análise de Falhas..................................... 54 5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS....... 58 5.1 Descrição do Processo Produtivo..................................................................... 58 5.2 Implementação dos Modelos Nebulosos Propostos....................................... 60 5.2.1 Cálculo do Tempo de Reparo Nebuloso........................................................ 63 5.2.2 Cálculo de Disponibilidade Nebulosa ........................................................... 70 5.2.3 Cálculo do Tempo entre Falhas Nebuloso .................................................... 72 5.3 Resultados Obtidos através da Análise Nebulosa de Falhas........................ 73 5.4 Cálculo Convencional e Validação de Resultados........................................... 76 6 CONCLUSÕES........................................................................................................ 83 6.1 Contribuições e Relevância do Trabalho.......................................................... 83 6.2 Sugestões para Trabalhos Futuros................................................................... 85 REFERÊNCIAS BIBLIOGRÁFICAS........................................................................... 86 APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA.................... 94 APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO........................ 102 APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO................................ 106 ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO..................................... 109 - VII - 1 1 SUMÁRIO 1 INTRODUÇÃO ........................................................................................................ 01 1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01 1.2 Objetivos e Justificativas .................................................................................. 02 1.3 Organização do trabalho ................................................................................... 05 2 ANÁLISE CONVENCIONAL DE FALHAS.............................................................. 06 2.1 Definições Preliminares...................................................................................... 06 2.2 Função Confiabilidade........................................................................................ 08 2.3 Função Mantenabilidade e Conceito de Manutenção...................................... 13 2.4 Função Disponibilidade................................................................................... 14 2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes............. 17 2.5.1 Modelos não Paramétricos.............................................................................. 18 2.5.2 Modelos Paramétricos..................................................................................... 18 2.5.3 Estimação de Parâmetros................................................................................ 26 2.5.4 Validação de Modelos...................................................................................... 27 3 MODELAGEM DE SISTEMAS ............................................................................... 29 3.1 Modelagem de Sistemas não Reparáveis......................................................... 29 3.1.1 Análise de Modos e Efeitos de Falhas........................................................... 30 3.1.2 Análise por Árvore de Falhas ........................................................................ 22 3.1.3 Diagrama de Blocos de Confiabilidade ........................................................ 23 3.1.4 Simulação de Monte Carlo............................................................................... 37 3.2 Modelagem de Sistemas Reparáveis................................................................. 37 3.2.1 Abordagem por componentes........................................................................ 38 3.2.2 Abordagem por sistemas................................................................................ 44 4 ANÁLISE NEBULOSA DE FALHAS....................................................................... 46 4.1 Análise de Falhas Considerando Inexistência de dados................................. 46 4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ........ 48 - VI - 2 4.3 Modelo Nebuloso para Análise de Falhas......................................................... 52 4.4 Modelo Nebuloso Adaptativo para Análise de Falhas..................................... 54 5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS....... 58 5.1 Descrição do Processo Produtivo..................................................................... 58 5.2 Implementação dos Modelos Nebulosos Propostos....................................... 60 5.2.1 Cálculo do Tempo de Reparo Nebuloso........................................................ 63 5.2.2 Cálculo de Disponibilidade Nebulosa ........................................................... 70 5.2.3 Cálculo do Tempo entre Falhas Nebuloso .................................................... 72 5.3 Resultados Obtidos através da Análise Nebulosa de Falhas........................ 73 5.4 Cálculo Convencional e Validação de Resultados........................................... 76 6 CONCLUSÕES........................................................................................................ 83 6.1 Contribuições e Relevância do Trabalho.......................................................... 83 6.2 Sugestões para Trabalhos Futuros................................................................... 85 REFERÊNCIAS BIBLIOGRÁFICAS........................................................................... 86 APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA.................... 94 APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO........................ 102 APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO................................ 106 ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO..................................... 109 - VII - 1 1 1 INTRODUÇÃO 1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais A importância da análise de falhas tem aumentado nas últimas décadas devido à complexidade crescente dos sistemas e as severas implicações decorrentes de eventuais falhas. A história da confiabilidade remonta a meados de 1930 quando os conceitos da teoria da probabilidade foram aplicados a problemas relacionados à geração de energia elétrica. O conceito de confiabilidade surgiu na indústria aeronáutica após a Primeira Guerra mundial. Nesta época iniciaram-se os estudos sobre causas e efeitos de falhas bem como a utilização de redundâncias em virtude do aumento dos transportes aéreos. Durante a Segunda Guerra os alemães aplicaram os conceitos básicos de confiabilidade para melhorar o desempenho de seus foguetes (DHILLON, 1999) e muitos outros avanços ocorreram nesta época devido ao aumento do tamanho e da diversidade dos sistemas. Em 1950 o Departamento de Defesa dos Estados Unidos estabeleceu um comitê para estudo de confiabilidade que em 1952 foi transformado em uma subdivisão permanente. Em 1954 foi organizado o primeiro Simpósio Nacional sobre Confiabilidade e Controle de Qualidade e no ano seguinte o Instituto de Engenheiros Eletricistas e Eletrônicos (Institute of Electrical and Electronic Engineers-IEEE) fundou a Sociedade de Confiabilidade e Controle de Qualidade (DHILLON, 1999). Todo o arcabouço relacionado à teoria de Controle de Qualidade estabelece procedimentos através dos quais um determinado produto é confrontado com uma especificação ou um conjunto de atributos a serem alcançados. Assim, a verificação da qualidade é feita no momento da avaliação. Por outro lado, a confiabilidade é centrada no estudo de falhas no decorrer do tempo. Portanto, a confiabilidade pode ser interpretada como o estudo da qualidade ao longo do tempo sendo esta a principal diferença entre as duas abordagens (O’CONNOR, 2002). 2 É intuitivo perceber a relação entre confiabilidade e custo. Normalmente a confiabilidade de um sistema cresce de maneira proporcional aos recursos financeiros investidos para este propósito. Este custo pode estar relacionado à utilização de matéria prima de melhor qualidade, acréscimo de algum tipo de redundância ou mesmo à introdução de políticas de manutenção mais adequadas. A necessidade por sistemas mais confiáveis está inserida em um contexto de interesses conflitantes que envolvem a minimização de gastos e maximização de lucros. Existe, portanto, um delicado ponto de equilíbrio a ser alcançado uma vez que baixa confiabilidade pode acarretar perda de vidas humanas e prejuízos materiais. Desde a criação do conceito de confiabilidade, ocorreu ao longo dos anos o desmembramento em vários ramos de aplicação como confiabilidade de equipamentos mecânicos, confiabilidade de software, confiabilidade humana, otimização da confiabilidade, crescimento da função confiabilidade (reliability growth), entre muitos outros. O trabalhos de Vouk (2005), Fragola(2005) e Mettas (2000) apresentam amplas revisões bibliográficas sobre confiabilidade de software, confiabilidade humana e otimização respectivamente. Quanto ao estudo de sistemas reparáveis, pode ser citado o livro de Ascher e Feingold (1984). Especificamente com relação ao crescimento da função confiabilidade os trabalhos de Larry Crow (CROW, 1990; CROW, 2005 a; CROW, 2005 b) são referências importantes. 1.2 Objetivos e Justificativas A análise de Confiabilidade, Disponibilidade e Mantenabilidade (RAM Reliability, Availability and Maintainability) convencional é baseada na abordagem probabilística e pressupõe a existência de uma grande quantidade de dados. Existe, portanto, uma forte correlação entre a precisão de uma estimativa probabilística e o tamanho da amostra onde os dados foram obtidos. O principio da intratabilidade de Zadeh (1973) estabelece que à medida que a complexidade de um sistema aumenta, a capacidade de se realizar inferências precisas e significativas sobre seu comportamento diminui até que seja atingido um 3 limite a partir do qual relevância e precisão sejam atributos mutuamente exclusivos. Este princípio traduz a constatação de que em sistemas complexos não é fácil obter ao mesmo tempo precisão e relevância em patamares aceitáveis. Esta afirmativa aplica-se claramente à análise de confiabilidade. Considerando-se que os sistemas em geral tornam-se cada vez mais complexos, os fatores de precisão são determinantes na metodologia de aquisição de dados capazes de representar sua operação de forma abrangente. Em uma avaliação convencional de confiabilidade os valores coletados dos sistemas, componentes, etc. são tratados como valores precisos. A análise clássica de confiabilidade normalmente não aborda a suscetibilidade a eventos externos ou ao erro humano em operação e manutenção. Sendo desejável considerar a contribuição relativa da incerteza para o risco total, mesmo os modelos mais sofisticados, precisos e bem construídos podem fornecer resultados incorretos se esta incerteza não é tratada de alguma forma (BOWLES; PELÁEZ, 1995) Nachtmann e Chimka (2003) definem a incerteza como uma condição onde a possibilidade de erro existe devido à falta de informação a respeito de um determinado ambiente. A incerteza pode manifestar-se como resultado da aleatoriedade ou como resultado da imprecisão. A incerteza devido à imprecisão tem origem na própria natureza do pensamento, raciocínio, cognição e percepção humanos. A incerteza devido à aleatoriedade é conseqüência da dependência de um grande número de fatores que podem ser classificados em inerentes, ambientais ou operacionais. Podem ser citados como exemplos de fatores de imprecisão a composição da matéria prima, tolerâncias dimensionais ou fatores aos quais o sistema é vulnerável como temperatura, unidade, vibração entre outras condições estressantes. A incerteza com relação aos dados pode ocorrer em qualquer fase do ciclo de vida de um componente ou sistema. Nas fases iniciais de desenvolvimento ocorre escassez de dados considerando-se que em um novo projeto a probabilidade de falha usualmente é desconhecida. Nestes casos são utilizadas estimativas baseadas no julgamento de engenharia ou na experiência adquirida ao longo do tempo. No caso de um componente ou sistema que já se encontra em funcionamento, pode ocorrer a incerteza devido ao fato que as falhas são eventos relativamente raros (tipicamente poucas falhas por milhões de horas de operação). Outro aspecto a ser considerado é que uma coleta de dados que forneça subsídios suficientes a uma 4 análise de confiabilidade consistente é uma tarefa árdua e demorada. Podem acontecer ainda problemas devido à falta de uma documentação clara e precisa na qual conste data, local, origem e causa da falha (BOWLES; PELÁEZ, 1995). Devido à todos os fatores expostos considera-se que os tempo até a falha e os tempos de reparo de um sistema possam ser interpretados de uma maneira ampla como função de fatores inerentes, ambientais e operacionais. Assim, é razoável supor que a abordagem probabilística possa ser insuficiente para modelar a confiabilidade e mantenabilidade de sistemas complexos onde exista falta de dados devido à imprecisão ou incertezas de naturezas diversas. Numerosas ferramentas estatísticas têm sido desenvolvidas para auxiliar a análise de confiabilidade de sistemas. Entretanto, as metodologias existentes dependem de dados e parâmetros que, em muitas situações, são ora suficientes mas imprecisos, ora insuficientes ou em muitos casos inexistentes. Como conseqüência, a escassez e ou a imprecisão de dados pode originar análises e informações errôneas, mesmo sendo obtidas a partir de metodologias corretas (BOWLES; PELÁEZ, 1995, UTKIN; GUROV, 1995). Este fato motivou a criação de técnicas alternativas baseadas em inteligência computacional para a análise de falhas em geral. O cálculo de confiabilidade baseado em técnicas de inteligência computacional (LEVITIN, 2006) pode abranger o uso de sistemas nebulosos, redes neurais, algoritmos genéticos ou técnicas híbridas. Aplicações de confiabilidade nebulosa (fuzzy) têm sido desenvolvidas por diversos autores como, por exemplo, Cai (1991); Nachtmann e Chimka (2003); Guimarães e Lapa (2004). O objetivo principal deste trabalho é contribuir na análise de disponibilidade de sistemas reparáveis utilizando uma abordagem nebulosa e tendo como base a experiência de especialistas em operação destes sistemas. A principal justificativa para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and Maintainability) é a inexistência de bancos de dados consistentes contendo informações sobre datas de ocorrências de falhas e tempos de reparo. Embora grande parte das indústrias não possua um banco de dados adequado à análise RAM convencional, existem especialistas que detêm o conhecimento acerca da operação de seus processos. A abordagem nebulosa pode ser útil para modelar o conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta 5 forma, o processo de tomada de decisão no planejamento das atividades de manutenção. 1.3 Organização do trabalho Este texto está organizado em seis capítulos. Considerando-se a característica multidisciplinar do trabalho, os capítulos de 2 e 3 referem-se a conceitos elementares. Estes capítulos têm a função de facilitar a compreensão dos capítulos subseqüentes e estabelecer a padronização da notação a ser utilizada. O capítulo 2 descreve conceitos básicos e aborda os métodos estatísticos utilizados para quantificar a disponibilidade, confiabilidade e mantenabilidade de componentes. O capítulo 3 descreve as técnicas mais utilizadas para cálculo da confiabilidade de sistemas reparáveis e não reparáveis. O capítulo 4 apresenta as principais metodologias encontradas na literatura para análise de falhas a partir da abordagem nebulosa e detalha o modelo proposto. A descrição do processo utilizado como exemplo de aplicação do modelo proposto e todos os resultados obtidos são detalhados no capítulo 5. Neste capítulo é apresentado ainda o cálculo convencional para fins de validação do trabalho. Finalmente, no capítulo 6 são apresentadas as conclusões e propostas de continuidade. 6 2 ANÁLISE CONVENCIONAL DE FALHAS 2.1 Definições Preliminares A análise convencional de falhas de sistemas reparáveis estabelece o estudo de duas variáveis aleatórias de interesse: tempo entre falhas (TBF) e o tempo de reparo (TR). Será considerado neste trabalho que após a ocorrência de uma falha será realizado um reparo imediatamente. Será considerado ainda que o reparo é capaz de levar o item falho (componente ou sistema) novamente a sua condição original. A literatura refere-se a este conjunto de considerações através do termo “tão bom quanto novo” (as-good-as-new). Como conseqüência, a distribuição da variável aleatória tempo até a falha (TTF) será considerada igual a distribuição da variável aleatória tempo entre falhas (TBF). Objetiva-se apresentar genericamente os conceitos de variável aleatória e distribuição de probabilidade. Posteriormente estes conceitos serão utilizados para definir as funções confiabilidade e mantenabilidade a partir das variáveis aleatórias tempo entre falhas e tempo de reparo, respectivamente. Seja um espaço amostral S. Uma variável aleatória T é uma função que associa um número real a cada resultado de um experimento aleatório (MONTGOMERY; RUNGER, 2003). A função distribuição acumulada fda ( cumulative distribution function -cdf), de uma variável aleatória qualquer T, é definida como a probabilidade do evento (T ≤ t ) (LEON GARCIA, 1994). Este conceito é expresso através de (2.1) e representa a probabilidade da variável aleatória T assumir valores no intervalo (-∞ , t]. FT (t ) = P(T ≤ t ) Onde: t é a variável tempo; (2.1) 7 T é a variável aleatória; FT(t) é a função distribuição acumulada da variável aleatória T. A probabilidade que a variável aleatória T pertença ao intervalo limitado por t e t+ ∆t quando ∆t torna-se infinitamente pequeno (∆t→0 ) é representada por (2.2) (LEWIS, 1987). fT (t )∆t = P(t ≤ T ≤ t + ∆t ) (2.2 ) Onde fT(t) : função densidade de probabilidade. O termo fT(t) em (2.3) é a função densidade de probabilidade fdp( probability density function- pdf) da variável aleatória T. Este conceito é apresentado em (2.3), sendo definido como a derivada da função distribuição acumulada ou cdf. Obviamente, a função distribuição acumulada F(t) pode ser apresentada como em (2.4). fT (t ) = dFT (t ) dt t FT (t ) = ∫f T (t ) dt (2.3) (2.4) −∞ Considerando-se a função densidade de probabilidade continua representada na figura 2.1, a área sob a curva tem valor unitário pois descreve a probabilidade de todos os valores da variável T (O’ CONNOR, 2002; PEEBLES, 1993). Este conceito pode ser descrito através de (2.5). 8 Figura 2.1: Função densidade de probabilidade contínua +∞ FT (t ) = P(−∞ < T < + ∞) = ∫f T (t )dt =1 (2.5 ) −∞ De maneira análoga, a probabilidade de um valor ocorrer entre t1 e t2 é dada por (2.6). t2 P (t1 ≤ T ≤ t2 ) = ∫ f (t ) dt (2.6 ) t1 A média ou valor esperado da variável aleatória T, modelada através da função densidade de probabilidade continua fT(t), é dada por (2.7). +∞ E (T ) = ∫ t f (t ) dt (2.7 ) −∞ Para fins de simplificação a função fT(t) será representada como f(t) em todo o texto subseqüente. Idem para as demais funções onde o sub-índice que representa a variável aleatória T será omitido. 2.2 Função Confiabilidade A confiabilidade de um componente, equipamento ou sistema pode ser definida como a probabilidade de funcionamento isento de falhas durante um 9 período de tempo pré-determinado, sob condições de operação estabelecidas. Define-se como falha o término da capacidade de um item desempenhar uma função requerida. A teoria clássica de confiabilidade considera a condição de operação de um sistema como um experimento aleatório, no qual podem ser identificados qualitativamente dois estados: “falha” ou “operação normal”. Estes estados podem ser expressos numericamente utilizando-se o conceito de variável aleatória. Seja um item qualquer em operação em um instante de tempo especificado (t = 0). Se este item for observado até que falhe, a duração do tempo até falhar T, pode ser considerada uma variável aleatória contínua com alguma função densidade de probabilidade. O valor de T não pode ser previsto a partir de um modelo determinístico. Isto implica que componentes idênticos sujeitos aos mesmos esforços falharão em instantes diferentes (MEYER,1983). Analisando-se a definição de confiabilidade percebe-se claramente sua dependência em relação ao tempo. Portanto, pode-se criar uma variável aleatória “tempo até a falha” – T para quantificar a probabilidade de ocorrência de uma falha (2.8). F (t ) = P(T ≤ t ) (2.8) Onde: F(t) é a função distribuição acumulada de falhas. Considerando que um item que não falhou para um tempo T≤ t possa falhar em um tempo T>t, pode-se definir o conceito de confiabilidade utilizando-se a expressão (2.9) (LEWIS, 1987). t R (t ) = P (T > t ) = 1 − F (t ) = 1 − ∫ f (t )dt 0 Onde: T é a variável aleatória tempo até a falha (TTF); R(t) é a função confiabilidade; f(t) é a função densidade de probabilidade de falhas; F(t) é a função distribuição acumulada de falhas. (2.9 ) 10 (2.10) t R (t ) = 1 − ∫ f (t )dt 0 Onde: f(t) é a função densidade de probabilidade de falhas; A expressão (2.10) pode ser reescrita como em (2.11) que fornece a pdf do tempo até a falha em termos da função confiabilidade R(t). f (t ) = − (2.11 ) dR (t ) dt O parâmetro MTTF (mean time to failure) é definido como o valor esperado da variável aleatória T: (2.12) +∞ MTTF = E [T ] = ∫ t f (t ) dt 0 O MTTF pode ser escrito diretamente em termos da função confiabilidade (LEWIS, 1987). Sustituindo-se (2.11) em (2.12) e integrando-se por partes obtem-se (2.13). +∞ MTTF = − ∫ t 0 ∞ dR (t ) dt = −tR (t )| + 0 dt +∞ ∫ R(t )dt (2.13) 0 Considerando-se que lim t R(t ) = 0 , então: t →∞ +∞ MTTF = ∫ R(t )dt (2.14) 0 Cabe ressaltar que uma análise de confiabilidade deve ser realizada a partir do maior número possível de informações e que somente o valor do MTTF (ou MTBF) não é suficiente para traduzir o comportamento de falhas de um determinado item. A velocidade de ocorrência de falhas pode ser expressa através do parâmetro taxa de falhas sendo a análise de falhas um processo interativo cujo sucesso depende de se determinar relações implícitas entre causa e efeito. A taxa de falhas instantânea h(t) pode ser definida em termos da confibilidade R(t) e da função 11 densidade de probabilidade f(t), como expresso em (2.15). Maiores detalhes podem ser obtidos em Lewis (1987) h(t ) = f (t ) R(t ) (2.15) As falhas podem ser classificadas em relação ao tempo de acordo com o mecanismo que as originaram. O comportamento da taxa de falhas pode ser representado graficamente através da curva conhecida como curva da banheira (figura 2.2) e que apresenta três fases distintas: falhas prematuras, vida útil e velhice. A região de falhas prematuras (ou mortalidade infantil) é caracterizada por taxa de falhas alta e rapidamente decrescente com o tempo. A região de vida útil apresenta taxa de falha aproximadamente constante e a região de velhice é caracterizada por taxas de falha crescente (LEWIS, 1987; FILHO,1997; FREITAS; COLOSIMO, 1997). Figura 2.2: Curva da banheira Fonte: MOUBRAY, 1999 Cabe ressaltar que existem classes particulares de sistemas nos quais podem prevalecer uma das três fases descritas. Por exemplo, no estudo do comportamento da taxa de falhas de softwares, não existe o período de envelhecimento prevalecendo a fase de falhas prematuras (LEWIS, 1987). Neste caso, não se deve confundir o término da vida útil, em termos de confiabilidade, com a obsolescência do ponto mercadológico (LAFRAIA, 2001). 12 Embora a curva da banheira ainda seja muito utilizada, ela foi considerada um padrão de representação somente até o início da década de 70 (LUCATELLI, 2002). Posteriormente, devido à própria evolução dos equipamentos, verificou-se a existência de outros tipos de comportamento conforme ilustra a figura 2.3 (MOUBRAY, 1999). Figura 2.3: Padrões de falha Fonte: MOUBRAY, 1999 O padrão de falha A representado na figura 2.3 é conhecido como curva da banheira conforme figura 2.2. O padrão B apresenta uma taxa de falhas aproximadamente constante, ou com um aumento lento, seguido por um período de desgaste. O padrão C mostra uma taxa de falhas com crescimento lento sem apresentar desgaste ao final da vida útil. O padrão D apresenta baixa taxa de falhas no início da vida seguido por um patamar constante (MOUBRAY, 1999). O padrão de falha E é representativo para computadores e outros tipos de hardware formados essencialmente por componentes eletrônicos (LEWIS, 1987). Observa-se que este tipo de componente normalmente apresenta falhas aleatórias. O padrão F começa com uma alta taxa de falhas no periodo de falhas prematuras (mortalidade infantil) que tende a estabilizar-se rapidamente em torno de um valor aproximadamente constante. 13 Estudos realizados na aviação civil demonstram que 68% das falhas obedecem ao padrão F e 14% ao padrão E. Os outros padrões apresentam índices muito menores. Não é possível afirmar que estes mesmos percentuais se repitam na indústria porém sabe-se que, quanto maior a complexidade do equipamento em estudo, maiores as chances de predominância dos padrões E e F (MOUBRAY, 1999; LAFRAIA, 2001; LUCATELLI, 2002). 2.3 Função Mantenabilidade e Conceito de Manutenção O desenvolvimento matemático apresentado para a função confiabilidade R(t) é válido para a função mantenabilidade G(t). Esta função relaciona-se à capacidade de reparo e quantifica a probabilidade de que uma falha seja reparada até um tempo t previamente estabelecido. A mantenabilidade depende do tipo de componente, sua localização no sistema ou equipamento, ferramentas existentes, conhecimento técnico, dentre outros fatores. Portanto, o tempo necessário para se realizar um reparo em um sistema pode ser definido como uma variável aleatória da mesma forma que o tempo entre falhas. As funções distribuição acumulada de reparo ou função mantenabilidade G(t) e densidade de probabilidade de reparo g(t) são assim definidas: g (t ) = dG (t ) dt ( 2.16) O tempo médio para o reparo (mean time to repair) MTTR é definido de maneira análoga ao MTTF: +∞ MTTR = E [T ] = ∫ t g (t ) dt 0 Onde T é a variável aleatória tempo de reparo (TR). ( 2.17) 14 Concluindo, todas as expressões apresentadas anteriormente para modelagem de confiabilidade também são válidas para a modelagem de mantenabilidade. Apresenta-se a seguir o conceito de manutenção. Define-se como manutenção o conjunto de ações destinadas a manter ou recolocar um item em um estado no qual possa executar sua função requerida. O propósito da manutenção é estender a vida de um equipamento ou, no mínimo, aumentar o tempo médio até a próxima falha. A ação de não realização de um procedimento de manutenção pode ter como conseqüência um alto custo em caso de uma falha. Paradoxalmente, pode não ser viável, do ponto de vista econômico, a realização de ações de manutenção com uma freqüência muito alta. Assim, o custo devido a uma provável falha e o custo de manutenção devem ser balanceados de forma a se obter um ponto ótimo (ENDRENYI et al., 1998) A manutenção é apenas uma das ferramentas utilizadas para garantir que a confiabilidade de um componente ou sistema seja satisfatória. Outras opções podem incluir o aumento da capacidade do sistema, utilização de redundâncias ou o emprego de componentes intrinsecamente mais robustos (IEEE,2001). Maiores detalhes sobre manutenção podem ser obtidos em Moubray (1999). 2.4 Função Disponibilidade Qualitativamente a disponibilidade A (availability) mede a proporção de tempo que um produto ou processo encontra-se em estado operativo. Define-se por estado operativo o somatório dos tempos de uso ativo e o tempo de espera (tempo do qual o equipamento não está em operação mas está disponível para utilização imediata). Considerando-se um sistema constituído somente de componentes não reparáveis, o tempo de reparo deixa de existir porque o componente é substituído. Assim, o conceito de disponibilidade torna-se o mesmo de confiabilidade sendo a probabilidade que o sistema funcione continuamente do tempo 0 até um tempo t (DUTUIT; RAUZY, 2005). Como esta situação não corresponde à realidade na grande maioria das vezes, torna-se necessário o estudo dos estados que um 15 sistema pode assumir e consequentemente, a sua disponibilidade. É possível representar o estado de um sistema genericamente através da função X(t) (2.18) 1 se o sistema está funcionando no tempo t X (t ) = 0 se o sistema não está funcionando no tempo t (2.18) A partir da função X(t) define-se a função disponibilidade instantânea A(t) como a probabilidade que o sistema esteja em condição operacional no instante t (2.19) A(t ) = P[X (t ) = 1] (2.19) A probabilidade que um sistema esteja indisponível no instante de tempo t é definida como U(t). É obvio concluir que a soma de A(t) e U(t) deve ser unitária. A variação da disponibilidade do instante t para o instante (t+ ∆t) é expressa por (2.20) (CASSADY, 2005). Um procedimento análogo pode ser realizado com relação à indisponibilidade. A(t + ∆t ) = A(t ) − λ ∆t A(t ) + µ r ∆t U (t ) (2.20) Onde A(t): disponibilidade; U(t) : indisponibilidade; λ: taxa de falha ; µr : taxa de reparo; (λ ∆t) : probabilidade do sistema falhar em um tempo finito ∆t; (µr ∆t) : probabilidade do sistema ser reparado em um tempo finito ∆t. Considerando-se o caso limite onde a variação ∆t tende a zero, a expressão (2.21) pode ser reescrita através da equação diferencial: dA(t ) = − λ A(t ) + µ r U ( t ) dt Considerando-se condições iniciais nulas e solucionando (2.21) tem-se que: (2.21) 16 A( t ) = µr + λ + µr λ λ + µr [ exp − (λ + µ r )t (2.22) ] Quando a disponibilidade assume um valor constante no tempo define-se o conceito de disponibilidade estacionária, que pode ser ilustrado na figura 2.4 e deduzido através de (2.22) Neste caso o valor do tempo tende a infinito resultando em (2.23) A = lim A(t ) = t →∞ µr λ + µr (2.23) A(t) 1 µr λ+µr t Figura 2.4: Disponibilidade dinâmica Sabe-se que no período de vida útil de um equipamento as taxas de falha λ e reparo µr são aproximadamente constantes. Nestas condições, o tempo médio para reparo MTTR (mean time to repair) é o inverso da taxa de reparo e o tempo médio entre falhas MTBF (mean time between failures) é o inverso da taxa de falhas. Assim, é possível definir a disponibilidade em função do MTBF e do MTTR (2.24) Procedimento análogo pode ser realizado em relação à indisponibilidade U(t) obtendo-se (2.25) A= µr λ + µr = MTBF MTBF + MTTR (2.24) 17 U= λ (2.25) λ + µr A expressão (2.24) considera que o MTTR (mean time to repair) deve-se somente ao tempo efetivo de manutenção e não leva em consideração aspectos administrativos ou logísticos. Quando estes aspectos são considerados define-se o termo disponibilidade operacional Ao (PALLEROSI, 2004) conforme expressão (2.26) Ao = (2.26) tempo disponível (eficaz) tempo disponível (eficaz) + tempo indisponível (ineficaz) 2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes Neste tipo de análise podem ser utilizadas técnicas não paramétricas (nas quais não é necessário especificar nenhuma distribuição de probabilidade) ou técnicas paramétricas onde é realizada a modelagem dos dados segundo uma distribuição de probabilidade. Como exemplo de técnicas não paramétricas podem ser citados os estimadores da Tabela de Vida e Kaplan-Meier (FREITAS E COLOSIMO,1997) As técnicas não paramétricas são muito simples em termos matemáticos e possibilitam obter distribuições de probabilidades empíricas. Estas técnicas podem ser úteis como testes preliminares principalmente quando não se sabe a priori qual distribuição de probabilidade poderia ser utilizada para a modelagem dos dados em estudo (O’ CONNOR, 2002). As técnicas paramétricas permitem realizar uma análise mais detalhada dos dados e, após a obtenção do modelo, é possível avaliálo para qualquer tempo que seja de interesse. As funções confiabilidade e mantenabilidade podem ser estimadas considerando-se a ausência ou presença de dados censurados. Dados censurados ocorrem quando os testes são terminados antes que todos os itens falhem ou quando ocorre a presença de dados incompletos e ou parciais. 18 2.5.1 Modelos não Paramétricos A estimação da Função Confiabilidade na ausência de censura é feita empiricamente a partir do histograma da distribuição aproximada do tempo de falha. Neste caso divide-se o número de itens que falharam em um determinado intervalo pelo número de itens em operação até o tempo que corresponde ao início do intervalo. O mesmo procedimento pode ser realizado com relação à mantenabilidade considerando-se o histograma da distribuição aproximada do tempo de reparo. A estimação da Função Confiabilidade na presença de censura pode ser feita através da Tabela de Vida (Método Atuarial) ou Estimador de Kaplan-Meier (LimiteProduto). O Estimador de Kaplan-Meier é uma adaptação da função confiabilidade empírica definida em (2.27). A expressão (2.28) apresenta sua definição matemática (FREITAS; COLOSIMO, 1997). n o de itens em operação até o tempo t n o de itens sob teste (2.27) ∧ ( n − d 1 ) ( n 2 − d 2 ) ( nt 0 − d t 0 ) R (t ) = 1 ... nt 0 n1 n2 (2.28) ∧ R (t ) = Onde di : número de falhas no tempo ti ; ni : número de itens sob risco (não falhou e não foi censurado) em ti exclusive; to : maior tempo de falha menor que t. 2.5.2 Modelos Paramétricos A modelagem de confiabilidade e mantenabilidade através de técnicas paramétricas pode ser realizada utilizando-se modelos de distribuição de variável discreta ou contínua. Dentre as distribuições discretas, são mais utilizadas as 19 distribuições binomial e Poisson. Entretanto, ressalta-se a importância das distribuições continuas (LEWIS, 1987, DHILLON, 1999), detalhas a seguir. O quadro 2.1 apresenta uma síntese com as principais distribuições de probabilidade utilizadas nos estudos de confiabilidade e mantenabilidade e suas respectivas equações. 0 Quadro 2.1- Principais distribuições de probabilidade continuas utilizadas em análise de confiabilidade e mantenabilidade Distribuição f(t) f (t ) = λ e − λt F(t) para t ≥ 0 F (t ) = 1 − e − λt R (t ) = e −λt = e Exponencial f (t ) = Lognormal − 1 ln t − µ 2 e σ 2π 2 σ 1 F (t ) = 1 σ 2π R(t) ∫ +∞ −∞ − 1 ln t − µ 2 e dt 2 σ h(t) −t R(t ) = 1 − F (t ) MTBF h(t ) = λ h(t ) = f (t ) R (t ) h(t ) = β (t − γ )β −1 β η para t ≥ 0 Weibull t −γ β − β −1 η β f (t ) = β (t − γ ) η e F (t ) = 1 − e t −γ β − η R (t ) = e t −γ β − η para t ≥ 0 Onde λ: taxa de falhas MTBF: tempo médio entre falhas µ: média (parâmetro de localização) σ :desvio padrão (parâmetro de dispersão) β : parâmetro de forma ou inclinação; γ: parâmetro de localização ou vida mínima; 19 η: parâmetro de escala ou vida característica. 20 A distribuição exponencial é uma das mais simples em termos matemáticos e caracteriza-se por apresentar uma taxa de falhas constante (FREITAS; COLOSIMO, 1997). Esta distribuição é aplicada em situações nas quais as falhas ocorrem de forma aleatória com uma taxa fixa. Nestes casos não ocorre um mecanismo de desgaste ou degradação expressivo (propriedade de falta de memória). Nesta situação específica, na qual a função taxa de falhas h(t) é constante, o parâmetro λ é o inverso do MTBF. A distribuição normal é utilizada para modelar a confiabilidade em situações nas quais existe um tempo de desgaste definido µ (LEWIS, 1987). Apesar de ser muito utilizada e conhecida, o uso da distribuição normal em engenharia de confiabilidade é restrito (MEYER,1983 ; DHILLON, 1999). Tomando-se como referência a distribuição normal, a distribuição Log-Normal é obtida substituindo-se a variável independente t por ln(t) (FREITAS; COLOSIMO, 1997). Esta distribuição descreve adequadamente tempos de vida de componentes cujos mecanismos de falha envolvem processos de degradação, fadiga e desgastes de uma maneira geral (LEWIS, 1987). A distribuição Log-Normal apresenta uma grande variedade de formas devido ao efeito da interação da escala logarítmica do tempo com os parâmetros média µ e dispersão σ. A função densidade de probabilidade f(t) existe somente para valores positivos de t. Este fato representa uma vantagem com relação à distribuição normal em termos de representatividade uma vez que o mesmo ocorre com a variável de interesse (tempo até a falha), em estudos de confiabilidade (O’ CONNOR, 2002). A distribuição Weibull foi proposta por W.Weibull em 1954 a partir de estudos relacionados ao tempo de fadiga de metais (FREITAS; COLOSIMO, 1997). Esta distribuição apresenta grande variedade de formas tendo como propriedade básica uma função taxa de falhas h(t) monótona que, portanto, pode ser crescente, decrescente ou constante. A figura 2.5 apresenta a função densidade de probabilidade da distribuição Weibull considerando β=0.5, β=1 e β=3,4. Observa-se que quando β tem valor unitário a distribuição de Weibull aproxima-se da distribuição exponencial. Quando este parâmetro assume um valor no intervalo 3≤ β ≤ 4 a distribuição de Weibull aproxima-se da distribuição normal (NELSON, 1982). A figura 2.6 apresenta a função taxa de falha h(t) correspondente às distribuições de probabilidade da figura 2.5. Observa-se que quando β=1 a taxa de falhas é constante, para valores menores que 1 é decrescente e para valores maiores que 1 21 é crescente (O’ CONNOR, 2002). As figuras 2.7 e 2.8 mostram as funções distribuição acumulada F(t) e as funções confiabilidade R(t) correspondentes. Todas as figuras foram geradas utilizando o software Weibull++7™ (RELIASOFT, 2007). Figura 2.5: Função densidade de probabilidade Variação de β considerando η = 2 e γ= 0 Figura 2.7:Função densidade de falhas acumulada Variação de β considerando η = 2 e γ= 0 Figura 2.6:Função taxa de falhas Variação de β considerando η = 2 e γ= 0 Figura 2.8:Função confiabilidade Variação de β considerando η = 2 e γ= 0 22 Além das distribuições citadas anteriormente, existem muitas outras que podem ser utilizadas em estudos de confiabilidade e mantenabilidade. A figura 2.9 (PALLEROSI, 2007) apresenta uma visão geral destas distribuições. Observa-se que, dependendo da variação de seus parâmetros, a distribuição gama generalizada pode dar origem às distribuições gama, Weibull triparamétrica, lognormal ou exponencial. O mesmo ocorre com a distribuição Weibull triparamétrica, que pode originar as distribuições Weibull biparamétrica, normal, lognormal e exponencial. Figura 2.9:Relação entre as Distribuições de Probabilidade Fonte: PALLEROSI, 2007 23 2.5.3 Estimação de Parâmetros Uma vez que a distribuição de probabilidade que supostamente se ajusta aos dados foi escolhida é necessário estimar seus parâmetros. Dentre os métodos mais utilizados para esta finalidade podem ser citados os papeis de probabilidade, mínimos quadrados e máxima verossimilhança. A escolha do método de estimação a ser utilizado é dependente da quantidade de dados disponíveis e principalmente da forma como os mesmos são apresentados. Para a criação de um papel de probabilidade no contexto da engenharia de confiabilidade, o primeiro passo é promover a linearização da função densidade acumulada F(t). Assim, será gerado um gráfico cujo eixo das ordenadas representa F(t) e o eixo das abscissas representa o tempo de vida (ou variável de interesse) em escala logarítmica. Cabe ressaltar que o termo “papel de probabilidade” neste texto refere-se à gráficos gerados através de ferramentas computacionais. Tomando-se como exemplo uma distribuição de Weibull, a equação linearizada (2.29) pode ser interpretada como a equação de uma reta na forma Y=AX+B. 1 ln ln = = β ln (t − t0 ) − β ln (η ) 1 − F ( t ) (2.29 ) O parâmetro de forma β corresponde ao coeficiente de inclinação da reta. O parâmetro de escala η pode ser calculado como o tempo no qual a função F(t) corresponde a 63,2% (O’ CONNOR, 2002) conforme (2.30). Observa-se que, neste caso, o parâmetro de vida mínima γ foi considerado igual a zero. Considerando situações nas quais este parâmetro apresentar outro valor qualquer poderá ser utilizada a mesma metodologia proposta considerando-se que todos os resultados encontrados serão deslocados. B A η = exp − (2.30) 24 Existe a necessidade de se ordenar os dados e calcular o percentual acumulado de falhas F(t). Este cálculo é normalmente realizado pela aproximação de Bernard (O’ CONNOR, 2002) conforme (2.31). ri = 100(i − 0,3) N + 0,4 (2.31) Onde i : número de ordem. N : tamanho da amostra; A figura 2.9 apresentada, como exemplo, um Papel de Probabilidade para a distribuição Weibull. F(t)% 99,00 90,00 6,0 2,0 β 1,0 β≈2 η 63,2 50,00 10,00 5,00 10000 t = η ≈ 28000 100000 ln(t) Figura 2.9: Estimativa de β e η utilizando-se o papel de probabilidade Weibull Quando não é possível ou desejável estimar os parâmetros da distribuição de probabilidade de interesse de forma gráfica, tem-se a opção de utilizar o método dos mínimos quadrados. Partindo-se do modelo de uma reta como, por exemplo, apresentado em (2.29) o método de Mínimos Quadrados objetiva minimizar a soma dos quadrados do erro. Formalmente, as estimativas de mínimos quadrados dos parâmetros A e B são os valores que tornam mínima a expressão 2.32. O símbolo “^” indica o valor estimado (MEYER, 1983). 25 ∧ n ∧ ε ( A, B) = ∑ [Yi − ( A X i + B)]2 (2.32) i =1 Onde n : número de observações A fim de obter as estimativas desejadas dos parâmetros A e B deve-se resolver (2.33) e (2.34) condição necessária para que o erro ε (A,B) seja mínimo. ∂ε =0 ∂A (2.33) ∂ε =0 ∂B (2.34) A soma do quadrado do erro pode ser calculado com relação ao eixo das abscissas (eixo y) conforme descrito por (2.32). Como uma outra opção, o mesmo cálculo pode ser feito com relação ao eixo das ordenadas (eixo x) conforme (2.35) n ε ( A, B) = ∑ [ X i − ( AYi + B)]2 (2.35) i =1 Onde n : número de observações. O método regressão linear apresenta restrições quando aplicado a estudos que envolvam tempos de vida devido a sua incapacidade de lidar com dados que são fornecidos em intervalos ou que apresentem censuras (FREITAS; COLOSIMO, 1997). Em geral, é recomendado usar esta técnica somente quando se tem uma amostra pequena e sem censuras. Uma outra opção para estimação de parâmetros no contexto da engenharia de confiabilidade é o método de Máxima Verossimilhança. Este método estima os valores dos parâmetros de uma dada distribuição de probabilidade tal que a função de verossimilhança L seja maximizada. A expressão 2.36 apresenta uma pdf genérica. f (t; θ1, θ2,...θk) Onde t : tempo até a falha; ( 2.36) 26 θk : parâmetros a serem estimados. Sejam t1,...,tn os valores amostrais da variável aleatória “tempo até a falha” e θ o vetor de parâmetros que se deseja estimar. A função de verossimilhança L é definida por (2.37) (MEYER, 1983; DHILLON, 1999). Considera-se que não ocorreram censuras. L (t1,t2,...tn; θ) = f (t1; θ) f (t2;θ)...f (tn; θ) (2.37) Onde L : função de verossimilhança; tn : tempos até a falha; θ : vetor de parâmetros a serem estimados. Portanto, considerando-se conjuntos de dados não censurados, a função de verossimilhança é o produto das funções pdf resultantes de cada observação do conjunto de dados. Este conceito é expresso por (2.38) n L ( t1,t2,...tn;θ1, θ2,...θk ) = ∏ f (ti ; θ1, θ2,...θk ) (2.38) i=1 Onde L : função de verossimilhança; tn : tempos até a falha; θk : parâmetros a serem estimados; k : quantidade de parâmetros da distribuição; n : número de observações. Para se maximizar a função de verossimilhança L, é usual utilizar sua versão em forma logarítmica, conforme (2.39) n ln L ( t1,t2,...tn;θ1, θ2,...θk ) = ∑ ln f (ti ; θ1, θ2,...θk ) (2.39) i =1 A partir de 2.39 deve-se encontrar o conjunto de parâmetros que a maximiza. Este cálculo é realizado determinando-se as derivadas parciais em relação a cada parâmetro e igualando o resultado a zero. Assim, a maximização de ln L resulta da 27 solução simultânea de k equações , conforme expresso em (2.40) ∂ ln L = 0 , j = 1,2, ... , k ∂θ j (2.40) Considerando-se dados censurados, a contribuição de cada observação é apenas informar que o tempo de falha é maior que o tempo de censura observado. Portanto, a contribuição de um dado censurado para a Função Verossimilhança L é expresso pela sua função confiabilidade R(t). As observações podem ser divididas em dois conjuntos conforme (2.41) (FREITAS; COLOSIMO, 1997). r L ( t1,t2,...tn;θ1, θ2,...θk ) = ∏ f (ti ; θ1, θ2,...θk ) i=1 n ∏R(t ; θ , θ ,...θ i 1 2 k ) (2.41) i=r+1 Onde L : função de verossimilhança; R : função confiabilidade; tn : tempos até a falha; θk : parâmetros a serem estimados ; k : quantidade de parâmetros da distribuição; n : número total de observações; r : observações que não apresentam censura. Conforme mencionado anteriormente, é recomendado usar a técnica de regressão quando se tem uma amostra pequena e sem censuras. Quando existem grandes quantidades de dados ou muitas censuras estejam presentes, o estimador de máxima verossimilhança pode ser indicado como a melhor opção. 2.5.4 Validação de Modelos A validação de modelos é uma etapa posterior à estimação de parâmetros na qual pretende-se verificar se o modelo escolhido é adequado para representar os dados observados. Esta análise pode ser realizada a partir de técnicas gráficas ou testes de adequação. 28 O gráfico conhecido como Papel de Probabilidade (detalhado anteriormente) apresenta eixos calculados de tal forma que, se os dados puderem ser ajustados por uma reta, a distribuição de probabilidade escolhida é adequada para modelar os dados em estudo. Portanto, um método gráfico simples e intuitivo para a validação consiste em traçar os dados em diferentes papeis de probabilidade e verificar qual deles é mais adequado. Uma outra opção gráfica consiste em comparar os valores da função confiabilidade (ou da função probabilidade de falha) obtidos através de um modelo paramétrico candidato e um estimador não paramétrico (FREITAS; COLOSIMO, 1997). A validação de modelos pode ainda ser realizada a partir de técnicas numéricas ou testes de adequação. Um teste de adequação tem por finalidade verificar a hipótese de que uma determinada distribuição de probabilidade possa modelar satisfatoriamente um conjunto de dados amostrais. O teste do Qui-Qradrado é muito versátil uma vez que pode ser aplicável a qualquer distribuição de probabilidade. Os dados são inicialmente divididos em classes (ou células), sendo que, para que se tenha precisão, é desejável ter no mínimo três classes com no mínimo cinco valores em cada uma. (O’ CONNOR, 2002). Embora o teste estatístico do Qui-Quadrado seja muito utilizado para verificar a adequação de modelos probabilísticos, este teste não é muito indicado para estudos de confiabilidade. Esta afirmação deve-se à eventual presença de dados censurados e à exigência de uma grande quantidade de dados, nem sempre disponíveis (FREITAS; COLOSIMO, 1997). O teste Kolmogorov-Smirnov é um pouco mais simples do que o teste QuiQradrado e pode oferecer melhores resultados quando a quantidade de dados disponíveis é pequena. Este teste pode ser utilizado em conjunto com a técnica gráfica papel de probabilidade uma vez que também é baseado na pdf (função distribuição acumulada) dos dados (O’ CONNOR, 2002). Dhillon (1999) cita os testes Bartlet e Geral Exponencial, porém ambos são aplicáveis somente quando a distribuição a ser testada é exponencial. Concluindo, não existe na literatura pesquisada um consenso sobre um teste de aderência com aplicação universal. Ressalta-se, portanto a importância do conhecimento de engenharia a ser utilizado no processo de escolha de um modelo adequado para representar os dados em estudo. 29 3 MODELAGEM DE SISTEMAS Entende-se por sistema um conjunto de itens integrados de forma a atender um determinado objetivo. A confiabilidade de um sistema é dependente da confiabilidade de seus componentes e da forma como os mesmos estão interligados. Considerando-se um sistema não reparável, a variável aleatória de interesse é o tempo até a falha. Neste caso não é possível (ou viável economicamente) realizar ações de reparo de forma a reconduzir o sistema ao estado operativo após uma falha. Define-se como sistema reparável aquele que, após uma falha, pode ter sua condição normal de operação restabelecida através de alguma ação de manutenção. Tratando-se um sistema reparável, as variáveis aleatórias de interesse são os tempo entre falhas e os tempos de reparo. Assim, deve ser realizado não somente o cálculo de confiabilidade mas também os cálculos de mantenabilidade e disponibilidade. O cálculo da confiabilidade e demais variáveis de interesse (mantenabilidade e disponibilidade) pode ser realizado de forma analítica ou através de simulação, conforme detalhado nos itens subseqüentes. Uma outra classificação possível é a subdivisão em métodos qualitativos e quantitativos. 3.1 Modelagem de Sistemas não Reparáveis Existe um amplo espectro de técnicas disponíveis para a modelagem da confiabilidade de sistemas não reparáveis. Uma das classificações usualmente utilizada é agrupá-las em técnicas quantitativas e qualitativas (ROUVROYE; VAN DEN BLIEK, 2002). Dentre as técnicas qualitativas mais importantes para a modelagem de sistemas podem ser citadas a análise de modo e efeito de falhas (FMEA - Failure Mode and Effect Analysis) e a Árvore de Falhas (FTA- Faut Tree Analysis) (HELMAN; ANDERY, 1995). 30 Observa-se que a FTA pode ser desenvolvida segundo uma abordagem qualitativa ou quantitativa. Apesar de não ser um procedimento intrínseco à metodologia original, a FMEA também pode assumir uma abordagem quantitativa se a análise for baseada em dados históricos. O Diagrama de Blocos de Confiabilidade (RBD - Reliability Block Diagram) (MURPHY; CARTER, 2003) é citado na literatura como uma das técnicas quantitativas mais utilizadas. Outra classificação possível seria a subdivisão em métodos analíticos e numéricos (METTAS; SAVVA, 2001). O enfoque analítico envolve a determinação de uma expressão matemática que descreve a confiabilidade do sistema em estudo através da confiabilidade de seus componentes. O valor da confiabilidade de cada componente Ri(t) pode ser estimado através de uma distribuição de probabilidade pelo método de Análise de Tempo de Falha. Logo, o principal desafio é encontrar a relação entre os componentes do sistema e expressá-la matematicamente. Embora os métodos analíticos para cálculo de confiabilidade forneçam valores exatos, a complexidade de suas expressões matemáticas faz com que estes sejam, às vezes, intratáveis. Neste caso, podem ser empregados métodos numéricos também definidos como métodos de simulação. O termo simulação refere-se a uma família de técnicas baseadas em cálculos computacionais que objetivam reproduzir o comportamento de um dado sistema. A modelagem através de simulação tem se tornado uma poderosa ferramenta que possibilita o estudo de sistemas complexos e facilita o processo de tomada de decisão (BARZAGAN; MCGRATH, 2003). Existe uma tendência em considerar que as técnicas baseadas em simulação apresentam um capacidade de representação da realidade superior às técnicas analíticas (MARSEGUERRA; ZIO, 2005). Esta suposição deve-se à incerteza intrínseca com relação aos tempos de reparo e atrasos logísticos, bem como a disponibilidade de recursos. 3.1.1 Análise de Modos e Efeitos de Falhas A Análise de Modos e Efeitos de Falhas FMEA (Failure Mode and Effect Analysis) é um método padronizado de análise que visa identificar todos os 31 possíveis modos potenciais de falha e determinar o efeito de cada um sobre o desempenho do sistema (produto ou processo). A aplicação da metodologia FMEA requer uma equipe multidisciplinar e multi-hierárquica de forma a ser o mais abrangente possível (HELMAN; ANDERY, 1995). Define-se como modo de falha um evento que provoca uma diminuição parcial ou total da função do produto e de suas metas de desempenho. As causas são eventos que geram, provocam ou induzem o aparecimento do tipo (modo) de falha e, finalmente, os efeitos são formas como os modos de falha afetam o desempenho do sistema (PALADY, 1950). O resultado da análise é consolidado através de um formulário (figura 3.1), constando uma identificação inicial que especifica se a análise refere-se a um produto ou processo e dados de registro particulares. Em seqüência, são introduzidos o nome do item, componente ou etapa do processo e sua função. Posteriormente, são registradas as falhas e respectivos modo, efeito, causa e a possível existência de alguma ação de controle para que a falha analisada não ocorra. Finalmente, são computados os índices de gravidade (G), detecção (D), ocorrência (O) e risco (R). A última etapa consiste na sugestão de uma ação corretiva para evitar a falha. A seta indicada na figura 3.1 representa a necessidade de atualização contínua da análise. Figura 3.1: Exemplo de um formulário utilizado para FMEA 32 3.1.2 Análise por árvore de falhas A análise por árvore de falhas (FTA - Faut Tree Analysis) é um método sistemático que correlaciona um determinado efeito com suas possíveis causas, estabelecendo relações operacionais entre as mesmas (HELMAN; ANDERY, 1995). O processo de construção da árvore de falha de um sistema começa com a escolha de evento específico (evento de topo) e trabalha no sentido de obter todas as falhas básicas que podem causar o evento analisado. Os eventos são relacionados através de portas lógicas sendo que a seqüência de eventos conduzem a causas básicas para as quais a taxa de falha é conhecida (DHILLON,1999). A figura 3.2 apresenta um exemplo de uma árvore de falhas. As causas básicas são denotadas por círculos e representam os limites de resolução da árvore de falha. Eventos que possuem mais de uma causa retângulos) podem ser desdobrados. básica (denotados por Esta técnica permite a visualização do problema a ser analisado através de uma representação gráfica simples e objetiva, além de direcionar a análise. Conhecendo-se as taxas de falhas dos eventos básicos e a relação de causa e efeito entre elas (representada pelas portas lógicas) é possível calcular a confiabilidade do evento de topo. Evento de Topo E2 E1 E3 A C E4 F B G H Figura 3.2: Exemplo de uma Árvore de Falhas 33 3.1.3 Diagrama de Blocos de Confiabilidade A lógica de falha de um sistema pode ser representada como um Diagrama de Blocos de Confiabilidade também conhecido através da abreviação RBD (Reliability Block Diagram). Este diagrama é um modelo que mostra as conexões lógicas entre os elementos de um sistema e permite visualizar a relação existente entre a confiabilidade geral do sistema em estudo R(t) e a confiabilidade parcial de cada um de seus componentes Ri (t). Um RBD apresenta três elementos básicos: componentes, ligações (links) e nós. Os componentes são tradicionalmente representados como blocos e possuem numerosos atributos como por exemplo a função distribuição probabilidade de falha. Um link é simplesmente uma linha que conecta dois blocos e os nós promovem a ligação entre os links. Os links e nós são construções lógicas que definem os caminhos (paths) de um sistema. Um caminho é definido como um percurso contínuo e sem sobreposições da entrada a saída de um RBD (MURPHY; CARTER, 2003). Uma análise de confiabilidade em um sistema qualquer deve ser precedida da definição inequívoca do que constitui uma falha. Dependendo da complexidade do sistema pode ser possível definir diferentes possibilidades para a ocorrência de falha e nestes casos é necessária a construção de um RBD diferente para cada situação. Portanto, uma restrição significativa quanto à utilização de RBD’s é a necessidade da existência de somente uma entrada e uma saída. Um RBD mostra as conexões lógicas entre os elementos de um sistema e não necessariamente tem a mesma formatação do diagrama esquemático de funcionamento. Assim, em sistemas cujos componentes apresentam formas complexas de interações, a construção de um RDB pode tornar-se uma tarefa com grande grau de dificuldade (O’ CONNOR, 2002). A figura 3.3 apresenta um exemplo de RBD formado pelos subsistemas 1 (configuração série), 2 (configuração paralelo), 3 (configuração k de n) e 4 (configuração stand-by). A confiabilidade R(t) de um sistema em série é dada por (3.1) e a probabilidade de que ambos falhem F(t) é dada por (3.2). Este procedimento pode 34 ser generalizado para n componentes ligados em série (3.3) quando os componentes tiverem a mesma confiabilidade Rm (LAFRAIA, 2001). 2 3 1 D B E A B F k/n B C 4 C C j Figura 3.3: Exemplo de um diagrama de blocos de confiabilidade R(t ) = R A (t ) Rb (t ) (3.1 ) F (t ) = FA (t ) + Fb (t ) − FA (t ) Fb (t ) (3.2 ) Rs (t ) = Rm (t ) n ( 3.3) Onde n : número total de componentes; Rm(t) : confiabilidade de cada um dos componentes. A confiabilidade de um sistema em paralelo é dada por (3.4) e a probabilidade de que ambos falhem F(t) é dada por (3.5). R(t ) = RA (t ) + Rb (t ) − R A (t ) Rb (t ) (3.4 ) F (t ) = FA (t ) Fb (t ) (3.5 ) 35 Este procedimento pode ser generalizado para n componentes ligados em paralelo (3.6) quando os componentes tiverem a mesma confiabilidade Rm. Rs (t ) = 1 − [1 − Rm (t )] n (3.6 ) Onde n : número total de componentes; Rm(t) : confiabilidade de cada um dos componentes. Um sistema com redundância em stand-by apresenta unidades adicionais que são acionadas caso ocorra uma falha na unidade em operação (figura 3.3, subsistema 4). Neste caso as falhas de cada bloco são estatisticamente independentes e supõe-se que a unidade de chaveamento é isenta de falhas (LAFRAIA, 2001). A expressão (3.7) apresenta o valor da função confiabilidade R(t) para este sistema considerando-se que todas as unidades são idênticas e com a mesma taxa de falha. R (t ) = n ∑ i=0 (λ t ) i e − λt i! ( 3.7 ) Onde n: N-1 ( número de unidades em stand by – não ativas). A figura 3.3 (subsistema 3) apresenta um exemplo de redundância “k” de “n”. Nesta configuração um número “k” de unidades deve estar operando para o sucesso do sistema . A função confiabilidade R(t) neste caso é dada por (3.8) (LAFRAIA,2001) n R (t ) = ∑ C in R i (1 − R ) n − i (3.8 ) i=k Onde n : número de unidades total do sistema; k :número de unidades requerida; R : confiabilidade de cada unidade; Cin : combinação “n”, “i” a “i”. A maneira mais intuitiva de se calcular a confiabilidade de um RBD é reduzir o diagrama global em agrupamentos de componentes ligados em série ou em 36 paralelo. Nesta metodologia considera-se que os eventos são independentes e os cálculos de confiabilidade podem ser facilmente executados. Quando é inviável realizar a redução do diagrama global em ligações série paralelo podem ser utilizadas técnicas alternativas que fornecerão resultados aproximados como o método dos cortes (cut set) ou o método dos caminhos (path set). Outra possibilidade é a utilização de métodos numéricos como a simulação de Monte Carlo detalhada no item 3.2.4. Um conjunto de corte mínimo é uma combinação da menor quantidade de falhas primárias tal que, se todas ocorrerem simultaneamente o evento de topo também ocorrerá (FREITAS; COLOSIMO, 1997). Por definição cada conjunto de corte mínimo é a intersecção das falhas primárias que o constitui. A confiabilidade de um sistema Rsist calculada através do método dos cortes mínimos é expressa por (3.9) (O’ CONNOR, 2002). R sist > 1 − n N ∑ ∏ (1 − R ) i =1 (3.9) i j =1 Onde Ri: confiabilidade de cada unidade; n : número blocos; N : número total de conjuntos de corte . Os caminhos (paths) de um sistema podem ser definidos como um percursos contínuos e sem sobreposições do início ao final de um RDB (MURPHY; CARTER 2003). A análise através de caminhos objetiva encontrar conjuntos de blocos tais que se todos estiverem funcionando o sistema estará em funcionamento. Esta metodologia é formalizada através de (3.10) (O’ CONNOR, 2002). R sist < T i =1 (3.10 ) n ∑∏ R i j =1 Onde Rsist : confiabilidade do sistema; Ri : confiabilidade de cada unidade; n : número blocos; T: número total de conjuntos de caminhos. 37 3.1.4 Simulação de Monte Carlo Esta metodologia é baseada na simulação de variáveis aleatórias para resolução de problemas e por ser considerada muito simples e flexível pode ser aplicada à problemas de qualquer nível de complexidade (MARSEGUERRA; ZIO, 2005). É importante ressaltar que a simulação de Monte Carlo pode ser aplicada a sistemas não reparáveis e também a sistemas reparáveis. Considerando-se um sistema não reparável, a variável aleatória de interesse é o tempo até a falha. Tratando-se um sistema reparável, as variáveis aleatórias de interesse são os tempos entre falhas e os tempos de reparo. A simulação de Monte Carlo pode ter uma abordagem seqüencial ou não seqüencial. Na primeira possibilidade os estados do sistema são sequencialmente amostrados por vários períodos de tempo simulando uma realização do processo estocástico de operação do sistema. Considerando a abordagem não seqüencial o espaço de estados é amostrado aleatoriamente sem levar em consideração a cronologia do processo de operação do sistema. A simulação pode ser utilizada tendo como base a maioria das diversas topologias utilizadas para modelar a confiabilidade de um sistema. Uma grande vantagem é que as probabilidades de transição entre os estados do sistema podem assumir qualquer valor e não necessariamente devem permanecer constantes. Como conseqüência deste fato, a simulação de Monte Carlo permite efetuar o cálculo de sistemas cujos componentes são modelados por qualquer distribuição de probabilidade (Weibull, normal, lognormal, etc.) o que permite maior flexibilidade e maior compromisso com a realidade. 3.2 Modelagem de Sistemas Reparáveis Tratando-se de um sistema reparável, as variáveis aleatórias de interesse são tempo entre falhas e tempo de reparo. Assim, conforme citado anteriormente, deve ser realizado não somente o cálculo de confiabilidade mas também os cálculos de mantenabilidade e disponibilidade. 38 Os métodos para análise de sistemas reparáveis podem ser divididos em duas grandes vertentes. A primeira vertente, chamada abordagem por componentes, considera os componentes individualmente (lowest replaceable unit). Neste caso é necessário se conhecer as funções densidade de probabilidade de falha e de reparo relativas a cada componente e a forma como os mesmos estão conectados (METTAS, 2006). A outra forma de análise, chamada abordagem por sistema, consiste em considerar os dados de falhas como realizações de um processo estocástico de contagem (COIT, 2005). Neste caso, todas as falhas do sistema são consideradas em conjunto sendo muito utilizados os processos de Poisson homogêneo (HPP) e não homogêneo (NHPP) (RIGDON, BASU, 2000). Um modelo de confiabilidade de um sistema reparável inclui usualmente a confiabilidade dos componentes, a arquitetura do sistema, o esquema físico de operação, bem como aspectos relacionados à disponibilidade, mantenabilidade e práticas de manutenção utilizadas. É desejável ainda que, na medida do possível, também inclua fatores subjetivos como erro humano e atrasos logísticos, dentre outros (LOGMAN; WANG, 2002). A modelagem de sistemas reparáveis a partir da abordagem por componentes é detalhada no item 3.3.1 no qual são deduzidas expressões analíticas que permitem calcular a confiabilidade e a disponibilidade do sistema a partir das taxa de falha e o tempo de reparo (CARVALHO; MENEZES; CAMINHAS, 2006). A abordagem por sistema é apresentada no item 3.3.2 no qual são apresentados os processos de Poisson homogêneo (HPP) e não homogêneo (NHPP) segundo Ascher e Feingold (1984). 3.2.1 Abordagem por componentes A abordagem por componentes para análise de um sistema reparável considera os componentes individualmente (lowest replaceable unit) conforme Cassady e Pohl (2005) e Mettas (2006). A figura 3.4 representa as funções densidade de probabilidade de falha f(t) e de reparo g(t) relativas a um componente hipotético. Em um nível de detalhamento maior é possível ainda considerar as 39 funções f(t) e g(t) para cada modo de falha de cada componente. O tempo em que o sistema encontra-se em estado operativo to é determinado por f(t) e o tempo indisponível ti é determinado por g(t). Sendo conhecidas estas distribuições e a forma como os componentes estão interligados é possível calcular a disponibilidade do sistema a partir de métodos analíticos ou numéricos. Figura 3.4: Distribuições de probabilidade para um componente reparável genérico Fonte: Adaptado a partir do trabalho de METTAS, 2006. Considera-se neste trabalho que após a ocorrência de uma falha é realizado um reparo imediatamente e que o reparo é capaz de levar o item falho novamente a sua condição original. Esta condição pode ser observada na figura 3.4, pois as distribuições de probabilidade de falha antes e após o reparo são idênticas. Neste caso as ações de reparo conduzem o sistema à condição “tão bom quanto novo” (METTAS; ZHAO, 2005). Ao admitir esta premissa como válida, supõe-se que os dados de falha não exibem nenhuma tendência de comportamento (intensidade de falhas aproximadamente constante) e que o sistema pode ser modelado através de processo de renovação. Uma vez realizada a modelagem das variáveis aleatórias tempos entre falhas e tempos de reparo, se for constatada a adequação da distribuição exponencial para ambas as variáveis, o sistema pode ser modelado utilizando-se Diagramas de Markov. A análise de Markov é aplicável desde que as seguintes restrições sejam respeitadas: 40 1-As probabilidades de transição entre os estados permanecem constantes ao longo do tempo. 2- A probabilidade de um estado futuro independe dos estados anteriores excetuando-se o estado imediatamente precedente (propriedade de falta de memória). A figura 3.5 apresenta um Diagrama de Markov para um único componente X que pode assumir os estados O em funcionamento e o estado F falho. A probabilidade de transição do estado de funcionamento para o estado falho é P0→F e a probabilidade de transição no sentido contrário é PF→0. Este é um exemplo de processo discreto (O’ CONNOR, 2002). P0 F O 1 - P0 F PF F 0 1 - PF 0 Figura 3.5 - Diagrama de Markov para um componente O somatório das probabilidades de transição incluindo a auto-transição deve ser unitário. Considerando um estado inicial é possível construir o diagrama em árvore onde são representadas todas as possibilidades de transição para n intervalos de tempo. A partir do diagrama em árvore pode-se calcular a probabilidade de o item estar em qualquer estado após um determinado número de intervalos de tempo (MAILLART; POHL, 2005). Os mesmos resultados podem ser obtidos através da matriz de transição de estados (3.11). Esta matriz elevada a n- ésima potência corresponde ao n- ésimo intervalo de tempo. Y = PS 0 → S 0 PS 0 → S1 PS 1→ S 0 PS 1→ S 1 (3.11 ) 41 Onde Elemento (1,1): probabilidade do item estar disponível; Elemento (1,2): probabilidade do item estar indisponível; Elemento (2,1): probabilidade do item ser reparado; Elemento (2,2): probabilidade do item não ser reparado. Portanto, um diagrama de Markov representa eventos dependentes e permite o cálculo da evolução temporal dos estados de um sistema desde que as probabilidades de transição entre estes estados permaneçam constantes. Esta imposição é uma limitação significativa e probabilidade exponenciais implica no uso de distribuições de para a modelagem das taxas de falha e de reparo. Embora o diagrama de Markov seja capaz de descrever intricadas relações dinâmicas entre modos de falhas, existe uma falta de flexibilidade considerável. Pode ser observado ainda que, dependendo do tamanho do sistema modelado, pode existir um número demasiadamente grande de estados possíveis, o que inviabiliza a análise do comportamento do sistema. Desta forma, conclui-se que este método é mais adequado para análise da confiabilidade de sistemas de pequeno porte (VOLOVOI, 2004) (MAILLART; POHL, 2005) Um segundo método para calcular a confiabilidade e a disponibilidade de um sistema reparável de forma analítica é a Metodologia Lambda-Tau. A proposta desta metodologia é calcular a confiabilidade de um sistema reparável a partir da taxas de falha λ (lambda) e tempo de reparo τ (tau) de seus componentes. O método baseiase no fato de que o sistema pode ser representado através de uma árvore de falhas livre de eventos redundantes (KENEZEVIC; ODOOM, 2001) A partir do modelo em árvore de falhas podem ser deduzidas expressões analíticas para o cálculo da taxa de falha λ e do tempo de reparo τ associadas aos operadores lógicos OR (componentes em série) e AND (componentes em paralelo), a partir dos conceitos de disponibilidade e análise em espaço de estados. A metodologia Lambda-Tau é baseada na análise em espaço de estados (detalhada anteriormente). Considerando-se dois componentes atuando em conjunto é possível reconhecer quatro estados conforme representado na figura 3.6. A condição de operação é indicada pelo sub-índice “ O” e a condição de falha pelo subíndice “F”. No estado P1 os dois componentes estão em funcionamento simultaneamente, nos estados P2 e P3 um dos dois componentes está em condição 42 de falha e no estado P4 ambos os componentes encontram-se em falha (BILLINTON, 1978). λ1 Estado P1 1O 2O λ2 Estado P2 1F 2O µ r1 µr 2 λ2 λ1 Estado P3 1O 2F µr 2 Estado P4 1F 2F µ r1 λ µ11 Figura 3.6: Possíveis estados para 2 componentes Fonte: BILLINTON, 1978 Os estados P1 e P2 podem ser expressos matematicamente através das expressões 3.12 e 3.13 respectivamente. Os estados P3 e P4 podem ser definidos de forma análoga. µ r1 P1 = + λ µ 1 r1 µr2 + λ µ 2 r2 (3.12) λ1 P2 = λ µ + 1 r1 µr2 λ2 + µ r 2 (3.13) A disponibilidade de um sistema reparável composto por n componentes em série é condicionada ao funcionamento simultâneo de todos os componentes. Considerando-se um sistema reparável composto por n componentes em paralelo, uma falha ocorrerá somente se todos os componentes falharem. A partir destas hipóteses, as expressões para o cálculo de dois componentes podem ser deduzidas e posteriormente generalizadas para n componentes conforme quadro 3.1 (CARVALHO; MENEZES; CAMINHAS, 2006). 43 Expressão Sistema série (porta OR) λ para 2 componentes τ para 2 componentes λ genérica completa λ P = λ1λ 2 (τ 1 + τ 2 ) λ S = λ1 + λ 2 τS = Sistema paralelo ( porta AND) λ1λ2τ 1τ 2 + λ1τ 1 + λ 2τ 2 λS τP = τ1 τ 2 τ1 + τ 2 n n λi ∑∏τ i ∏ j =1 i =1 i =1 i ≠ j n n λ S = ∑ λi i =1 λP = λ genérica simplificada ∑λ i =1 n τ genérico simplificado τs = ∑ i =1 n n i =1 i =1 ∏ (λiτ i + 1) − ∏ (λiτ i ) n n λ P = ∏ λi ∑∏τ i j =1 i =1 i =1 i ≠ j n - n ∏ (λiτ i + 1) − 1 τ s = i =1 n τ genérico completo n i n τP = ∏τ i i =1 n n ∑∏τ j =1 i =1 i≠ j i λiτ i - ∑ λi i =1 Quadro 3.1: Expressões metodologia Lambda-Tau Outra opção para análise de um sistema reparável considerando os componentes individualmente é a utilização de simulação de Monte Carlo. Conforme mencionado anteriormente, a maior vantagem desta técnica é possibilidade de utilização de qualquer distribuição de probabilidade para modelagem das variáveis aleatórias tempos entre falhas e tempos de reparo. Este fato permite grande flexibilidade. 44 3.3.2 Abordagem por sistemas Os modelos aplicáveis a sistemas reparáveis podem ser divididos em processos estocásticos pontuais (stochastic point processes) e modelos que envolvem equações diferenciais (ASCHER; FEINGOLD, 1984). O segundo tipo tem tido aplicação restrita a estudos de crescimento da função confiabilidade (Reliability Growth) (CROW, 2005). Um processo adequadamente um estocástico fenômeno pontual físico (stochastic caracterizado point por process) eventos modela altamente localizados e distribuídos randomicamente. Neste caso os tempos de reparo são desprezados e considera-se que as falhas ocorreram em uma seqüência específica. Quando são considerados o número de falhas e os respectivos instantes de ocorrência é caracterizado um processo estocástico de contagem (counting process). Um sistema reparável pode ser modelado como um processo de contagem de falhas sendo considerados os efeitos de sucessivas ações de reparo. A função intensidade de falha um processo estocástico i(t) é definida (ASCHER; FEINGOLD, 1984; SANTOS, 2003) por: i (t ) = lim ∆t → o P{ocorrência de falha (t , t + ∆t )} ∆t (3.14) P{N (t + ∆t ) − N (t )} ∆t (3.15) i (t ) = lim ∆t → o Onde N(t) : número de falhas Quando os dados de falha não exibem nenhuma tendência de comportamento (intensidade de falhas aproximadamente constante) o sistema pode ser modelado através de processo de renovação. Neste caso as ações de reparo conduzem o sistema à condição “tão bom quanto novo” (METTAS; ZHAO, 2005). Quando a intensidade de falhas i(t) apresenta característica decrescente caracteriza-se o crescimento da confiabilidade (Reliability Growth) e quando exibe tendência 45 crescente são caracterizados processos de degradação e/ou deterioração (COIT, 2005). Um processo de Poisson homogêneo (HPP) é um caso especial de processo de renovação que apresenta tempos entre falhas independentes e exponencialmente distribuídos. Portanto, a função intensidade para um HPP é constante. O processo de Poisson não homogêneo (NHPP) modela o comportamento não estacionário (variante no tempo) descrevendo adequadamente intensidades de falha crescentes e decrescentes. 46 4 ANÁLISE NEBULOSA DE FALHAS Inicialmente será apresentada uma rápida discussão sobre técnicas para análise de falhas quando não existem dados. No item 4.2 será realizada uma breve revisão bibliográfica sobre metodologias nebulosas para cálculo de confiabilidade. Considera-se que todas as metodologias apresentadas possam ser adaptadas para o cálculo de mantenabilidade. No item 4.3 será detalhado o modelo nebuloso proposto para análise de falhas. No item 4.4 será introduzida a característica de adaptação à estrutura apresentada no item anterior. 4.1 Alternativas para Análise de Falhas Considerando Inexistência de Dados Apresenta-se a seguir uma visão geral das alternativas para análise de falhas quando não existem dados. Objetiva-se introduzir a proposta apresentada em uma contexto amplo que englobe técnicas convencionais e técnicas baseadas em inteligência computacional (figura 4.1). Cabe ressaltar que as duas abordagens, convencional e baseada em inteligência computacional não são conflitantes e sim complementares. A abordagem convencional apresenta as opções de utilização de acelerados, modelagem não paramétrica, modelagem paramétrica testes com conhecimento a priori e casos particulares da estatística Bayesiana. Os testes acelerados normalmente são utilizados nas fases iniciais de desenvolvimento de um produto e, portanto, teriam pouco ou nenhuma utilidade para auxiliar o processo de tomada de decisão em atividades de manutenção. Além disso, o projeto de um teste acelerado envolve uma grande complexidade devendo levar em consideração inúmeros fatores. 47 Testes Acelerados Modelos não paramétricos Abordagem tradicional Modelos paramétricos com conhecimento a priori Inexistência de dados Números Nebulosos Sistemas Nebulosos Inteligência computacional Redes Neurais Processo de Inferência Nebulosa Abordagem Neuro Nebulosa Algoritmos Genéticos Figura 4.1: Alternativas para cálculo de confiabilidade quando não existem dados A utilização de modelos não paramétricos, como por exemplo, o estimador de Kaplan-Meier, apresenta muitas limitações. Apesar destes modelos serem excelentes como ferramentas exploratórias, existem, por exemplo, dificuldades de se realizar predições fora da escala de observação. Quando o comportamento da taxa de falha é aproximadamente aleatório e existem poucos dados é possível supor a adequação de uma distribuição de probabilidade contínua exponencial. Nesta situação utiliza-se conhecimento a priori para auxiliar a modelagem. Entretanto, a suposição de um comportamento de falha puramente aleatório, normalmente não é verdadeira. 48 A abordagem Bayesiana (PAULINO et al,2003) oferece uma metodologia que possibilita a incorporação de conhecimento tácito aos modelos convencionais. Estas informações são traduzidas na forma de uma distribuição de probabilidade a priori. Um caso particular desta abordagem é a modelagem estatística quando não existem dados. No trabalho de Carvalho et.al. (2007) são explorados alguns exemplos desta situação específica porém observa-se ser necessário um profundo conhecimento sobre o componente modelado. Concluindo, quando não existem dados, o conhecimento de engenharia e o bom senso desempenham um papel fundamental no processo de tomada de decisão. Enfim, neste caso, as decisões cabem exclusivamente aos especialistas humanos. As técnicas de inteligência computacional apresentam uma opção natural uma vez que valorizam a experiência humana. O cálculo computacional de confiabilidade baseado em técnicas de inteligência pode abranger o uso de sistemas nebulosos, redes neurais, algoritmos genéticos ou técnicas híbridas. A abordagem nebulosa, ferramenta principal utilizada neste trabalho, oferece uma metodologia formal para modelar o conhecimento humano. Esta é sua principal vantagem. 4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas O conceito de confiabilidade nebulosa foi introduzido e desenvolvido por vários autores. CAI (1991) apresenta abordagens distintas considerando a combinação de hipóteses válidas para a entrada e saída do sistema a ser estudado. As medidas realizadas podem estar no âmbito da probabilidade ou da possibilidade e os estados de saída podem ser binários ou nebulosos (figura 4.2). A combinação destas hipóteses gera a classificação dos sistemas em PROBIST (PRObability Assumption and BInary-STate), PROFUST (PRObability Assumption POSBIST (POSsibility Assumption and BInary-STate) and FUzzy-STate) e POSFUST (POSsibility Assumption and FUzzy-STate). A aplicação da metodologia nebulosa (fuzzy) a estes sistemas é detalhada a seguir. Conceitos elementares sobre teoria de conjuntos nebulosos podem ser encontrados em JANG et al. (1997) e Pedrycz e Gomide (1998). 49 A teoria PROBIST (PRObability Assumption and BInary-STate) equivale à teoria convencional de confiabilidade (CAI,1991) e é baseada em duas suposições fundamentais. A primeira delas estabelece que o comportamento de um item ou sistema em estudo pode ser completamente caracterizado em um contexto de medidas de probabilidades. A segunda suposição estabelece que o sistema comporta-se através de estados binários. Ou seja, só é possível a ocorrência dos estados sucesso (funcionamento normal) ou falha. Estados de saída Medidas realizadas probabilidade possibilidade binários PROBIST PROFUST POSBIST nebulosos POSFUST Figura 4.2: Metodologias nebulosas (fuzzy) para cálculo da confiabilidade de sistemas O termo probabilidade pressupõe a disponibilidade de uma grande quantidade de dados coletados. Os sistemas classificados como PROBIST satisfazem as hipóteses de probabilidade e estados binários, porém estão sujeitos a vários tipos de incertezas. Para muitos destes sistemas é difícil avaliar a probabilidade de falha a partir de experiências anteriores porque o ambiente sofre mudanças com o tempo. Esta característica dinâmica faz com que os dados disponíveis sejam insuficientes para a estimação estatística de probabilidades (MISRA; WEBER, 1990). Pode ocorrer ainda uma situação onde exista a necessidade de considerar componentes que nunca falharam antes (TANAKA et al., 1983). Nestes casos pode ser difícil determinar a probabilidade de uma maneira objetiva e pode ser necessária a introdução do julgamento humano. Percebe-se claramente a necessidade de uma técnica que permita a incorporação da subjetividade e da imprecisão e a abordagem 50 nebulosa surge como uma alternativa natural. A teoria de confiabilidade PROFUST (PRObability Assumption and FUzzySTate) considera que o comportamento de um item ou sistema em estudo pode ser caracterizado em um contexto de medidas de probabilidades, exatamente como nos sistemas PROBIST. Uma segunda hipótese estabelece que a falha ou o sucesso do sistema é caracterizado através de estados nebulosos. Assim, o significado de uma falha não é definido de uma maneira precisa mas de forma nebulosa (CAI,1991). (CAI et al.,1993). Normalmente o sistema típico nos estudos sobre confiabilidade PROFUST é formado por elementos independentes cuja falha individual diminui parcialmente o desempenho do sistema como um todo. Esta situação caracteriza um modo degradado de funcionamento situado entre os estados de falha e sucesso. Sabe-se que o comportamento de falha difere em sistemas mecânicos, eletrônicos, softwares, etc. Os sistemas mecânicos, em geral, estão sujeitos à degradação e ao envelhecimento e apresentam tempo de desenvolvimento de falha. Normalmente estes tipos de sistemas estão sujeitos a falhas incipientes e que, portanto, podem ser detectadas previamente. Outros tipos de sistemas, como por exemplo os eletrônicos, apresentam falhas de natureza aleatória e de difícil previsão (falhas abruptas). Devido à estas características acredita-se que políticas de manutenção que envolvam estudos de confiabilidade baseados em estados nebulosos (PROFUST) possam ser de grande valia. Os sistemas POSBIST (POSsibility Assumption and BInary-STate) assumem que o comportamento de falhas é caracterizado como uma medida de possibilidade. A falha ou o sucesso do sistema é caracterizado através de estados binários (CAI et al., 1991). Na abordagem POSBIST é possível definir uma distribuição de possibilidade π (x) tal que esta distribuição seja igual a função de pertinência µA(x) conforme definido por Zadeh (1978). A teoria de confiabilidade POSFUST (POSsibility Assumption and FUzzy-STate) considera que o comportamento de um item ou sistema em estudo pode ser caracterizado em um contexto de medidas de possibilidades, como nos sistemas POSBIST. A falha ou o sucesso do sistema é caracterizado através de estados nebulosos. Portanto, da mesma forma que nos sistemas PROFUST o significado preciso do que exatamente constitui uma falha não é definido (CAI, 1996). 51 A confiabilidade POSFUST de um sistema é interpretada como a possibilidade que uma falha não ocorra em um intervalo de tempo especificado, sob condições ambientais pré-estabelecidas. A ocorrência de uma falha neste contexto é um evento nebuloso e, portanto é necessário utilizar ferramentas matemáticas que sejam capazes de calcular a possibilidade de conjuntos nebulosos. Concluindo, considerando-se os inúmeros trabalhos encontrados na literatura, inclusive anteriores à classificação de Cai (1991), observou-se que existem duas grandes vertentes de aplicação de conjuntos nebulosos para análise de falhas. A primeira delas utiliza números nebulosos (TANAKA et al., 1983, MISRA; WEBER, 1990, WEBER, 1994, BOWLES; PELÁEZ, 1995, CAI,1996, EL-IRAKI; ODOOM, 1998, NACHTMANN; CHIMKA, 2003).para modelagem da imprecisão dos dados de falha como, por exemplo, taxas de falha, tempos de reparo, etc. Uma segunda vertente consiste na utilização de um processo de inferência nebulosa baseado em regras (BOWLES; PELÁEZ, 1995, CAI,1996). Algumas aplicações desta abordagem podem ser encontradas em Weber (1994), Knezevic; Odoom (2001) e Guimarães; Lapa (2004). Os principais métodos convencionais de análise de confiabilidade de sistemas utilizados atualmente como árvore de falhas (FTA) (KRASICH, 2005), diagramas de blocos de confiabilidade (RBD) (MURPHY; CARTER, 2003) e análise de modos e efeitos de falhas (FMEA) (BOWLES, 2003) podem ser interpretados sob a ótica da teoria dos conjuntos nebulosos. São apresentados exemplos de análise nebulosa de falhas no APÊNDICE A. O objetivo deste trabalho é contribuir na análise de disponibilidade de sistemas reparáveis utilizando uma abordagem nebulosa e tendo como base a experiência de especialistas em operação destes sistemas. Embora grande parte das indústrias não possua um banco de dados adequado à análise convencional de falhas, existem especialistas que detêm o conhecimento acerca da operação de seus processos. A abordagem nebulosa é útil para modelar o conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão no planejamento das atividades de manutenção. 52 4.3 Modelo Nebuloso para Análise de Falhas A análise de falhas convencional, cujos conceitos foram apresentados nos capítulos 2 e 3, pode ser realizada utilizando-se a abordagem nebulosa. Neste item é proposta uma estrutura para cálculo de tempo médio de reparo e a disponibilidade. O tempo de reparo depende do tempo gasto efetivamente com a manutenção e também do tempo logístico. Considera-se este tempo relacionado a procedimentos administrativos como, por exemplo, localizar pessoas, peças sobressalentes e ferramentas adequadas. A figura 4.3 apresenta, de forma simplificada, o modelo proposto. Considerando-se um equipamento sujeito a ação de vários modos de falha, o processamento do modelo proposto é realizado com relação a cada um deles, utilizando-se a teoria de modos de falha competitivos (NELSON, 1982; MIJAILOVIC, 2003). As matrizes de entradas xm, xl e xd dependem do processo modelado e serão definidas pelos especialistas consultados. Podem ser citados como exemplos de possíveis entradas a complexidade do modo de falha, a freqüência de ocorrência de falha, etc. Informações sobre sistemas nebulosos podem ser encontradas em Pedrycz e Gomide (1998). xm Sistema Nebuloso: Tempo Manutenção xl Sistema Nebuloso: Tempo Logístico xd Sistema Nebuloso: Disponibilidade τm τl ∑ τR AN Figura 4.3: Modelo nebuloso proposto para análise nebulosa de falhas 53 O tempo de reparo médio nebuloso τ R é calculado a partir da soma das τ m e tempo logístico τ l conforme (4.1). variáveis tempo efetivo de manutenção τ R = τm +τl O tempo efetivo de manutenção (4.1) τ m será calculado como função dos tempos equivalentes às várias atividades realizadas para eliminar a falha e restabelecer o funcionamento normal do processo ou equipamento: km τ m = ∑ τ mi (4.2) i =1 Onde τ mi : tempo equivalente a cada atividade; km : número de atividades consideradas relevantes para o cálculo do tempo efetivo de manutenção. O cálculo do tempo logístico τ l é realizado de maneira análoga ao apresentado anteriormente para o cálculo do tempo efetivo de manutenção kl τ l = ∑ τ li τ m conforme (4.3) (4.3) i =1 Onde τ li : tempo equivalente a cada atividade, kl: número de atividades consideradas relevantes para o cálculo do tempo logístico. Os tempos τ mi e τ li , equivalentes à cada uma das variáveis que compõe o cálculo de τ m e τ l respectivamente são calculados através de um processo de inferência nebulosa (fuzzy inference system - FIS) baseado em um conjunto de 54 m regras do tipo IF-THEN. As variáveis que compõem as matrizes de entrada ( x e xl ), bem como a base de regras a ser utilizada, serão obtidas através de entrevistas com os especialistas. A disponibilidade é calculada através de um processo de inferência nebulosa d tendo como matriz de entrada x . Esta matriz é composta por vetores contendo como componentes o tempo de reparo médio nebuloso τ R e a freqüência de ocorrência de falhas xFO em um período pré-determinado. O tempo entre falhas médio nebuloso τ EF é calculado de forma indireta. considerando a relação entre o tempo de reparo nebuloso e o tempo total de observação (tempo de missão). A validação dos modelos nebulosos propostos, detalhada no capítulo 5, será realizada através da comparação com os resultados obtidos pelos métodos convencionais. 4.4 Modelo Nebuloso Adaptativo para Análise de Falhas A utilização de modelos nebulosos para análise de falhas é plenamente justificada quando não existe um banco histórico de dados que possibilite a utilização de modelos probabilísticos. O desenvolvimento do modelo, entretanto, é totalmente dependente do conhecimento que o pessoal técnico (experiência do especialista) tem a respeito do funcionamento do processo a ser modelado. Uma forma de se tornar estes modelos mais robustos em relação às interferências externas é incorporar a ele a capacidade de se adaptar em função de novos dados e informações. Será utilizada para este fim uma classe de redes adaptativas funcionalmente equivalentes aos sistemas de inferência nebulosa. Estas arquiteturas são denominadas na literatura, de maneira geral, como sistemas adaptativos de inferência neuro-nebulosa (adaptative neuro-fuzzy inference system- ANFIS) (JANG et al.,1997). 55 A condição inicial do modelo adaptativo é determinada pelo modelo estático de forma a utilizar o conhecimento dos especialistas como ponto de partida para o modelo adaptativo. Maiores detalhes são fornecidos no APÊNDICE B. O modelo nebuloso adaptativo proposto para o cálculo do tempo de reparo é apresentado genericamente pelo diagrama de blocos da figura 4.4. Este diagrama é análogo ao modelo não adaptativo apresentado anteriormente, na secção 4.3. y1m x1m xkm ∑ M ykm τ RA ∑ y1l x1l x τ mA l p M ∑ τ lA y lp Figura 4.4: Modelo nebuloso adaptativo para cálculo do tempo de reparo O tempo de reparo médio adaptativo τ RA é calculado através da soma das variáveis tempo efetivo de manutenção adaptativo τ mA e tempo logístico adaptativo τ lA conforme (4.4). τ RA =τ mA + τ lA Cada uma das variáveis yim , yil (4.4) cujo somatório compõe o tempo efetivo de manutenção adaptativo τ mA e o tempo logístico adaptativo τ lA é calculada através de uma rede neurofuzzy com propriedade de aproximação universal de funções (figura 4.5). O treinamento destas redes será realizado utilizando-se o método de 56 minimização do erro quadrático conforme detalhado no APÊNDICE C. O erro a ser −− minimizado é dado por (4.5) onde τ R será obtido através do banco de dados. − 1 e = .τ R − τ R 2 (4.5) 2 O modelo nebuloso adaptativo para o cálculo da disponibilidade utiliza apenas uma rede adaptativa, cujo desenvolvimento é análogo ao apresentado anteriormente. Este modelo é representado na figura 4.5 através da variável d genérica yi . x1 x jm , x lj , x jd xi xr w1 y1 wj yj wr yr ∑ ∏ yim , yil , yid ∑ Figura 4.5: Módulo adaptativo da rede neurofuzzy Os vetores de entrada xim , xil para o cálculo dos tempos de manutenção e logísticos são específicos para cada módulo adaptativo componente do modelo. O número de variáveis utilizadas nos cálculos dos tempos efetivos de manutenção e logístico estão diretamente relacionados com o sistema ou componente analisado e com o conhecimento do especialista. Na sub-rede adaptativa representada na figura 4.5 para o caso do cálculo do tempo efetivo de manutenção (ou do tempo logístico), a entrada é uma matriz dada por: 57 x m = [x1m x2m L xkm ] e x l = [x1l x2l L x pl ] (4.6) Onde k (p) é o número de vetores de dimensão r (número de linhas), sendo que cada vetor representa a entrada dos k (p) módulos desta sub-rede rede e m é o número de regras a ser utilizado. 58 5 AVALIAÇÃO E VALIDAÇÃO DO MODELO NEBULOSO PROPOSTO Para validar o modelo nebuloso proposto será utilizado um equipamento de uma cadeia de laminação de uma indústria siderúrgica. Este processo industrial possui um banco de dados suficientemente adequado para análise de falhas convencional. A metodologia de obtenção e análise dos resultados utilizada é constituída de três etapas: i) Obtenção dos resultados a partir da abordagem nebulosa de falhas proposta; ii) Obtenção dos resultados a partir da modelagem convencional (probabilística); iii) Validação dos resultados através de uma análise crítica tendo como bases os resultados obtidos utilizando as duas abordagens. 5.1 Descrição do Processo Produtivo O nome da indústria na qual foi realizado o trabalho de campo será omitido devido à imposição contratual, por motivo de sigilo industrial. Pelo mesmo motivo informações que eventualmente pudessem identificá-la foram omitidas ou modificadas. Este trabalho é focado em um equipamento de uma cadeia de laminação considerado crítico para o processo produtivo e que apresenta falhas com índice de severidade mais alto e também em maior quantidade. O banco de dados foi delimitado a um período de 13 meses. O processo de laminação consiste na redução de espessura e mudança da forma geométrica de uma determinada quantidade de metal. A matéria prima a ser laminada alimenta uma série de estágios constituídos basicamente de cilindros que giram com a mesma velocidade em direções opostas. A prensagem dos cilindros produz altas pressões até que o material laminado atinja a espessura e o formato desejados. O produto final é então conduzido a uma etapa de resfriamento para posteriormente ser cortado em tamanhos especificados comercialmente. A figura 5.1 apresenta uma representação esquemática do processo em estudo. O 59 equipamento utilizado para validar o modelo nebuloso proposto é identificado na referida figura como laminador primário. Laminador Primário Grupo Laminador Secundário Serras Serras Forno de Reaquecimento Leito de Resfriamento Figura 5.1: Representação esquemática do processo de laminação em estudo O processo produtivo estudado apresenta a característica de fluxo contínuo, ou seja, encontra-se em funcionamento 24 horas por dia durante os sete dias da semana. Considerou-se que o turno de trabalho exerce forte influência sobre os modelos de análise de falhas desde que os operadores e as condições ambientais são diferentes. Durante o turno diurno as equipes de manutenção contam com o apoio do corpo administrativo para resolver quaisquer problemas logísticos que venham a surgir. Durante o turno noturno e o turno que compreende o final da tarde e o inicio da noite não existe o apoio do corpo administrativo, pelo menos de forma direta. Decidiu-se, portanto, considerar modelos distintos para o turno diurno e para os outros turnos. Este trabalho apresenta o modelo nebuloso desenvolvido para o turno diurno. A mesma metodologia é facilmente aplicável aos demais turnos. Os dias da semana foram subdivididos em dias úteis e feriados. Foram considerados dias úteis inclusive sábados e domingos uma vez que, pelo histórico da empresa, a probabilidade dos funcionários se locomoverem grandes distâncias em apenas dois dias é pequena. Portanto, tendo ocorrido algum problema, é possível localizar pessoas qualificadas para resolvê-lo com relativa facilidade. 60 Quando ocorre um feriado de duração maior que três dias esta dinâmica pode ser alterada porque as pessoas podem se locomover a locais mais distantes. O Quadro 5.1 apresenta a classificação das variáveis determinísticas turno e dia da semana. A proporção de feriados prolongados durante o ano é pequena em relação aos dias úteis. Portanto, a variável dia da semana foi considerada insignificante. Variável Estratificação Turno 1- N (noturno) 00:00 as 8:00h 2- D (diurno) 08:00 as 16:00h 3- PN (parcialmente noturno) 16:00 as 00:00h Dia da semana U - (útil- segunda a segunda) F - (feriados prolongados) Quadro 5.1: Classificação das variáveis determinísticas Os cálculos para análise de falhas (tanto nebulosos quanto convencionais) foram realizados somente com relação às paradas não planejadas (interrupções). Estas interrupções são classificadas como tempo de manutenção não programada (TMNP) e tempo de parada operacional (TPO). Não foram feitas distinções com relação aos modos de falha provenientes dos dois tipos de interrupções. 5.2 Implementação dos Modelos Nebulosos Propostos Nesta etapa, o banco de dados do equipamento escolhido para estudo foi considerado indisponível para não influenciar na avaliação da capacidade de estimação do modelo proposto. Conforme apresentado anteriormente, o processamento do modelo proposto foi realizado utilizando-se a teoria de modos de falha competitivos. A primeira parte do trabalho consistiu, portanto, na identificação de todos os modos de falha atuantes no equipamento escolhido como foco do trabalho. O ANEXO A apresenta todos os modos de falha analisados. Foram escolhidos os modos de falha com no mínimo 3 61 ocorrências de forma a possibilitar a posterior comparação com o modelo convencional. A escolha e a quantidade de termos lingüísticos para representar cada variável de entrada do modelo nebuloso foi feita através de entrevistas com os especialistas conforme Quadro 5.2. Foram consideradas como entradas do modelo a complexidade do modo de falha xCX , localização do modo de falha dentro do equipamento x LO , dimensão física do sobressalente x DF , custo do sobressalente xCS e freqüência de ocorrência de falhas x FO . Todos os conjuntos foram igualmente distribuídos em um universo de discurso entre 0 e 1. Variável Granularização P (pequeno) xCX M (médio) G (grande) F (fácil) x LO M (médio) D (difícil) P (pequeno) x DF M (médio) G (grande) P (pequeno) xCS M (médio) G (grande) P (pequeno) x FO M (médio) G (grande) Quadro 5.2: Variáveis de entrada A figura 5.2 mostra a granularização da variável complexidade do modo de falha xCX através dos subconjuntos nebulosos “pequeno”, “médio” e “grande”. Foram utilizadas funções de pertinência triangulares para representar todos os subconjuntos. Procedimento análogo foi utilizado para todas as outras variáveis de 62 entrada. Após esta etapa os especialistas atribuíram notas variando de 0 a 1 para todas as variáveis de entrada, em relação a cada modo de falha. Figura 5.2: Granularização do conjunto nebuloso complexidade xCX 5.2.1 Cálculo do Tempo de Reparo Nebuloso O tempo de reparo médio nebuloso τ R variáveis tempo efetivo de manutenção é calculado a partir da soma das τ m e tempo logístico τ l conforme (4.1). O tempo efetivo de manutenção será calculado pela expressão (5.1) km τ m = ∑ τ mi = τ DC + τ DE + τ RE + τ MO + τ TE (5.1) i =1 Onde τ DC é o tempo para detectar a falha; τ DE é o tempo para desmontar o equipamento; τ RE é o tempo para reparar o equipamento; τ MO é o tempo para montar novamente o equipamento; τ TE é o tempo para testar a efetividade do reparo. A matriz de entrada x m possui dimensão (2 x 5), cujos vetores são todos iguais e de dimensão 2, composto das componentes complexidade do modo de falha xCX e a localização da falha dentro do equipamento x LO , ou seja: 63 (5.2) x x x x x x m = CX CX CX CX CX x LO x LO x LO x LO x LO A figura 5.3 ilustra graficamente o modelo proposto para o cálculo do tempo efetivo de manutenção para o equipamento analisado. Tempo p/ detectar a falha Tempo p/ desmontar Complexidade Tempo p/ reparar Tempo efetivo de manuntenção Localizaçäo Tempo p/ montar Tempo p/ testar FIS ∑ Figura 5.3 - Modelo nebuloso para cálculo do tempo efetivo de manutenção Procedimento análogo é realizado com relação ao tempo logístico τl conforme expressão (5.3). kl τ l = ∑ τ li = τ MP + τ DF + τ RS i =1 Onde: τMP é o tempo para mobilizar pessoas; τDF é o tempo para disponibilizar ferramentas; τRS é o tempo para repor sobressalentes. (5.3) 64 A figura 5.4 ilustra graficamente o modelo proposto para o cálculo do tempo logístico. Tempo p/ mobilizar pessoas Complexidade Tempo p/ disponibilizar ferramentas Custo Tempo logístico Tempo p/ repor sobressalentes Dimensão Física ∑ FIS Figura 5.4 - Modelo nebuloso para cálculo do tempo logístico A matriz de entrada x l possui dimensão (3 x 3), cujas componentes são a complexidade do modo de falha xCX , o custo do sobressalente xCS e dimensão física do sobressalente a ser substituído x DF sendo, portanto, dada por: xCX xCX xCX x l = 0 0 xCS 0 0 x DF (5.4) Observou-se, através de resultados preliminares, que as variáveis custo do sobressalente xCS e complexidade do modo de falha xCX não exercem influência significativa no cálculo nebuloso da variável tempo para repor sobressalentes τRS. Assim, o modelo proposto para cálculo do tempo logístico (figura 5.4) foi substituído pelo modelo simplificado (figura 5.5). 65 Complexidade Tempo p/ mobilizar pessoas Tempo p/ disponibilizar ferramentas Dimensão Física Tempo logístico Tempo p/ repor sobressalentes ∑ FIS Figura 5.5: Modelo nebuloso simplificado para cálculo do tempo logístico l Devido a simplificação do modelo, a dimensão da matriz de entrada x mudou para (1x 3). Suas componentes são a complexidade do modo de falha xCX e dimensão física do sobressalente a ser substituído xDF. x l = [xCX xCX x DF ] (5.5) O universo de discurso (faixa de variação) de cada uma destas variáveis foi determinada pelos especialistas conforme quadro 5.3. Os valores adotados como universo de discurso (em minutos) para cada variável foram diferentes considerando os dois cenários de modelagem identificados. Este trabalho apresenta o modelo nebuloso desenvolvido para o turno diurno, conforme mencionado anteriormente. Observa-se que as variáveis τ DC , τ MO , τ TE , τ DF e τ RS não sofreram alterações devido à mudança do cenário de modelagem (turno diurno ou turnos noturnos). Uma vez determinado o universo de discurso relativo a cada variável foi necessário realizar a estratificação dos subconjuntos nebulosos. Foram utilizadas funções de pertinência triangulares igualmente espaçadas para representar todas as variáveis com exceção do tempo de reparo. Os especialistas informaram que, neste caso, qualquer valor de tempo maior que 60 minutos pode ser considerado grande. Por este motivo foram adotadas funções de pertinência trapezoidais ( figura 5.6). 66 Variável Sigla Variação Variação turno turnos diurno (min) noturnos(min) Tempo para detectar a falha τ DC 0-30 0-30 Tempo para desmontar o equipamento τ DE 0-30 0-90 Tempo para reparar o equipamento τ RE 0-300 0-390 Tempo para montar o equipamento τ MO 0-30 0-30 Tempo para testar a efetividade do reparo. τ TE 0-30 0-30 Tempo efetivo de manutenção τm 0-420 0-690 Tempo para mobilizar pessoas τ MP 0-15 0-90 Tempo para disponibilizar ferramentas τ DF 0-30 0-30 Tempo para repor sobressalentes τ RS 0-15 0-15 Tempo logístico τl 0-60 0-135 Tempo de reparo médio nebuloso τ 0-480 0-825 R Quadro 5.3: Universo de discurso (em minutos) para as variáveis de saída Figura 5.6 : Granularização da variável tempo para reparar τ RE Uma vez determinados os valores adotados como universo de discurso para todas as variáveis e realizada a estratificação dos subconjuntos nebulosos foi realizada a combinação dos atributos das variáveis de entrada e saída do modelo de forma a gerar a base de regras a ser utilizada. 67 Foram utilizadas neste trabalho regras IF-THEN com a estrutura genérica: Se E1 é é X2 ...e En X1 e E2 é Xn então S é Y ξ Onde En : entradas; Xn : valor nebuloso da entrada; S: saída; Y: valor nebuloso da saída; ξ: grau de certeza. O conseqüente das regras geradas foi determinado pelos especialistas consultados. Os quadros 5.4 a 5.8 apresentam as regras relativas ao cálculo nebuloso do tempo efetivo de manutenção. Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é P P P M M M G G G e xLO e xLO e xLO e xLO e xLO e xLO e xLO e xLO e xLO é é é é é é é é é F M D F M D F M D então τDC então τDC então τDC então τDC então τDC então τDC então τDC então τDC então τDC é é é é é é é é é P P M M M G M G G (0.8) (0.8) Quadro 5.4: Regras para determinar o tempo para detectar a falha Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é P P P M M M G G G e e e e e e e e e xLO xLO xLO xLO xLO xLO xLO xLO xLO é é é é é é é é é F M D F M D F M D então τDE então τDE então τDE então τDE então τDE então τDE então τDE então τDE então τDE é é é é é é é é é P P M P M G M G G Quadro 5.5: Regras para determinar o tempo para desmontar o equipamento 68 Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é P P P M M M G G G e e e e e e e e e xLO xLO xLO xLO xLO xLO xLO xLO xLO é é é é é é é é é F M D F M D F M D então τRE então τRE então τRE então τRE então τRE então τRE então τRE então τRE então τRE é é é é é é é é é P P M P M G M G G Quadro 5.6: Regras para determinar o tempo para reparar o equipamento Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é P P P M M M G G G e e e e e e e e e xLO xLO xLO xLO xLO xLO xLO xLO xLO é é é é é é é é é F M D F M D F M D então τMO então τMO então τMO então τMO então τMO então τMO então τMO então τMO então τMO é é é é é é é é é P P M P M G M G G Quadro 5.7: Regras para determinar o tempo para montar o equipamento Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é P P P M M M G G G e e e e e e e e e xLO xLO xLO xLO xLO xLO xLO xLO xLO é é é é é é é é é F M D F M D F M D então τTE então τTE então τTE então τTE então τTE então τTE então τTE então τTE então τTE é é é é é é é é é P P M P M G M G G (0.8) Quadro 5.8: Regras para determinar o tempo para testar o equipamento 69 Os quadros 5.9 a 5.11 apresentam as regras relativas ao cálculo nebuloso do tempo logístico.. Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é é é é é é é é é é é é é é é é é é é P P P P P P P P P M M M M M M M M M G G G G G G G G G e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS e xCS é é é é é é é é é é é é é é é é é é é é é é é é é é é P P P M M M G G G P P P M M M G G G P P P M M M G G G e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF e xDF é é é é é é é é é é é é é é é é é é é é é é é é é é é P M G P M G P M G P M G P M G P M G P M G P M G P M G então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS então τRS é é é é é é é é é é é é é é é é é é é é é é é é é é é Quadro 5.9: Regras para determinar o tempo para repor sobressalentes P P M P M (0.8) G P ---G (0.8) P P G P M G ---M G P M G P M G P M G 70 Se xCX Se xCX Se xCX é é é P M G então τMP então τMP então τMP é é é P M G Quadro 5.10: Regras para determinar o tempo para mobilizar pessoas Se xCX Se xCX Se xCX é é é P M G então τDF então τDF então τDF é é é P M G Quadro 5.11: Regras para determinar o tempo para disponibilizar ferramentas Devido a simplificação do modelo para cálculo do tempo logístico (apresentado na figura 5.5), a base de regras para cálculo nebuloso da variável tempo para repor sobressalentes τRS foi reduzida. Observa-se uma diminuição do número de regras de 27 para apenas 3, conforme quadro 5.12. Se xDF Se xDF Se xDF é é é P M G então τRS então τRS então τRS é é é P M G Quadro 5.12: Regras para determinar o tempo para repor sobressalentes (modelo simplificado) 5.2.2 Cálculo da Disponibilidade Nebulosa Conforme detalhado no capítulo 4, o cálculo da disponibilidade é realizado através de um sistema nebuloso em cascata. A saída do modelo nebuloso para cálculo do tempo de reparo médio nebuloso τ R é utilizada como entrada do modelo para cálculo de disponibilidade. O processamento do modelo é realizado em relação 71 a cada modo de falha e os valores resultantes são convertidos em uma escala com variação entre 0 e 1. A figura 5.5 apresenta os subconjuntos nebulosos utilizados (pequeno, médio e grande) representados por funções de pertinência gaussianas. Figura 5.7: Granularização da variável tempo de reparo médio nebuloso τR A variável de entrada freqüência de ocorrência x FO cuja estratificação em conjuntos nebulosos foi apresentada no quadro 5.2, é apresentada na figura 5.8. Figura 5.8: Granularização da variável freqüência de ocorrência x FO A figura 5.9 apresenta a variável de saída disponibilidade nebulosa AN. Considerouse o universo de discurso com variação entre 0 e 1 subdividido através de quatro conjuntos nebulosos. Observa-se que todas as variáveis para cálculo de disponibilidade foram representadas por funções de pertinência gaussianas. Esta escolha foi realizada através de experimentação prática e entrevistas com os especialistas. Figura 5.9: Granularização da variável disponibilidade nebulosa AN 72 Os quadro 5.13 apresenta as regras relativas ao cálculo nebuloso da disponibilidade. Se τR Se τR Se τR Se τR Se τR Se τR Se τR é é é é é é é P G P M G M G e xFO e xFO e xFO e xFO e xFO e xFO e xFO é é é é é é é P P M M M G G então AN então AN então AN então AN então AN então AN então AN é é é é é é é MG G MG G P P P Quadro 5.13: Regras para determinar a disponibilidade nebulosa AN 5.2.3 Cálculo do Tempo entre Falhas Nebuloso O tempo entre falhas médio nebuloso τ EF é calculado de forma indireta. A expressão (5.6) apresenta o método empírico proposto considerando a relação entre o tempo de reparo nebuloso e o tempo total de observação. O tempo de reparo nebuloso pode ser calculado através do mecanismo de inferência Mamdani (PEDRYCZ; GOMIDE, 1988) ou Sugeno (JANG et al.,1997). τ EF = Onde τ T − QF τ R QF − 1 τ t : tempo total de observação do banco de dados; QF : quantidade de falhas; τ R : tempo de reparo médio nebuloso. (5.6) 73 5.3 Resultados Obtidos através da Análise Nebulosa de Falhas Foram implementados os processos de inferência Mamdani e Sugeno utilizando-se o Toolbox Fuzzy do MATLAB™ (MATHWORKS, 2006). A tabela 5.1 apresenta a síntese dos resultados obtidos a partir do modelo nebuloso não adaptativo para cálculo do tempo de reparo médio com relação a cada modo de falha considerado. As saídas dos modelos nebulosos Mamdani e Sugeno foram identificadas por τ RM eτ RSU respectivamente. A quantidade de falhas QF (ou número de ocorrências de cada modo de falha) tem influência direta no cálculo convencional uma vez que a abordagem probabilística pressupõe uma grande quantidade de dados. Observa-se que no modelo nebuloso esta influência é menos significativa, sendo os resultados dependentes exclusivamente da experiência dos especialistas. Tabela 5.1: Resultados modelos nebulosos não adaptativos para cálculo do τR QF τ RM τRSU Falha de automação 12 19,65 41,04 Geração de sucatas 17 19,28 27,95 Inspeção no laminador 14 44,93 49,46 Material agarrado 6 11,03 19,59 Ajuste axial 6 44,93 49,46 Ajuste na escala de passe 5 11,03 19,40 Perda de estabilidade 4 11,03 19,40 Ajuste “s” 4 49,28 43,24 Troca “s” 3 45,68 52,24 Modos de Falha A tabela 5.2 apresenta o resultado do modelo nebuloso adaptativo para cálculo do tempo médio de reparo. Para avaliação dos resultados serão utilizados como referência os valores desejados para cada modo de falha, calculados pela média dos tempos de reparo obtidos no banco de dados. O melhor resultado foi obtido 74 considerando-se 1000 iterações e taxa de aprendizado (α) igual a 0,01. Os parâmetros do modelo Sugeno estático foram utilizados para gerar a condição inicial τRi do modelo adaptativo conforme detalhado no APENDICE B. Observa-se que os resultados do modelo adaptativo τRA foram satisfatórios e atingiram valores próximos aos valores desejados τRd . Foram utilizados como valores desejados a média dos tempos de reparo µTR para cada modo de falha. De modo geral o modelo adaptativo apresentou resultados melhores que o modelo não adaptativo partindo da condição inicial τRi. Tabela 5.2: Resultados modelo nebuloso adaptativo para cálculo do tempo médio de reparo QF τRd Falha de automação 12 16,42 41,24 16,75 Geração de sucatas 17 24,00 28,12 21,95 Inspeção no laminador 14 30,29 49,49 40,45 Material agarrado 6 12,83 19,67 14,72 Ajuste axial 6 48,67 49,49 40,45 Ajuste na escala de passe 5 15,60 19,48 15,87 Perda de estabilidade 4 15,75 19,48 15,87 Ajuste “s” 4 32,25 43,36 34,98 Troca “s” 3 42,33 52,37 43,07 Modos de Falha τRi τRA A tabela 5.3 apresenta os resultados de disponibilidade obtidos a partir do modelo nebuloso adaptativo ANA. De forma análoga ao modelo descrito anteriormente, os parâmetros do modelo Sugeno estático foram utilizados para gerar a condição inicial, ANi , do modelo adaptativo. O valor desejado de disponibilidade Ad foi calculado a partir do conceito de disponibilidade em estado estacionário. Segundo este conceito, a disponibilidade pode ser interpretada como a proporção de tempo em que um sistema encontra-se em estado operativo. Assim é possível calcular a disponibilidade para cada modo de falha a partir da média dos seus tempos de reparo µTR segundo a expressão (5.7). Devido à estreita faixa de variação, todos os valores resultantes foram normalizados 75 dentro considerando-se uma faixa entre 0 e 1 para a fase de treinamento do modelo. Ad = τ t − ( QF µ TR ) τt (5.7) Onde τ t : tempo total de observação do banco de dados; QF : quantidade de falhas; µTR: média dos tempos de reparo (banco de dados) Tabela 5.3: Resultados modelo nebuloso adaptativo para cálculo da disponibilidade Modos de Falha QF Ad ANi ANA Falha de automação 12 0,9996 0,9008 0,9731 Geração de sucatas 17 0,9993 0,5888 1,0000 Inspeção no laminador 14 0,9992 0,9992 0,9992 Material agarrado 6 0,9999 1,0000 1,0000 Ajuste axial 6 0,9995 0,9995 1,0000 Ajuste escala de passe 5 0,9999 1,0000 1,0000 Perda de estabilidade 4 0,9999 0,9999 0,9725 Ajuste “s” 4 0,9998 1,0000 1,0000 Troca “s” 3 0,9998 0,6076 0,7602 Observa-se que, de um modo geral, o modelo adaptativo conseguiu obter valores mais próximos do desejado. Cabe ressaltar que os valores iniciais foram obtidos sem nenhuma influência do banco de dados, o que enfatiza a utilidade do modelo proposto. 76 5.4 Cálculo Convencional e Validação de Resultados Os benefícios da aplicação de análise de falhas convencional são conhecidos na literatura uma vez que análises de confiabilidade têm sido aplicadas em processos industriais diversos, inclusive em processos de laminação, com o propósito de aumentar a sua disponibilidade (DESHANDE; MODAK, 2003). A condição necessária para a realização da análise de falhas convencional é que o processo industrial possua um banco de dados com informações de manutenção suficientemente adequadas, como é o caso do processo sob análise. Após realizada a estratificação dos dados em modos de falha foram calculados os tempos entre falhas (TEF) e os tempos de reparo (TR) para cada um deles. O mesmo procedimento de cálculo dos tempos entre falhas e tempo de reparo foi realizado para todos os modos de falha identificados na tabela 5.1. A partir dos valores de tempo entre falhas e de reparos realizou-se um teste de aderência para escolha da melhor distribuição de probabilidade para modelagem da confiabilidade e da mantenabilidade. Em todas as análises foi utilizado o software Weibull++7™ (RELIASOFT CORPORATION, 2007a). Considerando-se tratar de um equipamento reparável é necessário modelar a probabilidade de falha e a probabilidade de reparo. Os testes de aderência realizados individualmente para confiabilidade e mantenabilidade, não levam em consideração a iteração entre os dois modelos. Portanto, nem sempre a melhor distribuição de probabilidade indicada pelo teste de aderência é a mais adequada. A adequação dos modelos de confiabilidade e mantenabilidade de cada equipamento em relação a cada modo de falha foi realizado através da simulação de Monte Carlo utilizando-se o software BlockSim™ (RELIASOFT CORPORATION, 2007b). As duas distribuições de probabilidade encontradas foram utilizadas como variáveis de entrada para a simulação, que oferece como saída a quantidade de falhas esperada e o tempo total indisponível. Estes valores foram confrontados com o histórico de dados de maneira recursiva até a obtenção do menor erro percentual possível. Considerando-se todos os modos de falha (de todos os turnos) foram derivados 34 modelos para o turno diurno e 48 modelos para o turno noturno. 77 A tabela 5.4 apresenta a validação dos modelos de confiabilidade e mantenabilidade para o turno diurno, em relação aos modos de falha em estudo (tabela 5.1) Tabela 5.4: Validação dos modelos de confiabilidade e mantenabilidade turno diurno Simulação Modos de Falha Histórico No Oc. ∑ Ti No Oc. ∑ Ti Falha de automação 11,67 242,09 12,00 Geração de sucatas 18,92 434,83 Inspeção no laminador 12,64 Material agarrado Erro% Erro% No Oc. ∑ Ti 257,00 2,75 5,80 17,00 408,00 11,29 6,58 430,09 14,00 424,00 9,71 1,44 6,93 89,07 6,00 77,00 15,50 15,68 Ajuste axial 6,31 300,47 6,00 292,00 5,17 2,90 Ajuste escala de passe 4,97 88,24 5,00 78,00 0,60 13,13 Perda de estabilidade 3,92 67,73 4,00 63,00 2,00 7,51 Ajuste “s” 4,02 136,55 4,00 129,00 0,50 5,85 Troca “s” 2,92 122,85 3,00 127,00 2,67 3,27 As tabelas 5.5 e 5.6 apresentam os modelos derivados para confiabilidade e mantenabilidade e seus respectivos parâmetros. As principais distribuições de probabilidade utilizadas para análise RAM convencional foram apresentadas no capítulo 2. 78 Tabela 5.5: Distribuições de probabilidade para modelagem da mantenabilidade Modos de Falha Parâmetros f(t) Falha de automação Weibull β=1,9400 η=23,4200 Geração de sucatas Weibull β =0,7187 η =15,6580 Inspeção no laminador lognormal µ= 2,9670 σ = 61,0340 Material agarrado gama gen*. µ = 2,8193 σ = 0,2613 Ajuste axial Weibull β =1,7931 η =53,1166 Ajuste escala de passe lognormal µ=2,5503 σ=0,8036 Perda de estabilidade Weibull β =1,4603 η =19,6139 Ajuste “s” Weibull β =1,0627 η =34,5865 Troca “s” Weibull β =4,0039 η =46,3104 γ=33,8200 λ= 2,1320 γ=-0,7600 *gama generalizada Tabela 5.6: Distribuições de probabilidade para modelagem da confiabilidade Modos de Falha Parâmetros f(t) Falha de automação Weibull Geração de sucatas gama gen. µ=10,4211 σ= 0,7063 Inspeção no laminador Weibull β=0,4476 η=21755 Material agarrado Weibull β=0,7242 η=71213 Ajuste axial Weibull β=0,9243 η=86386 Ajuste escala de passe expon. λ=8,9030e-6 Perda de estabilidade expon. λ=7,1220e-6 Ajuste “s” expon. λ=7,1220e-6 Troca “s” expon. λ= 5,3410e-6 β=0,5100 η=29530 λ=1,0933 Dentre as distribuições de probabilidade citadas nas tabelas 5.5 e 5.6 a única não detalhada anteriormente foi a distribuição gama. Maiores informações sobre distribuições de probabilidade utilizadas em análise RAM convencional podem ser obtidos em Nelson (1982), Lewis (1987) e O’ Connor ( 2002). Finalmente, após a obtenção de todos os modelos, foi possível calcular o MTTR e o MTBF relativo a cada modo de falha de forma a comparar posteriormente 79 com os valores obtidos pelo modelo nebuloso. A tabela 5.7 apresenta os valores de MTTR em minutos, obtidos para todos os modos de falha do turno diurno. A tabela 5.8 apresenta os valores de MTBF, também em minutos, obtidos para todos os modos de falha do turno diurno. Observa-se que, em ambos os casos, foram calculados intervalos de confiança bilaterais de 90% para os modos de falha que apresentaram quantidade suficiente de dados. Este valor foi escolhido a partir da observação dos valores comumente utilizados na indústria de uma maneira geral. Tabela 5.7: Comparação de valores MTTR (min) τ RSU τ RA 19,65 41,04 16,75 38,39 19,28 27,95 21,95 33,19 52,28 44,93 49,46 40,45 9,90 12,85 16,70 11,03 19,59 14,72 Ajuste axial 30,60 47,24 72,94 44,93 49,46 40,45 Ajuste escala de passe 9,80 17,69 31,96 11,03 19,40 15,87 Perda de estabilidade 8,51 17,01 33,28 11,03 19,40 15,87 Ajuste “s” 14,66 33,77 77,79 49,28 43,24 34,98 Troca “s” 31,89 41,97 55,25 45,68 52,24 43,07 Modos de Falha - 90% MTTR + 90% Falha de automação 15,53 20,77 27,79 Geração de sucatas 14,64 23,16 Inspeção no laminador 21,06 Material agarrado τ RM Tabela 5.8: Comparação de valores MTBF (min) - 90% MTBF + 90% τ EF Falha de automação 16.855,00 56.627,00 90.250,00 51.030,00 Geração de sucatas 21.002,00 29.639,00 41.830,00 35.080,00 Inspeção no laminador 15.714,00 54.570,00 189.510,00 37.040,00 Material agarrado 26.166,00 87.370,00 291.730,00 112.310,00 Ajuste axial 36.839,00 89.619,00 218.020,00 112.270,00 Modos de Falha Ajuste escala de passe 112.320,00 140.390,00 Perda de estabilidade 140.400,00 187.190,00 Ajuste “s” 140.400,00 187.130,00 Troca “s” 187.200,00 280.730,00 80 A tabela 5.9 apresenta os valores de disponibilidade calculados a partir do MTTR e do MTBF obtidos através de métodos convencionais Ao (disponibilidade operacional) e obtidos pelo modelo nebuloso adaptativo ANA. Estes resultados comprovam claramente a viabilidade do modelo nebuloso proposto. Observa-se que os resultados obtidos foram promissores apesar da quantidade de modos de falha disponível ser pequena. Tabela 5.9: Comparação de valores de disponibilidade Modos de Falha QF MTTR Falha de automação 12 20,77 56.627,00 0,9996 0,9731 Geração de sucatas 17 23,16 29.639,00 0,9992 1,0000 Inspeção no laminador 14 33,19 54.570,00 0,9994 0,9992 Material agarrado 6 12,85 87.370,00 0,9999 1,0000 Ajuste axial 6 47,24 89.619,00 0,9995 1,0000 Ajuste escala de passe 5 17,69 112.320,00 0,9998 1,0000 Perda de estabilidade 4 17,01 140.400,00 0,9999 0,9725 Ajuste “s” 4 33,77 140.400,00 0,9998 1,0000 Troca “s” 3 41,97 187.200,00 0,9998 0,7602 MTBF Ao ANA Uma segunda abordagem de utilização do modelo proposto para cálculo do tempo de reparo consiste em seu detalhamento conforme tabela 5.10 (refere-se ao modelo estático). A estratificação do tempo de reparo permite quantificar a relevância de cada um dos tempos citados para composição do tempo de reparo. Uma vez identificada a parcela mais crítica (tempo efetivo de manutenção ou tempo logístico) é possível direcionar o esforço de manutenção no sentido de direcionar e otimizar recursos. 81 Tabela 5.10: Tempo de reparo estratificado Modos de Falha Falha de automação τm 14,78 τl τ 4,88 19,65 R Geração de sucatas 14,78 4,50 19,28 Inspeção no laminador 22,43 22,50 44,93 8,78 2,25 11,03 22,43 22,50 44,93 Ajuste escala de passe 8,78 2,25 11,03 Perda de estabilidade 8,78 2,25 11,03 Ajuste “s” 26,78 22,50 49,28 Troca “s” 22,43 23,25 45,68 Material agarrado Ajuste axial Observa-se na Tabela 5.10 que, na maior parte dos modos de falha analisados, o tempo efetivo de manutenção foi maior que o tempo logístico. Este resultado seria esperado uma vez que os dados referem-se ao turno diurno, que conta com todo o apoio a nível administrativo. A tabela 5.11 apresenta um segundo nível de estratificação para a variável tempo logístico τ l . O mesmo procedimento poderia ser adotado para a variável tempo efetivo de manutenção τ m . Observa-se que todos os modos de falha de “Geração de sucatas” a “Ajuste s” correspondem a procedimentos operacionais. Portanto, o tempo para repor sobressalentes τ RS é nulo para todos eles. Observase ainda que a maior parcela de contribuição para o tempo logístico é devida ao tempo para disponibilizar ferramentas τ DF . 82 Tabela 5.11: Tempo logístico estratificado Modos de Falha τ MP τ DF τl τ RS Falha de automação 1,50 3,00 0,38 4,88 Geração de sucatas 1,50 3,00 0 4,50 Inspeção no laminador 7,50 15,00 0 22,50 Material agarrado 0,75 1,50 0 2,25 Ajuste axial 7,50 15,00 0 22,50 Ajuste escala de passe 0,75 1,50 0 2,25 Perda de estabilidade 0,75 1,50 0 2,25 Ajuste “s” 7,50 15,00 0 22,50 Troca “s” 7,50 15,00 0,76 23,25 Os tempos que compõem o tempo de reparo normalmente não são registrados em bancos de dados convencionais. Por este motivo o detalhamento apresentado nas tabelas 5.10 e 5.11 foi validado indiretamente, através de entrevistas com os especialistas. 83 6 CONCLUSÕES Este trabalho apresentou a proposta de um modelo nebuloso para o cálculo do tempo de reparo médio, tempo entre falhas médio e disponibilidade de sistemas reparáveis a partir do conhecimento de especialistas. Embora grande parte das indústrias não possua um banco de dados adequado à análise RAM (Reliability, Availability and Maintainability) convencional, existem especialistas que detêm o conhecimento acerca de seus processos. A abordagem nebulosa mostrou-se útil para modelar o conhecimento armazenado em forma tácita pelos especialistas, como pode ser comprovado pelos resultados apresentados. 6.1 Contribuições e Relevância do Trabalho O processo de derivação dos modelos teve a duração de aproximadamente um ano. Neste período a contribuição dos especialistas consultados foi de vital importância e o ritmo de desenvolvimento foi muitas vezes determinado pela disponibilidade das pessoas envolvidas. A principal contribuição deste trabalho é apresentar uma metodologia sistêmica para análise de falhas que pode ser aplicada quando não existem dados disponíveis de forma a possibilitar a modelagem convencional. A confrontação dos valores obtidos a partir das abordagens probabilística e nebulosa indica que esta metodologia pode conduzir a resultados muito próximos da realidade. Portanto, o modelo proposto pode ser utilizado para auxiliar o processo de tomada de decisão em um ambiente totalmente desprovido de informações quantitativas confiáveis. Uma segunda contribuição deste trabalho, não menos relevante que a primeira, é possibilitar o cálculo do tempo de reparo de forma detalhada. Através do modelo proposto é possível calcular separadamente o tempo efetivo de manutenção e o tempo gasto com questões logísticas ou administrativas. O tempo efetivo de 84 manutenção foi subdividido em tempo para detectar a falha, tempo para desmontar, reparar, montar novamente o equipamento e posteriormente testá-lo. O tempo logístico foi subdividido em tempo para mobilizar pessoas, tempo para disponibilizar ferramentas e tempo para repor sobressalentes. A estratificação do tempo de reparo permite quantificar a relevância de cada um dos tempos citados para composição do tempo de reparo. Uma vez identificado o componente mais crítico é possível direcionar o esforço de manutenção no sentido de otimizar recursos. Conforme exposto anteriormente, o desenvolvimento do modelo nebuloso é totalmente dependente da experiência de especialistas no processo a ser modelado. Uma forma de se tornar este modelo mais robusto em relação à interferências externas é introduzir a ele capacidade de adaptação. Foram utilizadas para este fim uma classe de redes adaptativas funcionalmente equivalentes aos sistemas de inferência nebulosa. Este trabalho encontrou inúmeros obstáculos durante seu desenvolvimento e acredita-se que um breve relato possa auxiliar futuras pesquisas. A primeira grande dificuldade foi encontrar uma indústria que possuísse um banco de dados adequado a análise RAM convencional de forma a possibilitar posteriormente a validação dos modelos obtidos. Uma vez que a referida indústria foi encontrada, uma segunda dificuldade foi relativa a imposições contratuais relativas a sigilo industrial. Considera-se, de modo geral, que dados relativos à falhas representam informações estratégicas e, portanto, de divulgação indesejável. Finalmente conclui-se que os resultados obtidos foram muito promissores apesar da quantidade de modos de falha disponível ser pequena. Considera-se que a eficácia da metodologia utilizada foi plenamente comprovada justificando investimentos futuros para modelagem de outros processos produtivos de complexidade similar ou superior. 85 6.3 Sugestões para Trabalhos Futuros O desenvolvimento do modelo apresentado foi focado em um equipamento específico. Considerando-se que a metodologia utilizada foi exaustivamente testada e validada a mesma pode ser aplicada, com as devidas adaptações, a outros equipamentos ou processos. Espera-se que, nos próximos anos, que a engenharia de confiabilidade ostente um papel de destaque no cenário nacional. Espera-se ainda que este trabalho tenha oferecido uma parcela de contribuição para a realização deste fato. 86 REFERÊNCIAS BIBLIOGRÁFICAS: ASCHER, H.; FEINGOLD, H. Repairable Systems Reliability. Modeling, Inference, Misconceptions and Their Causes. New York: Marcel Dekker, 1984, 223p. BAZARGAN. M.; MCGRATH, R. N. Discrete Event Simulation to Improve Aircraft Availability and Maintainability. In: Annual Reliability and Maintainability Symposium. 49o, 2003, Tampa. Proceedings of the … Tampa: IEEE, 2003., p. 63-67. BILLINTON, R. Power System Reliability Evaluation. 5a ed. United States of America: Gordon and Breach Science Publishers, 1978. 299 p. BOWLES, J. B.; PELÁEZ, C. E. Application of Fuzzy Logic to Reliability Engineering. IEEE, Proceedings …v. 83, n.3, March 1995, p. 435- 449. BOWLES, J. B. Fundamentals of Failure Modes and Effects Analysis. In: Annual Reliability and Maintainability Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2003. CAI, K. Y ; WEN, C. Y.; ZHANG, M. L. Fuzzy Variables as a Basis for a Theory of Fuzzy Reliability in the possibility context. Fuzzy Sets and Systems, v.42, p.145172, 1991. CAI, K. Y ; WEN, C. Y.; ZHANG, M. L. Fuzzy States as a Basis for a Theory of Fuzzy Reliability. Microeletronics Reliability. v. 33, n. 15, p. 2253-2263, 1993. CAI, K. Y. System failure engineering and fuzzy methodology. An introductory overview. Elsevier Science Publishers. Fuzzy Sets and Systems, v. 83, p.113-133, 1996. CARVALHO, A.L.; MENEZES, B. R. M.; CAMINHAS, W. M. Comparação de Metodologias para Cálculo de Confiabilidade em Sistemas Reparáveis. In: Simpósio 87 Internacional de Confiabilidade, IV , 2006, Salvador. Anais… São Paulo: Reliasoft Brasil, 2006. CARVALHO, A. L. Métodos Alternativos para Cálculo de Confiabilidade: Abordagem Bayesiana e Inteligência Computacional. In: Simpósio Internacional de Confiabilidade, V, 2007, Belo Horizonte. Conference Tutorials …, Belo Horizonte: Reliasoft Brasil, 2007. CASSADY, C. R.; POHL, E. A. Introduction to Repairable Systems Modeling. In: Annual Reliability and Maintainability Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2005. COIT, D.W. Probabilistic Methods and Statistical Methods in Reliability. In: Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005. CROW, L. Reliability Growth Testing and Data Analysis. In: Annual Reliability and Maintainability Symposium, 51o,, 2005 a. , Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005. . .CROW, L. Reliability Growth Management, Analysis and Case Studies. In: Simpósio Internacional de Confiabilidade, III , 2005 b.,Rio de Janeiro. Anais… São Paulo: Reliasoft Brasil, 2005. DESHANDE, V.S, MODAK, J.P. Maintenance strategy for tilting table of rolling mill based on reliability considerations. Reliability Engineering and System Safety; v.80, p.1-18., 2003 DHILLON, B.S. Design Reliability. Fundamentals and Applications. United States of America: CRC Press LLC, 1999. 382p DUTUIT, Y; RAUZY, A. Approximate Estimation of System Reliability via Fault Trees. Elsevier Science Publishers. Reliability Engineering and System Safety, v.87, p. 163-172, 2005. 88 EL-IRAKI A, ODOOM ER. Fuzzy Probist Reliability Assessment of Repairable Systems. In: NAFIPS Conference of the North American, 1998, Pensacola Beach. Anais… , Pensacola Beach: IEEE Fuzzy Information Processing Society, 1998; p.96-100. ENDRENYI, J.;ANDERS, G. J.; LEITE DA SILVA, A. M. Probabilistic Evaluation of the Effect of Maintenance on Reliability – an application. IEEE Transactions on Power Systems, v.13, n.2, p.576-583, may 1998. FILHO, V. B. Confiabilidade Básica e Prática. 1a ed. São Paulo: Editora Edgar Blucher. 1997 108p. FRAGOLA, J.R. Human Reliability Analysis. In: Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005. FREITAS, M. A. e COLOSIMO, E. A. Confiabilidade: Análise do tempo de falha e Testes de Vida Acelerados. Belo Horizonte : Fundação Cristiano Ottoni, 1997. 308p (Série Ferramentas da Qualidade, v. 12) GUIMARÃES, A. C. F; LAPA, C. M. F. Fuzzy FMEA Applied to PWR Chemical and Volume Control System. Elsevier Science Publishers. Progress in Nuclear Energy, v. 44, n.3, p.191-213, 2004. HELMAN, H.; ANDERY, P. R. P. Análise de Falhas (Aplicação dos Métodos de FMEA-FTA). 1a ed. Belo Horizonte: Fundação Cristiano Ottoni, 1995, 156 p. (Série Ferramentas da Qualidade, v.11) JANG, J.-S.R; SUN,C.-T.; MIZUTANI, E. Neuro-Fuzzy and Soft Computing. A Computacional Approach to Learning and Machine Intelligence. United States of America: Prentice Hall, 1997.614p. IEEE The Present Status of Maintenance Strategies and the Impact of Maintenance on Reliability. IEEE Transactions on Power Systems v.16, n.4, p.638-646, 89 November 2001. KNEZEVIC J, ODOOM E R. Reliability modelling of repairable systems using Petri nets and fuzzy Lambda-Tau methodology. Reliability Engineering and System Safety, v.17, p.1-17, 2001. KRASICH, M. Fault tree Analysis for Failure Modes Identification and Product Reliability Improvement. In: Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005. LAFRAIA, J. R. B. Manual de Confiabilidade, Mantenabilidade e Disponibilidade. 1a ed. Rio de Janeiro: Qualitymark: Petrobrás, 2001. 388p. LEON GARCIA, A. Probability and Random Processes for Electrical Engineering. Addison-Wesley Publishing Company. 1994 LEVITIN, G. (Ed). Computational Intelligence in Reliability Engineering. 1aed. Israel: Springer, 2006. 413p LEWIS, E. Introcduction to Reliability Engineering 4a ed. Canada: John Wiley & Sons, 1987. 400 p. LOGMAN J, WANG W. On Reliability Modeling and Analysis of Highly-Reliable Large Systems. In: Annual Reliability and Maintainability Symposium, 48o, 2002, Seattle. Proceedings …, Seattle: IEEE, 2002, p. 456-459. LUCATELLI, M.V. Proposta de Aplicação da Manutenção Centrada em Confiabilidade em Equipamentos Médico- Hospitalares. 2002. 285f. Tese (Doutorado) - Universidade de Santa Catarina, Programa de Pós-Graduação em Engenharia Elétrica,Florianópolis. MAILLART L.M, POHL AE. Introduction to Markov-Chain Modeling and Analysis. In: Annual Reliability and Maintainability Symposium, Conference Tutorials …, Alexandria: IEEE, 2005. 51o, 2005, Alexandria. 90 MARSEGUERRA, M.; ZIO, E. Monte Carlo Sampling and Simulation for Application to RAMS. In: Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005. MATHWORKS. MATLAB 7.2 Software Training Guide, 2006. METTAS, A. Reliability Allocation and Optimization for Complex Systems In: Annual Reliability and Maintainability Symposium, 46o, 2000, Los Angeles. Proceedings …, Los Angeles: IEEE, 2000, p. 216-221 METTAS, A.; SAVVA, M. System Reliability Analysis: The Advantages of Using Analytical Methods to Analyze Non-Repairable Systems. In: Annual Reliability and Maintainability Symposium, 47o, 2001, Alabama. Proceedings …, Alabama: IEEE, 2001, p. 80-85. METTAS A, ZHAO W. Modeling and Analysis of Repairable Systems with General Repair. In:Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Proceedings …, Alexandria: IEEE, 2005, p. 176-182. METTAS, A. Repairable Systems: Data Analysis and Modeling. In: Simpósio Internacional de Confiabilidade, IV, 2006, Salvador. Conference Tutorials …, Salvador: Reliasoft Brasil, 2006. MEYER, P. L. Probabilidade. Aplicações à Estatística. 2a ed. Rio de Janeiro: Livros Técnicos e Científicos Editora (LTC). 1983. 426 p. MIJAILOVIC, V. Probabilistic method for planning of maintenance activities of substation components. Electric Power System Research, v. 64, p.53-58, 2003. MISRA, K. B.; WEBER, G.G. Use of Fuzzy Set Theory for Level I Studies in Probabilistic Risk Assessment. Elsevier Science Publishers. Fuzzy Sets and Systems, v.37, p. 139-160, 1990. 91 MOUBRAY, J. Reliability Centred Maintenance – An Introduction. Aladon, Inglaterra, 1999. Disponível em: <http:// www.aladon.com> Acesso em 18/08/2006. MURPHY KE, CARTE CM. Reliability Block Diagram Construction Techniques: Secrets to Real-life Diagramming Woes. In: Annual Reliability and Maintainability Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2003. NACHTMANN, H.; CHIMKA, J. R. Fuzzy Reliability in Conceptual Design. In: Annual Reliability and Maintainability Symposium, 49o, 2003, Tampa. Proceedings … Tampa: IEEE, 2003. p.360-364. NELSON W. Applied Life Data Analysis. United States of America: John Willey & Sons, 1982; 634p. O’ CONNOR, P. D. T. Practical Reliability Engineering. 4a ed. England: John Wiley & Sons, 2002. 513p PALADY, P. FMEA, Análise dos Modos de Falha e Efeitos. Prevendo e Prevenindo Problemas Antes que Ocorram 3a ed. São Paulo: Instituto IMAM, 2004. 270p. PALLEROSI, C.A. Os 10 passos para melhorar a Qualidade pela Confiabilidade e Mantenabilidade. In: Simpósio Internacional de Confiabilidade, II, 2004, São Paulo. Anais… São Paulo: Reliasoft Brasil, 2004. PALLEROSI, C.A. Principais Aplicações, Vantagens, Desvantagens e Limitações das Atuais Distribuições Estatísticas em Confiabilidade. In: Simpósio Internacional de Confiabilidade, V, 2007, Belo Horizonte. Anais… Belo Horizonte: Reliasoft Brasil, 2007. PAULINO, C. D.; TURKMAN, A. A; MURTEIRA, B. Estatística Bayesiana. Lisboa: Fundação Calouste Gulbenkian. 2003. 446 p. 92 PEEBLES, P. Z. Probability, Random Variables and Random Signal Principles. 3a ed. Singapore: McGraw-Hill. 1993. 401p. PEDRYCZ, W.; GOMIDE, F. An Introduction to Fuzzy Sets. Analysis and Design. England: Massachusetts Institute of Technology, 1998. 465p. RELIASOFT CORPORATION a, Weibull++ 7.0 Software Package, Tucson, AZ, 2007. RELIASOFT CORPORATION b, BlokSim 7 Software Package, Tucson, AZ, 2007. RIGDON, S.E.; BASU, A.P. Statistical Methods for the Reliability of Repairable Systems. New York: Jonh Wiley &Sons, 2000. 281p. ROUVROYE, J.L.; VAN DEN BLIEK, E.G. Comparing safety analysis techniques. Elsevier Science Publishers. Reliability Engineering and System Safety. v.75, p. 289-294, 2002 SANTOS, W.B. Determinação da Periodicidade da Manutenção Preventiva em Sistemas Reparáveis. 2003. 54f. Dissertação (Mestrado em Estatística) – Universidade Federal de Minas Gerais, Departamento de Estatística, Belo Horizonte TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. Fault Tree Analysis by Fuzzy Probability. IEEE Transactions on Reliability, v.32, n.5, p. 453-457, December, 1983. UTKIN, L. V.; GUROV, S.V. A general approach for fuzzy reliability analysis in the possibility context. Elsevier Science Publishers. Fuzzy Sets and Systems, v. 83, p.203-213, 1996. VOLOVOI, V. Modeling of System Reliability Petri Nets with Aging Tokens. Elsevier Science Publishers. Reliability Engineering and System Safety, v.84, p. 149-161, 2004. 93 VOUK, M. A. Software Reliability Engineering. In: Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005. WEBER, D.P. Fuzzy Weibull for Risk Analysis. In: Annual Reliability and Maintainability Symposium, 40o, 1994, Anaheim. Proceedings … Anaheim: IEEE, 1994, p.456-461. ZADEH, L. Outline of a New Approach to the Analysis of Complex Systems and Decision Process. IEEE Transactions on Systems, Man, and Cybernetics, v.3, p. 28-44, 1973. ZADEH, L. Fuzzy Sets as a Basis for a thery of Possibility. Fuzzy Sets and Systems v.1, p. 3-28, 1978. 94 APÊNDICE A - EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA A1 - FTA PROBIST Nebulosa Os eventos básicos em um modelo FTA são conectados através de portas lógicas cuja forma de interligação representa a seqüência de eventos que causam o evento de topo. Maiores detalhes sobre este modelo podem ser encontrados no Capítulo 3, item 3.1.2. Aproximações numéricas que expressam imprecisão tais como “a probabilidade é aproximadamente m”, sendo m um número real, podem ser modeladas por números nebulosos. Formalmente um número nebuloso é definido no universo de números reais como um conjunto nebuloso cuja função de pertinência satisfaz as propriedades de normalidade e convexidade (PEDRYCZ; GOMIDE,1998). Números nebulosos podem ser representados por de funções de pertinência triangulares, trapezoidais, gaussianas, dentre outras. A largura da função determina a variação dos valores possíveis sendo que, nos estudos de confiabilidade são mais comuns números triangulares devido a sua simplicidade. As operações aritméticas envolvendo números nebulosos representam uma aplicação direta do princípio da extensão. Particularmente, para o cálculo de confiabilidade são necessárias as operações de multiplicação e complemento. Tanaka et al (1983) é citado na literatura como o primeiro a utilizar números nebulosos para cálculo de confiabilidade. Este autor propôs uma forma simplificada de cálculo cujos resultados são parcialmente apresentados a seguir. Seja o número nebuloso trapezoidal A definido no universo X=[0,1] e cuja função de pertinência µA(x) é função de x e dos pontos a1, b1, c1 e d1 conforme (1). µ A ( x ) = f ( x ; a 1 , b1 , c 1 , d 1 ) (1) De maneira análoga, pode ser definido um outro número nebuloso trapezoidal B, com função de pertinência µB(x) conforme (2). 95 µ B ( x ) = f ( x; a 2 , b2 , c 2 , d 2 ) (2) A multiplicação dos dois números nebulosos trapezoidais A e B com funções de pertinência µA(x) e µB(x), respectivamente, resulta no número trapezoidal R com função de pertinência µR(x). Esta operação pode ser aproximada por (3). µ R ( x ) = ( x ; a 1 a 2 , b1 b 2 , c1 c 2 , d 1 d 2 ) (3) O complemento do número nebuloso A é representado por Ā cuja função de pertinência µĀ(x) é aproximada pela expressão 4. Procedimento análogo de aproximação pode ser realizado com relação a números nebulosos definidos por outras funções de pertinência. µ A ( x ) = ( x ; 1 − a1 , 1 − b1 , 1 − c1 , 1 − d 1 ) (4 ) Considerando-se um modelo FTA PROBIST nebuloso a probabilidade dos eventos básicos é modelada como um número nebuloso. Assim, aplicando-se o princípio da extensão, é possível calcular a probabilidade do evento de topo. Esta metodologia permite especificar um universo de discurso de valores (uma distribuição de possibilidades) para a probabilidade de falha (BOWLES;PELÁEZ, 1995). O resultado encontrado poderá ser expresso através do número nebuloso resultante ou ser “defuzzificado” posteriormente se for necessário obter um único valor. Um sistema representado por uma porta lógica AND convencional apresentará falha se os componentes A e B falharem simultaneamente. A probabilidade de que ambos falhem FAND e a confiabilidade RAND são dadas por (5) e (6) respectivamente. Maiores detalhes sobre as equações confiabilidade e probabilidade de falha podem ser encontrados no capítulo 3 item 3.1.3. FAND = FA FB (5 ) 96 RAND = 1 − [ FA FB ] = 1 − [(1 − RA ) (1 − RB )] (6) A confiabilidade ROR de uma porta OR formada pelos componentes A e B é dada por (7) e a probabilidade de que ambos falhem FOR é dada por (8). ROR = RA RB (7) FOR = 1 − [ RA RB ] = 1 − [(1 − FA ) (1 − FB )] (8) Apresenta-se, a seguir a reprodução de um exemplo numérico proposto por Tanaka et al. (1983) no qual a probabilidade de falha dos eventos básicos é representada por números nebulosos trapezoidais. (Figura 1). A probabilidade de falha do evento de topo, FT, deduzida para esta FTA conforme (5) e (8) é apresentada por (9). A probabilidade de falha de cada evento básico xi é apresentada no Quadro1. Figura 1: Exemplo FTA nebulosa Fonte: TANAKA et al. (1983) FT = 1 − [(1 − Fx1 Fx 2 ) (1 − Fx 3 ) (1 − Fx 4 Fx 5 )] (9) 97 Probabilidade Fuzzy ( a 1 b1 c1 d 1 ) Fx1 (0,1 0,15 0,2 0,25) Fx2 (0,02 0,03 0,05 0,08) Fx3 (0,01 0,02 0,03 0,04) Fx4 (0,2 0,25 0,35 0,5) Fx5 (0,006 0,008 0,01 0,012) Quadro1: Dados exemplo Fuzzy FTA Fonte: (TANAKA et al., 1983) A partir dos dados fornecidos na Quadro.1 a probabilidade de falha do evento de topo FT pode ser calculada conforme expressões ( 3) e (4). (1 − F x1 F x 2 ) = ( 0 ,998 0 ,996 0 ,990 0 ,980 ) (1 − F x 3 ) = ( 0 ,990 0 ,980 0 ,970 0 ,960 ) (1 − F x 4 F x 5 ) = ( 0 ,999 0 ,998 0 ,997 0 ,994 ) FT = ( 0 , 013 0 , 026 0 , 043 0 , 065 ) O procedimento proposto por Tanaka et al.(1983) e reproduzido neste trabalho pode ser generalizado para números nebulosos com outras funções de pertinência. Observa-se que grande parte dos trabalhos pesquisados adota números nebulosos triangulares (BOWLE1S; PELÁEZ, 1995; EL-IRAKI ;ODOOM ,1998). Como já foi mencionado anteriormente, para cálculo dos valores de interesse em confiabilidade são necessárias somente as operações multiplicação e complemento. A metodologia PROBIST nebulosa a partir da utilização de números nebulosos propõe uma maneira de tratar a incerteza intrínseca à modelagem de confiabilidade. Números nebulosos são representados por funções de pertinência triangulares, trapezoidais, gaussianas, dentre outras, sendo que, a dispersão da função determina a variação dos valores possíveis. Esta abordagem pode ser comparada à utilização de intervalos de confiança na teoria clássica de confiabilidade segundo a 98 qual a largura do intervalo depende do tamanho da amostra de dados disponíveis. Portanto, quando não existem dados, o intervalo tende a ser grande. Além disso, em um intervalo de confiança todos os valores são igualmente prováveis. Um número nebuloso apresenta valores com diferentes graus de pertinência obtidos a partir da experiência de um especialista. A representação gráfica de um número nebuloso A com função de pertinência µA(x) e um intervalo de confiança delimitado pelos pontos a e b com probabilidade P(x) é dada pela Figura 2. µ(x) P(x) 1 0 a m b x a b x Figura 2: Comparação de um número nebuloso triangular e um intervalo de confiança Cabe ressaltar que os valores obtidos segundo a abordagem nebulosa podem permanecer como uma faixa de valores prováveis ou podem ser “defuzzificados” com o objetivo de encontrar o valor mais provável. Esta metodologia pode ser aplicada em sistemas não reparáveis ou reparáveis. A2- POSBIST FMEA Utilizando Processo de Inferência Um processo de inferência nebuloso utiliza um conjunto de regras IF-THEN para realizar um mapeamento do universo de discurso de entrada no universo de discurso de saída a partir do procedimento proposto por Mamdani (JANG et al.,1997). A análise de modos e efeitos de falhas (FMEA) visa identificar todos os possíveis modos potenciais de falha sobre o desempenho de um sistema (produto ou processo). O resultado da análise é consolidado através de um formulário no qual são registrados os efeitos e as causas correspondentes à cada modo de falha 99 observado. Posteriormente é calculado um índice de risco que corresponde à ponderação de índices de gravidade, detecção e ocorrência. Maiores detalhes sobre FMEA podem ser encontrados no Capítulo 3, item 3.1.1. Considerando-se a abordagem nebulosa, os índices de gravidade, ocorrência, detecção e risco podem ser modelados como conjuntos nebulosos. Guimarães e Lapa (2004) desenvolveram uma FMEA POSBIST para modelar um sistema de controle de um reator nuclear. O modelo proposto no referido artigo foi reproduzido utilizando-se o MATLAB™ conforme mostra a Figura 3. Índice de Gravidade Fuzzy FMEA Índice de Ocorrência Índice de Risco Índice de Não-Detecção Figura 3: Representação gráfica FMEA nebulosa Segundo a proposta de Guimarães e Lapa (2004) os índices de gravidade, ocorrência e não-detecção são representados pelos mesmos conjuntos. Esta escolha foi feita por um especialista bem como o tipo de função de pertinência e os termos lingüísticos a serem utilizados. O “R” significa remoto, “B” baixo, “M” moderado, “A” alto e “MA” muito alto. A Figura 4 reproduz o resultado apresentado no artigo original. 100 Figura 4: Índice de gravidade O conjunto nebuloso índice de risco (escolhido pelo mesmo especialista) é reproduzido pela Figura 4.6 na qual “MB” significa muito baixo, “B” baixo, “AB” aproximadamente baixo, “M” moderado, “AA” aproximadamente alto e “A” alto. Figura 5: Índice de risco Considerando a existência de três índices (ocorrência, gravidade e nãodetecção) e cinco termos lingüísticos para descrever cada um deles, existe a possibilidade de geração de 125 regras. Entretanto foi definido como significativo um conjunto de 14 regras (GUIMARÃES; LAPA, 2004), de acordo com a experiência dos especialistas. A partir de um conjunto de regras nebulosas é possível calcular qualitativamente o índice de risco a partir dos índices de gravidade, ocorrência e não detecção. Posteriormente o resultado é “defuzzificado” utilizando-se método centro de área. Considerando que a FMEA é um método de análise qualitativo por natureza, a abordagem nebulosa apresenta uma alternativa natural para modelagem do raciocínio e inferência humanos. Tanto na abordagem clássica quanto na 101 abordagem nebulosa existe grande dependência do especialista humano. Esta dependência pode ser observada na escolha dos termos lingüísticos utilizados para definição de variáveis e também na escolha das regras que serão consideradas válidas. Referências Bibliográficas: BOWLES, J. B.; PELÁEZ, C. E. Application of Fuzzy Logic to Reliability Engineering. IEEE, Proceedings …v. 83, n.3, March 1995, p. 435- 449. EL-IRAKI A, ODOOM ER. Fuzzy Probist Reliability Assessment of Repairable Systems. In: NAFIPS Conference of the North American, 1998, Pensacola Beach. Anais… , Pensacola Beach: IEEE Fuzzy Information Processing Society, 1998; p.96-100. GUIMARÃES, A. C. F; LAPA, C. M. F. Fuzzy FMEA Applied to PWR Chemical and Volume Control System. Elsevier Science Publishers. Progress in Nuclear Energy, v. 44, n.3, p.191-213, 2004. JANG, J.-S.R; SUN,C.-T.; MIZUTANI, E. Neuro-Fuzzy and Soft Computing. A Computacional Approach to Learning and Machine Intelligence. United States of America: Prentice Hall, 1997.614p. PEDRYCZ, W.; GOMIDE, F. An Introduction to Fuzzy Sets. Analysis and Design. England: Massachusetts Institute of Technology, 1998. 465p. TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. Fault Tree Analysis by Fuzzy Probability. IEEE Transactions on Reliability, v.32, n.5, p. 453-457, December, 1983. 102 APÊNDICE B – CONDIÇÃO INICIAL PARA O MODELO ADAPTATIVO Conforme apresentado anteriormente, a condição inicial do modelo adaptativo é determinada pelo modelo estático de forma a utilizar o conhecimento dos especialistas como ponto de partida para o modelo adaptativo. Utilizou-se nesta etapa o processo de inferência Sugeno com função de pertinência gaussiana (1) devido à facilidade de implementação. µ ( x) = e 2 −1 x −c 2 σ (1) Onde c : centro; σ : dispersão. Foram consideradas como entradas do modelo a complexidade do modo de falha ( xCX ), localização do modo de falha dentro do equipamento ( x LO ), dimensão física do sobressalente ( x DF ), custo do sobressalente ( xCS ) e freqüência de ocorrência de falhas ( x FO ). Todos os conjuntos foram igualmente distribuídos em um universo de discurso entre 0 e 1. O parâmetro centro c relativo à cada conjunto nebuloso pode ser obtido diretamente da figura 1. O parâmetro desvio padrão σ foi considerado igual para todas as funções de pertinência de todas as entradas no valor de 0,17. Figura 1: Exemplo variável de entrada 103 A faixa de variação de todas as variáveis de saída foi determinada através de entrevistas com os especialistas conforme quadro 1. Variação turno Variável Sigla diurno (min) Tempo para detectar a falha τ DC 0-30 Tempo para desmontar o equipamento τ DE 0-30 Tempo para reparar o equipamento τ RE 0-300 Tempo para montar o equipamento τ MO 0-30 Tempo para testar τ TE 0-30 Tempo para mobilizar pessoas τ MP 0-15 Tempo para disponibilizar ferramentas τ DF 0-30 Tempo para repor sobressalentes τ RS 0-15 Quadro 1: Universo de discurso (em minutos) para as variáveis de saída Uma regra típica de um modelo Sugeno tem a forma (JANG et al.,1997): if x é B então y = f (x) Foram utilizados neste trabalho modelos Sugeno de ordem 0 com parâmetro q. Este valor foi obtido a partir das funções de pertinência do modelo Mamdani conforme ilustrado na figura 2. Utilizou-se como exemplo a variável τDC (tempo para detecção da falha) cuja base de regras é apresentada: 104 Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX Se xCX é é é é é é é é é P P P M M M G G G e xLO e xLO e xLO e xLO e xLO e xLO e xLO e xLO e xLO é é é é é é é é é F M D F M D F M D então τDC então τDC então τDC então τDC então τDC então τDC então τDC então τDC então τDC é é é é é é é é é P P M M M G M G G Quadro 2: Regras para determinar o tempo para detectar a falha Figura 2: Exemplo variável de saída Regras 1 2 3 Parâmetros de entrada xCX c σ 0 0,17 0,5 0,17 1 0,17 Parâmetros de saída q τMP τDF 1 7,5 15 2 15 30 Quadro 3: Síntese parâmetros de entrada e saída do modelo adaptativo para cálculo do tempo logístico τl (entrada xCX ) 105 Regras 1 2 3 Parâmetros de entrada xDF c σ 0 0,17 0,5 0,17 1 0,17 Parâmetros de saída q τRS 1 7,5 15 Quadro 4: Síntese parâmetros de entrada e saída do modelo adaptativo para cálculo do tempo logístico Regras 1 2 3 4 5 6 7 8 9 Parâmetros de entrada xCX xLO c σ c σ 0 0,17 0 0,17 0 0,17 0,5 0,17 0 0,17 1 0,17 0,5 0,17 0 0,17 0,5 0,17 0,5 0,17 0,5 0,17 1 0,17 1 0,17 0 0,17 1 0,17 0,5 0,17 1 0,17 1 0,17 τl (entrada x DF ) Parâmetros de saída q τDC τDE τRE τMO τTE 5 5 15 15 15 30 15 30 30 2 2 15 2 15 30 15 30 30 5 5 35 5 35 150 35 150 150 2 2 15 2 15 30 15 30 30 2 2 15 2 15 30 15 30 30 Quadro 5: Síntese parâmetros de entrada e saída do modelo adaptativo para cálculo do tempo efetivo de manutenção τ m 106 APÊNDICE C - TREINAMENTO DOS MODELOS ADAPTATIVOS A condição inicial do modelo adaptativo é determinada pelo modelo estático de forma a introduzir o conhecimento dos especialistas como ponto de partida para o modelo adaptativo. Assim, o modelo adaptativo poderá calcular ajustar seus parâmetros à medida que existirem disponibilidade de dados. Utilizou-se nesta etapa o processo de inferência Sugeno com função de pertinência gaussiana (1) devido a facilidade de implementação. µ ( x) = e 2 −1 x −c 2 σ (1) Onde c : centro; σ : dispersão. Uma regra típica de um modelo Sugeno tem a forma (JANG et al.,1997): if x é B então y = f (x) A variável B no antecedente da regra é um conjunto nebuloso e o conseqüente da regra y é uma função crisp (não nebulosa). Usualmente f (x) é um polinômio dependente da entrada x no formato y=px+q. A ordem do polinômio determina o nome do modelo. Por exemplo, quando f é um polinômio de primeira ordem tem-se um modelo Sugeno de primeira ordem e assim sucessivamente. Para cada rede adaptativa representada no capítulo 4 (figura 4.5), a entrada é uma matriz de pontos do tipo Xk x n, onde k (número de linhas) representa o número de pontos de cada uma das entradas individuais. A variável n representa o número de entradas da rede e m é o número de regras a ser utilizado. Para uma regra j qualquer, tem-se que: se ( x1 é B1 j ) e ... ( x j é Bij )...e ( x n é Bnj ), então y j = p1 j x1 + ... pij x1 + ... p nj x n + q j (2) 107 se ( x1 é B1 j ) e ... ( x j é Bij )...e ( x n é Bnj ), então y j = ∑i =1 pij xi + q j n (3) Os pesos wj são determinados por: n w j = µ B1 j ( x1 ) µ B 2 j ( x 2 )...µ Bij ( x j ) µ Bnj ( x n ) = ∏ µ Bij ( xi ) (4) i =1 O cálculo da saída ys de cada rede adaptativa é dado por (5) e o erro quadrático a ser minimizado é dado por (6). (5) m ys = ∑ w .y j =1 j m ∑w j =1 j = a b j 1 2 e = .( ys − yd ) 2 (6) Assim, conclui-se que o erro e é função dos parâmetros c (centro) e σ (dispersão) das funções de pertinência e dos parâmetros p e q do polinômio de saída de cada modelo Sugeno. O método de minimização do erro pelo gradiente descendente resulta em: ∂e ∂e ∂ys ∂w j = = ( z − zd ) ∂cij ∂z ∂w j ∂cij x − c y j − ys w j * i 2 ij σ b ij (xi − cij )2 y j − ys ∂e ∂ys ∂w j ∂e = (z − zd ) = w j * σ 3 ∂σ ij ∂z ∂w j ∂σ ij b ij (7) (8) 108 wj ∂e ∂e ∂ys ∂y j = = ( z − zd ) ( xi ) ∂Pij ∂z ∂y j ∂Pij b (9) wj ∂e ∂e ∂z ∂z1 ∂ys ∂y j = = ( z − zd ) (1) ∂q j ∂z ∂z1 ∂ys ∂y j ∂q j b (10) Após o cálculo das derivadas para cada época de treinamento os parâmetros de cada rede são ajustados. Dado um ponto k qualquer da entrada, considerando uma taxa de aprendizado α, tem-se que: cijk +1 = cijk − α ∂e ∂cij σ ijk +1 = σ ijk − α ∂e ∂σ ij pijk +1 = pijk − α ∂e ∂pij k q kj +1 = q kj − α ∂e ∂q j k k k (11) (12) (13) (14) 109 ANEXO A – MODOS DE FALHA LAMINADOR PRIMARIO Natureza da Falha Modo de Falha Quantidade de Falhas Falha de automação Falha no motor Inspeção no equipamento Falha “p” TMNP TPO Falha no Posicionamento Desalinhamento Agarramento de batente Falha de lubrificação Quebra de estrutura. Falha no Funcionamento Curto-Circuito Inspeção no Laminador Geração de sucatas Material agarrado Ajuste axial Ajuste na escala de passe Perda de estabilidade Lixamento de cilindros Ajuste “s” Troca “s” Atolamento de cilindros Aperto “s” Má formação do bean blank Material preso Falha operacional Material atravessado Inspeção de lâminas C. equipamento Sobrecarga operacional Atraso no desenfornamento B. empenado Troca de lâminas Troca de caçamba Aferição de Bitola Quebra de cilindros Quebra “s” Ajuste manual Quadro 1: Modos de falha turno diurno 12 2 2 1 1 1 1 1 1 1 1 14 17 6 6 5 4 1 4 3 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 110 Natureza da Falha TMNP TPO Modo de Falha Quantidade de Falhas Falha de refrigeração. Falha de automação Falha no Funcionamento Falha H DPE Falha no Motor Defeito empurrador Falha de lubrificação Falha de Acoplamento Limite de Quebra de Eixo Falha de freio. Sobrecarga Inspeção no equipamento Fusível Rompimento de cabo Falha no Sensor Falha no Limite Falha “T” Quebra de estrutura. Desarme do Disjuntor Mau Contato Geração de sucatas Ajuste na escala de passe Inspeção no laminador Material agarrado Ajuste “s” Ajuste Axial Perda de estabilidade do material Material atravessado Consignação de Equipamentos Lixamento de cilindros Quebra de cilindros Troca “s” Defeito matéria prima Lixamento “s” Limpeza de qualquer natureza Troca de caçamba Erro de Informação Aferição de Bitola Atraso na montagem dos laminadores B. empenado Sobrecarga operacional Troca de lâminas Troca de cilindros Atraso no desenfornamento Falha no posicionamento Material preso na rampa de sucata da serra 6 4 3 3 3 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 38 27 19 16 13 9 8 5 4 4 4 4 2 2 2 2 2 1 1 1 1 1 1 1 1 1 Quadro 2 : Modos de falha turnos noturnos