UNIVERSIDADE CATÓLICA DE PELOTAS CENTRO POLITÉCNICO PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA Um estudo sobre algoritmos genéticos, lógica fuzzy e técnicas para segmentação e classificação em imagens médicas por Frederico Corrêa da Silva Trabalho Individual I TI-2008/1-01 Orientador: Prof. Dr. Marilton Sanchotene de Aguiar Pelotas, julho de 2008 Dedico este trabalho aos meus Pais por terem orientado minha trajetória e sempre mantido meus olhos abertos. AGRADECIMENTOS Agradeço: • a minha Família; • aos amigos de infância; • aos meus colegas que me ajudaram de alguma forma; • aos meus Professores que me proporcionaram o conhecimento necessário para concluir os deveres; • ao Professor e Orientador Marilton Sanchotene de Aguiar que me deu conselhos precisos e decisivos durante a trajetória; • a minha companheira que vivenciou todo esse processo e me ajudou a manter a mente tranqüila para tomar as melhores decisões; • e a CAPES, pelo auxílio em forma de bolsa. É preciso fé cega e pé atrás Olho vivo, faro fino e tanto faz É preciso saber de tudo E não pensar em nada Fé cega e pé atrás. — H G SUMÁRIO LISTA DE FIGURAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 LISTA DE TABELAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 LISTA DE ABREVIATURAS E SIGLAS . . . . . . . . . . . . . . . . . . . . . 10 RESUMO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 ABSTRACT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 2 PROCESSAMENTO DE IMAGENS DIGITAIS 2.1 Considerações Iniciais . . . . . . . . . . . . . 2.1.1 Definição de Imagem . . . . . . . . . . . . . 2.1.2 Sistemas de Imageamento . . . . . . . . . . . 2.1.3 Noções de percepção visual humana . . . . . 2.1.4 Definição de Contraste . . . . . . . . . . . . 2.1.5 Definição de Cores . . . . . . . . . . . . . . 2.1.6 Áreas de Pesquisa . . . . . . . . . . . . . . . 2.2 Arquivos Gráficos . . . . . . . . . . . . . . . 2.2.1 Formato BMP . . . . . . . . . . . . . . . . . 2.2.2 Formato TIFF . . . . . . . . . . . . . . . . . 2.2.3 Formato JPEG . . . . . . . . . . . . . . . . . 2.3 Processamento de Imagens . . . . . . . . . . 2.3.1 Tipos de Operações . . . . . . . . . . . . . . 2.3.2 Digitalização . . . . . . . . . . . . . . . . . 2.3.3 Realce da Imagens . . . . . . . . . . . . . . 2.4 Segmentação de Imagens . . . . . . . . . . . 2.4.1 Segmentação por Região . . . . . . . . . . . 2.4.2 Segmentação por textura . . . . . . . . . . . 2.4.3 Segmentação por Contorno . . . . . . . . . . 2.4.4 Enlace de Bordas e Detecção de Contornos . . 2.5 Análise de Imagens . . . . . . . . . . . . . . . 2.5.1 Técnicas de classificação de imagens . . . . . 2.5.2 Interpretação de imagens . . . . . . . . . . . 14 14 14 15 15 16 16 16 17 18 18 19 19 19 21 22 26 26 27 28 29 30 30 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 PROCESSAMENTO DE IMAGENS MÉDICAS . . . . . . . . . . . 3.1 Considerações Iniciais . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Propriedade da imagem médica . . . . . . . . . . . . . . . . . . . 3.1.2 Resolução da Imagem . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Textura da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Protocolo DICOM . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Modalidades de Imagens Médicas . . . . . . . . . . . . . . . . . . 3.3.1 Radiografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Ultra-sonografia . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Ressonância Magnética Nuclear . . . . . . . . . . . . . . . . . . 3.3.4 Tomografia Computadorizada . . . . . . . . . . . . . . . . . . . . 3.4 Exemplos de Aplicações . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Detecção de agrupamentos de microcalcificações em mamogramas 3.4.2 Detecção de assimetrias em imagens mamográficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 32 32 35 36 37 41 42 44 45 45 46 46 47 4 ALGORITMO GENÉTICO 4.1 Considerações Iniciais . . 4.1.1 Histórico . . . . . . . . . 4.1.2 Conceito . . . . . . . . . 4.2 População Inicial . . . . . 4.3 Avaliação da População . 4.4 Operadores Genéticos . . 4.4.1 Seleção . . . . . . . . . 4.4.2 Cruzamento . . . . . . . 4.4.3 Mutação . . . . . . . . . 4.5 Substituição da População 4.6 Critério de Parada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 50 50 51 53 53 53 54 54 55 55 56 5 LÓGICA FUZZY . . . . . . . . . . . . . . . 5.1 Introdução . . . . . . . . . . . . . . . . . 5.2 Conjuntos Fuzzy . . . . . . . . . . . . . . 5.2.1 Operações Básicas entre Conjuntos Fuzzy 5.3 Funções de Pertinência . . . . . . . . . . . 5.4 Sistemas Fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 57 59 61 61 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . LISTA DE FIGURAS Figura 2.1 Figura 2.2 Figura 2.3 Figura 2.4 Figura 2.5 Figura 2.6 Figura 2.7 Figura 2.8 Figura 2.9 Figura 3.1 Figura 3.2 Figura 3.3 Figura 3.4 Figura 3.5 Representação discreta de uma imagem (ANTUNES, 1999). . . . . . Exemplo de variação de contraste (ANTUNES, 1999). . . . . . . . . Relação entre computação gráfica, processamento de imagens e visão computacional (ANTUNES, 1999). . . . . . . . . . . . . . . . . . . Diferença na geometria da amostragem (SCHARCANSK.J., 1998). . Histograma de uma imagem (ANTUNES, 1999). . . . . . . . . . . . Equalização de histograma (ANTUNES, 1999). . . . . . . . . . . . . Modificação de contraste (ANTUNES, 1999). . . . . . . . . . . . . . Representação de uma imagem segmentada usando quadtree (JAIN, 1969). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Técnica estrutural: definição de estruturas que caracterizam a textura (SCHARCANSK.J., 1998). . . . . . . . . . . . . . . . . . . . . Ilustração do conceito de vizinhança considerando o ponto central como o pixel de interesse, os pixels da vizinhança são representados pelos espaços em cinza: (a) vizinhança-de-4; (b) vizinhança diagonal; (c) vizinhanca.de-8 . . . . . . . . . . . . . . . . . . . . . . . . . . . Modelo de comunicação geral do padrão DICOM (STANDARDS; PUBLICATIONS, 2006) . . . . . . . . . . . . . . . . . . . . . . . . Esquema utilizado para segmentação de microcalcificações (NUNES, 2005). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Detecção de agrupamentos de microcalcificações em mamogramas. (a) imagem original; (b) região de interesse extraída da imagem original; (c) região de interesse segmentada; (d) região de interesse após transformação área-ponto e (e) região de interesse após identificação de clusters (NUNES, 2005). . . . . . . . . . . . . . . . . . . . . . . Exemplo de medição de assimetrias em mamogramas: (a) assimetria global; (b) assimetrias locais (NUNES, 2005). . . . . . . . . . . . . . Figura 4.1 Etapas dos algoritmos genéticos (MOREIRA, 2004). . . . . . . . . . Figura 5.1 Gráfico da função de pertinência dos números inteiros “pequenos” (SANTOS, 2007). . . . . . . . . . . . . . . . . . . . . . . . . . Exemplo hipotético de conjunto fuzzy para categoria de peso corporal (SOUSA, 2007). . . . . . . . . . . . . . . . . . . . . . . . . . . . Images: (a) União entre subconjuntos fuzzy ; (b) Intersecção entre subconjuntos fuzzy (c) Complementar de um conjunto fuzzy. . . . . . Figura 5.2 Figura 5.3 15 16 17 21 23 24 25 27 28 34 39 47 48 49 52 58 60 60 Figura 5.4 Arquitetura de um sistema fuzzy (SANTOS, 2007). . . . . . . . . . . 62 LISTA DE TABELAS Tabela 5.1 Grau de pertinência dos números inteiros considerados “pequenos” (SANTOS, 2007). . . . . . . . . . . . . . . . . . . . . . . . . . 59 LISTA DE ABREVIATURAS E SIGLAS ACR American College of Radiology CAD Computer Aided Diagnosis CDI Centro de Diagnóstico por Imagem DICOM Digital Imaging and Communications in Medicine HCTA Health Care Technology Assessment HIS Hospital Information System HL7 Health Level Seven IHE Integration Healthcare Enterprise MIII Medical Imaging Informatics Infraestruture MPPS Modality Procedure Performed Step NEMA National Equipament Manufacturers Association nm Nanometro PACS Picture Archiving Comunication System PDI Processamento Digital de Imagens PET Positron emission tomography PET Positron Emission Tomography PID Processamento de Imagens Digitais RGB Red Green Blue RIS Radiology Information System RLE Run-Length Encoding RM Ressonância Magnética RMN Ressonância Magnética Nuclear SPECT Single photon emission computed tomography TC Tomografia Computadorizada TCP/IP Transmission Control Protocol/ Internet Protocol US Ultra-som RESUMO O crescente uso de programas de computador para auxílio diagnóstico está relacionado ao rápido desenvolvimento de algoritmos computacionais aplicados à medicina. A ciência da computação apresenta atualmente três áreas destinadas à manipulação, análise ou geração de imagens através do computador; estas áreas são a computação gráfica, o processamento digital de imagens e a visão computacional. Por processamento digital de imagens entende-se a análise e manipulação de imagens por computador, com a finalidade de extrair informação destas ou transformá-las, de tal modo que a informação seja mais facilmente discernível por um analista humano. O objetivo da segmentação de imagens é obter, a partir de uma imagem digitalizada pré-processada, um conjunto de primitivas ou segmentos significativos, que contém a informação semântica relativa à imagem de origem. Cada modalidade de imagem médica responde a um ou mais aspectos presentes nos materiais que compõem os seres da natureza. Assim, cada uma delas tem peculiaridades que fazem com que sejam mais ou menos adequadas para o diagnóstico de determinadas doenças. Os diferentes objetivos e os diferentes problemas apresentados pelas modalidades requerem tratamentos diferentes, que podem ser obtidos a partir da aplicação de técnicas de processamentos de imagens. Acredita-se que um ambiente computacional integrador de técnicas tradicionais de segmentação e classificação de imagens médicas com operadores baseados em algoritmos genéticos possam permitir ferramentas mais versáteis e com precisão apropriada ao tipo de aplicação pretendida. Espera-se que este trabalho sirva de ponto de partida para um trabalho mais aprofundado de proposta da integração de algoritmos genéticos e lógica fuzzy para a segmentação de imagens médicas. Palavras-chave: Algoritmos Genéticos, Lógica Fuzzy, Processamento de Imagens, Processamento de Imagens Médicas. TITLE: “A STUDY ON GENETIC ALGORITHMS, FUZZY LOGIC AND TECHNIQUES FOR SEGMENTATION AND CLASSIFICATION OF MEDICAL IMAGES” ABSTRACT The crescent use of computer programs for aid diagnosis it is related to the fast development of algorithms applied to the medicine. The science of the computation presents three areas now destined to the manipulation, analysis or generation of images through the computer; these areas are the graphic computation, the digital processing of images and the vision computing. For digital processing of images it understands each other the analysis and manipulation of images for computer, with the purpose of to extract information from these or to transform them, so that the information is more easily discernible for a human analyst. The objective of the segmentation of images is to obtain, starting from an image pre-processed digitalized, a group of primitive or segments significant, that it contains the relative semantic information to the image of origin. Each modality of medical image answers to one or more aspects presents in the materials that compose the beings of the nature. Like this, each one of them has peculiarities that do with that you/they are more or less appropriate for the diagnosis certain diseases. The different objectives and the different problems presented by the modalities request different treatments, that you/they can be obtained the to leave of the application of techniques of processing of images. It is believed that an atmosphere computational integrator of techniques traditional of segmentation and classification of medical images with operators based on genetic algorithms can allow tools more versatile and accurately appropriate to the type of intended application. It is waited that this work serves as starting point for one I work deepened of proposal of the integration of algorithms genetic and logic fuzzy for the segmentation of medical images. Keywords: Genetic Algorithms, Fuzzy Logic, Image Segmentation, Medical Image Segmentation. 13 1 INTRODUÇÃO O volume de dados produzidos nos hospitais e centros médicos está em rápida ascensão. A produção anual de dados gerados por exames de imagens nos grandes centros de radiologia é da ordem de 2 terabytes. Isto é devido à obtenção e armazenamento de dados dos pacientes, resultantes da crescente importância e utilização dos exames de imagem. É enorme a quantidade de dados que necessitam ser armazenados e indexados de forma inteligente e segura, pois são peças fundamentais no diagnóstico clínico. O crescente uso de programas de computador para auxílio diagnóstico está relacionado ao rápido desenvolvimento de algoritmos computacionais aplicados à medicina. Este trabalho tem como objetivo fazer um estudo amplo de técnicas de segmentação e classificação de imagens médicas. Também tem-se o intuito de apresentar os principais conceitos resultantes do estudo de algoritmos evolutivos, mais especificamente Algoritmos Genéticos e Lógica Fuzzy. Pretende-se que este trabalho se torne, em nível de grupo de pesquisa, um material que contribua na formação de futuros pesquisadores que se integrarão ao grupo, apresentando uma panorâmica da área de atuação. 1.1 Metodologia Este trabalho está organizado da seguinte forma: • No capítulo 2, apresentam-se conceitos básicos sobre de imagens digitais. • No capítulo 3, enfocam-se ténicas para segmentação de imagens médicas. • No capítulo 4, traz-se o conceito dos Algoritmos Genéticos, estudados como método alternativo para segmentação de imagens, apresentando alto desempenho. • No capítulo 5, apresentam-se os conceitos fundamentais da Lógica Fuzzy, estudados como apoio a tomada de decisão de diagnósticos médicos. • E por fim, no capítulo 6 encontram-se algumas considerações finais sobre o desenvolvimento do trabalho. 14 2 PROCESSAMENTO DE IMAGENS DIGITAIS Neste capítulo abordam-se alguns conceitos referentes ao processamento de imagens digitais em âmbito genérico, ou seja, tratam-se de conceitos básicos do processamento de imagem, as diferenciações entre as áreas de pesquisa envolvendo imagens digitais, suas peculiaridades, técnicas de manipulação de imagem, entre outros. 2.1 Considerações Iniciais Nesta seção abortaremos conseitos básicos referente ao processamento de imagens em âmbito global. 2.1.1 Definição de Imagem Uma imagem pode ser definida matematicamente como uma função f (x, y), bidimensional. Este modelo é ideal para descrever imagens visuais, onde os valores assumidos pela função quantificam a energia captada por algum sistema de imageamento. Tomando-se como exemplo uma fotografia, a função f (x, y) representa a intensidade luminosa referente ao ponto (x, y) do espaço considerado. Para que uma imagem possa ser manipulada por computador, é necessário que essa imagem seja discretizada ou digitalizada. Uma imagem digital ou discreta é aquela cuja função é definida em uma “grade” regular de pontos da forma (m.dx, n.dy), onde dx e dy são intervalos nas direções x e y, e (m, n) são valores inteiros nos intervalos [0, m − 1] e [0, n − 1] (MASCARENHAS; VELASCO, 1989). Os valores assumidos pela função, em algum destes pontos, são definidos da forma k.dz, onde k está no intervalo [0, k−1] e dz representa uma dada quantidade (vide Figura 2.1). Percebe-se em (ANTUNES, 1999), que uma imagem pode ser discretizada através de um processo que envolve dois passos, um denominado amostragem, no qual são definidos os dx e dy da grade e o outro denominado quantização, que consiste em escolher um valor múltiplo de dz para cada ponto da imagem. Para o processamento digital de uma imagem é necessário que esta apresente um formato adequado a um tratamento computacional. Dessa forma, imagens são tratadas como matrizes, onde para cada ponto determinado pelas coordenadas (m.dx, n.dy) corresponde um valor de intensidade luminosa k.dz, que para imagens monocromáticas, ou seja, que apresentam variação em apenas uma banda de freqüência, dá-se o nome de nível de 15 Figura 2.1: Representação discreta de uma imagem (ANTUNES, 1999). cinza. Imagens que apresentam variação de valores em mais de uma banda de freqüência, necessitam ser representadas por mais de uma função do tipo f (x, y). Um exemplo são as imagens coloridas, que apresentam uma função de intensidade para cada cor primária, que são o azul, o verde e o vermelho. A sobreposição destas três imagens, que individualmente são monocromáticas, compõe uma imagem colorida. O tipo de imagem e a qualidade desta dependem, necessariamente, de como esta imagem foi obtida. Os sistemas responsáveis pela obtenção ou captura de imagens são denominados sistemas de imageamento. 2.1.2 Sistemas de Imageamento Sistemas de imageamento são sistemas físicos destinados a produzir ou capturar imagens. Existem vários sistemas, que apesar de diferirem na aparência, apresentam várias características comuns. Entre os mais comuns estão a máquina fotográfica, a câmera de vídeo, os sensores a bordo de um satélite e os equipamentos de raio X. Nos sistemas mais comuns de imageamento, a imagem, a qual se deseja capturar, é colocada sobre um plano através de um sistema de lentes. Neste plano são colocados sensores que medem a luz incidente, que, dependendo de sua intensidade, provocarão uma resposta proporcional por parte dos sensores. Diferentes tipos de sensores podem capturar aspectos diferentes de uma mesma cena. Assim agem os satélites, que para uma mesma imagem, captam informações com sensores infravermelho, que ressaltam as variações de temperatura, e sensores de vapor d’água para nebulosidade, entre outros. 2.1.3 Noções de percepção visual humana Sistemas ou algoritmos de processamento de imagens devem considerar as características da percepção visual. Algoritmos que se baseiam em critérios estatísticos, como realce, restauração e reconstrução de imagens, consideram critérios de fidelidade de resultados, que dependem das características psicofísicas do sistema visual humano. O olho humano é um sensor de sinais de radiação eletromagnética na faixa de 400nm a 700nm. A luz passa através da pupila e incide sobre a retina que possui dois tipos de sensores, os cones e os bastonetes. Estes dois tipos de fotoreceptores tem diferentes funções; o segundo é responsável pela distinção de cores e detalhes; já o primeiro, é 16 sensível a níveis mais altos de iluminação (ANTUNES, 1999). 2.1.4 Definição de Contraste Contraste representa uma diferença local de luminância, ou pode ser definido como a razão dos níveis de cinza do objeto e do fundo. A sensibilidade do sistema visual humano depende da quantidade de luz que penetra no olho, sendo que, quanto maior a intensidade luminosa, maior deve ser o contraste entre os objetos para que possa ser percebida qualquer diferença. Dessa afirmação deriva-se o brilho aparente de um objeto, o qual depende fortemente da intensidade do fundo. Alterações no contraste de uma imagem podem gerar uma melhor definição dos objetos contidos nesta. A Figura 2.2 demonstra, para um objeto de mesmo nível de cinza, diferentes fundos, tornando o objeto mais, ou menos visível (ANTUNES, 1999). Figura 2.2: Exemplo de variação de contraste (ANTUNES, 1999). 2.1.5 Definição de Cores O sistema visual humano apresenta três tipos básicos de cones na retina que correspondem à absorção de luz na região do azul, vermelho e verde. Este sistema permite ao homem distinguir uma enorme gama de cores. Caso a visão humana não apresentasse a distinção de cores, o ser humano estaria restrito a distinção de apenas 20 ou 30 tons de cinza. As características do sistema de visualização humano e seus conceitos biológicos, serviram de base para a determinação de sistemas de cores por composição e subtração, que são implementados nos computadores (MASCARENHAS; VELASCO, 1989). Na composição (conhecida comumente como RGB), qualquer outra cor é determinada pela sobreposição das três cores primárias (azul, verde ou vermelho); e na subtração (denominada CYMK), qualquer cor pode ser formada a partir da subtração de três cores (ciano, magenta e o amarelo) a partir do branco. Uma cor pode ainda apresentar variações de tonalidade, saturação e brilho. 2.1.6 Áreas de Pesquisa A ciência da computação apresenta atualmente três áreas destinadas à manipulação, análise ou geração de imagens através do computador; estas áreas são a computação gráfica, o processamento digital de imagens e a visão computacional. Com o desenvolvimento das tecnologias de hardware, principalmente de memória e processamento, estas áreas têm apresentado um grande desenvolvimento e vislumbram ainda, pelos mesmos motivos, um próspero futuro. 17 Conforme (FREITAS, 1998), apesar de terem em comum a imagem digital, como fim ou como meio, estas três áreas apresentam diferenças como veremos a seguir: Computação gráfica: destina-se à modelagem e construção de imagens, normalmente manipulando dados na forma vetorial; Processamento digital de imagens: cabe a aquisição e a manipulação da informação adquirida na forma de “pixels” (picture elements); Visão computacional: é uma área voltada à análise de imagens, à interpretação de características e à reconstituição do modelo de um objeto ou de uma cena. A Figura 2.3 apresenta um diagrama de relacionamento destas três áreas de pesquisa. Figura 2.3: Relação entre computação gráfica, processamento de imagens e visão computacional (ANTUNES, 1999). 2.2 Arquivos Gráficos Segundo (ANGELO, 2007), a necessidade de se arquivar imagens digitais surgiu no início dos anos 1950, juntamente com a computação gráfica, devido a necessidade de se armazenar gráficos e formas criadas e utilizadas pelos sistemas gráficos. No início dos anos 1960, começaram a surgir algumas imagens com tecnologia bitmap de representação, com um efeito restrito. As pesquisas nesta área eram limitadas às grandes instituições, pois as imagens digitais só podiam ser manipuladas em grandes estações de trabalho (workstations). Até então, as imagens digitais eram produzidas para fazer a comunicação com plotters de caneta, o que levava cada instituição a desenvolver seu sistema particular para manipular tais imagens. Não havia nenhum tipo de padrão a ser seguido entre os desenvolvedores de softwares. No início dos anos 1980, o desenvolvimento de estações gráficas de trabalho, o grande crescimento dos computadores pessoais, o uso difundido de imagens geradas computacionalmente para apresentações comerciais, entre outras, geraram o crescimento da quantidade de diferentes formatos de imagem. A necessidade de fazer tais formatos se 18 comunicarem com diversos sistemas por sua vez fez com que as grandes organizações do ramo tentassem criar padrões para os formatos de imagens. Apesar dos esforços para se criar um padrão e definir certos parâmetros para os arquivos de imagem, o que se nota no final é uma grande confusão. Surgiram muitos formatos diferentes, alguns desapareceram e outros se fundiram gerando novos formatos. Cada qual com suas histórias, soluções e aplicabilidades. Paralelamente, surgiram softwares especializados em conversão de formatos, livros especializados em descrever formatos de imagens, padrões para aquisição e armazenamento de formatos gráficos e métodos de compressão de imagens que se aplicam a determinados formatos. Os formatos existentes, na sua maioria, são livres de qualquer tipo de direito autoral, no entanto, para a gravação ou leitura de imagem em um determinado formato, algumas regras têm que ser seguidas de acordo com a documentação do formato, para que o arquivo gerado seja um arquivo válido e possa assim ser reconhecido por outros dispositivos e/ou softwares. Dentre os principais formatos existentes na atualidade, podem-se destacar: BMP, TIFF, JPEG, GIF, PSD, entre outros. 2.2.1 Formato BMP O Microsoft Windows Devide Independent Bitmap (BMP) é um formato de propriedade da Microsoft Corporation, e é um arquivo que segue o padrão bitmap de representação (MARQUES FILHO; VIEIRA NETO, 1999). Permite o armazenamento de imagens coloridas com até 24 bpp, ou seja, 8 bits para cada uma das cores primárias (R, G e B) e pode utilizar ou não mapa de cores para sua representação. Admite técnica de compressão RLE (Run-Length Encoding - consiste de um algoritmo eficiente para a compressão de imagens binárias) ou nenhuma compressão, é um formato interpretado pelas plataformas PC e Macintosh. Sua maior finalidade é o armazenamento de imagens para o uso no Microsoft Windows, o que se torna, ao mesmo tempo, uma vantagem e também uma desvantagem, pois fora do S.O. Windows ele é pouco utilizado. 2.2.2 Formato TIFF O nome TIFF provém de Tag Image File Format, ou seja, formatos de arquivos etiquetados. Em outras palavras, trata-se de um arquivo cujas principais características são determinadas por etiquetas, ou bloco de informações. Este formato foi criado pela Aldus Corporation, utiliza-se do padrão de representação Bitmap e tem como principais características a diversidade de técnicas de compactação que suporta o alto valor de níveis de cores permitidos. Tais características fazem deste formato um dos mais eficientes e utilizados em diversos tipos de aplicação, como transmissão de satélites, processamento de imagens médicas, vídeos, entre outras, além de trabalhar em várias plataformas (algumas estações de trabalho UNIX, PCs e Macintosh), o que o torna muito utilizado na troca de dados entre plataformas diferentes. Uma outra facilidade é o fato do formato ser muito bem documentado (ANGELO, 2007). O formato TIFF possibilita a inserção de novas imagens sem invalidar as já existentes, além de permitir a análise da imagem por partes, não sendo necessária a leitura de todo o arquivo. Como todos os outros formatos, ele apresenta vantagens, mas também tem 19 suas desvantagens e a maior delas é justamente o fato do formato permitir inúmeras possibilidades de criação de extensões do formato, o que, em certos casos, torna trabalhoso o desenvolvimento de algoritmos para a leitura dos dados (ANGELO, 2007). 2.2.3 Formato JPEG Segundo (ANGELO, 2007), o JPEG é um formato de propriedade da Joint Photographic Experts Group, segue o padrão bitmap de representação e permite o armazenamento de imagens coloridas com até 24 bits, não sendo, no entanto, definido nenhum modelo de cor. A grande vantagem deste formato é o fato dele permitir o uso de diversas técnicas de compressão, na maioria com perdas: é o formato que oferece a maior taxa de compressão existente para imagens fotográficas. As técnicas de compressão sem perdas aceitas pelo JPEG consistem de uma codificação preditiva sem perdas aliada a alguma outra técnica de compressão, a codificação de Huffman e a codificação aritmética são as mais comuns. Apesar da usabilidade de formato JPEG, ele é um formato em constante desenvolvimento, e existem algumas opções das versões dos formatos que são incompatíveis entre si. Informações como as especificações de compressão sem perda e da maneira como as informações são alocadas em cada subloco do arquivo não são muito claras, dificultando dessa forma o entendimento da estrutura do formato. 2.3 Processamento de Imagens Nesta seção abordaremos o histórico do processamento de imagens, além dos tipos de operações possíveis sobre a imagem e algumas técnicas utilizadas. 2.3.1 Tipos de Operações Os primeiros registros de estudos em Processamento Digital de Imagens datam da década de 60, impulsionados pelos projetos de pesquisa criados pela NASA, nos Estados Unidos da América. Em seguida, surgiriam mais atividades que necessitariam dos adventos proporcionados por esta área de concentração de conhecimento; entre estas estavam a medicina, a microscopia, a meteorologia, o televisionamento e a indústria. Percebe-se desta forma que o processamento de imagens é essencialmente uma área multidisciplinar, tanto na atuação quanto na derivação, pois suas técnicas baseiam-se na ótica, colorimetria, neurofisiologia, engenharia elétrica e ciência da computação. Paralelamente, e conforme citado, o espantoso avanço dos recursos computacionais, gerariam o desenvolvimento veloz do processamento digital de imagens (ANTUNES, 1999). Segundo (JAIN, 1969), o termo processamento digital de imagens refere-se ao processamento de uma imagem bidimensional através de um computador digital. Mais detalhadamente, como processamento digital de imagens entende-se a análise e manipulação de imagens por computador, com a finalidade de extrair informação destas ou transformá-las, de tal modo que a informação seja mais facilmente discernível por um analista humano. As operações realizadas com imagens podem ser classificadas em cinco tipos básicos: 20 Representação da imagem: está relacionada à representatividade de cada pixel da figura e isto pode ser mensurado em termos de qualidade e quantidade. Uma imagem pode representar a luminosidade refletida por objetos em uma cena ou pode indicar a temperatura de uma determinada região. De forma geral, uma função bidimensional que possa armazenar informação pode ser considerada uma imagem. E um modelo de imagem descreve lógica e quantitativamente as propriedades desta função. É importante que o modelo ou representação da imagem obtido seja suficientemente capaz de armazenar as informações necessárias contidas no objeto imageado. Realce da imagem: tem por objetivo acentuar certos aspectos da imagem para subseqüente análise ou visualização. No realce de imagem não são acrescidas informações à imagem e sim enfatizadas determinadas características da imagem. Um exemplo de realce é a variação de contraste, que transforma o valor de cinza de determinados pixels em valores diferentes, ressaltando determinados aspectos da imagem. Restauração da imagem: refere-se à minimização ou remoção de degradações na imagem. Normalmente esta degradação é decorrente da limitação dos sensores utilizados nos sistemas de imageamento, que podem gerar imagens nebulosas e geometricamente distorcidas, entre outros problemas. Normalmente as ferramentas geradas para correção de imagem são denominadas filtros. Um exemplo de degradação de imagem é a apresentada por imagens provenientes de satélite que, para determinadas regiões, apresentam uma deformação em função do ângulo de curvatura terrestre. Outro tipo de reconstrução também se dá através de projeções, onde uma imagem bidimensional é reconstituída através de uma projeção unidimensional. Cada projeção é adquirida através da incidência paralela de um raio X sobre o objeto. Um algoritmo de reconstituição utiliza-se deste conjunto de projeções para gerar uma imagem bidimensional. Esta tecnologia é muito utilizada pela medicina para fornecer imagens internas do corpo humano. Como a quantidade de dados associados às imagens digitais é muito grande e o armazenamento e transmissão destas requer uma grande capacidade de memória e velocidade de transmissão, existe uma grande preocupação em desenvolver algoritmos que possam reduzir significativamente o tamanho destas imagens, mantendo, tanto quanto possível, a qualidade e as informações nesta contidas. Análise da imagem: é o processo de medição quantitativa de um determinado aspecto da imagem com a finalidade de gerar uma descrição desta. Enquanto que nos demais processos de tratamento de imagens a entrada e saída do sistema eram imagens, na análise a saída pode não ser uma imagem, mas sim um gráfico ou um valor referente à propriedade da imagem a que se deseja estimar. Um exemplo de análise de imagem é a contagem de hemáceas em um determinado volume de sangue. Esta atividade vale-se de técnicas de segmentação de imagens para isolamento da característica de interesse. 21 Compressão da imagem: como a quantidade de dados associados às imagens digitais é muito grande e o armazenamento e transmissão destas requer uma grande capacidade de memória e velocidade de transmissão, existe uma grande preocupação em desenvolver algoritmos que possam reduzir significativamente o tamanho destas imagens, mantendo, tanto quanto possível, a qualidade e as informações nesta contidas. Este problema também é pesquisado pelo processamento digital de imagens. 2.3.2 Digitalização A premissa básica para a manipulação de imagens por computador é a disponibilidade desta em formato digital. Uma imagem real apresenta-se contínua tanto em sua amplitude como em seus valores de cinza. Para tornar esta imagem real uma imagem manipulável por um computador, é necessário reproduzi-la ou amostrá-la em uma grade discreta e cada unidade desta grade é quantizada utilizando-se um número finito de bits (ANTUNES, 1999). 2.3.2.1 Amostragem Amostrar uma imagem significa reproduzi-la em uma forma computacionalmente manipulável, definindo seu espaço. Ao conduzir uma imagem a uma forma digital é necessária convertê-la em um sinal, sinal este que é um meio passível de manipulação digital. A definição deste sinal, o qual passa a representar a imagem, chama-se de amostragem. A forma de amostragem irá influenciar na qualidade da imagem. Logo uma boa amostragem, irá facilitar uma boa reconstituição da imagem capturada. De forma mais prática, amostrar uma imagem significa definir, para uma imagem real, as características da matriz sobre a qual esta será representada. Esta característica é comumente reconhecida como resolução da imagem. Evidentemente, dependendo das características desta matriz, ou seja, tamanho, dimensões dos pixels, mais fiel será a representação discreta da imagem. A Figura 2.4, ilustra dois diferentes tipos de amostragem para representação de uma reta. Percebe-se que um dos casos apresenta resultado melhor. Um sistema que apresenta uma amostragem insatisfatória irá gerar uma reprodução de baixa qualidade. Um problema comum nestes casos é o efeito de aliasing, efeito caracterizado pela aparência serrilhada das bordas dos objetos na imagem (ANTUNES, 1999). Figura 2.4: Diferença na geometria da amostragem (SCHARCANSK.J., 1998). 22 2.3.2.2 Quantização Pelo processo de quantização uma imagem com tons contínuos é transformada numa imagem com tons discretos. Para armazenamento ou transmissão digital, cada tom é representado por um código binário. Este código é formulado atendendo a necessidades de minimização da quantidade de bits, visando armazenamento ou transmissão destes dados (ANTUNES, 1999). Os métodos de quantização buscam, em geral, otimizar os erros entre a imagem real e a imagem quantizada, ou seja, procuram definir variações de tons de cinza que representem, de forma mais fiel possível, os níveis de cinza de uma imagem real. Erros como o de “falsos contornos” podem ocorrer quando se usa um reduzido número de tons de cinza em uma quantização. Este fenômeno se caracteriza pela transição de tons de cinza mais freqüentes, em áreas de pouca variação. De uma forma geral, pode-se dizer que, dispondo de uma dada quantidade de bits, a escolha do nível de quantização e da amostragem irá depender do tipo de imagem a ser discretizada e de critérios de avaliação subjetivos (MASCARENHAS; VELASCO, 1989). Não existe uma regra exata para determinado tipo de imagem, no entanto é possível concluir que para imagens que apresentam uma variação suave de tons de cinza é necessária uma maior quantidade de níveis de quantização, não importando muito a amostragem. Já para imagens que apresentam um grande detalhamento é conveniente o uso de uma amostragem densa não sendo necessária uma quantização com muitos níveis de cinza. 2.3.3 Realce da Imagens Conforme visto anteriormente, ao processamento de imagens cabe a manipulação e análise de imagens, tendo como objetivo a extração de informação destas. A manipulação de imagens inclui duas grandes classes de transformações: as transformações radiométricas onde alteram-se apenas os valores dos níveis de cinza; e, as transformações geométricas onde a geometria da imagem é alterada, mantendo-se, ao máximo possível, os valores dos níveis de cinza. Podem distinguir-se dois grupos de transformações radiométricas: a restauração que visa corrigir distorções sofridas pela imagem geradas normalmente pela limitação dos sistemas de imageamento; e, o realce que visa enfatizar alguma característica de interesse na imagem. Em determinados casos, estas duas transformações produzem os mesmos resultados (ANTUNES, 1999). As técnicas de realce de imagem apresentam-se em duas grandes categorias: métodos “ponto a ponto” e métodos de vizinhança. 2.3.3.1 Método Ponto a Ponto Estes métodos modificam os níveis de cinza de uma imagem preservando os contornos. São operações aplicadas sobre cada pixel (pontuais). A seguir são descritas algumas técnicas de realce ponto a ponto segundo (ANTUNES, 1999). Histograma de uma imagem: é uma tabela que dá, para cada nível de cinza, o número de pixels correspondentes na imagem. Fornecendo apenas o número de pixels para cada nível de cinza, e não a localização deles, o histograma gera uma descrição global da imagem e dos objetos nela contidos. 23 Se todos os pontos da imagem são de um mesmo objeto, o histograma dá uma idéia da probabilidade condicional de um ponto possuir um dado nível de cinza z, considerando que pertença ao objeto. Na Figura 2.5 pode-se observar uma imagem e seu histograma. Como se pode perceber, a imagem apresenta uma concentração maior de tons de cinza de nível médio, portanto, o histograma apresenta maiores valores de freqüência na faixa intermediária. Em imagens coloridas o histograma indica a freqüência de cada componente RGB da imagem. Figura 2.5: Histograma de uma imagem (ANTUNES, 1999). Modificação de histograma: de forma geral, as imagens apresentam tons de cinza próximos da faixa dos pretos e com pouca variação. Assim para melhor apresentação, é necessário aprimorar o contraste e a dinâmica da imagem. Pode-se operar essas características através do histograma. A modificação de histograma é um tipo de transformação da escala de níveis de cinza, onde o objetivo da transformação é obter um formato de histograma desejado. Como modificações no histograma, tem-se a equalização de histograma e a especificação de histograma que são duas operações matemáticas realizadas sobre o histograma de uma imagem; tais operações podem gerar resultados como realce de imagem. Equalização de histograma: como definido anteriormente, um histograma é uma tabela que indica para cada nível de cinza a quantidade de pixels existente na imagem. Evidentemente, um histograma apresentará uma freqüência ou densidade maior de pixels em um determinado nível de cinza que em outro. Equalizar um histograma significa gerar uma uniformização de densidade para os níveis de cinza da imagem. A equalização do histograma de uma imagem pode gerar maior contraste e nitidez na imagem, ressaltando assim objetos nela contidos, conforme ilustra a Figura 2.6. Especificação de histograma: pode ser útil para certas aplicações escolher o tipo de densidade que devem seguir os pixels. A maneira de obter este resultado é a especificação de histograma. Para execução desta técnica devem ser seguidos três passos: 24 Figura 2.6: Equalização de histograma (ANTUNES, 1999). • Determinar a função que equaliza o histograma da imagem original. • Alterar a função que equaliza a imagem, pela função de densidade desejada. • Aplicar a função sobre os níveis de cinza da primeira etapa. A especificação de histograma é uma técnica ainda mais apurada que a equalização de histograma, porém mais complexa. Na especificação de histograma é permitido ao usuário definir quais níveis de cinza sofrerão modificações, ou seja existe uma liberdade maior de operação. Modificação de contraste: para compensar os ruídos gerados, normalmente, pelas restrições dos sensores responsáveis pela captação de imagens, é necessário aumentar a dinâmica, ou seja é necessário que exista uma variação maior entre os tons de cinza definidos para a imagem. Uma modificação do contraste é uma aplicação t tal que: z = nível de cinza z = t(z) onde zmin < z, z0 < zmax 0 Para aumentar o contraste, com z ∈ [a, b] ⊂ [zmin , zmax ] z0 = [(zmin − zmax )/(b − a)](z − a) + zmin (FACON, 1993) Desta forma, os diferentes objetos na imagem apresentarão, caso possuam diferentes níveis de cinza, uma nitidez maior. A Figura 2.7 ilustra este efeito. 2.3.3.2 Método de Vizinhança Estes métodos são aplicados sobre uma determinada região da imagem, para enfatizar determinados aspectos desta. Uma das aplicações destas técnicas de vizinhança, é a eliminação de ruídos através da suavização de imagens. Nos ítens seguintes são descritos alguns métodos de vizinhança (ANTUNES, 1999). 25 Figura 2.7: Modificação de contraste (ANTUNES, 1999). Redução de ruídos pela média de múltiplas imagens: como indica o proprio nome, nesta técnica são somadas n imagens e divididas pelo numero de imagens somadas. Evidentemente estas imagens somadas sao imagens semelhantes retiradas da mesma cena. Dessa forma, ruídos apresentados em algumas imagens sao minimizados. Tomando-se imagens f (x, y) e ruídos n(x, y) tem-se uma imagem com ruído representada por: g(x, y) = f (x, y) + n(x, y) a atenuação do ruido e dada por: g0 (x, y) = 1/N P gi (x, y) (FACON, 1993) O grande problema desta técnica é a aquisição e armazenagem de várias imagens de uma mesma cena. Filtragem: em uma filtragem, como já dito, o valor de nível de cinza de uma imagem depende não só do nível de cinza original, mas dos valores de níveis de cinza de sua vizinhança. O tamanho desta vizinhança não é limitado, mas normalmente os vizinhos mais próximos tem maior influência sobre os mais distantes. Os filtros podem ser divididos em duas grandes classes: • Filtros de passa-baixa tem valores próximos de zero para as altas freqüências, portanto, a imagem apresenta-se “suavizada”. • Filtros de passa-alta tem valores próximos de zero para as baixas freqüências. Este filtro gera um efeito de “agudização” da imagem, ou seja, as transições entre diferentes regiões da imagem tornam-se mais nítidas, em compensação este filtro enfatiza o ruído que possa existir na imagem. Os filtros, de modo geral, são projetados e implementados como ferramentas para realizar realce de imagens. Esta atividade consiste no incremento da qualidade geral da imagem, o que pode ser interessante para fins de visualização, e ainda para ressaltar determinados objetos ou características da imagem. 26 Detecção de bordas: por vezes, sistemas de imageamento ineficazes geram imagens com pouca nitidez, apresentando efeitos de suavização de bordas, que são regiões de alta freqüência. Um método para realce de bordas ou detecção de arestas é utilizar um operador de diferenciação que amplie as altas freqüência. Operador de diferenciação: baseia-se no conceito de que uma imagem é uma seqüência de regiões de tamanhos diversos, onde os níveis de cinza são constantes, e de fronteiras, encontros de várias regiões, marcando uma transição entre estas regiões. Do ponto de vista matemático, as regiões são caracterizadas por derivadas suaves e pouco acentuadas e as fronteiras por derivadas fortes e acentuadas. O princípio de um operador é derivar a imagem para acentuar as bordas nela contidas. 2.4 Segmentação de Imagens O objetivo da segmentação de imagens é obter, a partir de uma imagem digitalizada pré-processada, um conjunto de primitivas ou segmentos significativos, que contém a informação semântica relativa à imagem de origem. Usualmente as primitivas usadas são naturais, em geral contornos e regiões. Os diferentes tratamentos utilizados levam à noção de contornos, regiões ou a uma noção mista. 2.4.1 Segmentação por Região A detecção de regiões em uma imagem pode ser feita com dois objetivos: extrair uma determinada região ou dividir a imagem num conjunto de regiões distintas. Uma região de uma imagem é definida como um conjunto de pontos ligados onde, de qualquer ponto da região pode-se chegar a qualquer outro ponto por um caminho completamente contido nesta região. Estas regiões normalmente apresentam alguma característica homogênea, que comumente é a continuidade do nível de cinza de seus pixels (ANTUNES, 1999). Uma função que exprime esta continuidade é dada por R(x, y), onde R(x, y) é homogênea, se e somente se, a diferença entre os níveis de cinza de dois pontos não for maior que uma constante x. Os diferentes métodos de segmentação são a limiarização e a divisão e fusão. 2.4.1.1 Limiarização O princípio da limiarização consiste em separar as regiões de uma imagem quando esta apresenta duas classes, o fundo e o objeto, e utilizando-se do histograma para isto. Caso tenha-se uma imagem com fundo e objeto bem distintos (níveis de cinza com uma variação bem definida), ter-se-á um histograma com dois picos bem distintos separados por um “vale” de valores relativamente baixos. Neste caso a limiarização se dará da seguinte forma, para um objeto mais claro que o fundo (FACON, 1993): Se I[P(x, y)] > T → P(x, y) ∈ ob jeto Senão → P(x, y) ∈ f undo Este limiar T fica em algum lugar do vale. 27 Este processo é utilizado para dissociar o fundo das entidades presentes (hemáceas, bactérias, nuvens). Este processo é vantajoso pois utiliza muito pouca memória e é um processo matematicamente simples, mas peca por necessitar de imagens com características específicas como bom contraste e boa nitidez. 2.4.1.2 Método de Divisão e Fusão Este método consiste em se agrupar pixels até que se tenha regiões sobre as quais exista uma homogeneidade H. Para isto são executadas sucessivas divisões e fusões sobre a imagem. Este método é normalmente associado a uma estrutura quadtree que permite decompor e agrupar partes de uma imagem. Construir esta estrutura significa dividir uma região em quatro quadrantes, e para cada quadrante realizar a mesma divisão até encontrar o fator H. A Figura 2.8 mostra uma imagem segmentada para uma estrutura quadtree (ANTUNES, 1999). Figura 2.8: Representação de uma imagem segmentada usando quadtree (JAIN, 1969). 2.4.2 Segmentação por textura A segmentação por textura deve permitir a colocação em evidência dos motivos considerando-se as propriedades de regularidade e de repetição. Textura caracteriza-se por apresentar um grupamento aleatório ou não de subconjuntos da imagem, possuir identidades uniformes que possuam aproximadamente as mesmas dimensões em qualquer lugar da imagem e apresentar o motivo local repetido numa região comparativamente larga em relação ao tamanho desse motivo (ANTUNES, 1999). Os três métodos principais para segmentar uma imagem pela textura são: estatísticos, estruturais e espectrais. 2.4.2.1 Método Estatístico O método estatístico baseia-se na distribuição de padrões de níveis de cinza na imagem. Se ao determinar um padrão P de disposição de níveis de cinza na imagem, do tipo: “um pixel a direita e um pixel abaixo”, pode-se definir uma matriz que representa esta distribuição através da imagem. 28 Valendo-se desta matriz de distribuição pode-se definir então a probabilidade que um conjunto de pixels de uma imagem tem de compor uma determinada textura (ANTUNES, 1999). 2.4.2.2 Técnica Estrutural A idéia é construir a partir de uma primitiva de textura simples, texturas mais complexas, usando regras que permitam limitar o número de arranjos das primitivas. Por exemplo: Uma regra pode ser definida como: S → aS . Três aplicações dessa regra fornecem aaaS. Se definir que aS representa “quadrados a direita de”. Esta regra permite gerar uma textura, que caracterizam-se por apresentar uma disposição estrutural característica Figura 2.9. Figura 2.9: Técnica estrutural: tura (SCHARCANSK.J., 1998). 2.4.2.3 definição de estruturas que caracterizam a tex- Técnica Espectral Uma ferramenta muito utilizada é o espectro de Fourier, que permite detectar a direção das texturas em uma imagem. O Espectro de Fourier apresenta três características (FACON, 1993): • Picos proeminentes no espectro fornecem a direção principal das texturas; • A localização destes picos no plano das freqüências determina o período fundamental espacial das texturas; • Eliminando os componentes periódicos por filtragem, ficam os componentes não periódicos que podem ser analisados pelas técnicas estatísticas. 2.4.3 Segmentação por Contorno Contorno é definido como uma mudança brusca de níveis de cinza entre duas regiões relativamente homogêneas. Ele pode aparecer como uma seqüencia de pontos, uma linha, um segmento, uma curva ou uma forte variação do nível de cinza médio. A seguir são descritos métodos de segmentação por contorno. 29 2.4.3.1 Detecção de Pontos A maneira mais resumida de segmentar por contornos uma imagem é segmenta-la a partir de seus pontos relevantes; para isso é necessário, entretanto, eliminar o ruído da imagem a fim de evitar segmentações indesejáveis. Esses pontos relevantes são pontos particulares que devem conter muitas informações. Essa técnica é comumente utilizada para detecção de objetos e movimento (ANTUNES, 1999). Um exemplo de segmentação por detecção de pontos é o que utiliza o operador de Moravec. Este operador utiliza uma janela, normalmente 5 × 5, sobre a imagem, detectando pontos que possuam uma variância significativa em quatro direções: vertical, horizontal e as duas diagonais principais. Caso o ponto avaliado seja um ponto relevante, o nível de cinza do ponto (centro da janela) é substituído pelo valor mínimo da variância; assim eliminam-se as possibilidades de segmentação de pontos ruidosos na imagem. 2.4.3.2 Detecção de Contornos O princípio de detecção de contornos baseia-se em operações de realce e contraste. Estas operações são utilizadas com a finalidade de fornecer contornos finos, mas que não apresentem interrupções; dessa forma torna-se possível identificar, com segurança, os objetos da imagem (ANTUNES, 1999). 2.4.4 Enlace de Bordas e Detecção de Contornos As técnicas de enlace e detecção de contornos permitem detectar descontinuidades nos tons de cinza e fornecer contornos entre as diferentes regiões. Entretanto, existe o problema de raramente o contorno se apresentar de forma contínua e uniforme. Por este motivo alguns conceitos de enlace de bordas são utilizados para juntar bordas (ANTUNES, 1999). 2.4.4.1 Perseguição de Contornos Uma técnica apropriada para enlaçar os pixels de um contorno é a de utilizar uma ferramenta que possa definir, através das características do pixel, os que tenham uma maior possibilidade de pertencer ao contorno e escolher os mais relevantes. Um algoritmo de perseguição de contornos utilizado é o algoritmo de Freeman, que analisa os 8 pontos adjacentes a um ponto já determinado, sendo este ponto pertencente ao contorno. Este processo ainda é otimizado utilizando-se o vetor de Freeman que indica para qual direção o último ponto foi encontrado, eliminado assim a busca em todas as direções (ANTUNES, 1999). 2.4.4.2 Técnicas do Grafo Esta técnica consiste em mapear para um grafo direcionado (estrutura composta de nodos e arcos) os pontos de contorno da imagem, de forma que, estando mapeados os pontos relevantes da imagem, os quais possivelmente fazem parte do contorno não contínuo, seja possível identificar o contorno através do caminho de menor custo. Isto se faz associando uma função de custo para os arcos entre cada par de pontos (ANTUNES, 1999). 30 2.5 Análise de Imagens O grande objetivo das várias aplicações do processamento digital de imagens é a extração de importantes informações das imagens, sendo esta informação adquirida através da interpretação de uma máquina. Por exemplo, um sistema que possa através da observação indicar elementos danificados ou inválidos em uma linha de montagem. A análise de imagens é uma técnica que se utiliza de diversos outros recursos do processamento de imagens. Estes, estão divididos em três grandes classes: recursos de extração, de segmentação e de classificação. Os dois primeiros foram anteriormente apresentados, portanto, optou-se por restringir a definição para os recursos ou técnicas de classificação (JAIN, 1969). 2.5.1 Técnicas de classificação de imagens A maior tarefa, depois da extração de características da imagem, é classificar o objeto extraído em alguma categoria. A classificação de imagens e a segmentação de imagens tem objetivos bem próximos. A classificação pode levar à segmentação e viceversa. Um exemplo disto é a classificação de imagens de satélite; a classificação dos pixels de uma imagem pode definir regiões de água, relevo, plantações de diversas culturas e estas classificações levarem a segmentação da imagem (ANTUNES, 1999). Existem duas abordagens de classificação de imagens que são: supervisionada e não supervisionada. Aprendizado supervisionado: também denominado classificação supervisionada, pode apresentar dois métodos: o de distribuição livre e o estatístico. A distribuição livre não necessita de nenhum tipo de conhecimento, visto que, em princípio, funções de probabilidade são suficientes para a aplicação deste método. As estatísticas baseiam-se em modelos de distribuição de probabilidades que podem ou não ser parametrizadas. A classificação por distribuição livre pode ser entendida supondo-se que existam k diferentes objetos, ou classes de padrões definidas por S 1 , S 2 , . . . , S k , cada classe caracterizada por apresentar Mk protótipos em uma imagem. Uma função fundamental de reconhecimento de padrões, chamada função discriminante, irá dividir o espaço em k diferentes regiões, cada uma delas apresentando padrões similares. Já a classificação estatística caracteriza-se por apresentar, para cada classe de padrões, uma função densidade de probabilidade, que, associada a cada grupo, define a probabilidade existente de uma determinada classe e seus respectivos objetos estarem presentes na imagem e com que densidade. Aprendizado não supervisionado: nesta técnica, o objetivo é a identificação de agrupamentos (denominados clusters) na imagem. Um agrupamento é um grupo de pontos na imagem que possui uma densidade local elevada comparada com a densidade de outras áreas da imagem. 31 Esta técnica é utilizada para segmentação ou para compressão pois pode identificar padrões em imagens, permitindo assim definir grupos não relevantes para codificação. 2.5.2 Interpretação de imagens Interpretação de imagens refere-se a atividade de transformar figuras em descrições ou símbolos comumente entendidos. Técnicas de reconhecimento de padrões são amplamente utilizadas nesta atividade, realizando a classificação da imagem para um dos tipos de figura já conhecidos, o que requer também um aprendizado anterior. Para permitir interpretação, são utilizados diferentes modelos visuais e regras práticas são adotadas. Por exemplo, regras sintáticas geram gramáticas de símbolos. Outra regras descrevem as ligações entre os símbolos, e assim o conhecimento gerado pelo sistema permite a interpretação da imagem e geração de símbolos para esta (ANTUNES, 1999). 32 3 PROCESSAMENTO DE IMAGENS MÉDICAS Neste capítulo apresenta-se o processamento da imagem com o foco especificamente na área médica, se valendo dos conceitos visto no capítulo 2. 3.1 Considerações Iniciais Nesta seção abordaremos algumas propriedades das imagens médicas digitais. 3.1.1 Propriedade da imagem médica Cada modalidade de imagem médica responde a um ou mais aspectos presentes nos materiais que compõem os seres da natureza. Assim, cada uma delas tem peculiaridades que fazem com que sejam mais ou menos adequadas para o diagnóstico de determinadas doenças. A finalidade das imagens médicas é auxiliar na composição do diagnóstico de anomalias e fornecer material para acompanhamento de terapias. Os diferentes objetivos e os diferentes problemas apresentados pelas modalidades requerem tratamentos diferentes, que podem ser obtidos a partir da aplicação de técnicas de processamentos de imagens. No tratamento de imagens médicas, é necessário, antes de qualquer decisão, definir-se o objetivo a ser alcançado. Somente após esta definição é possível traçar estratégias a partir da utilização de uma técnica de processamento, da combinação de várias delas ou, ainda, da criação de novas técnicas. Matematicamente, uma imagem pode ser descrita como uma função da intensidade do sinal retornado em um sensor. A aproximação mais clássica é a definição como uma função da “intensidade luminosa” refletida do objeto. A maioria das imagens considera o espaço bidimensional, sendo definida como f (x, y), onde x e y são as coordenadas espaciais e o valor de f na coordenada espacial (x, y) fornece a intensidade, ou seja, o brilho da imagem no ponto. A imagem depende da “quantidade de luz” incidente na cena e da “quantidade de luz” refletida pelos objetos da cena. Dessa forma, afirma-se que: f (x, y) = i(x, y) ∗ r(x, y) onde: • i(x, y) depende da fonte de luz, (0 ≤ i(x, y) ≤ ∞); • r(x, y) depende do tipo de material que compõe o objeto, (0 ≤ r(x, y) ≤ 1). 33 Verifica-se que r(x, y) assume o valor zero para absorção total e o valor 1 (um) para reflexão total. Um caso especial de imagem é constituído pelas imagens digitais, onde a representação consiste em um vetor de valores discretos. Geralmente este vetor é unidimensional e o domínio e a imagem de f (x, y) são também discretos. O domínio é finito, geralmente uma matriz retangular, e o conjunto imagem é formado por valores no intervalo [0, M]. Para aplicações práticas, a imagem é uma função contínua, representada por medidas obtidas em intervalos regularmente espaçados. Os valores assumidos em cada ponto medido são quantificados em um número pertencente a uma escala de diferentes cores. Em imagens médicas, geralmente essas cores são relacionadas a níveis de cinza, sendo atribuído o valor zero à cor mais escura (preto) e o valor máximo M à cor mais clara da escala (branco). Dessa forma, pode-se representar uma imagem como uma matriz onde cada ponto é um valor discreto, conforme mostra a (equação 3.1), onde n e m correspondem à quantidade de colunas e linhas, respectivamente. f (0, 1) ... f (0, n − 1) f (0, 0) f (1, 0) f (1, 1) ... f (1, n − 1) f (x, y) = (3.1) .. . f (m − 1, 0) f (m − 1, 1) ... f (m − 1, n − 1) O objetivo de definir matematicamente a imagem é a possibilidade de manipular o seu conteúdo a fim de transformá-la ou retirar dela informações importantes. Ao vasto conjunto de operações que podemos aplicar em uma matriz que representa uma imagem denomina-se processamento de imagem. Cada ponto ou elemento constituinte da matriz-imagem é chamado de “pixel” que é uma abreviação do termo em inglês picture element. A medida de um pixel depende da resolução espacial com a qual a imagem foi adquirida. O pixel é, então, a menor unidade sobre a qual podemos realizar operações. Para essas operações são definidas algumas relações básicas, apresentadas a seguir: 3.1.1.1 Vizinhança (GONZALEZ; WOODS, 2000) definem a vizinhança de um pixel da forma a seguir. Seja p, um pixel nas coordenadas (x, y): 1. A vizinhança de 4 do pixel p – ou N4(p) – é composta por seus vizinhos de coordenadas (x + 1, y), (x − 1, y), (x, y + 1) e (x, y − 1). 2. A vizinhança diagonal do pixel p – ou ND(p) – é composta por seus vizinhos de coordenadas: (x + 1, y + 1), (x + 1, y − 1), (x − 1, y + 1) e (x − 1, y − 1). 3. A vizinhança de 8 – ou N8(p) – é composta pelo conjunto de todos os pixels vizinhos, ou seja, N4(p) ∪ ND(p). Na Figura 3.1 são apresentados exemplos dos conceitos de vizinhança citados. 3.1.1.2 Adjacência A adjacência e característica de um par de pixels vizinhos que compartilham uma borda ou um vértice, sendo que: 34 Figura 3.1: Ilustração do conceito de vizinhança considerando o ponto central como o pixel de interesse, os pixels da vizinhança são representados pelos espaços em cinza: (a) vizinhança-de-4; (b) vizinhança diagonal; (c) vizinhanca.de-8 1. um par de pixels compartilha uma borda e dito “adjacente por borda” ou “4adjacente”; 2. um par de pixels de uma imagem que compartilha um vértice e dito “adjacente por vértice” ou “8-adjacente”. Na Figura 3.1(a), por exemplo, observa-se que os pixels de cor cinza são 4adjacentes e também 8-adjacentes do pixel de cor preta, pois compartilham uma borda e um vértice com este pixel. Na mesma figura, os pixels brancos sao somente 8-adjacentes do pixel preto, pois compartilham somente um vértice com o mesmo. 3.1.1.3 Conectividade A conectividade é um importante conceito usado para estabelecer bordas de objetos e componentes de regiões em uma imagem. Dois pixels são conectados se: a) são adjacentes e; b) obedecem a um critério de similaridade dentro de uma escala de cor, isto é, seus valores estão dentro de um conjunto pré-estabelecido de valores de cinza. Seja V = {G1 , G2 , . . . , Gk } o conjunto de k valores de níveis de cinza usado para definir a conectividade. São definidos três tipos de conectividade: • Conectividade-4: dois pixels p e q com valores em V e q ⊃ N4(p); • Conectividade-8: dois pixels p e q com valores em V e q ⊃ N8(p); • Conectividade-m: dois pixels p e q com valores em V e: 1. q ⊃ N4(p) ou 2. q ⊃ ND(p) e N4(p) ∩ N4(q) = 3.1.1.4 Distância entre pixels A distancia entre pixels é um valor mensurável, constituindo uma importante definição para grande parte dos algoritmos que manipulam a imagem. • d(x, y) = 0, se x = y; 35 • d(x, y) = d(y, x); • d(x, y) + d(y, z) ≥ d(x, z). Há diversas fórmulas empregadas para a definição de distância e freqüentemente são definidas e adaptadas fórmulas para aplicações especificas. Algumas das métricas mais conhecidas, aplicadas para dois pixels p = (x p , y p ) e q = (xq , yq ) são: • Distância Euclidiana: d(p, q) = q (x p − xq )2 + (y p − yq )2 • Distância City Block (ou de Manhattan): d(p, q) =| x p − xq | + | y p − yq | • Distância Chessboard: d(p, q) = max{| x p − xq |, | y p − yq |} Introduzidos os conceitos anteriores, podemos aplicá-los ao processamento de imagens. As técnicas de processamento de imagens são, em geral, divididas em três níveis, cada qual com suas funções específicas: processamento de baixo nível: responsável pela remoção de dados indesejáveis e realce de dados importantes; processamento de nível médio: responsável pela identificação de formas significativas. A esse processo dá-se o nome de “segmentação”; processamento de alto nível: responsável pela ligação da imagem com algum banco de conhecimento. Os ítens a seguir apresentam técnicas aplicadas aos dois primeiros níveis citados. Não são apresentadas técnicas relacionadas ao alto nível pelo motivo de que estas envolvem conceitos que extrapolam o domínio do processamento de imagens, englobando tarefas de inteligência artificial e estatística, entre outras áreas. 3.1.2 Resolução da Imagem Todas as imagens podem ser caracterizadas por diversos parâmetros de qualidade. Os mais úteis desses parâmetros são a resolução espacial, a resolução de contraste e a resolução temporal (PATHOL, 1992). Esses parâmetros foram largamente usados para caracterizar imagens de Raio X tradicionais; eles também provêem os meios para comparação de imagens formadas por modalidades (equipamentos de tomografia ou Ressonância Magnética, entre outros) de aquisição de imagens digitais. A resolução espacial está relacionada à distância entre as imagens 2D adquiridas pelas modalidades que empilhadas formam um volume 3D; ou seja, a separação física entre as imagens adjacentes de uma seqüência. 36 Para a imagem digital, a resolução espacial é determinada pelo número de pixel por área de imagem. A resolução de contraste é a medida da capacidade para distinguir pequenas diferenças de intensidade, como mudanças nos parâmetros mensuráveis, tais como atenuação de raios X para imagens digitais, o número de bits por pixel determina a resolução de contraste da imagem. Finalmente, a resolução temporal é a medida de tempo necessária para formar imagens funcionais (produzir o comportamento dos batimentos cardíacos de um paciente), a taxa mínima para este tipo é de 30 frames (imagens) por segundo. Uma resolução inadequada resulta na impossibilidade de distinguir estruturas; duas estruturas podem parecer uma só (baixa resolução espacial) ou uma lesão pode não apresentar limites precisos (baixa resolução de contraste). Outros parâmetros que são especificamente relevantes para a produção de imagens médicas são os que quantificam o risco do paciente, os graus de invasibilidade, a dosagem de radiações ionizantes, o grau de desconforto do paciente, o tamanho (portabilidade) do instrumento, a capacidade de descrever as funções fisiológicas bem como as estruturas anatômicas, e o custo do procedimento. Uma modalidade de produção de imagens perfeita deverá produzir imagens com altas resoluções espacial de contraste e temporal; deverá ser de baixo custo, portátil, livre de risco, indolor, e não invasiva; não deverá usar radiações ionizantes; e deverá ter capacidade de descrever as funções fisiológicas, bem como as estruturas anatômicas. A primeira razão para a proliferação de modalidades de produção de imagens é que nenhuma única modalidade satisfaz todos estes requisitos – cada uma é poderosa para uma ou mais dessas dimensões e fraca para outras. A seleção da modalidade mais apropriada para um diagnóstico em particular requer a renuncia entre essas várias dimensões. A resolução espacial é o problema mais freqüentemente questionado da imagem digital. A fim de igualar a resolução espacial típica do filme, uma imagem de 14 × 17 polegadas poderá ter aproximadamente 2000 × 2500 pixel, e para capturar todas as informações de níveis de cinza, cada pixel deve carregar 10 bits (1024 tons de cinza). Por este método o tamanho da imagem chegaria a 6,5Mb. Para dobrar-se a qualidade da resolução espacial é necessário quadruplicar o número de pixel. Já a resolução de contraste varia linearmente com o número de bits requeridos. Na geração de imagens digitais, cores podem ser usadas para representar os tons de cinza das imagens, o que se denomina “cor falsa”. Em vez de atribuir um valor de cinza diferente para cada valor binário no pixel, é usada a alteração da saturação da cor primária. Contudo, três cores primárias são necessárias para produzir todas as outras cores. Deste modo, em imagens coloridas, cada pixel tem três componentes, uma para cada cor primária usada. Esses métodos para imagens coloridas requerem 3 vezes mais espaço para armazenagem que os tons de cinza. 3.1.3 Textura da Imagem Textura, segundo (SANTOS, 2003), refere-se à informação auxiliar que é obtida por meio de análises estatísticas do padrão de tons de cinza na imagem, e, portanto, diferentes texturas nos auxiliam a reconhecer aspectos distintos dos tecidos. Na avaliação textural pela ressonância magnética (RM) a designação genérica para uma série de técnicas de pós-processamento das imagens usadas na quantificação da varia- 37 ção espacial dos tons de cinza nas imagens, sendo que essas técnicas foram originalmente desenvolvidas para segmentação por computador de imagens de satélite para fornecer informação sobre a variação espacial dos tons de cinza nas imagens digitais. De acordo com (SANTOS, 2003): Os algoritmos utilizados para avaliação textural são divididos em dois grandes grupos: estatísticos e estruturais. No primeiro destes, a caracterização tecidual é feita por intermédio de parâmetros estatísticos considerando as propriedades locais das inter-relações entre os “pixels”. Os métodos estruturais procuram determinar os constituintes elementares de textura e suas regras de distribuição. Para a descrição quantitativa dos aspectos da textura, como brilho, micro e macrotextura das imagens de RM, são utilizados parâmetros texturais de primeira e segunda ordens. Os parâmetros de textura de primeira ordem caracterizam a distribuição dos tons de cinza baseados na sua freqüência de ocorrência sem considerar suas interdependências espaciais, por intermédio de histogramas de tons de cinza. Os parâmetros de segunda ordem estudam a interdependência espacial entre os tons de cinza, representando a uniformidade espacial e a macrotextura. A avaliação da textura, visualmente, é particularmente subjetiva, devendo-se considerar, ainda, a limitada sensibilidade que os observadores humanos possuem para propriedades texturais. Técnicas analíticas texturais matemáticas são significativamente mais sensíveis às modificações texturais, além de serem métodos quantitativos, por conseguinte, objetivos. Há problemas diagnósticos em que a acurácia baseada somente na inspeção visual não é aceitável, levando a uma busca por uma maior especificidade na caracterização patológica dos tecidos nas imagens diagnósticas, com o intuito de se oferecer aos pacientes tratamentos mais efetivos e menos danosos, na medida do possível. 3.2 Protocolo DICOM O gerenciamento de informação em um hospital envolve a transmissão de imagens em redes. A integração de estações de visualização distribuídas, bases de dados on-line, sistemas de gerenciamento de imagens e redes locais de larga escala permitem que os dados ou imagens sejam compartilhados entre profissionais da saúde e que seja feita à visualização local ou remota. Além disso, os dados podem ser vistos em múltiplos locais simultaneamente. Entretanto, atualmente existem diversas superposições de funções entre o HIS (Hospital Information System), o RIS (Radiology Information System) e o PACS (Picture Archiving and Communication System) (GILLESPIE; ROWBERG, 1994). Portanto, é necessária uma padronização de protocolos para garantir a comunicação entre os diversos equipamentos e softwares envolvidos no processo. Assim, permitese a integração dos dados à estrutura do hospital e que estes possam ser armazenados, visualizados e processados por programas ou métodos de forma única. Para esse fim, o National Equipament Manufacturers Association (NEMA) e o American College of Radiology (ACR) cooperaram para criar um formato padrão, chamado ACR-NEMA, que foi o primeiro passo para conseguir a adesão dos fabricantes de equipamentos de imagem digital. Posteriormente, este evoluiu para o padrão DICOM que se tornou amplamente aceito na área. O objetivo do padrão DICOM é facilitar a interoperabilidade dos dispositivos, 38 em diversos aspectos, conforme apresentado a seguir (STANDARDS; PUBLICATIONS, 2006): • Semântica dos comandos e de dados associados. Para que os dispositivos interajam, devem ser definidos padrões para os dispositivos reagirem aos comandos e aos dados associados, não apenas à informação que deve ser transferida entre dispositivos; • Semântica dos serviços de arquivos, formatos de arquivos e informações necessárias para comunicação off-line; • Definição do protocolo de comunicação para executar o padrão. Em particular, uma informação enviada pode acionar a execução, no dispositivo remoto, de funções de recebimento que geram o reenvio de informações para o dispositivo solicitante; • Facilidade de operações em rede; • Estrutura permite a introdução de novos serviços (tags proprietárias), permitindo a evolução dos equipamentos e das aplicações médicas futuras; • O padrão DICOM facilita a implementação de soluções de PACS, mas o uso do padrão sozinho não garante que todos os objetivos de um PACS serão atingidos. Esta apenas garante a aplicação dos padrões internacionais existentes. Este padrão permite que sistemas heterogêneos sejam construídos, desde que cada equipamento “fale” o padrão DICOM. Sendo desenvolvido com ênfase na imagem utilizada para diagnóstico de radiologia, cardiologia; mas também pode ser aplicado em diversos ambientes relacionados. A Figura 3.2 apresenta o modelo geral de comunicação do padrão (STANDARDS; PUBLICATIONS, 2006) que implementa, tanto à parte de rede (on-line), quanto à parte de armazenamento (off-line). Portanto, as implementações do DICOM podem trabalhar com independência em relação às camadas superior (DICOM UPPER) que fornece a comunicação com a utilização do protocolo TCP/IP) e básica (DICOM Basic File Service) que fornece o acesso aos meios de armazenamento de maneira transparente aos formatos de físicos de armazenamento. A definição das informações dos objetos (Information Object Definitions) especifica um número de classes de informação do objeto que fornecem uma definição abstrata das entidades real-world (mundo real) aplicáveis a uma comunicação das imagens médicas digitais e da informação relacionada (por exemplo, relatórios estruturados, dose da terapia de radiação, etc.). Cada definição da classe do objeto da informação consiste em uma descrição de sua finalidade e dos atributos que a definem. Uma classe de informação do objeto não inclui os valores para os atributos que compreendem sua definição. Dois tipos de classes de informação do objeto são definidos: normalizado e composto. As classes normalizadas de informação do objeto incluem somente aqueles atributos inerentes na entidade realworld representada. Por exemplo, a classe de informação do objeto do estudo, que é definida como normalizada, contém a data do estudo e a hora do estudo, isto por que são inerentes a um estudo real. O nome paciente, entretanto, não é um atributo da classe de informação 39 Figura 3.2: Modelo de comunicação geral do padrão DICOM (STANDARDS; PUBLICATIONS, 2006) do objeto estudo porque é inerente ao paciente em que o estudo foi executado e não ao próprio estudo (STANDARDS; PUBLICATIONS, 2006). O serviço de especificação de classes (Service Class Specifications) define um número de classes de serviço. Uma classe de serviço associa uma ou mais informações do objeto com um ou mais comandos a serem executados (aplicados) nos respectivos objetos. As especificações da classe de serviço indicam exigências para elementos de comando e como os comandos resultantes são aplicados às informações dos objetos. O padrão de DICOM define também as características compartilhadas por todas as classes de serviço (STANDARDS; PUBLICATIONS, 2006). São exemplos de classes de serviço: • Storage (armazenamento); • Query / Retrieve (localização / busca); • Worklist (lista de pacientes de trabalho); • Backup (cópia). Para a especificação de classes ainda são definidas as operações e as notificações executadas em cima das informações dos objetos, comandos e protocolos. A estrutura e semântica dos dados (Data Structure and Semantics) especifica como as aplicações DICOM constroem e codificam a informação da série de dados referentes às informações 40 dos objetos e presta serviços de manutenção às classes (STANDARDS; PUBLICATIONS, 2006). A seguir são apresentados exemplos: • o suporte a um número de técnicas padrão para compressão da imagem (por exemplo são especificados os formatos, JPEG lossless e lossy); • construir um conjunto de regras para saber como uma mensagem foi especificada. Este conjunto é produzido da coleção dos elementos de dados que correspondem à série de dados e também definem a semântica de um número de funções genéricas que são comuns a muitos objetos da informação; • a definição das regras para o conjunto de dados referentes aos caracteres (internacionalização) usados dentro do DICOM. O dicionário de dados (Data Dictionary) define o conjunto de todos os elementos dos dados DICOM disponíveis para representar a informação, ou seja, junto com os elementos utilizados para os meios permutáveis que codificam as informações e uma lista das representações identificadas que são atribuídos pelo DICOM. Para cada elemento, é especificado: Tag, que consiste em um grupo e um número para o elemento – exemplos, nome (nome do paciente), tipo (caractere, inteiro, etc.), multiplicidade (quantos valores por atributo) (STANDARDS; PUBLICATIONS, 2006). A troca de mensagens (Message Exchange) especifica o serviço e o protocolo usados por uma aplicação em um ambiente médico para trocar mensagens sobre os serviços de comunicação definidos e suportados pelo DICOM. Uma mensagem é composta por uma linha de definição seguida por uma outra linha de dados opcional (STANDARDS; PUBLICATIONS, 2006). Assim, pode-se definir que: • as operações e as notificações estarão disponíveis para prestar serviços de manutenção às classes definidas; • as regras para estabelecer e terminar associações fornecerão suporte a comunicação; • será possível controlar as transações de solicitação e resposta, • o controle das regras necessárias para transferir as mensagens (streams) será realizado. O suporte a comunicação em rede para troca de mensagens (Network Communication Support for Message Exchange) descreve os serviços de comunicação e os protocolos das camadas superiores necessários para suportar, em um ambiente de rede distribuído, a comunicação entre aplicações DICOM. Estes serviços e protocolos de comunicação asseguram-se de que uma comunicação entre aplicações DICOM seja executada de forma eficiente e coordenada através da rede. Os serviços de comunicação especificados são um subconjunto apropriado dos serviços fornecidos pela especificação OSI (ISO 8822) e do serviço de controle de associação da OSI (ACSE) (ISO 8649). Os serviços da camada superior permitem que as aplicações estabeleçam conexões, transfiram mensagens e terminem conexões. O protocolo da camada superior do DICOM é, portanto, utilizado conjuntamente com protocolos do transporte do 41 TCP/IP (STANDARDS; PUBLICATIONS, 2006) que é o principal protocolo de comunicação utilizado em redes locais e na internet. As mídias para armazenamento e formatos de arquivos (Media Storage and File Format) especificam o armazenamento de imagens médicas em meios removíveis. A finalidade desta parte é fornecer uma estrutura que permita a compatibilidade das imagens e das respectivas informações associadas com uma grande variedade de formatos de arquivos e meios de armazenamento físicos (STANDARDS; PUBLICATIONS, 2006). 3.3 Modalidades de Imagens Médicas Desde que Röentgen, em 1895, descobriu a existência de uma radiação até então desconhecida, capaz de atravessar materiais, ser parcial ou totalmente absorvida por eles e fixar-se em anteparos, a dinâmica dos exames médicos sofreu drásticas mudanças. Com a descoberta dos Raios-X, há pouco mais de 100 anos, tornou-se possível a visualização de estruturas internas do corpo e diagnosticar anomalias. Desde então, o avanço na aquisição, processamento e armazenamento de imagens médicas vem permitindo o aperfeiçoamento de diagnósticos e tratamentos de doenças de naturezas diversas. Cada modalidade de imagem médica atua de forma diferenciada. Sua aquisição visa a ressaltar as diferenças entre os diversos tipos de tecidos existentes na natureza e, especialmente, aqueles que compõem o corpo humano, fazendo com que estruturas de interesse se sobressaiam e, assim, possam ser identificadas como eventuais anomalias. Em (MAINTZ; VIERGEVER, 1998) lembram que as modalidades médicas podem ser classificadas em duas categorias globais: anatômicas e funcionais. As modalidades anatômicas são dedicadas a identificar morfologias, incluindo Raio-X, Tomografia Computadorizada (TC), Ressonância Magnética Nuclear (RMN), Ultra-som (US), entre outras. Há outras modalidades derivadas dessas primeiras, sendo citadas por nomenclaturas diferentes como Angiografia por Ressonância Magnética (derivada da RMN), Angiografia por Tomografia Computadorizada (derivada da TC), Angiografia por Subtração Digital (derivada de Raio-X) e Doppler (derivada de US). As modalidades funcionais são aquelas que têm o objetivo de adquirir informação a respeito do metabolismo relacionado a uma anatomia, incluindo cintilografia, SPECT (single photon emission computed tomography), PET (positron emission tomography), modalidades de medicina nuclear, RMN funcional, entre outras1 . As considerações e imagens apresentadas neste capítulo dedicam-se apenas a modalidades anatômicas. As seções a seguir apresentam as principais características da formação de imagens médicas considerando quatro modalidades: Radiografia, Ultrasonografia, Ressonância Magnética Nuclear e Tomografia Computadorizada. É apresentada uma visão geral da formação da imagem em cada uma delas e problemas inerentes à modalidade, aos quais as técnicas de processamento de imagens podem oferecer contribuições. Maior ênfase será atribuída à Radiografia, visto que os exemplos utilizados no capítulo são, na sua maioria, provenientes desta modalidade de imagem e que vários dos problemas relacionados a esta primeira modalidade apresentada são aplicáveis a outras modalidades e podem ser minimizados com o emprego de técnicas de processamento de imagens. Não se pretende esgotar o assunto, mas fornecer uma base teórica a fim de que 42 possam ser compreendidos os conceitos e exemplos das próximas seções. 3.3.1 Radiografia Na Radiografia a imagem se forma em conseqüência, entre outras coisas, da interação dos fótons de Raios-X com a matéria. Esses fótons atravessam o objeto, sofrendo atenuações, causadas pela sua absorção total ou parcial. O nível de absorção depende dos elementos constituintes desse objeto. Dentro do corpo humano, por exemplo, ossos, músculos e gordura absorvem os fótons com diferentes níveis de absorção, levando a diferentes atenuações e, conseqüentemente, diferentes intensidades de radiação que chegam ao anteparo no qual a imagem será formada. Isso resulta em diferentes tons de cinza. É essa diferença que possibilita a formação do contraste, permitindo a identificação de estruturas anatômicas. A seguir são apresentados alguns problemas inerentes à Radiografia que influenciam na formação da imagem. Os Raios-X constituem radiação ionizante e o excesso deste tipo de radiação traz prejuízos ao organismo humano. Por isso, é imprescindível um controle a fim de que a dose de radiação recebida pelo paciente não seja mais prejudicial do que o benefício a que ela se propõe. Alguns fatores contribuem para o aumento da dose absorvida, como o aumento da tensão e o aumento da corrente para a produção de fótons e, ainda, o prolongamento do tempo de exposição. Geralmente estas práticas são aplicadas quando é desejada uma imagem com intensidade mais acentuada (CURRY III; DOWDEY; MURRY JR., 1990). Com relação a esta característica, as técnicas de processamento de imagens podem contribuir no sentido de realçar a imagem de acordo com a intensidade desejada, dispensando os costumeiros aumentos de tempo de exposição, tensão e/ou corrente de tubo (ISHIDA M.AND FRANK; DOI; LEHR, 1983). O efeito Heel é outro problema a ser enfrentado pelo processamento de imagens, conforme destacado por (CURRY III; DOWDEY; MURRY JR., 1990) e (WILKS, 1987): a intensidade da radiação do tubo não é uniforme em todas as regiões do campo, sendo dependente do ângulo em que os fótons são emitidos do ponto focal. Conseqüentemente, o nível de intensidade no filme poderá variar para estruturas que têm o mesmo índice de absorção. Isso causa uma preocupação constante com os métodos a serem empregados nos sistemas de CAD: não é possível fixar valores de cores (em geral, níveis de cinza) que representem as estruturas de interesse após a digitalização. São aplicadas, então, técnicas adaptativas à região. A radiação espalhada, causada por fótons desviados de suas trajetórias ideais, é um outro ponto que pode constituir um problema no processamento de imagens. Por apresentar uma característica randômica, não é possível prever o seu efeito. Por isso, uma das possibilidades é que cause ruídos e redução do contraste na imagem, de acordo com (CURRY III; DOWDEY; MURRY JR., 1990) e (WILKS, 1987). Um dos tipos de espalhamento mais citados na literatura é o efeito Compton, onde parte da energia do fóton é absorvida pela matéria e outra parte permanece no próprio fóton. Ocorrendo o desvio deste fóton em uma direção inesperada, seu efeito pode ser desde ruídos e diminuição do contraste da imagem (JACKSON et al., 1993) até aumento da dose no paciente. O efeito da radiação espalhada pode ser diminuído com a utilização de grades (SCAFF, 1979), que consistem em peças compostas por uma série de faixas de 43 chumbo separadas por espaços. Acopladas ao sistema, o seu funcionamento ideal deveria permitir a absorção da radiação espalhada sem absorver a radiação primária e, então, proporcionar o máximo contraste no filme sem aumentar a exposição do paciente. No processamento de imagens, a forma de superar o efeito da radiação espalhada é estabelecer procedimentos que removam ruídos e aumentem o contraste da imagem, como a limiarização e filtros que suprimam os sinais de alta freqüência. No entanto, estes procedimentos devem ser cuidadosos, visto que alguns componentes de alta freqüência podem constituir estruturas de interesse em um diagnóstico. A distorção na imagem radiográfica pode ser resultante da magnificação desigual de diferentes partes do mesmo objeto, conforme é afirmado por (CURRY III; DOWDEY; MURRY JR., 1990). Muitas vezes a magnificação é desigual devido ao posicionamento do objeto. A distorção da imagem pode ser diferente para diferentes partes do feixe de Raios-X. Assim, dois ou mais objetos podem sofrer distorções diferentes se estiverem posicionados em locais com distâncias diferentes do filme. A penumbra também constitui uma forma de distorção. Consiste em uma região de borramento que contorna a imagem real do objeto no filme. Na mamografia, por exemplo, geralmente a mama está em contato com o local de registro da imagem, o que, teoricamente, deveria eliminar a possibilidade de penumbra. No entanto, a estrutura de interesse, estando espalhada pela mama, nem sempre está em contato com o filme, causando, dessa forma, uma penumbra (SCHIABEL; VENTURA; FRèRE, 1994). Distorções causam complicações em um sistema para detecção de estruturas pequenas e cujo formato é importante. Muitas vezes, formato e tamanho são características empregadas para o reconhecimento e classificação de estruturas de interesse. A sobreposição de objetos é outro aspecto que exerce grande influência no reconhecimento de padrões, considerando que a imagem radiográfica é a representação bidimensional de um objeto tridimensional. Dependendo do posicionamento das estruturas internas do órgão cuja imagem está sendo adquirida, a imagem resultante pode apresentar sobreposição destes elementos, transformando dois ou mais objetos em um bloco único. Uma possível solução para esta questão e o processamento da imagem a partir de projeções diferentes do mesmo objeto, de forma que a localização de possíveis estruturas e o relacionamento entre suas localizações forneçam aos medicos mais subsídios para o diagnostico correto. Outra maneira de solucionar a questão seria o processamento e a reconstrução de imagens tridimensionais. O contraste e a resolução espacial também sao características das imagens que podem prejudicar o diagnostico. Na imagem radiografia o contraste refere-se a diferença de densidades entre areas, conforme afirmam (DHAWAN; ROYER, 1988) e (CURRY III; DOWDEY; MURRY JR., 1990). Se o objeto cuja imagem esta sendo registrada é formado por diferentes elementos e cada um desses elementos apresenta diferentes níveis de absorção dos fótons de RaiosX, então, o padrão a ser registrado no filme apresentara diferentes intensidades. Quanto maior for a diferença entre as intensidades, maior sera o contraste percebido e, provavelmente, maior facilidade oferecera para interpretação medica. Além disso, para que seja utilizado um esquema computadorizado para reconhecimento de estruturas, os filmes radiográficos precisam ser digitalizados ou, então, a imagem precisa ser adquirida digitalmente. 44 Os equipamentos utilizados para esse processo variam muito em termos de escala de cores (ou níveis de cinza) oferecidas e resolução espacial. As cores (ou níveis de cinza) estão diretamente relacionadas com o contraste. Geralmente uma faixa de densidades ópticas do filme e representada por um único valor na escala de cores durante a digitalização, como mostrado por (CHAN et al., 1987). A resolução espacial, por sua vez, refere-se a quantidade de pontos por unidade de medida que permite a maior ou menor percepção de detalhes na imagem. Em uma imagem digitalizada, refere-se a quantidade de pontos em um centímetro ou milímetro quadrado que, ao final, estabelecera o tamanho da menor unidade da imagem digitalizada: o pixel. Esses dois últimos aspectos abordados devem ser bem analisados e definidos para se ter um esquema CAD eficiente. As cores ou níveis de cinza serão processados a fim de informarem o tamanho e localização da estrutura reconhecida. Da mesma forma, no processamento, o tamanho do pixel e muito importante, principalmente na identificação de estruturas pequenas, como é o caso de microcalcificações em mamogramas. Se a digitalização não fornecer um tamanho suficientemente pequeno de pixel, algumas microcalcificações pequenas podem ser desprezadas e ate mesmo desaparecer durante o pre.processamento, conforme afirmam (CHAN et al., 1987). Apesar dos problemas citados nesta seção estarem relacionados com as imagens radiológicas, vários deles estão presentes em imagens advindas de outras modalidades, principalmente aqueles inerentes a imagem propriamente dita, como distorção e resolução de contraste. Esses aspectos sao aqueles que podem ser mais beneficiados pelas técnicas de processamento de imagens. 3.3.2 Ultra-sonografia (BRONSON, 2003) e (BEGA et al., 2002) definem a Ultra-sonografia como uma modalidade de exame baseada na reflexão de som. A imagem se forma quando uma onda sonora é refletida ao chocar-se com a região anatômica em análise. Para formar as imagens da estrutura do corpo humano, esta modalidade utiliza uma faixa de ondas sonoras com uma freqüência maior do que a audível para o ser humano. Em aplicações de diagnósticos médicos são utilizadas freqüências de 1 a 10 MHz. É um dos métodos, dentre os exames de diagnóstico por imagem, mais utilizado no rastreamento de doenças, especialmente por não ser invasivo, ter boa sensibilidade e baixo custo, permitindo o exame de órgãos abdominais, pélvicos e estruturas superficiais como mama, tireóide, globo ocular e sistema músculo-esquelético. Por outro lado, pode-se citar como desvantagens o fato de que a qualidade da imagem depende da habilidade do operador, a baixa resolução espacial e a presença constante de ruídos na imagem (NUNES, 2005). O equipamento de ultra-sonografia é portátil e o modelo padrão é formado por monitor, aparelho de impressão, teclado e um emissor/receptor. As imagens são geradas em níveis de cinza e em tempo real, sendo seu tamanho definido por uma matriz que contém geralmente 512x512 pixels. As imagens geradas são armazenadas em memória digital, videocassete, ou diretamente no filme através de uma câmera multiformato. É importante destacar que ruídos de outros equipamentos podem ser captados pelo aparelho de ultra-som gerando faixas lineares ou pontos na imagem, criando certas deformações e irregularidades capazes de dificultar a análise do exame (NUNES, 2005). 45 3.3.3 Ressonância Magnética Nuclear (DAINTY; SHAW, 1976) definem que a Ressonância Magnética Nuclear é baseada nas propriedades magnéticas dos núcleos atômicos, sendo capaz de oferecer detalhes anatômicos e informações estruturais e fisiológicas de forma superior à fornecida por outras modalidades. É capaz de gerar imagens que diferenciem claramente os vários tipos de tecidos moles, mesmo que esses tenham a mesma densidade de massa. O fenômeno de ressonância, de acordo com (LUITEN, 1981), manifesta-se nos mais diversos tipos de sistemas da natureza, ocorrendo sempre que acontece um estímulo cuja freqüência seja próxima à freqüência do sistema. No núcleo das células, esta ressonância tem natureza magnética, derivando do fato de certos núcleos terem um momento angular intrínseco chamado spin e um momento magnético associado a ele. (ARCURI; MCGUIRE, 2001) citam que esta técnica baseia-se no princípio de que os núcleos dos átomos, que em estado normal giram com spins em orientações randômicas, se orientam quando colocados num campo magnético. Por isso, a aplicação de um pulso de rádio-freqüência a esses núcleos orientados faz com que estes absorvam e emitam uma quantidade de energia cuja freqüência precisa de ressonância e depende das próprias características do núcleo e do campo magnético. Quando o cérebro, por exemplo, é submetido a um campo magnético ao qual uma freqüência de rádio é superimposta, seus tecidos emitem freqüências diferentes por terem constituições físico-químicas distintas. Isso torna possível diferenciar os sinais emitidos pelas substâncias cinzenta ou branca, gerando uma imagem de grande precisão espacial. Na formação da imagem na RMN, uma das principais propriedades mapeadas é a densidade local dos núcleos atômicos, sendo o hidrogênio o elemento mais utilizado, devido às características intrínsecas deste elemento e também pelo motivo de que o corpo humano possui grande quantidade deste elemento na sua composição. Para gerar as imagens, uma amostra de núcleos é perturbada por uma seqüência de pulsos de radiofreqüência, emitindo um sinal de RMN para cada um dos núcleos excitados. O registro dos sinais retornados permite a formação da imagem com grande diferenciação entre os tecidos. Durante a execução do exame, o paciente se posiciona em uma espécie de túnel no qual estão localizadas as bobinas magnéticas que geram a freqüência necessária ao procedimento. Conforme lembram (ARCURI; MCGUIRE, 2001), a claustrofobia e o barulho do equipamento são desvantagens da técnica. Também deve ser citado como desvantagem o fato de que esta modalidade de imagem médica pode ser perigosa para pacientes que possuem implantes metálicos, como marcapassos. 3.3.4 Tomografia Computadorizada Conforme define (WILKS, 1987), da mesma forma que a radiografia convencional, a Tomografia Computadorizada baseia-se no princípio de que os Raios-X são apenas parcialmente absorvidos pelo corpo. Enquanto que na radiografia convencional o feixe de Raios-X é piramidal e a imagem obtida é uma imagem de projeção, na TC o feixe é emitido por uma pequena fenda e tem a forma de leque. O tubo de Raios-X gira 360 graus em torno da região do corpo a ser estudada e a imagem obtida é tomográfica, ou seja, são obtidas “fatias” da região 46 investigada. Em oposição ao feixe de Raios-X emitidos, tem-se um detector de fótons que gira concomitantemente ao feixe. Os fótons emitidos dependem da espessura do objeto e da capacidade deste de absorver os Raios-X. Os detectores de fótons da TC transformam os fótons emitidos em sinal analógico e depois digital. Após a aquisição das seções transversais, as informações obtidas são processadas utilizando uma técnica matemática chamada de projeção retrógrada, ou outras, como a transformada de Fourier. As imagens tomográficas podem ser obtidas em dois planos: axial (perpendicular ao maior eixo do corpo) e o coronal (visão frontal). Após a sua obtenção, recursos computacionais podem permitir reconstruções no plano sagital (paralelo à sutura sagital do crânio) ou reconstruções tridimensionais. A principal vantagem da TC é que permite o estudo de seções transversais do corpo vivo. É uma grande melhoria em relação às capacidades da radiografia convencional, pois permite a detecção ou o estudo de anomalias que não seria possível senão através de métodos invasivos. Uma das principais desvantagens é a grande quantidade de radiação X imprimida ao paciente. Outra desvantagem é o seu elevado preço, especialmente quando comparada com outros métodos como a radiografia convencional. 3.4 Exemplos de Aplicações Os exemplos a seguir vêm confirmar esta afirmação: em geral, é necessária a aplicação de um conjunto de técnicas para se atingir o objetivo almejado. Em cada exemplo, é apresentada uma breve descrição do problema e das técnicas de processamento utilizadas. 3.4.1 Detecção de agrupamentos de microcalcificações em mamogramas A detecção precoce do câncer de mama vem sendo objeto de estudo bem explorado na área de CAD, tendo os mamogramas (imagens radiológicas da mama) como fonte de dados. No mamograma são procuradas estruturas que indicam a presença de anormalidades ou tumores. Entre esses elementos estão as microcalcificações, depósitos de cálcio de formatos e tamanhos variados, segundo (EGAN; MCSWEENEY; SEWELL, 1980). Devido ao tamanho reduzido dessas estruturas, a sua visualização em mamogramas exige grande experiência do examinador e, mesmo assim, muitas vezes são passadas despercebidas, visto que o sistema de Raios-X pode apresentar várias limitações que prejudicam a nitidez da imagem. De grande interesse ainda são os clusters (aglomerações) de microcalcificações, pois são indicadores da necessidade de investigação mais aprofundada no local onde se encontram. Segundo informação do National Cancer Institute e do National Institute of Health, ambos dos Estados Unidos, aproximadamente metade dos cânceres detectados através de mamografia é percebida inicialmente como uma aglomeração de microcalcificações. Com o objetivo de segmentar microcalcificações em mamogramas e identificar agrupamentos dessas estruturas, foi desenvolvido um procedimento que recorta regiões de interesse de imagens mamográficas e as processa separadamente. 47 O esquema do processamento pode ser visualizado na Figura 3.3, onde a imagem resultante de uma fase é utilizada como imagem de entrada para a etapa seguinte. Figura 3.3: Esquema utilizado para segmentação de microcalcificações (NUNES, 2005). Inicialmente é executada uma técnica para identificar de forma semiautomática as regiões de interesse em uma imagem mamográfica. Então, um processo de segmentação composto de quatro passos (subtração de imagens, limiarização global, morfologia matemática e limiarização) é responsável por extrair das imagens somente as estruturas de interesse. Na morfologia matemática, as imagens são analisadas em termos de forma e tamanho, utilizando-se padrões elementares denominados elementos estruturantes (GONZALEZ; WOODS, 2000). Cada elemento estruturante interage com cada entidade contida na imagem em estudo, modificando a sua forma, o seu tamanho e permitindo, assim, extrair algumas conclusões desejadas. O elemento estruturante é um conjunto completamente definido e conhecido (tamanho e forma). A linguagem para morfologia matemática é a teoria dos conjuntos, onde os conjuntos representam os formatos dos objetos em uma imagem. No caso deste processamento, o elemento estruturante foi definido para eliminar da imagem aqueles sinais que continham menos de três pixels. Ao final do procedimento, cada estrutura identificada é transformada em um único ponto para facilitar a contagem de objetos e, então, identificar um agrupamento. Exemplos de imagens processadas são apresentados na Figura 3.4. 3.4.2 Detecção de assimetrias em imagens mamográficas A assimetria é a comparação bilateral entre regiões das mamas direita e esquerda da mesma projeção. A identificação de assimetria estrutural é um fator importante para detecção precoce do câncer de mama porque uma desigualdade significativa entre as mamas pode indicar o desenvolvimento de alguma anomalia. Para medir a assimetria entre mamas utiliza-se um procedimento que indica a porcentagem de assimetria global e as áreas particulares onde existe diferença entre as tonalidades de cinza. A finalidade é utilizar os recursos oferecidos pelas técnicas de 48 Figura 3.4: Detecção de agrupamentos de microcalcificações em mamogramas. (a) imagem original; (b) região de interesse extraída da imagem original; (c) região de interesse segmentada; (d) região de interesse após transformação área-ponto e (e) região de interesse após identificação de clusters (NUNES, 2005). processamento a fim de fornecer informações adicionais pra composição de diagnóstico aos profissionais da área (mastologistas e radiologistas). Para verificar a assimetria global, inicialmente a imagem mamográfica é segmentada a fim de que ruídos e estruturas dispensáveis sejam removidos. Em seguida, é re- 49 alizado um deslocamento das imagens esquerda e direita com a finalidade de alinhá-las. Então, é realizada uma comparação entre as imagens, indicando-se os locais onde uma mama é maior que a outra. Exemplos do procedimento executado podem ser verificados na Figura 3.5(a). Para obtenção das assimetrias locais é realizada uma comparação ponto a ponto na imagem, considerando-se um tamanho de template pré-definido pelo usuário. As médias de cinza de cada área particular são calculadas para as localizações do template em ambas as imagens. A diferença entre as médias obtidas é medida em porcentagem e representada na imagem resultante com cores diferentes, conforme pode ser observado na Figura 3.5(b). Esse processamento pode indicar ao médico a existência de uma diferença entre as mamas, podendo estar relacionada ao início do desenvolvimento de um tumor (NUNES, 2005). Figura 3.5: Exemplo de medição de assimetrias em mamogramas: (a) assimetria global; (b) assimetrias locais (NUNES, 2005). 50 4 ALGORITMO GENÉTICO Neste capítulo apresenta-se o conceito de Algoritmos Genéticos, que por serem algoritmos aproximativos tem melhor desempenho em relação aos algoritmos ótimos, e, por isso, são uma boa alternativa aos métodos tradicionais na área de segmentação de imagens. 4.1 Considerações Iniciais Nesta seção abordaremos os conceitos principais de Algoritmos Genéticos e seu histórico. 4.1.1 Histórico Em meados do século XIX os naturalistas acreditavam que cada espécie havia sido criada separadamente por um ser supremo ou através da geração espontânea. O trabalho do naturalista Carolus Linnaeus levou a acreditar na existência de uma relação entre as espécies. Por outro lado Thomas Robert Malthus propôs que fatores ambientais tais como doenças e carência de alimentos limitavam o crescimento da população. Foi dentro desse contexto que surgiu um dos mais importantes princípios no campo da evolução da vida, A Seleção Natural de Darwin. Esta idéia defendia que a natureza dos seres vivos tendem a sobreviver mais que os outros por ter melhores características (SILVA, 2001). Em 1859, Charles Darwin formulou seu primeiro livro chamado The Origin of Species, que tratava sobre a teoria da Evolução, conhecida também como teoria da Seleção Natural. Esse livro foi a primeira tentativa de representação através de modelos matemáticos e mostrava como era a evolução, aprendizado e forma de adaptação diferenciada apenas pelas escalas de tempo. Entre os anos 50 e 60, vários cientistas da computação estudaram sistemas evolucionários com a idéia de que a evolução poderia ser usada como uma ferramenta de otimização para problemas na engenharia. Os sistemas desenvolvidos pretendiam gerar uma população de candidatos à solução para um dado problema. Box( 1957), Friedman(1959) e Baricelli(1967) desenvolveram algoritmos inspirados na evolução natural para problemas de otimização e aprendizagem de máquina. Entretanto, seus trabalhos não possuíam qualquer tipo de atenção às estratégias de 51 evolução, programação evolucionária e Algoritmos Genéticos atuais. Os Algoritmos Genéticos foram inventados por John Holland nos anos 60 e desenvolvidos por seus alunos na Universidade de Michigan em meados de 1970. O principal objetivo de Holland não foi desenvolver algoritmos para solucionar problemas específicos, mas dedicar-se ao estudo formal do fenômeno de evolução, como ocorre na natureza, e desenvolver maneiras de importá-lo aos sistemas de computação (AGUIAR, 2002). Foi em 1970 que este processo de evolução biológica intrigou John Holland, pois ele achava que incorporando os princípios da evolução em um programa de computador pudesse resolver, por simulação, problemas complexos assim como fazia a natureza (BARCELLOS, 2000). A partir disso, dedicou-se ao estudo de processos naturais adaptáveis, e junto com colegas e alunos da Universidade de Michigan criaram os Algoritmos Genéticos (AG’s). O algoritmo criado por eles era capaz de resolver problemas complexos de uma maneira muito simples, e assim como na natureza o algoritmo não sabia o tipo de problema que estava sendo resolvido. O sistema trabalhava com uma população (um conjunto) de algumas cadeias de bits ( 0’s e 1’s) denominados indivíduos( por convenção um indivíduo é constituído por um cromossomo). Semelhante à natureza, o sistema evoluía até o melhor cromossomo para atender um problema específico, mesmo sem saber que tipo de problema estava sendo solucionado. A solução era encontrada de um modo automático e não-supervisionado, e as únicas informações dadas ao sistema eram os ajustes de cada cromossomo produzido por ele (AGUIAR, 2002). A habilidade de uma população de cromossomos explorar o espaço de busca e combinar o melhor resultado encontrado mediante qualquer mecanismo de reprodução é intrínseca à evolução natural e é explorada pelos Algoritmos Genéticos (AGUIAR, 2002). Em 1975, John Holland lançou, nos Estados Unidos, o seu primeiro livro Adaptation in Natural and Artificial System (HOLLAND, 1992). Este livro trazia uma junção de idéias e trabalhos que ele vinha desenvolvendo há anos, e este é até hoje considerado a bíblia do Algoritmos Genéticos. A partir dos anos 80, os algoritmos genéticos receberam um grande impulso em diversas áreas de aplicação científica devido a sua versatilidade e por apresentar excelentes resultados. 4.1.2 Conceito Os algoritmos genéticos (AG’s), são técnicas baseadas na teoria da evolução, nos quais as variáveis são representadas como genes de um cromossomo. Juntamente com estratégias evolucionárias e programação evolutiva formam uma classe de pesquisa baseado em evolução natural (CONCILIO, 2000). AG’s são métodos que simulam, através de algoritmos, os processos de evolução natural e genética buscando resolver problemas de otimização onde o espaço de busca é muito grande e os métodos convencionais não se demonstram eficientes. O algoritmo básico foi estruturado de forma que as informações referentes a um determinado sistema pudessem ser codificadas de maneira análoga aos cromossomos biológicos (MOREIRA, 2004). Eles ocupam lugar de destaque entre os paradigmas da computação evolutiva, por conter de forma simples e natural os conceitos necessários da computação evolutiva. 52 Além disso, têm resultados bastante aceitáveis com relação aos recursos empregados e pela ampla gama de problemas aplicáveis. O AG’s para um determinado problema deve ter os seguintes componentes e etapas: • uma representação genética para a solução que se deseja alcançar; • uma maneira de gerar um população inicial; • a função de avaliação que vai classificando as soluções geradas; • operadores genéticos para a geração de novas populações; • valores para os diversos parâmetros testados. Essas etapas estão representadas graficamente na Figura 4.1. Também são vistos como otimizadores de funções, embora a quantidade de problemas para qual são aplicados seja bastante abrangente. A principal vantagem deles é de trabalhar com o conceito de população, ao contrário de outros métodos que trabalham com um só ponto, avaliando apenas um candidato à solução por vez. Figura 4.1: Etapas dos algoritmos genéticos (MOREIRA, 2004). Esses algoritmos modelam uma solução para um problema específico em uma estrutura de dados como a de um cromossomo e aplicam operadores que recombinam essas estruturas preservando informações críticas, explorando a idéia de sobrevivência nos indivíduos mais adaptados e no cruzamento de população para criar novas e inovadoras estratégias de pesquisa (MOREIRA, 2004). 53 4.2 População Inicial A geração inicial para a criação de uma nova população, pode ser efetuada de várias formas. Uma das maneiras é através da geração aleatória, onde não haverá influência do meio externo, ou através de uma seleção heurística. Qualquer conhecimento que se tenha do problema deve ser utilizado na inicialização da população, para minimizar o tempo de computação, encontrando mais rápido o valor ótimo (CONCILIO, 2000). O tamanho da população é tratado como n indivíduos e cada um destes representa uma possível solução para o problema. Os problemas que possuem restrições, a população inicial não deverá gerar indivíduos inválidos nesta etapa. Segundo (SILVA, 2001), se uma população inicial pequena for gerada de forma aleatória, provavelmente algumas regras do espaço de busca não serão apresentadas, e como solução para este problema deve haver uma distribuição uniforme da população. Além dessa solução, pode-se utilizar a inversão de bits, podendo a primeira metade da população ser gerada de forma aleatória e a segunda metade da população ser a troca de bits da primeira metade, e assim tem-se a garantia de que a cadeia de bits esteja dentro dos valores 0 e 1 (MOREIRA, 2004). 4.3 Avaliação da População A função objetivo gera uma avaliação do grau de adaptação de cada cromossomo da população. Esta função está diretamente ligada as especificações do problema. A função, segundo (TAVARES, 2000), efetua a avaliação de modo que é atribuído um valor de aptidão as possíveis soluções através da funções de aptidão, que á definida conforme o problema que se tem a intenção de solucionar. Para (CONCILIO, 2000), a geração desta avaliação e aptidão torna-se a parte mais importante para o procedimento do AG. O retorno dessa função, que ordena os indivíduos conforme a sua adaptação, é uma característica intrínseca ao indivíduo, que indicará biologicamente, qual é a habilidade que um indivíduo possui para sobreviver e produzir a melhor resposta. No Algoritmo Genético essa etapa é a mais crítica, pois já que as funções deverão ser avaliadas para cada cromossomo de cada população durante todo o processo evolutivo (MOREIRA, 2004). 4.4 Operadores Genéticos O principal objetivo dos operadores genéticos é de serem capazes de formar uma nova população através de sucessivas gerações para que se obtenha um resultado satisfatório no final do processo. Os operadores são de extrema importância para que se tenha uma diversificação da população e manter as características de adaptação adquiridas das antigas gerações. Um algoritmo genético padrão faz a evolução em suas sucessivas gerações, mediante aos três operadores tratados a seguir. 54 4.4.1 Seleção Esse processo ocorre após a função de aptidão nos cromossomos. Segundo (BARCELLOS, 2000), esta etapa desempenha o papel da seleção natural na evolução, selecionando para sobreviver e reproduzir os organismos com melhor valor na função de adaptação. A fase de seleção consiste em que os indivíduos mais aptos são os selecionados, e estes escolhidos vão gerar uma nova população após a aplicação de todos os operadores genéticos. Essa seleção em busca dos mais aptos pode ser feita por amostras diretas, aleatórias simples ou estocástica. Já para (CONCILIO, 2000) a seleção de indivíduo baseia-se no princípio da sobrevivência dos melhores indivíduos, onde os cromossomos com mais alta probabilidade de sobrevivência são copiados de forma semirandônica uma ou mais vezes para um novo conjunto que formará a próxima geração da população. Os indivíduos que foram definidos por baixa aptidão na fase anterior são descartados. A idéia central do operador de seleção nos AG’s é oferecer aos melhores indivíduos da população corrente, preferência para o processo de reprodução permitindo que estes indivíduos possam passar as suas características para a próxima geração. Esse método de seleção pode ser aplicado através de duas técnicas: roleta e torneio. Roleta: a técnica da roleta consiste em selecionar um indivíduo com uma probabilidade Figura 4.1, baseada na proporção de sua adequabilidade em relação ao total da soma das adequabilidades dos indivíduos (LARSEN, 2002). O indivíduo com mais chance de ser selecionado é aquele que tiver maior grau de adequabilidade; Torneio: a seleção por torneio, onde um grupo de “n” indivíduos são obtidos aleatoriamente da população, com reposição ou sem reposição, isto é, podendo ou não retornar a população para outro torneio. Esses indivíduos participam do torneio, onde o indivíduo com melhor adequabilidade é escolhido para a reprodução, e o processo se repete até uma nova população ser gerada. 4.4.2 Cruzamento Segundo (LARSEN, 2002), o cruzamento consiste em misturar materiais genéticos de dois indivíduos conhecidos como pais, obtidos na fase de seleção, produzindo dois novos indivíduos, conhecidos como filhos que herdam as características genéticas de seus progenitores. Durante esta troca de material genético, há uma tendência de transmissão de características dominantes para as futuras gerações. A fase de cruzamento é a característica principal que faz a distinção de algoritmos genéticos em relação a outras técnicas e sua idéia central é a propagação das características dos indivíduos mais aptos da população trocando segmentos de informações logo após a seleção esperando uma convergência para a situação de otimização desejada. O processo de cruzamento faz rupturas no código genético, e quanto maior esta ruptura menor será a semelhança entre pais e filhos, dificultando a convergência. A taxa de cruzamento define-se como a medida da possibilidade de aplicação dos operadores de cruzamento a um dado par de indivíduos. Quanto maior for a taxa de 55 cruzamento, maior é a quantidade de indivíduos introduzidos na nova população de cruzamento (BARCELLOS, 2000). Este operador pode ser implementado de três maneiras: cruzamento de um ponto, cruzamento de 2 ou mais pontos e cruzamento uniforme. Cruzamento de um ponto: é o operador mais comumente utilizado, pois o ponto de quebra na cadeia de bits do cromossomo é escolhido de forma aleatória. São escolhidos dois pais e a partir destes serão gerados dois filhos. Após o corte aleatório é realizado a troca de material cromossômica que gerará os novos indivíduos, no caso os filhos. Cruzamento de dois ou mais pontos: é bastante similar ao cruzamento de um ponto, porém o corte será feito em duas ou mais partes da cadeia de bits dos cromossomos pais. Os dois pontos de cortes são escolhidos aleatoriamente e o material genético será invertido entre eles na posição de ruptura. O cruzamento de dois ou mais pontos mantém juntos os genes que são codificados próximos uns dos outros. Cruzamento uniforme: é bastante diferente do cruzamento de um ou mais pontos, pois os genes dos filhos serão criados a partir de uma cópia do gene correspondente de um dos pais, escolhidos por uma função que será gerada aleatoriamente. Se houver na máscara de cruzamento valor 1, o gene copiado será do primeiro pai, se houver valor 0 será do segundo pai. 4.4.3 Mutação A mutação pode ser tratada como o operador responsável pela introdução e manutenção da diversidade genética da população, alterando um ou mais componentes de uma estrutura escolhida fornecendo meios para introdução de novos elementos da população (MOREIRA, 2004). Além disso, esse operador é capaz de trazer de volta para a população os genes perdidos, durante o processo de seleção de modo que possam ser avaliados em um novo contexto pelo algoritmo. Ele trabalha alterando um ou mais componentes de uma estrutura escolhida, assegurando que a probabilidade de se chegar a qualquer ponto do estado de busca nunca seja zero, além de contornar os mínimo globais previnindo que uma dada posição fique estagnada em um valor. O operador de mutação funciona invertendo os valores de bits de 1 para 0 e 0 para 1. Uma baixa taxa de mutação vai determinar a probabilidade em que uma mutação ocorrerá, além de possibilitar que se chegue em qualquer ponto de espaço de busca. A mutação pode ser feita de forma aleatória, onde o valor do gene mutado é substituído por um valor aleatório ou por incremento. 4.5 Substituição da População A substituição consiste na alteração da antiga população pela nova população gerada com os cromossomos escolhidos e modificados na fase dos operadores genéticos, formando uma nova população (MOREIRA, 2004). 56 Os critérios com que selecionam os pais não necessariamente tem que ser os mesmo usados para selecionar os filhos. Para atender o critério de substituição existem quatro modelos: Substituição imediata: onde os descentes substituem seus progenitores. Substituição por fator cheio: onde os descentes substituem aqueles da população que são mais parecidos com ele. Substituição por inserção: os membros da população de criadores são selecionados para serem eliminados sendo substituídos pelos seus decentes. Substituição por inclusão: onde os descendentes são somados aos progenitores gerando uma única população, de onde serão selecionados apenas os melhores. 4.6 Critério de Parada O critério de parada de um algoritmo genético é verificado através de um teste, e se a condição de parada for satisfatória é parada a execução do algoritmo, caso não atinja o critério de parada estabelecido, a população retorna às fases do algoritmo para que se ache a melhor solução. O critério de parada pode ser quando o AG atingir um dado número de gerações ou quando a função objetivo chegar a um determinado valor definido previamente. Outro critério poderá ser a convergência, ou seja, quando não ocorrer melhoramento significativo no cromossomo de maior aptidão por um dado número de gerações, o processamento pára (MOREIRA, 2004). 57 5 5.1 LÓGICA FUZZY Introdução A capacidade de deduzir conclusões baseadas em respostas incertas e imprecisas, caracteriza uma das principais aplicações da lógica fuzzy. Esse conceito, que pode causar estranheza ainda em nosso tempo, influenciou um pensamento diverso em outras épocas. De forma mais instrutiva, podemos dizer que a lógica fuzzy é uma ferramenta capaz de capturar informações vagas, em geral descritas em uma linguagem natural e convertê-las para um formato numérico. Considere-se, por exemplo, a seguinte afirmativa: Se o nível de cálcio no sangue está médio e o nível de paratormônio sérico está muito alto, então o risco de hiperparatiroidismo primário é alto. Os termos, “médio”, “muito alto” e “alto” trazem consigo informações imprecisas e a extração destas informações pode-se dar através do uso de conjuntos fuzzy (ZADEH, 1968). A lógica fuzzy tem como apoio a teoria dos conjuntos fuzzy para sua representação, tendo a intenção de fornecer “um tratamento matemático a certos termos lingüísticos subjetivos, como aproximadamente, em torno de, dentre outros” (BARROS; BASSANEZI, 2006). Formalmente, essa lógica trabalha de forma mais acessível, aproximando uma função por associações lingüísticas de entrada e saída dos dados e aplicando regras da teoria dos conjuntos fuzzy para resolver problemas onde uma teoria mais rígida teria dificuldade para modelar. Devido a esta propriedade e a possibilidade de instruir inferências, a lógica fuzzy tem encontrado grandes aplicações nas seguintes áreas: Computação com Palavras, Raciocínio Aproximado, Controle de Processos, Robótica, Rede Neurais, Processamento de Imagens, Reconhecimento de Padrões, Sistemas Operacionais, Ecologia, Sistemas de Controle e Processos de Tomada de Decisão, Medicina e Epidemiologia (KLIR; FOLGER, 1988) e (COX, 1998). 5.2 Conjuntos Fuzzy Em se tratando de “conjunto” no sentido clássico, segundo (BARROS, 1997), a relação dicotômica de pertinência de um elemento e um conjunto deve estar bastante clara como um conceito primitivo. Mais precisamente, dado um conjunto A e um elemento x temos que x pertence a A (x ∈ A) ou x não pertence a A (x < A). Por exemplo, sabe-se que 2 ∈ N (2 é um número inteiro positivo); 21 < N ( 21 não 58 é um número inteiro positivo). A noção de conjunto fuzzy, dada por (ZADEH, 1965), generaliza a idéia de conjunto quando o conceito de pertinência de um elemento a um conjunto deixa de ser um conceito primitivo como no caso clássico. Por exemplo, seja F o “conjunto” dos números inteiros positivos “pequenos”, isto é, F = {x ∈ N : x é pequeno } Exemplo 5.1 os números 2 e 20 pertencem a F? Intuitivamente pode-se dizer que se 20 ∈ F então 2 ∈ F, isto é, 2 teria um grau de pertinência maior que 20 em relação ao conjunto F. A atribuição de um grau de pertinência de cada elemento a um conjunto passa então a ser uma caracterização do próprio conjunto. Se ao considerar-se a função u : N → [0, 1], dada por u(n) = n1 definindo o grau de pertinência a F, tem-se que 2 ∈ F com grau de pertinência 0,5 e 20 ∈ F com grau de pertinência 201 = 0, 05 ou n ∈ F com grau de pertinência n1 . Observa-se que o atributo pequeno para x ∈ N é subjetivo no sentido que se poderia ter uma infinidade de funções u : N → [0, 1] definindo o grau de pertinência de cada elemento de F. Pode-se ainda imaginar uma infinidade de conceitos que possuem a característica de não estarem bem definidos em suas fronteiras. Por exemplo, o “conjunto” dos homens altos, das ruas grandes de uma cidade, o diagnóstico médico de um paciente, classificação de bactérias quanto a sua natureza vegetal ou animal, o “conjunto” dos problemas de uma determinada localidade, etc. (BARROS, 1997). A Tabela 5.1 mostra os graus de pertinência de alguns números inteiros considerados “pequenos”, de acordo com a função mostrada no exemplo 5.1. O gráfico mostrado na Figura 5.1 representa a função de pertinência do exemplo 5.1 que aborda os números inteiros considerados “pequenos” de acordo com a função apresentada anteriormente. Os valores apresentados no gráfico estão de acordo com a Tabela 5.1. Figura 5.1: Gráfico da função de pertinência dos números inteiros “pequenos” (SANTOS, 2007). 59 Tabela 5.1: Grau de pertinência dos números inteiros considerados “pequenos” (SANTOS, 2007). n ∈ N Grau de Pertinência 1 1 2 0,5 3 0,33 4 0,25 5 0,2 6 0,16 7 0,14 8 0,125 9 0,111 10 0,1 15 0,06 20 0,05 Definição 5.1 Seja X um conjunto (clássico). Um subconjunto fuzzy F em X é um conjunto de pares ordenados F = {(x, uF (x)) : x ∈ X} onde uF : X → [0, 1] é uma função chamada grau de pertinência de x em F, com os graus 1 e 0 representando, respectivamente, a pertinência completa e a não pertinência do elemento ao conjunto fuzzy. Dessa maneira, um conjunto fuzzy estende um conjunto clássico convencional, na medida em que possa assumir outros valores além de completamente verdadeiro ou completamente falso. A idéia principal dos conjuntos fuzzy é o grau de pertinência (valor que indica o grau com que um elemento pertence ao conjunto). Os conjuntos são denominados de forma qualitativa e os elementos destes conjuntos são caracterizados variando o grau de atribuição. Exemplo 5.2 Um indivíduo de 100 quilos e outro de 90 são membros do conjunto fuzzy “Pesado”. Porém o indivíduo de 100 quilos tem um grau de pertinência maior neste conjunto Figura 5.2. A pergunta que se pode fazer é: Em que grau um indivíduo com 90 kg é “Pesado”? Um indivíduo com 90 kg está no conjunto “Pesado” com grau de pertinência de 0,85. Esta expressão pode ser interpretada como grau de verdade. O gráfico mostrado na Figura 5.2 representa a função de pertinência hipotética do exemplo 5.2 que aborda o conjunto fuzzy para categoria de peso corporal. 5.2.1 Operações Básicas entre Conjuntos Fuzzy Se ao assumir que A e B são dois subconjuntos fuzzy do conjunto universo U, as operações sobre os conjuntos fuzzy união, intersecção e complemento resultam também em conjuntos fuzzy. Seguindo estas operações padrão para os conjuntos fuzzy, definidas por Zadeh, obtêm-se as seguintes funções de pertinência: 60 Figura 5.2: Exemplo hipotético de conjunto fuzzy para categoria de peso corporal (SOUSA, 2007). (a) (b) (c) Figura 5.3: Images: (a) União entre subconjuntos fuzzy ; (b) Intersecção entre subconjuntos fuzzy (c) Complementar de um conjunto fuzzy. Funções de Pertinência µA∪B (X) = max[µA , µB ], X ∈ U (5.1) µA∩B (X) = min[µA , µB ], X ∈ U (5.2) µA0 (X) = 1 − µA (X), X ∈ U (5.3) Então pode-se agora observar os gráfico das funções: • a função de pertinência 5.1 tem seu gráfico representada pela Figura 5.3 (a) que define a união entre conjuntos fuzzy A e B • a função de pertinência 5.2 tem seu gráfico representada pela Figura 5.3 (b) que define a intersecção entre conjuntos fuzzy A e B • a função de pertinência 5.3 tem seu gráfico representada pela Figura 5.3 (c) que define a complementar do conjunto fuzzy A e A0 Estas são operações padrão de um conjunto de operadores possíveis (SOUSA, 2007). Se A e B forem conjuntos clássicos, então as funções de pertinência descritas acima satisfazem estas igualdades, mostrando a coerência destas definições. 61 5.3 Funções de Pertinência A representação de um conjunto fuzzy pode ser representada por tipos de curvas diferentes segundo (SANTOS, 2007), o especialista é o responsável por traçar a curva mais aproximada do comportamento da variável em questão. Em (SILVEIRA, 2002) são apresentados os principais tipos de curvas para representação de um conjunto fuzzy, um breve resumo sobre estas representações são apresentados a seguir. Representação Linear: este tipo de representação é bastante simples e uma boa alternativa para aproximar conceitos de difícil compreensão. Representação em Curva-S (Sigmóide/Logística): esta forma de representação referese aos tipos de curvas não lineares crescentes (Curva-S) e decrescentes (Curva-Z). Esta representação de um conjunto fuzzy é a mais adequada para a modelagem do conhecimento, segundo (SILVEIRA, 2002) é imprecisamente condicional, em outras palavras é o tipo do conhecimento utilizado para representar o pensamento humano. Representações em Curvas Tipo Sino: este tipo de reprodução é baseado na representação da estimativa (avaliação) de um valor central e são graficamente visualizadas como uma curva do tipo sino. Três importantes categorias desse tipo de curvas merecem destaque: as curvas PI, Beta e Gaussiana. Duas importantes variações das representações em curvas tipo sino são a Representação Trapezoidal e a Representação Triangular. 5.4 Sistemas Fuzzy Na arquitetura padrão de um Sistema Fuzzy apresentada na Figura 5.4 é possível observar os componentes que fazem parte deste sistema. A seguir é apresentado uma breve descrição sobre cada um dos componentes da arquitetura padrão de um sistema fuzzy, segundo (SANTOS, 2007). Fuzzificador: nesta etapa estão contidas as funções de pertinência das variáveis lingüísticas de entrada. É recebido um valor do universo de discurso e retornado os graus de pertinência aos respectivos conjuntos fuzzy. O tipo e a quantidade de funções de pertinência utilizados em um sistema dependem de alguns fatores tais como: precisão, estabilidade, facilidade de desenvolvimento, etc. Para colaborar com a construção das funções de pertinências para a descrição de uma determinada entrada é importante a atuação de um especialista na área do que poderá ser modelado. Máquina de inferência: neste componente do sistema as proposições (regras) são definidas e depois são examinadas paralelamente, é na máquina de inferência que são realizadas as operações com conjuntos fuzzy propriamente ditas. Para realizar estas operações existem métodos de inferência fuzzy, os dois mais importantes tipos de métodos de inferência fuzzy são o Método de Mandani (MAMDANI; ASSILIAN, 1975) e o Método Takagi-Sugeno-Kang (ISHII; SUGENO, 1985). 62 Gerente de Informações: obtêm da base de regras as regras aplicáveis para entradas específicas. Base de Regras: a base de regras fuzzy é composta por um conjunto de condições IF (usando conectivos and, or ou not), uma conclusão THEN, uma conclusão opcional ELSE (regras condicionais básicas). Estas regras são aplicadas nas variáveis por intermédio de um processo denominado propagação. As regras podem ser fornecidas por especialistas, em forma de sentenças lingüísticas, e se constituem em um aspecto fundamental no desempenho de um sistema de inferência fuzzy. Defuzzificador: processo utilizado para converter o conjunto fuzzy de saída em um valor de saída do sistema. No processo de defuzzificação estão contidas as funções de pertinências das variáveis lingüísticas de saída. No defuzzificador é que acontece a etapa de relação funcional entre as regiões Fuzzy e o valor esperado. Existem vários métodos de defuzzificação, dentre os mais conhecidos destacam-se: (i) Centróide, (ii) Média dos máximos, (iii) Critério Máximo, (iv) Método da altura, (v) Barras verticais, etc. Figura 5.4: Arquitetura de um sistema fuzzy (SANTOS, 2007). Quanto aos métodos de inferência destacados, cada método tem suas vantagens. O método de Mamdani é considerado mais simples e intuitivo, sendo facilmente compreendido por um especialista humano. O método de TSK é mais eficiente que o de Mamdani quanto à rapidez computacional e possui mais propriedades matemáticas. Os modelos lingüísticos fuzzy avançaram bastante e tem sido usados em larga escala em problemas de Biomedicina, Biomatemática e epidemiologia segundo (SOUSA, 2007). 63 6 CONCLUSÃO Sabe-se que o objetivo dos sistemas de CAD é melhorar a acurácia diagnóstica, assim como aprimorar a consistência na interpretação de imagens diagnósticas, mediante o uso da sugestão de resposta diagnóstica fornecida por algum computador. Porém, algumas ferramentas CAD que apresentam ótimos resultados ainda não são utilizadas na rotina clínica por apresentarem alto custo computacional, limitando seu uso a centros possuidores de computadores de alta capacidade. As dificuldades em aplicar estes algoritmos CAD na rotina clínica e as limitações ainda existentes para o armazenamento, processamento, busca e recuperação de imagens em grandes bases de dados vem motivando empresas e instituições de pesquisas a encontrarem novas soluções para essas tarefas. AG’s são métodos que simulam, através de algoritmos, os processos de evolução natural e genética buscando resolver problemas de otimização onde o espaço de busca é muito grande e os métodos convencionais não se demonstram eficientes. Acredita-se que um ambiente computacional integrador de técnicas tradicionais de segmentação e classificação de imagens médicas com operadores baseados em algoritmos genéticos possam permitir ferramentas mais versáteis e com precisão apropriada ao tipo de aplicação pretendida. Modelos baseados em algoritmos evolutivos têm se mostrado adequados ao avanço da computação de alto desempenho, uma vez que são modelos que usufruem de todas as prerrogativas de escalabilidade e disponibilidade de sistemas como agregados e grades computacionais, ou mesmo computadores de vários-núcleos (multicores), muito em voga nas pesquisas atuais. Espera-se que este trabalho sirva de ponto de partida para um trabalho mais aprofundado de proposta da integração de algoritmos genéticos e lógica fuzzy para a segmentação de imagens médicas. 64 REFERÊNCIAS AGUIAR, M. Análise Formal da Complexidade de Algoritmos Genéticos. 2002. Monografia de Pós-Graduação — ESIN/UCPEL, Pelotas/RS. ANGELO, M. F. Sistema de Processamento de Imagens Mamográficas e Auxílio ao Diagnóstico via-Internet. 2007. Tese de Doutorado — Escola de Engenharia de São Carlos da Universidade de São Paulo. ANTUNES, E. J. PROCESSAMENTO DE IMAGENS: Uma abordagem interdisciplinar aplicada a correção de prognósticos meteorológicos. UFPel/Pelotas-RS. ARCURI, S. M.; MCGUIRE, P. K. Ressonância magnética funcional e sua contribuição para o estudo da cognição em esquizofrenia. In: REV. BRAS. PSIQUIATR., 2001. Anais. . . [S.l.: s.n.], 2001. BARCELLOS, J. C. H. Algoritmos Genéticos Adaptativos: Um estudo Comparativo. 2000. Dissertação de mestrado apresentada à escola politécnica da universidade de São Paulo, setor de Engenharia — USP/SP. BARROS, L.; BASSANEZI, R. Tópicos de lógica fuzzy e biomatemática. Campinas,SP: UNICAMP/IMECC. BARROS, L. C. Sobre Sistemas Dinâmicos Fuzzy: Teoria e Aplicações. 1997. TESE DE DOUTORADO — Campinas, SP. BEGA, G.; LEV-TOAFF, A.; KUHLMAN, K.; KURTZ, A.; GOLDBERG, B.; WAPNER, R. Three-dimensional ultrasonographic imaging in obstetrics. In: ULTRASOUND MED., 2002. Anais. . . Canadá, 2002. v.20, p.391–408. BRONSON, J. G. Ultrasound in Women’s Health The View in 2002. http://www.medicalimagingmag.com. CHAN, H.-P.; DOI, K.; GALHOTRA, S.; VYBORNY C.J.AND MACMAHON, H.; JOKICH, P. Image feature analysis and computer-aided diagnosis in digital radiography. I. Automated detection of microcalcifications in mammography. [S.l.]: Medical Physics, v. 14, n. 4, p.538-548, 1987. CONCILIO, R. Contribuições à Solução de Problemas de Escalonamento pela Aplicação Conjunta de Computação Evolutiva e Otimização com Restrições. 2000. Dissertação de mestrado apresentado a faculdade de Engenharia Elétrica e de Computação, departamento de Engenharia de Computação e Automação Industrial — Unicamp/SP. 65 COX, E. The Fuzzy Systems Handbook. AP Professional. FEBIGER, L. . (Ed.). Christensen’s Physics of Diagnostic Radiology. [S.l.]: Philadelphia, 1990. DAINTY, J.; SHAW, R. Image Science. In: NEW YORK, ACADEMIC PRESS., 1976. Anais. . . [S.l.: s.n.], 1976. DHAWAN, A.; ROYER, E. L. Mammographic feature enhancement by computerized image processing. [S.l.]: Computer Methods and Programs in Biomedicine, v.27, p.2335., 1988. EGAN, R.; MCSWEENEY, M. B.; SEWELL, C. Intramammary calcifications without an associated mass in benign and malignant diseases. v.137, n.1, p.1.7., Radiology. FACON, J. Processamento e Análise de Imagens. In: UNCPC, 1993. Anais. . . Córdoba, 1993. FREITAS, C. M. D. Computação Gráfica. In: VI ESCOLA DE INFORMáTICA DA SBC - REGIONAL SUL, 1998. Anais. . . Pelotas, 1998. v.1, p.1–6. GILLESPIE, T.; ROWBERG, A. N. Displaying radiologic images on personal computer: image storage and compression. [S.l.]: Digital Imaging, 1994. GONZALEZ, R.; WOODS, R. Processamento de Imagens Digitais. [S.l.: s.n.], 2000. BOOK, B. (Ed.). Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence. 1.ed. [S.l.: s.n.], 1992. ISHIDA M.AND FRANK, P.; DOI, K.; LEHR, J. High quality digital radiographic images: improved detection of low-contrast objects and preliminary clinical studies. [S.l.]: Radiographics, v.3, n.2, p.325-338, 1983. ISHII, K.; SUGENO, M. A Model of Human Evaluation Process Using Fuzzy Measure. Man-Machine Studies, [S.l.], v.1, n.22, p.19–38, 1985. JACKSON, V. P.; JACHSON, V. P.; HENDRICK, E.; FEIG, S. A.; KOPANS, D. Imaging of the radiographically dense breast. v.188, p.297-301., Radiology. JAIN, A. K. Fundamentals of Digital Image Processing. In: ENGLEWOOD CLIFF, 1969. Anais. . . [S.l.: s.n.], 1969. KLIR, G.; FOLGER, T. Fuzzy sets: uncertainty, and Information. In: ENGLEWOOD CLIFF., 1988. Anais. . . [S.l.: s.n.], 1988. LARSEN, O. Construção de Atributos x-of-n usando Algoritmos Genéticos. 2002. Dissertação de Pós-Graduação apresentado a Universidade Católica do Paraná, setor de Informática Aplicada — Universidade Católica do Paraná/PR. LUITEN, A. L. Introduction to nuclear magnetic resonance. In: MEDICAMUNDI, 1981. Anais. . . [S.l.: s.n.], 1981. 66 MAINTZ, J. B. A.; VIERGEVER, M. A. A survey of medical image registration. [S.l.: s.n.], 1998. MAMDANI, E. H.; ASSILIAN, S. An Experiment in Linguistic Synthesis with a Fuzzy Logic controller. Man-Machine Studies, [S.l.], v.1, n.7, p.1–13, 1975. MARQUES FILHO, O.; VIEIRA NETO, H. Processamento Digital de Imagens. Rio de Janeiro: Brasport. EBAL (Ed.). Processamento Digital de lmagens. 2.ed. [S.l.: s.n.], 1989. MOREIRA, M. I. G. Um Sistema Classificador para Imagens de Sensoriamento Remoto baseado em Algoritmos Genéticos. UCPel/Pelotas-RS. NUNES, F. L. S. Introdução ao Processamento de Imagens Médicas para Auxílio ao Diagnóstico - Uma Visão Prática. [S.l.: s.n.], 2005. p.73–123. PATHOL, A. J. C. Basic Principles of Image Processing. SANTOS, A. V. Avaliação Fuzzy de Trocas Sociais em Sistemas Muliagentes baseados em Personalidades. Trabalho Individual - PPGINF-UCPel, 2007. SANTOS, J. Avaliação textural por ressonância magnética dos tumores da fossa posterior em crianças. 2003. Dissertação (Mestrado em Ciência da Computação) — São Paulo: Scielo, 2003. EDITORA, S. S. (Ed.). Bases Físicas da Radiologia - Diagnóstico e terapia. [S.l.]: São Paulo, 1979. SCHARCANSK.J. Processamento e Análise Digital de Imagens. 4a Semana Acadêmica do Curso de Bacharelado em Informática da Universidade Federal de Pelotas. Pelotas-RS. PHYSICS, M. (Ed.). Formal study of lateral magnification and its effect on mammographic image sharpness. [S.l.]: v. 21, n. 2, p. 271-276., 1994. SILVA, E. E. Otimizaçãoo de Estruturas de Concreto armado Utilizando Algoritmos Genéticos. 2001. Dissertação de mestrado apresentada à escola politécnica da universidade de São Paulo, setor de Engenharia — USP/SP. SILVEIRA, M. M. M. T. Teoria Fuzzy Intervalar: Uma Proposta de Integração da Matemática Intervalar à Teoria Fuzzy. 2002. Dissertação (Mestrado em Ciência da Computação) — Universidade Federal do Rio Grande do Norte, Natal, RN, Brasil. SOUSA, C. A. Teoria de conjuntos fuzzy e regressão logística na tomada de decisão para realização de cintilografia das paratiróides. 2007. Dissertação Mestrado em Saúde Pública — USP. STANDARDS, N.; PUBLICATIONS guideline. Digital Imaging and Communications in Medicine (DICOM). [S.l.: s.n.], 2006. 67 TAVARES, J. A. D. R. Geração de Configuração de Sistemas Industriais com o Recurso a Tecnologia das Restrições e Computação Evolucionária. 2000. Tese de Doutorado apresentado à universidade do Minho, Setor de Informática — Minho/Portugal. LIVINGSTONE, C. (Ed.). Principles of Radiological Physics. [S.l.]: New York, 1987. ZADEH, L. A. Fuzzy sets. Information and Control. [S.l.], v.8, p.338-353. ZADEH, L. A. Probability mensures and fuzzy events. J Math Appl. 1968; 23:427.