VIRTUALIZAÇÃO DE SERVIDORES: UM ESTUDO DE CASO NA EMPRESA SÊNIOR ENGENHARIA Cristiano de Jesus Lima 1 Danilo de Melo Costa 2 Cláudio Heleno Pinto da Silva3 RESUMO O presente trabalho avalia a implementação da virtualização de servidores pela empresa Sênior Engenharia. Além da análise dos resultados, o estudo propõe-se a apresentar, de maneira concisa, as principais formas virtualizar servidores, dentre eles, servidores de Correio eletrônico, Web, Banco de dados, Acesso, DNS, DHCP e outros. O estudo serve também como referência para outras empresas de grande e médio porte, que querem economizar e ganhar agilidade com a utilização dos servidores. Palavras-chaves: Gerência, Servidores e Virtualização 1 INTRODUÇÃO Hodiernamente, a busca por melhorias e ampliações dos negócios empresariais está diretamente relacionada com o desenvolvimento tecnológico, tanto no ambiente empresarial interno, quanto no externo. Há uma constante busca por soluções tecnológicas mais simples que tragam maior economia nas lógicas e físicas. Nesse sentido, é míster a flexiblização da área de TI (Tecnologia da Informação) para, assim, acompanhar o desenvolvimentoda 1 . Cristiano de Jesus Lima. Graduado em Redes de Computadores pela Faculdade Infórium de Tecnologia. 2 Doutorando em Administração pela Universidade Federal de Minas Gerais. Mestre em Administração pela Universidade Federal de Santa Catarina. Graduado em Sistemas de Informação. Professor da Faculdade Infórium de Tecnologia. Coordenador da Pós-Graduação em Governança de TI e Professor dos cursos de PósGraduação do Centro Universitário UNA. 3 Graduado em Publicidade e Propaganda pelo Centro Universitário de Belo Horizonte (2007). Estagiário da TV Uni-BH, da rede de TV´s Universitárias de Belo Horizonte. Diretor-geral da Távola Marketing Comunicação. Atualmente é graduando em Administração no IFSMG e atua como publicitário, jornalista e consultor em marketing e comunicação. corpooração. Todavia, o investimento constante em seviços, aplicativos, equipamentos e servidores faz-se imprenscidivel para o suporte tecnologico do empreendimento. A técnica de virtualização, que segundo Maziero e Laureano (2008) foi criada em 1960 com intuito de aperfeiçoar o aproveitamento do hardware, extremamente caros nessa época, e recriar um único mainframe. Já com popularização dos preços das plataformas de hardware, com o advento do PC na década de 1980, essa prática tornou-se obsoleta. O fornecimento de um computador completo a cada usuário, ao contrário de complexos e caros sistemas, proporcionou economia de energia elétrica, espaço físico e mão de obra para as empresas. A economia total da empresa pode chegar até 80% dos gastos em geral. A virtualização também ajuda a diminuir o impacto de futuros descartes de equipamentos. Não podemos descartar também a enorme contribuicao dessas mudancas para o meio ambiente, já que ao reduzir o consumo de energia eletrica, há consideravel reducao de emissao de CO2 (dióxido de carbono), um dos maiores contribuintes para o efeito estufa. É dentro deste contexto, que o presente artigo tem de salientar os benefícios da virtualização dos servidores empresa Sênior Engenharia. 2 MARCO TEÓRICO O crescimento e desenvolvimento das empresas no mundo contemporâneo, sejam de grande ou médio porte, como é o caso da Sênior Engenharia, estão diretamente relacionados com o aprimoramento da gestão do TI. Para tanto, algumas práticas como a ampliação de servidores e virtualização é fundamental. 2.1 Gestão de Tecnologia da Informação A Tecnologia da Informação (TI) é fundamental para as empresas que querem manter-se no competidíssimo mercado atual. TI é um conceito bastante abrangente. Rodriguez (2002) lembra que essa ferramenta, imprescindível nos dias atuais, era vista como um mal necessário nas décadas de 1970-1980. Faria (2004) reitera que o diferencial competitivo e sua manutenção no mercado é a inovação. A informação é a força motriz que impulsiona o desenvolvimento empresarial. A excelência da gestão de TI, portanto, é a solução para muitos dos problemas encontrados pelas corporações durante a expansão dos empreendimentos e desenvolvimento de novos serviços e produtos. Para Juran (1991), os produtos resultam dos processos, e a qualidade daquelas é conseguida de forma consistente a partir da qualidade destes. Segundo Stair e Reynolds, (2002), todos interagimos diariamente com a TI, seja através de caixas eletrônicos, pagamento de contas com código de barras, etc. Daí a necessidade da expansão dos investimentos em tecnologia, por parte dos diversos tipos de empresa. É essencial a gestão dinâmica e informativa para melhor comunicação das empresas com colaboradores, acionistas e seus Stakeholders. Devido ao grande impacto gerado pela sua utilização no dia-a-dia das pessoas, no modo das empresas trabalharem e relacionaram-se com as demais e, no mundo de forma genérica, tem sido muito forte, tanto que, para muitos autores estamos vivendo uma nova era, a “era do conhecimento”. As tecnologias da informática e telecomunicações convergem para um único ponto, ficando mais evidente esta nova era. (Graeml, 2003) Para tanto, algumas técnicas e formas de gestão de TI são mais comumente utilizadas por profissionais de todo planeta, dentre elas o ITIL (Information Technology Infrastructure Library) é o modelo de referência para gerenciamento de processos de TI mais aceito mundialmente. A metodologia foi criada pela secretaria de comércio (Office of Government Commerce, OGC) do governo Inglês, a partir de pesquisas realizadas por Consultores, Especialistas e Doutores, para desenvolver as melhores práticas para a gestão da área de TI nas empresas privadas e públicas. Atualmente se tornou a norma BS-15000, sendo esta um anexo da ISO 9000/2000. O foco deste modelo é descrever os processos necessários para gerenciar a infra-estrutura de TI eficientemente e eficazmente de modo a garantir os níveis de serviço acordados com os clientes internos e externos “As normas ITIL™ estão documentadas em aproximadamente 40 livros, onde os principais processos e as recomendações das melhores práticas de TI estão descritas. O ITIL™ é composto por módulos. Os mais importantes são o “IT Service Support” e o “IT Service Delivery”. 2.1 Servidor Segundo Carvalho (2006), os servidores são responsáveis por manter aplicativos necessários para diversos serviços, como correio eletrônico, banco de dados, DNS ou arquivos de informação da empresa, onde os clientes (colaboradores) possam acessar durante o expediente de trabalho ou mesmo fora dele, através da rede mundial (internet). E neste tópico é proposto falar sobre a importância dos serviços e problemas dos mesmos na empresa. 2.1.1 Servidores e seus tipos de Serviços Atualmente existem várias aplicações e serviços em servidores dentro de uma empresa. 2.1.1.1 Servidor de DNS A sigla significa “Domain Name System” (Sistema de Resolução de Nomes). Este recurso é utilizado para o acessar micros em rede, sem necessidade de conhecimento do IP. Este tipo de aplicativo traz uma grande facilidade na hora de acessar algum site na internet ou um micro na rede, pois no lugar de um IP qualquer, como 200.201.12.03, por exemplo, é necessário simplesmente digitar “www.exemplo.com.br”. Seria muito difícil decorar todos os IP’s necessários. Segundo Alecrim (2005), o DNS é um conjunto de grandes bancos de dados distribuídos em servidores de todo o mundo que faz a comparação dos IP’s com os nomes dos mesmos também conhecidos como domínios, como Google, Uai, Yahoo e outros. 2.1.1.2 Servidor de arquivos Este serviço tem a função de centralizar toda a informação necessária da empresa, em divisões de departamento com: Financeiro, Recursos Humanos, Diretoria, etc outros. Desta forma, o colaborador do departamento de recursos humanos, irá acessar arquivos referentes ao seu departamento, fazendo a função “Servidor – Cliente”. Segundo a TechNet (2008), os usuários poderão acessar um arquivo diretamente no servidor evitando assim uma redundância da mesma informação, por evitar a propagação de um mesmo arquivos por vários computadores da rede, também aumenta na segurança e facilidade de geração do backups. 2.1.1.3 Servidor de correio eletrônico Eeste serviço tem em sua arquitetura lógica os programas MTA (Mail Transprot Agent - Agente de Transporte de Correio) responsável por encaminhar as mensagens ao MTA de destino usando o protocolo SMTP (Simple Mail Transport Protocol – Protocolo de Transferência Simples de Email), MDA (Mail Delivery Agent - Agente de Entrega de Correio) responsável por receber as mensagens e arquivá-las na caixa postal do usuário dentro do banco de dados do servidor de correio eletrônico e o MUA (Mail User Agent – Agente de Usuário de Correio) programa utilizado pelo usuário para acessar a sua caixa postal dentro do servidor, exemplo Outlook ou Thunderbirds. 2.1.1.4 Servidor de backup Responsável por gerar cópias de segurança dos servidores e informações importantes da empresa e seus clientes. Como informa Garlix (2011), empresa especialista em servidores, o servidor de backup trata-se de uma instalação de rotina para geração de cópia de segurança dos dados da instituição existentes no servidor. 2.1.1.5 Servidor de Proxy: Um serviço interessante para uma melhor agilidade no trafico da rede, pois trata-se de uma servidor que guarda todas as páginas visitadas pelo colaborador da empresa em um reservatório chamado de cache, toda vez que alguém acesse a mesma página na rede mundial (Internet), ao invés de carrega-la da internet, será carregada diretamente do cache gerado pelo servidor. Segundo a Microsoft (2011) é um serviço que funciona como intermediação entre um browser e a Internet, armazenando paginas que são acessadas com mais frequência. Quando a página é solicitada pelo navegador e caso já está localizada no cache do servidor, terá um acesso quase instantâneo. Servidores proxy também servem para melhorar a segurança, porque trabalham filtrando alguns tipos de conteúdos da internet e softwares malintencionados. 2.1.1.6 Servidor firewall É um serviço de segurança externa e interna, responsável por filtrar tudo que entra e sai da rede, através de políticas de segurança determinadas pelo TI da empresa. Visando evitar o acesso indevido à rede da empresa, pelas portas de e-mails eletrônicos, VPN’s e outros. Lopes (1997) afirma que embora o Firewall verifique todo o tráfego que entra na rede interna, essa verificação é feita basicamente checando os endereços origem e destino e os números de porta, não verificando os dados em si. 2.2 Virtualização A virtualização é uma tecnologia, que possibilita dividir recursos de uma única máquina de grande performance de processamento, velocidade e armazenamento, em vários sistemas operacionais no mesmo local físico. Os sistemas operacionais foram criados para trabalharem em conjuntos em hardwares, aos quais eram instalados e configurados. Com o passar dos anos e desenvolvimento tecnológico, surgiram novos softwares que passaram a exigir hardwares com melhor desempenho, e também, hardwares de alta performance utilizando softwares que exigiam menos que a capacidade do hardware. Sendo assim, as empresas não conseguiam manter sua estrutura em perfeita harmonia. Houve significativo aumento no consumo de energia elétrica para manutenção do funcionamento dos servidores, além da utilização de espaço físico. A virtualização veio suprir esta necessidade de crescimento sem muito impacto na área estrutural e econômica da empresa. 2.2.1 História da Tecnologia da Virtualização A tecnologia de virtualização de máquinas surgiu entre as décadas 1960, com objetivo de particionar hardwares de grandes de mainframe e conseguir maior aproveitamento dessas máquinas. Segundo Manfrin (2006), a virtualização foi implementada IBM, criada como forma de particionar de maneira lógica os computadores de mainframe em máquinas virtuais separadas. Essas partições permitiam que os mainframes assumissem múltiplas tarefas, ou seja, que executassem vários aplicativos e processos ao mesmo tempo. Como os mainframes eram recursos caros na época, eles foram desenvolvidos para serem particionados, como uma forma de aproveitar completamente o investimento. O conceito de máquina virtual não é novo – suas origens remetem ao início da história dos computadores, no final dos anos de 1950 e início de 1960. As máquinas virtuais foram originalmente desenvolvidas para centralizar os sistemas de computador utilizados no ambiente VM/370 da IBM. Naquele sistema, cada máquina virtual simula uma réplica física da máquina real e os usuários têm a ilusão de que o sistema está disponível para seu uso exclusivo. (LAUREANO, 2006,) Segundo Mattos (2008), a realidade do ano de 1970 foi muito superada nos anos de 1980 e 1990, com os surgimentos de computadores pessoais. Nas décadas de 1980 e 1990, a virtualização foi abandonada quando os aplicativos de servidores-clientes, servidores e desktops tornaram se baratos e levaram à computação distribuída. Mas esta distribuição chegava a utilizar apenas de 10 há 15% do potencial real de cada hardware. Era, portanto, desperdicio de capacidade da máquina e de investimento. Com o crescimento das arquiteturas de hardwares e softwares, surgiram também algumas grandes questões, tais como o que fazer com a necessidade de espaço para ativos de redes e como reduzir gastos com energia e manter a temperatura aceitável. No fim dos anos 1990, a tecnologia de virtualização de sistemas operacionais voltou a ser utilizada pelo mercado, trazendo várias soluções de implementação em sistemas, mas ainda era voltada para virtualização apenas do sistema dentro de um outro sistema. Com o passar dos anos, surgiu a tecnologia de virtualização total que consiste em criar um ambiente virtual correspondente a um sistema real existente. Segundo Kusnetzky (2007), os principais objetivos da virtualização é o seguinte: escalabilidade, confiabilidade, agilidade, disponibilidade, altos níveis de performance e segurança centralizada. 2.2.2 Os tipos de virtualização Há muitos tipos e modelos de virtualização, mas iremos tratar de apenas três deles: 2.2.2.1 Virtualização de Sistema Operacional Golden e Scheffy (2008), fala que virtualização de Sistemas Operacionais, leva o sistema convidado pensar que está rodando diretamente em uma máquina física, quando na verdade, ele está sobre um sistema operacional hospedeiro. Este tipo de implementação é útil quando se deseja fornecer uma configuração igual a diversos usuários, fazendo o uso de apenas uma máquina física. É o que acontece em soluções como a de empresa de hospedagem web, elas dispõem apenas uma máquina a diversos clientes e estes acreditam estar em um hardware dedicado. Imagem 02 - Virtualização de sistema operacional (LAUREANO. Marcos, 2006, 25p) 2.2.2.2 Virtualização das linguagens de programação A virtualização das linguagens de programação, tem como alvo, as máquinas virtuais que são feitas para computadores fictícios destinados a uma única e específica tarefa. Na camada da virtualização é criada uma aplicação no topo do sistema operacional. Nesta camada ocorre a utilização de programas construídos para esta estrutura de virtualização que traz como exemplo o Java Virtual Machine. Imagem 03 - Virtualização de linguagem da programação (LAUREANO. Marcos, 2006, 26p) O Java Virtual Machine (JVM), como é conhecido, mostra bem um exemplo de virtualização de linguagem de programação. Através deste software é possível criar aplicações que rodam em plataformas especificas, como os celulares, GPS’s os mainframes. Laureano (2006), divulga que com o propósito de ser executado em qualquer plataforma, o código JVM tem obtido o seu lugar de destaque no mercado. E a Sun, principal detentora do Java, define uma JVM como uma máquina imaginária implementada via software ou hardware que executa instruções vindas de bytecode. 2.2.2.3 Emulação de hardware. A emulação de hardware tem o seu propósito no próprio nome, apesar de ser o mais complexo dos três tipos. Nesta forma de virtualização pode se construir a compatibilidade os softwares e hardwares, ou em outras palavras, pode-se usar o virtual para simular o real. A vantagem é que pode-se criar vários tipos diferentes de hardwares virtuais utilizando apenas um fisico, como por exemplo, com um processador “Core 2 Duo”, criar dois petium D. Claro que, por se tratar de uma emulação complexa, surgem algumas desvantagens, como a perda de desempenho. Os pedidos dos hardwares virtuais são modificados para que o hardware real possa atendê-los. Pode se ver que as respostas do hardware fisico serão também emuladas para que os hardwares virtuais compreendam. Ricardo e Marques (2009), enfatizam que o hypervisor (responsável pela por fornecer recurso da maquina física para a maquina virtual) já contém os drivers para os dispositivo e não existe maneira de serem modificados ou instalados pelo usuários. De forma que se uma máquina tem em seu hardware a tecnologia hypervisor. será impossível executar em sua máquina uma emulação. Isto com certeza pode causar muitos problemas. 2.2.3 Técnicas de virtualização Na atualidade as técnicas mais usadas para virtualização são : A virtualização Total (Full virtualization) e a Paravirtualização (Paravirtualization). 2.2.3.1 Virtualização Total Esta técnica de virtualização é usada para uma simulação completa do hardware utilizado, sendo assim, qualquer sistema operacional instalado poderá funcionar como se estivesse instalado fisicamente. Nesta técnica, o que é hospedado pelo sistema operacional não é modificado em nenhum momento por causa da virtualização. Isto se torna uma vantagem desta implementação. Mas há também desvantagens, mesmo sendo menores. A desvantagem nesta situação é que ela faz utilização de dispositivos genéricos causando pouca utilização dos recursos disponíveis, e também por não fazer nenhuma modificação no sistema anfitrião, o software de virtualização utilizado fará testes em todas as instruções causando um overhead de processamento. O principal benefício da virtualização total é justamente o fato de que o sistema a ser virtualizado não sofre qualquer tipo de alteração; em compensação, o sistema virtualizado executa de forma mais lenta e o monitor de máquinas virtuais precisa implementar alternativas para que as operações privilegiadas possam ser executadas em processadores que não suportem a virtualização nativamente, tais como os processadores Intel 32 bits disponíveis atualmente. (LAUREANO Marcos, 2006, p.29) Imagem 04 - Virtualização total (LAUREANO. Marcos, 2006, 29p) 2.2.3.2 Para-Virtualização A principal diferença entre a virtualização total e a para-virtualização é realmente a necessidade de que o sistema, no caso da para-virtualização, seja modificado, e desta forma, diminui a portabilidade anfitrião x convidado. Há limites entre máquina real e virtual, como por exemplo, endereços da memoria e instruções dos processadores que são gerenciados pelo monitor da máquina virtual. A para-virtualização – embora exija que o sistema a ser virtualizado precise ser modificado, o que diminui a portabilidade do sistema – permite que o sistema convidado consiga acessar recursos do hardware diretamente. O acesso é monitorado pelo monitor de máquinas virtuais, que fornece ao sistema convidado todos os “limites” do sistema, tais como endereços de memória que podem ser utilizados e endereçamento em disco, por exemplo. (LAUREANO Marcos, 2006, p.30) A vantagem da para-virtualização vem do fato de que diminui a dificuldade dos desenvolvimentos das máquinas virtuais, trazendo uma compensação pelas modificações sofridas nos sistemas convidados. Imagem 05 - Para-virtualização (LAUREANO Marcos, 2006, p.30) A para-virtualização reduz a complexidade do desenvolvimento das máquinas virtuais, já que, historicamente, os processadores não suportam a virtualização nativa. A performance obtida, a principal razão para utilizar a para-virtualização, compensa as modificações que serão implementadas nos sistemas convidados. (LAUREANO Marcos, 2006, p.30) 2.2.4 Soluções em tecnologia para virtualização Hoje no mercado de virtualização de servidores encontram-se várias empresas e várias tecnologias: existem soluções pagas e até mesmo gratuitas, mas todas, existem também prós e contras. Este artigo irá abordar algumas delas, trazendo também as vantagens e desvantagens de cada. São usados para virtualização de micros e servidores voltados para testes com sistemas desktop podemos utilizar as soluções: • Virtual Box • Qemu • VMware • Microsoft Virtual PC • BootCamp • Parallels Já para virtualização de servidores em área em produção, que é o que este trabalho se propõe: • VMware ESX e ESXi • Citrix Xen 2.2.4.1 Solução da ESX O VMware é uma solução muito utilizada por grandes empresas. A desta solução possui uma bagagem de fato comprovada em virtualização no mercado. Segundo a fabricante VMware (2011) o ESX e o ESXi podem fornecer uma infraestrutura de TI confiável e eficaz. Hoje elas são as soluções de virtualização líder de mercado, um trabalho com êxito comprovado na separação dos recursos de processador, memória, armazenamento e rede em várias máquinas virtuais, que podem executar um sistema operacional e aplicativos não modificados. 2.2.4.2 Solução da XenServer A solução para virtualização de servidores da empresa Citrix apresenta um software robusto de qualidade, e também de uma instalação um pouco mais difícil de ser implementada. Mas a gratuidade desse serviço, compensa a sua complexidade. Segundo a fabricante Citrix (2011) o XenServer é uma das poucas soluções de virtualização na classe empresarial cloud-proven que oferece recursos necessários para migração à quente e um gerenciamento centralizado de múltiplos servidores sem nenhum custo. 2.2.4.3 Vantagens As vantagens da virtualização de servidores em qualquer das duas soluções sempre são as mesma, destacando é claro, que a solução XenServer da Citrix sai na frente por se tratar de um software totalmente gratuito como é citado pela fabricante. Segundo a Devel sistema (2011) as vantagens da virtualização de servidores em empresas de médio e grande porte são: • Gerenciamento centralizado • Instalações simplificadas • Facilidade para a execução de backups • Suporte e manutenção simplificados • Acesso controlado a dados sensíveis e à propriedade intelectual mantendo-os seguros dentro do data center da empresa • Independência de Hardware • Disponibilização de novos servidores fica reduzida para alguns minutos • Migração de servidores para novo hardware de forma transparente • Maior disponibilidade e mais fácil recuperação em caso de desastres • Compatibilidade total com as aplicações • Economia de espaço físico • Economia de energia elétrica utilizada em refrigeração e na alimentação dos servidores, entrando assim na chamada TI Verde (Sustentabilidade). • Segurança: Usando máquinas virtuais, pode-se definido qual é o melhor ambiente para executar cada serviço, com diferentes requerimentos de segurança, ferramentas diferentes e o sistema operacional mais adequado para cada serviço. Além disso, cada máquina virtual é isolada das demais. Usando uma máquina virtual para cada serviço, a vulnerabilidade de um serviço não prejudica os demais. • Confiança e disponibilidade: A falha de um software não prejudica os demais serviços. • Custo: A redução de custos é possível utilizando pequenos servidores virtuais em um único servidor mais poderosos. • Adaptação às diferentes cargas de trabalho: A carga de trabalho pode ser tratada de forma simples. Normalmente os softwares de virtualização realocam os recursos de hardware dinamicamente entre uma máquina virtual para a outra. • Balanceamento de carga: Toda a máquina virtual está encapsulada, assim é fácil trocar a máquina virtual de plataforma e aumentar o seu desempenho. • Suporte a aplicações legadas: Quando uma empresa decide migrar para um novo Sistema Operacional, é possível manter o sistema operacional antigo sendo executado em uma máquina virtual, o que reduz os custos com a migração. Vale ainda lembrar que a virtualização pode ser útil para aplicações que são executadas em hardware legado, que está sujeito a falhas e tem altos custos de manutenção. Com a virtualização desse hardware, é possível executar essas aplicações em hardwares mais novos, com custo de manutenção mais baixo e maior confiabilidade. • Melhor aproveitamento do espaço físico: menos dispositivos físicos instalados maior o espaço disponível em racks. • Melhor aproveitamento do hardware: com o compartilhamento do hardware entre as máquinas virtuais reduz-se a ociosidade do equipamento. • Simulações: Com as máquinas virtuais é possível simular redes inteiras, inclusive redes heterogenias. • Pode-se utilizar sistemas operacionais que não possuam compatibilidade com o hardware, utilizando os recursos de virtualização de hardware. Possibilitando assim testes ou até mesmo economia com a compra de hardware de menor custos. • Redução do downtime • Facilidade ao migrar ambientes: evita reinstalação e reconfiguração dos sistemas a serem migrados • Utilização de uma VM como ambiente de desenvolvimento: possibilita testes em SO’s distintos e, por prover um ambiente isolado, evita que falhas na configuração e/ou execução, ou até mesmo vírus, danifiquem o hardware da máquina 2.2.4.4 Desvantagens As desvantagens dessas soluções são aceitáveis pelos benefícios que estas implementações podem trazer à empresa, tratando-se de tempo de gestão, tempo de solução de problemas, ganho em espaço e dinamismo da área de TI. Segundo informa também a Devel (2011), esta implementação tem suas maiores desvantagens ligação direta com os hardwares dos servidores implementados. São elas: • Grande uso de espaço em disco, já que é preciso de todos os arquivos para cada sistema operacional instalado em cada máquina virtual. • Dificuldade no acesso direto a hardware, como por exemplo placas específicas ou dispositivos USB • Grande consumo de memória RAM dado que cada máquina virtual vai ocupar uma área separada da mesma • Gerenciamento: Os ambientes virtuais necessitam ser instanciados, monitorados, configurados e salvos. Existem produtos que fornecem essas soluções, mas esse é o campo no qual estão os maiores investimentos na área de virtualização, justamente por se tratar de um dos maiores contratempos na implementação da virtualização. 3 METODOLOGIA O trabalho utilizou como tipo de pesquisa o estudo de caso da empresa Sênior Engenharia, que com a utilização de virtualização, mudou a forma de gerir os serviços da TI (Tecnologia da Informação) na estrutura da empresa. Marconi e Lakatos (2001) definem o método científico como o grupo de atividades sistemáticas e racionais que, com segurança e economia, permitem o alcance dos objetivos e conhecimentos válidos e reais, mostrando o caminho a ser seguido, mostrando uma forma de evitar erros e ajudando nas melhores práticas e decisões no estudo cientifico. Este trabalho, em função dos objetivos, foi concebido como uma pesquisa exploratória que, segundo Gil (1995), constitui pesquisas desenvolvidas com o propósito de proporcionar uma visão geral, de tipo aproximativo, sendo, geralmente, desenvolvida quando se trata de uma área na qual há pouco conhecimento acumulado e sistematizado (VERGARA, 2004). Andrade (2001) sintetiza dizendo que este tipo de pesquisa se configura como a fase preliminar, buscando proporcionar mais informações sobre o assunto a ser investigado. Primeiramente a coleta de dados foi estruturada por meio da pesquisa documental ou de fonte primária, que, na definição de Marconi e Lakatos (1990), se caracteriza em uma fonte restrita a documentos. Para GIL (1991), o estudo de caso se alicerça na ideia de que o questionamento de uma unidade de determinado mundo possibilita a compreensão da generalidade do mesmo, ou, pelo menos, estabeleça a bases para uma investigação posterior, mais sistemática e precisa". O trabalho também contou com o tipo explicativo de pesquisa. Segundo Gil (1991) o tipo explicativo é feito de preferência sobre temas pouco explorados que se torna um pouco complicado formular hipóteses mais detalhadas sobre eles. O resultado final deste tipo de pesquisa traz melhor esclarecimento sobre os problemas. Para coletar os dados para este trabalho, utilizou de entrevistas, que na definição de GIL (1991) é a forma mais simples de se obter mais informações sobre o problema pesquisado, de uma forma geral e de rápida concepção do que se busca através de fatos reais em procedimento. Tendo como objetivo básico a coleta de dados necessários para a definição da pesquisa. 4 Apresentação e análise dos resultados A presente seção apresentará os resultados obtidos a partir da análise dos dados sobre a utilização da tecnologia de virtualização de servidores da empresa Sênior Engenharia, no âmbito da gerência e Governança de TI. 4.1 Sênior Engenharia A empresa foi fundada há 21 anos por quatro sócios que já experientes em projetos, obras, estudos técnicos e desenvolvimento de produtos na área de engenharia elétrica. A empresa possui duas subdivisões: a Sênior Montagem, que faz a montagens de seus produtos e soluções, a Sênior Equipamentos responsáveis por comercializar equipamentos e alguns serviços. A empresa está no mercado de projetos elétricos de grande porte, no treinamento de profissionais, criação de soluções e equipamentos e a comercialização dos mesmos. 4.2 Servidores A empresa conta com oito servidores físicos contando com matriz e filiais, sendo que quatro destas máquinas fazem a virtualização de vinte e dois servidores. E as duas máquinas restantes não são virtualizadas e não realizam serviços importantes na rede em termos de disponibilidade de serviço para o usuário. São máquinas que executam tarefas internas. Imagem 06 - Servidores Físicos da Empresa Fonte: Elaborado pelo autor. 4.3 Serviços Os servidores da empresa implementam serviços diversos como serviços de arquivos, domínios, serviços de DNS(Sistema de Nomes de Domínios), serviços HTTP (Protocolo de transferência de hipertexto), serviço de banco de dados, serviços de email, proxy, serviço de DHCP (protocolo de configuração dinâmica de endereços de rede), serviço de Firewall, controle de acesso wireless e VPN (Rede Privada Virtual) todos os serviços configurados e alguns serviços em servidores implementados em uma DMZ “zona desmilitarizada” Segundo Pinheiro (2004) uma DMZ ou ainda "Zona Neutra" corresponde ao segmento ou segmentos de rede, parcialmente protegidos, que se localizam entre redes protegidas e redes desprotegidas, e que contém todos os serviços e informações para clientes ou públicos. A DMZ pode também incluir regras de acesso específico e sistemas de defesa de perímetro para que simule uma rede protegida e induzindo os possíveis invasores para armadilhas virtuais de modo a se tentar localizar a origem do ataque. Imagem 07 – Servidores Físicos e as Virtualizações Fonte: Elaborado pelo autor. 4 .4 Usuários A empresa conta com um número considerável de usuários, cerca de 220 colaboradores, sabendo que uma fatia destes trabalham alocados em contratos e utilizam de acesso VPN com os serviços da matriz. O entrevistado frisa que esta é com certeza uma das partes que lhe dá mais trabalho para configurar e manter em funcionamento, maior parte por se tratar de pessoas leigas neste tipo de acesso. Normalmente são engenheiros, técnicos de seguranças ou representantes da empresa, causa muitos chamados. 4.1.1 Setores A Sênior engenharia tem seis departamentos em sua estrutura organizacional: Gestão Administrativa, o Financeiro, o Recursos Humanos, o Marketing, o Departamento de desenvolvimento e o da Produção. Todos estes setores estão dentro da estrutura lógica montada para melhor atende-los, deixando em destaque que o setor da TI se aplica ao departamento de gestão administrativa. 4.5 Gestão da ti Conforme analisado através da entrevista feita no mês de junho em 2011, a empresa conta com apenas quatro profissionais entre gerência, desenvolvimento, infraestrutura e suporte, considerando uma equipe bem enxuta para uma empresa que tem uma quantidade considerável de desktops e usuários. Mesmo assim pode observar que graças à implementação da solução da virtualização dos servidores, o trabalho torna-se mais rápido e fácil para a equipe da TI. 4.6 Depois da virtualização Depois de ser concluída no final do ano de 2010, a virtualização - que durou cerca de um ano - contando com pesquisas, para estudar o melhor software para a empresa, qual técnica seria mais viável para a empresa, colocar esta técnica em experiência, treinamentos para a gerência e finalmente a virtualização dos servidores, a Sênior Engenharia apresentava em julho de 2011 ótimos resultados. Todo transtorno e dificuldades encontradas antes da solução, foram reduzidos consideravelmente. Notou-se uma maior economia nos gastos em geral, economia de espaço e nos gastos com hardwares. Antes da virtualização, se o gerente precisasse criar outro servidor físico para uma filial, por exemplo, teria de primeiro solicitar ao financeiro uma máquina para tão configuração. Esta máquina depois de comprada, teria que ser configurada com um sistema operacional Server, incluída na rede da empresa a matriz, estruturada localmente a filial e implementada dentro da rede com todos os usuários e seus departamentos. Já na solução de virtualização o mesmo gerente se “logaria” no sistema da máquina com as virtualizações e subiria uma das máquinas padrões criada pelo gerente para esta eventualidade, e mais um servidor estará pronto para ser levantado na rede, pronto para serviço da nova filial, em apenas alguns minutos dependendo dos tipos de serviços implementados. 4.6.1 Benefícios A virtualização dos servidores da Sênior trouxe maior desempenho para sistema ERP da empresa. Na máquina física, estava apresentando alguns problemas de incompatibilidade, provocando indisponibilidade de serviço. Após ser migrado para uma máquina virtual no primeiro trimestre deste ano (2011), mostrou maior desempenho e segurança. A economia de espaço dos ativos pode ser notado no CPD (Centro de Processamento de Dados). A empresa conta hoje com dezesseis servidores na matriz e seis entre as filiais, todos virtuais, rodando em seis máquinas físicas. Desta forma o consumo de energia da empresa teve uma redução bem considerável, ajudando também na preservação do meio ambiente. A empresa está pronta para crescer em qualquer tempo até mais de 50% dos usuários e micros em sua estrutura graças a esta tecnologia. 4.6.2 TI Verde Hoje se fala muito sobre a TI verde, e as grandes empresas estão se mobilizando para um maior envolvimento na sustentabilidade de nosso planeta, e ao ser perguntado sobre se existe algum projeto formal sobre a TI verde, o entrevistado informou que atualmente não há projeto em documentados sobre o assunto, mas crê que a empresa já ingressou nesta luta quando optou pela virtualização de seus servidores. Como já foi dito ao longo deste trabalho, a diminuição de gastos em energia elétrica e uso de ar condicionado, pode reduzir a emissão de CO2 e o consumo desnecessário da energia elétrica. 5 CONCLUSÃO A virtualização deixou de ser uma possibilidade futura e tornou-se uma realidade para todas as empresas que tenham o desejo e a capacidade de manter-se no mercado. Esta inovação no processo de gestão da TI torna-se também necessária para todas as empresas que desejam rapidez nas soluções de softwares internos e serviços também esternos. Contudo, é preciso observar a realidade de cada empresa. Esta solução não é um milagre e deve ser bem estudada e bem estruturada para que se obtenha o melhor para a empresa. Diante do trabalho apresentado, pode se concluir que a virtualização não só pode melhorar no aspecto de solução para espaço de maquinas, economias com energia e aquisição de várias máquinas para aumento da estrutura, como também melhorar a gestão como um todo. A virtualização possibilita conciliar o dinamismo com as melhores práticas, a agilidade com a qualidade de serviço. É realmente é interessante para toda empresa de grande e médio porte, que deseja crescer sem ter um grande impacto em seu orçamento, a implantação desta solução em suas instalações. REFERÊNCIAS ALECRIM, Emerson. Básico sobre DNS (Domain Name System). Infowester, 2005. Disponível em: < http://www.infowester.com/dns.php>. Acesso em 30 de janeiro de 2012 ABEPRO, 2008. Disponível em: <http://www.abepro.org.br/biblioteca/enegep2008_TN_STP_077_543_11709.pdf>. Acesso em: 3 mai. 2011. BRASP. TI verde. Disponível em <http://brasp.com.br/novo/blogs/virtualizacao>. Acesso em 27 de março. 2011. CARVALHO, João Antônio. Informática para Concursos – 3ª ed. ver. Ampliada. Rio de Janeiro; Elservier, 2006 Citrix XenServer Disponível em <http://www.citrix.com.br/products/xenserver.php>. Acesso em 28 de junho. 2011. FARIA, Fabio. Prefácio. In: ALBERTIN, L. A.; MOURA, R. M. (Organizadores). Tecnologia de Informação. São Paulo: Atlas, 2004. Firewall. Disponível em <http://www.rnp.br/newsgen/9708/n3-1>. Acessado em: 24 de junho. 2011. Função do servidor de arquivos: Configurando um servidor de arquivos. Disponível em: http://technet.microsoft.com/pt-br/library/cc780253(WS.10).aspx . Acessado em: 10 de junho. 2011 GIL, Antonio Carlos. Métodos e técnicas de pesquisa social. 3. ed. São Paulo: Atlas, 1991. GOLDEN, Bernard; SCHEFFY, Clark. Virtualization for Dummies, Sun AMD Special Edition. Indianapolis: Wiley Publishing INC, 2008. GRAEML, A. R. Sistemas de informação: o alinhamento das estratégias de TI com a estratégia corporativa. 2. ed. São Paulo: Atlas, 2003 História: Conhecendo a origem da virtualização. Disponível em: <http://www.vmworld.com.br/br/index.php?option=com_content&view=article&id=80: historia-conhecendo-a-origem-da-virtualizacao&catid=50:virtualizacao>. Acesso em: 04 de julho. 2011 JURAN, J.M.,GRYNA, F.M. Controle da qualidade handbook: conceitos, políticas e filosofia da qualidade. São Paulo: Makron, McGraw-Hill, 1991.V.I KUSNETZKY, Dan. Virtulization is more than a virtual machine software. Disponivel em < http://www.kusnetzky.net/publications/ImpactPapers/20070829_Virtualization_is_more_than _VM.pdf>. Acesso em 30 de janeiro de 2012 LAUREANO, Marcos Aurélio Pchek. Máquinas Virtuais e Emuladores - Conceitos, Técnicas e Aplicações – 1ª ed. Curitiba, Novatec, 2006 LAUREANO, Marcos Aurelio Pchek; MAZIERO, Carlos Alberto. “Virtualização: Conceitos e Aplicações em Segurança“. Minicursos em VIII Simpósio Brasileiro em Segurança da Informação e de Sistemas Computacionais. Capítulo de livro (4). Editora SBC – Porto Alegre, 2008. LOPES, Raquel. Firewall, Boletim bimestral sobre tecnologia de redes publicado pela Rede Nacional de Ensino e Pesquisa. 1997. Disponível em: <http://www.rnp.br/newsgen/9708/n3-1.html>. Acesso em Maio de 2007. MARCONI, Marina de Andrade; LAKATOS, Eva Maria. Metodologia do Trabalho Científico. 7. ed. São Paulo: Atlas, 2001. MATTOS, K. M. da C.; PERALES, W. J. S. Os impactos ambientais causados pelo lixo eletrônico e o uso da logística reversa para minimizar os efeitos causados ao meio ambiente. In: Encontro Nacional de Engenharia de Produção, 28., 2008, Rio de Janeiro. Anais… PINHEIRO, J. M. S. Artigo Projeto e Gestão de Redes de computadores. Disponível em < http://www.projetoderedes.com.br/artigos/artigo_redes_de_perimetro.php>. Acesso em 31 de jeneiro de 2012 O que é Servidor de Proxy. Disponível em: http://windows.microsoft.com/pt-BR/windowsvista/What-is-a-proxy-server. Acessado em: 24 de junho. 2011 Profissionais de Tecnologia. O que é ITIL. Disponível em <http://www.profissionaisdetecnologia.com.br/blog/?p=168>. Acesso em 15 de maio. 2011 RICARDO, J. C; MARQUES, C. F. C. Sistemas de Virtualização. Instituto Politécnico Gaya, 2009 RODRIGUEZ, M. V. R. Gestão Empresarial: organizações que aprendem. Rio de Janeiro: Qualitymark, 2002. Servidores e Redes de Computadores. Disponível em: <http://www.garlix.com.br/index.php?option=com_content&view=article&id=69&Itemid=96 >. Acessado em: 24 de junho. 2011 Servidor de Email. Disponível em: <http://www.grupocomp.com.br/index.php?option=com_content&view=article&id=138%3A servidor-de-email&catid=67%3Aservroktabs&Itemid=66>. Acesso em 10 de junho. 2011 STAIR, R. M.; REYNOLDS, G. W. Princípios de sistemas de informação: uma abordagem gerencial. 4. ed. Rio de Janeiro/RJ: LTC, 2002. TI Verde e Cloud Computing. Disponível em: <http://blog.redehost.com.br/dicas/ti-verde-ecloud-computing.html>. Acesso em: 04 de julho. 2011 VERGARA, Sylvia Constant. Projetos e Relatórios de Pesquisa em administração. 4ª ed. São Paulo: Atlas, 2003. VMWARE. Conceitos básicos de virtualização. Disponível em: <http://www.vmware.com/br/technology/history.html>. Acesso em 01 de maio. 2011 VMWARE ESX e VMware ESXi. Disponível em : <http://www.vmware.com/files/br/pdf/products/VMW_09Q1_BRO_ESX_ESXi_BR_A4_P6_ R2.pdf> Acesso em: 01 de maio. 2011