A revolução dos computadores Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar a onde está, e ainda está muito longe de chegar ao seu final. Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada. Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos e componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos. Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores. As gigantes válvulas da primeira geração Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos. Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC. Fonte da imagem: Wikimedia Commons/Domínio Público Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina. Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários. Transistores e a redução dos computadores As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com manutenção. A principal necessidade era substituir as válvulas elétricas por uma nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão responsável pela geração de calor excessivo, evitando superaquecimentos. Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories) passaram a integrar os painéis das máquinas de computar. Os componentes eram criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os materiais utilizados até hoje em placas e outros componentes, extraídos da areia abundante. Fonte da imagem: Wikimedia Commons/Hohum Existia uma série de vantagens dos transistores em relação às válvulas. Para começar: as dimensões desses componentes eram bastante reduzidas, tornando os computadores da segunda geração cem vezes menores do que os da primeira. Além disso, os novos computadores também surgiram mais econômicos, tanto em questões de consumo energético, quanto em preços de peças. Para os comandos desses computadores, as linguagens de máquina foram substituídas por linguagem Assembly. Esse tipo de programação é utilizado até hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware, por trabalhar com instruções mais diretas. Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa segunda geração de computadores) pesava apenas 890 Kg. E por mais que pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades vendidas. Fonte da imagem: Wikimedia Commons/David Monniaux Curiosidade: os computadores dessa segunda geração foram inicialmente desenvolvidos para serem utilizados como mecanismos de controle em usinas nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais especificamente no posto de trabalho de Homer, técnico de segurança na Usina Nuclear. Miniaturização e circuitos integrados O emprego de materiais de silício, com condutividade elétrica maior que a de um isolante, mas menor que a de um condutor, foi chamado de semicondutor. Esse novo componente garantiu aumentos significativos na velocidade e eficiência dos computadores, permitindo que mais tarefas fossem desempenhadas em períodos de tempo mais curtos. Com a terceira geração dos computadores, surgiram também os teclados para digitação de comandos. Monitores também permitiam a visualização de sistemas operacionais muito primitivos, ainda completamente distantes dos sistemas gráficos que conhecemos e utilizamos atualmente. Fonte da imagem: Wikimedia Commons/Domínio Público Apesar das facilidades trazidas pelos semicondutores, os computadores dessa geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM 360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os antecessores. Nessa época (final da década de 1970 e início da década de 1980) os computadores passaram a ser mais acessíveis. Outro grande avanço da terceira geração foi a adição da capacidade de upgrade nas máquinas. As empresas poderiam comprar computadores com determinadas configurações e aumentar as suas capacidades de acordo com a necessidade, pagando relativamente pouco por essas facilidades. Microprocessadores: o início dos computadores pessoais Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje. Os computadores da quarta geração foram os primeiros a serem chamados de “microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem menos de 20 kg, o que torna o armazenamento deles muito facilitado. Você consegue imaginar qual o componente que tornou possível essa redução das máquinas? Acertou quem disse que foram os microprocessadores. O surgimento dos pequenos chips de controle e processamento tornou a informática muito mais acessível, além de oferecer uma enorme gama de novas possibilidades para os usuários. Em 1971, já eram criados processadores com esse novo formato, mas apenas na metade da década começaram a surgir comercialmente os primeiros computadores pessoais. Os Altair 880 podiam ser comprados como um kit de montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a dinastia Microsoft. A importância da Apple Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa da Maçã para se dedicarem a projetos de computação pessoal facilitados para usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares pela Intel. Fonte da imagem: Musée Bolo Essa segunda versão dos computadores possuía uma versão modificada do sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo sistema era a utilização de interface gráfica para alguns softwares. Também era possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados. Essa mesma Apple foi responsável pela inauguração dos mouses na computação pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh. Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida com o sistema da rival. E os ciclos tornam-se clocks Até a terceira geração dos computadores, o tempo de resposta das máquinas era medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de tempo para que fosse possível saber qual fração de segundo era utilizada para elas. Com os microprocessadores, já não era viável medir as capacidades dessa forma. Por isso surgiram as medidas por clocks. Esta definição calcula o número de ciclos de processamento que podem ser realizados em apenas um segundo. Por exemplo: 1 MHz significa que em apenas um segundo é possível que o chip realize 1 milhão de ciclos. Grande parte dos computadores pessoais lançados nessa época eram alimentados por processadores da empresa Intel. A mesma Intel que hoje possui alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos mais, em breve). Como você pode saber, estas máquinas são muito leves e puderam ser levadas a um novo patamar. Notebooks: a quarta geração portátil Considerando o progresso da informática como sendo inversamente proporcional ao tamanho ocupado pelos componentes, não seria estranho que logo os computadores transformassem-se em peças portáteis. Os notebooks surgiram como objetos de luxo (assim como foram os computadores até pouco mais de dez anos), sendo caros e de pouca abrangência comercial. Fonte da imagem:divulgação/Asus Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes funcionam de maneira similar aos outros, mas geralmente possuem dimensões e configurações menos atraentes. Ganham pontos pela extrema portabilidade e duração das baterias utilizadas, sendo certamente um degrau a mais na evolução dos computadores. Hoje, o preço para se poder levar os documentos, arquivos e programas para todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo passo da indústria? Múltiplos núcleos: a quinta geração? Ainda estamos em transição de uma fase em que os processadores tentavam alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser obrigatório que cada chip possua mais de um núcleo com essas frequências. Chegaram ao mercado os processadores que simulavam a existência de dois núcleos de processamento, depois os que realmente apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por servidores, que já oferecem oito. Com tanta potência executando tarefas simultâneas, surgiu uma nova necessidade. Processamento verde Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais energia elétrica seja consumida. Para combater essa máxima, as empresas fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem diminuir as capacidades de seus componentes. Foi então que nasceu o conceito de “Processamento Verde”. Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes. Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e também para o meio ambiente. Fonte da imagem: divulgação/Intel Outro elemento envolvido nessas conceituações é o processo de montagem. As fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de LED, muito menos nocivos à natureza do que LCDs comuns. Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem considere a inteligência artificial como sendo essa nova geração, mas também há quem diga que robôs não fazem parte dessa denominação. Porém, o que importa realmente é perceber, que ao longo do tempo, o homem vem trabalhando para melhorar cada vez mais suas máquinas. Quem imaginava, 60 anos atrás, que um dia seria possível carregar um computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria necessário um trem para carregar um deles? Hoje, por exemplo, já existem computadores de bolso, como alguns smartphones que são mais poderosos que netbooks. E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite os comentários para dizer o que você pensa sobre essas melhorias proporcionadas ao longo de década. Conheça o primeiro computador da história O mecanismo Antikythera, encontrado nos escombros de um naufrágio na costa grega, foi provavelmente construído pelo filósofo e matemático Aristóteles. Fonte da imagem: Antikythera Mechanism Research Project Encontrado em meio a destroços submersos próximos à ilha grega de Antikythera por uma tripulação de mergulhadores locais, o conjunto de engrenagens que viria a ser conhecido como mecanismo Antikythera passou quase um século sem ser compreendido. Apenas com técnicas recentes de pesquisa – como os microscópios eletrônicos e imagens por raios-x – o funcionamento e razão de ser do mecanismo puderam ser compreendidos. Financiado pelo governo grego em parceria com grandes empresas de tecnologia como a HP, o Antikythera Mechanism Research Project (projeto de pesquisa do mecanismo Antikythera) conta com cientistas gregos e britânicos para resolver e identificar todos os detalhes do aparelho datado do século 2 a.C. A história dos sistemas operacionais Atualmente, os sistemas operacionais (SO) estão cada vez mais fáceis de usar, possuindo interfaces muito simples e bonitas. Contudo, todas estas funcionalidades não surgiram do nada, foram evoluindo com o tempo. Por exemplo, a bela interface gráfica do Windows Vista é resultado de mais de 20 anos de desenvolvimento, desde as primeiras versões deste SO. Por isso, criamos este artigo que conta a história dos sistemas operacionais, incluindo os principais representantes de cada época. Sistema operacional não é a maquina Atualmente, ainda são comuns alguns equívocos em relação ao sistema operacional. Por exemplo, todos alguma vez já ouviram um diálogo como este: - Que computador você irá comprar? - Vou comprar o Windows. O diálogo acima demonstra um erro muito comum no mundo da informática: pensar que o sistema operacional é a máquina em si. Basicamente, o computador é composto por duas grandes categorias: hardware e software. A primeira delas se refere à parte física da máquina, ou seja, o que pode ser tocado fisicamente. Já a segunda abrange a parte lógica responsável por realizar tarefas, utilizando-se do hardware para a realização de suas tarefas. Por isso, sistemas operacionais como o Windows, Linux ou o MAC OS, são apenas softwares que gerenciam toda a atividade do hardware, mas não o computador em si. Consequentemente, em um PC que contenha um dos SOs citados acima, quase sempre é possível instalar outro. Sistemas operacionais primitivos Primeiramente, vamos tratar sobre a gênese dos sistema operacionais, abordando a forma como eram desenvolvidos nas décadas de cinquenta, sessenta e setenta. Máquinas que não usavam SO A primeira geração da computação moderna (1945-1955) não trabalhava com o conceito de sistema operacional propriamente dito, visto que as operações eram setadas através de hardware. Por exemplo, chaves, quilômetros de fios e luzes de aviso, como na foto abaixo do Eniac. Nesse período, era muito comum que a mesma pessoa projetasse, programasse e utilizasse os computadores. A principal implicação desta abordagem é o fato de que era muito difícil criar rotinas programáveis, exigindo trabalho intenso dos operadores de máquinas. Programação em Batch O conceito de sistema operacional apareceu durante a segunda geração da computação moderna (1955 - 1965), através da programação em Batch. Assim, vários comandos já poderiam ser executados em sequência através de cartões perfurados, eliminando parte do trabalho do operador de terminal. Normalmente, um programa era composto por um conjunto de cartões inseridos pelo usuário do sistema, na ordem correta. Sistemas específicos Em meados da década de 60, os primeiros sistemas operacionais foram desenvolvidos conforme a evolução da tecnologia da época. Contudo, cada máquina possuía seu próprio SO específico, o que implicava na incompatibilidade de mainframes distintos. Um dos maiores representantes foi o CTSS, criado pela MIT, sendo lançado em 1961 para o computador IBM 7090. Unix, o primeiro sistema operacional moderno Visando ao problema da incompatibilidade de SOs de máquinas distintas, um grupo de desenvolvedores da AT&T ciaram o Unix em 1969, sendo o primeiro sistema operacional moderno da computação. É possível afirmar que mais de 90 porcento dos SOs atuais foram influenciados de alguma maneira pelo Unix. Sua primeira versão foi escrita em linguagem assembly, sendo posteriormente reescrito em C no ano de 1973, linguagem utilizada até os dias de hoje. Este sistema introduziu conceitos muito importantes para a computação: portabilidade, multi-usuário, multi-tarefas e compartilhamento de tarefas. Durante a década de 70, o Unix foi distribuído gratuitamente (incluindo seu código fonte) para universidades e órgãos governamentais norte-americanos, o que conferiu muita popularidade a este sistema. Sua interface era totalmente em modo texto sem interface gráfica Em 1977 foi lançado o BSD, sistema operacional fortemente baseado no Unix, focado principalmente para a execução em máquinas específicas de alto desempenho, como o famoso computador VAX, o qual foi uma referência de hardware na época. Sistemas Operacionais para computadores pessoais Tanto o Unix quanto o BSD, em suas primeiras versões, foram desenvolvidos para o uso de computadores de grande porte, normalmente em universidades. Contudo, alguns jovens programadores possuíam uma ideia absurda para época: criar sistemas operacionais para o uso de pessoas comuns. Steve Jobs e a Apple Um dos primeiros a pensar desta forma foi Steve Jobs, fundador da Apple. Desde a criação de sua empresa, seu principal foco foi a criação de computadores para o dia-a-dia, incluindo sistemas operacionais fáceis de serem operados. O lançamento do Apple I em 1976, um dos primeiros computadores pessoais, foi um marco na história da computação. Pela primeira vez, um PC continha um teclado fácil de ser utilizado, com uma mini-televisão adaptada como monitor. Assim, conhecimentos avançados de computação já não eram mais requisitos para se operar um PC. Jobs fez questão de criar o seu sistema operacional do zero, sem se basear inicialmente no Unix. Nos anos seguintes, os modelos Apple II e Apple III foram lançados no mercado, um sucesso de vendas. Suas interfaces gráficas eram muito primitivas comparadas com o padrão usado atualmente, mas avançadíssimas para a época. Em meados de 1979, Steve Jobs tomou conhecimento sobre o desenvolvimento de um computador totalmente inovador pela Xerox Parc. Em uma vista a esta empresa, ele ficou deslumbrado com Xerox Alto, um PC que possuía uma interface gráfica (GUI) totalmente revolucionária. Pouco tempo depois, a Apple lançou o Lisa, aproveitando todas as ideias gráficas do computador. Não é nem preciso dizer que o sucesso foi estrondoso. Cada versão do Apple possuía um sistema operacional distinto. Como se não bastasse, o Apple Machintosh foi lançado em 1984, introduzindo o conceito de desktop, utilizando ícones e pastas para representar programas e arquivos do modo como conhecemos hoje. Esta máquina acompanhava o revolucionário e inovador sistema chamado MAC OS. Seu sucesso foi estrondoso em todo EUA, principalmente pela vinculação de seu comercial durante a final do Superbowl do mesmo ano. Com o passar dos anos, as novas versões do Macintosh e o do MAC OS já não eram mais populares como antes, o que fez com que a Apple perdesse bastante mercado para a Microsoft. No final dos anos 90, o código do Macintosh apresentava muitos problemas, o que obrigou que um novo plano fosse traçado. Em 2001, a Apple surpreendeu o mundo da informática, abandonando o seu próprio código e reescrevendo todo o seu sistema operacional usando o Unix como base. A partir daí, ele passou a se chamar MAC OSX, sistema que continua forte até os dias de hoje. Bill Gates e a Microsoft Voltando ao final da década de 70, outro jovem programador, chamado Bill Gates, também possuía o desejo de revolucionar o mundo da informática. Em 1975, ele fundou a Microsoft, empresa que possuía como objetivo primário o desenvolvimento de software em linguagem BASIC para o computador Altair da IBM. Com o sucesso dos programas desenvolvidos pela Microsoft, a empresa afirmou que possuía um sistema operacional completo. A IBM se interessou pelo projeto e ambas as organizações afirmaram um contrato, em 1979. Entretanto, a Microsoft estava com sérios problemas, pois não possuía um sistema operacional de verdade. A solução encontrada foi a compra do SO da Seattle Computer Products pelo valor de $50.000. Muitos o chamam de negócio do século, pois a partir de 50 mil dólares, a Microsoft possui o patrimônio atual avaliado em dezenas de bilhões de dólares. Após várias melhorias sobre o sistema comprado, a Microsoft lançou MS-DOS em 1982 cuja interface era baseada em modo texto, bastante parecida com a utilizada pelo Unix. Na época, esse SO não chamou tanta atenção, pois o Apple Lisa de Steve Jobs já trabalhava com uma interface gráfica. Tomando conhecimento deste problema, Bill Gates fez uma vista a Apple, com o objetivo básico de conhecer a empresa. Ao final da visita, Gates convenceu Jobs a ser incluído no desenvolvimento do Macintosh. O objetivo de Gates era maior que isso: copiar a interface gráfica do Machintosh, e foi exatamente isso que aconteceu. No lançamento do novo PC da Apple, Steve Jobs descobriu que a Microsoft estava lançando máquinas no Japão, cujas interfaces eram muito parecida com a do seu computador. Após a quebra da parceria entre os dois, Gates lançou o Sistema Operacional Windows 1.0 em 1985, batendo de frente com o MAC OS. Após problemas de administração, Jobs foi demitido da Apple, o que desestabilizou a empresa, retornando somente em 1997. Assim, a Microsoft foi ganhando cada vez mais mercado no mercado, lançando o Windows 2.0 em 1987, trazendo melhorias consideráveis na parte visual e no gerenciamento de memória. Windows 3.0 e 3.11 No início dos anos 90, o mercado de sistemas operacionais sofreu novo boom com o lançamento do Windows 3.0 (1990) e Windows 3.1(1992). Na sua versão 3.0, a memória passou a ser gerenciada de maneira muito mais eficiente, incluindo a melhora substancial na interface gráfica. Foi criado um painel de controle e um gerenciador de arquivos organizado, facilitando todo o trabalho do usuário. Um dos principais motivos que contribuíram para seu sucesso foi o fato do sistema já vir instalado de fábrica em um grande número de máquinas. O Windows 3.1, incluindo seu service pack 3.11, trouxe melhorias à versão 3.0, como uma interface de rede melhor desenvolvida. Em 2 meses de lançamento, o 3.1 vendeu 3 milhões de cópias. Windows 95, 98 e ME No ano de 1995, foi lançada no mercado a nova versão deste sistema operacional, o Windows 95. Esta versão foi tão importante para informática que acabou definindo o padrão com que o desktop é organizado, o qual ainda é utilizado no Vista. Por exemplo, podemos citar o botão Start, o menu Iniciar, a barra de tarefas e o gerenciador de arquivos Windows Explorer. Após alguns services packs, esta versão passou a suportar a leitura de dispositivos USB, o navegador internet explorer, entre outras funcionalidades. Dando continuidade a seu antecessor, a nova versão deste sistema foi lançada no ano de 1998, chamada de Windows 98. Apesar de apresentar melhorias em relação ao 95, o SO era um pouco lento e instável. Tais problemas só foram arrumados com o Windows 98 SE (Second Edition), lançado em 1999, que incluía funções avançadas para compartilhamento de rede, suporte integrado a drivers de DVD-ROM, entre outras tarefas O sucessor, Windows Me, lançado em 2000, foi um dos maiores fracassos na questão de sistema operacional, pois era muita instável. Possuía somente poucas melhoras em relação ao Windows 98 SE. Por isso, logo foi deixado de lado. Todas as versões apresentadas até aqui usavam o MS-DOS como núcleo do sistema, ou seja, o Windows funcionava como uma espécie de ambiente gráfico. Com o passar do tempo, o uso desta arquitetura tornou-se insuportável, visto que o MS-DOS não conseguia dar conta de processar tantas informações, o que ficou evidente no Windows Me. Windows XP e Vista Lançado em 2001, o Windows XP tornou-se um marco na história dos sistemas operacionais, principalmente por trazer muitos recursos totalmente novos. Entre eles é possível citar que o sistema tornou-se muito mais seguro, através da diferenciação de permissões entre administradores e usuários comuns. A estabilidade também é uma de suas fortes características, pois o número de telas azuis diminuíram consideravelmente. O principal motivo para todo esse avanço é uso do núcleo (kernel) NT como base, que exclui totalmente a necessidade do MS-DOS. Na verdade, o núcleo NT já vem sido usado desde outras versões do Windows lançadas para uso de servidores, como o Windows NT (1993) e Windows 2000 (2000). Contudo, foi somente no XP que esta arquitetura foi lançada para o usuário comum. Depois de seis anos de espera, a Microsoft lança o Windows Vista, em 2007, que foi muito aguardado pelos usuários. Ao contrário do XP, esta nova versão desapontou o público de uma maneira geral, principalmente por exigir uma máquina muito potente. Somente em computadores top de linha é possível observar vantagens no desempenho do Vista, principalmente pela suporte a multicore. Seu grande destaque foram os efeitos gráficos de última geração provido pelo pelo Aero e o Flip 3D. Sistemas Operacionais Livres Até o exato momento, apresentamos a evolução dos principais sistemas proprietários do mercado: Mac OS X e Windows. Agora, vamos focar nos sistemas livres. Apesar de fazer bastante sucesso nos anos 70, o Unix continuou a ser desenvolvido durante toda esta década e a seguinte também. No ano de 1983, um revolucionário programador chamado Richard Stallman criou o projeto GNU, ele afirmava que os softwares deveriam ser desenvolvidos de maneira livre, sem restrições na leitura ou modificação de seus códigos fontes. Em 1984, o MIT desenvolveu o X Window System, que como o seu nome diz, é um sistema gráfico de Janelas para o Unix. Ele permaneceu proprietário até 1987, quando uma versão opensource foi lançada, sendo incorporada no desenvolvimento deste sistema operacional. Um dos principais objetivos da GNU sempre foi desenvolver a sua própria versão do Unix, através de um Kernel próprio, chamado de GNU Hurd. Contudo, este núcleo possuía muitas falhas de sistema, comprometeu muito o seu desenvolvimento. O kernel Linux Visando estas falhas, um programador chamado Linus Torvalds estava desenvolvendo outro kernel para o GNU, chamado de Linux, em. Em seu primeiro lançamento oficial (1991), na versão 0.2, o Linux já possuía mais funcionalidades que o GNU, o que atraiu bastantes desenvolvedores. Pouco tempo depois, o núcleo criado por Torvalds já era o sistema GNU mais usado do mundo. Além disso, os programadores eram e ainda são livres para utilizar o kernel Linux em seus próprios sistemas, o que acabou gerando as famosas distribuições como conhecemos hoje . As primeiras ficaram conhecidas como Debian e Slackware, ambas lançadas no Ano de 1993. No início, eram difíceis de serem utilizadas, comparadas com os Windows 3.11 e 95, pois exigiam um conhecimento profundo de computação por parte dos usuários. Com o tempo, as distribuições Linux foram se tornando cada vez mais fáceis de serem utilizadas, principalmente para atrair o usuário comum do computador. Atualmente, utilizar este sistema é tão fácil quanto o Windows, principalmente em distribuições como o Ubuntu. Mídias de armazenamento: 50 anos de história Descubra o que mudou nas tecnologias de transporte de músicas, fotos e dados nos últimos 50 anos. Você já parou para pensar no que poderia ser armazenado em um disco rígido de 5 MB? Uma música? Alguns textos? Nada muito importante. Sim, é difícil imaginar a vida cotidiana sem pensar em gigabytes e terabytes, mas há 50 anos, era assim que o mundo da informática vivia: baseado em 5 megabytes de espaço em disco. O ano exato era 1956 e a IBM havia acabado de lançar o então moderníssimo IBM 305 RAMAC, um computador nada portátil que pesava algo em torno de 1 tonelada (1000 Kg). De lá para cá, muita coisa mudou, é óbvio, e o que o usuário mais tem percebido – mesmo analisando apenas os últimos dez anos – é a relação inversamente proporcional entre tamanho e capacidade. Agora o portal Baixaki traz ao usuário algumas informações muito interessantes acerca da história das mídias de armazenamento, tanto no campo musical, quanto nos campos fotográfico e digital, relembrando os principais dispositivos criados para o carregamento de dados e também algumas curiosidades sobre esses elementos tecnológicos. Da cera ao iPod... Hoje é difícil conhecer alguém que não possua um MP3 player ou qualquer outro reprodutor digital de mídias: 2 GB, 4 GB...Isso parece pouco em alguns momentos, as mídias armazenam horas e mais horas de canções sem repetições, mas isso nem sempre foi assim, há muito tempo a história era bem diferente. Um dos primeiros formatos de mídia musical, o cilindro fonográfico, inventado por Thomas Edison, era composto de estanho e podia ser reproduzido apenas três ou quatro vezes. Devido à pouca durabilidade foi criado um outro cilindro, de cera, que durava mais e possuía maior qualidade. Em 1895, os cilindros foram substituídos por discos de goma-laca, que eram tocados em 78 rotações, possuíam mais potência sonora e armazenava até 44 minutos de músicas. Já no século XX, na década de 30, foi criado o sistema de gravação em bobinas, ou fitas de rolo, ou seja, fitas plásticas que podiam guardar os áudios de maneira eficiente para a época. Tendo em média 16 cm de diâmetro, as bobines foram inspiração para a posterior fita cassete, que tinha a grande vantagem de ser extremamente portátil e podia tocar até uma hora inteira. Dos discos que passaram a ser produzidos em vinil até as fitas magnéticas, muito tempo passou, até que em 1982 os primeiros CDs começaram a ser comercializados. Eles possuíam a vantagem de serem gravados digitalmente, possibilitando melhores equalizações e, por consequência, maior qualidade na reprodução, que chegava a 80 minutos. Hoje, o que impera no mundo da música é o iPod (e alguns outros tocadores de mídia digital), pois a capacidade de armazenamento é gigantescamente superior. Um iPod de 120 GB pode guardar o tempo de reprodução equivalente ao de 3829 discos de vinil; 3663 minidiscs; 2808 fitas cassete ou 2106 CDs. Das câmeras instantâneas ao cartão de memória... No século XX houve a expansão dos mercados consumidores e as câmeras fotográficas começaram a fazer parte da vida cotidiana de muitas pessoas, mesmo das que não faziam parte da elite. Logicamente o sucesso não foi algo rápido, sendo gradativamente alcançado. Durante anos, as câmeras de foto instantânea imperaram no imaginário popular, até que as primeiras câmeras com filme de revelação posterior foram lançadas. A maioria dos filmes podia armazenar entre 12 e 36 fotos que, em seguida, seriam reveladas e lotariam os álbuns fotográficos que suportavam cerca de 100 fotos e ocupavam algo em torno de 800 cm³ nos armários das famílias. Se esses álbuns forem comparados aos primeiros disquetes, já se pode começar a perceber o quanto a digitalização facilitou o armazenamento das fotografias, pois um disquete de 3,5 polegadas poderia guardar até 50 fotos em baixa resolução. Isso era só o começo, afinal um disquete tinha capacidade de apenas 1,44 MB. Já pensando em mídias mais modernas, como flash drives e cartões de memória, acoplados às câmeras digitais que já não são mais alimentadas por filmes químicos, e sim por memória eletrônica, a comparação parece ainda mais absurda. Um cartão de memória SD (Secure Digital) ou mSD (Micro Secure Digital) pode chegar a armazenar até 4000 fotos nos 2 GB de memória interna, sem chegar a ocupar espaço físico significativo. Pensando em uma unidade de armazenamento de 120 GB, o acervo de fotografias poderia chegar a 31 mil fotos, ou então a um disco rígido de 2 Terabytes, em que 680 mil fotos poderiam ser guardadas, o equivalente a 6800 álbuns de fotografias; 28 mil filmes e mais de 1 milhão de disquetes.Do RAMAC ao pendrive... Como contado no início do artigo, há pouco mais de 50 anos eram necessários computadores de mais de uma tonelada para que o armazenamento de 5 MB fosse possível. O tempo passou, os computadores foram diminuindo e as capacidades aumentando de maneira inversamente proporcional. Já foram lançados discos rígidos de 200 MB a 2 TB e não param de surgir novos modelos. É difícil imaginar o que seria dos usuários hoje, com menos de 80 GB, assim como é impossível pensar em como seria o mundo da informática de 50 anos atrás, se já houvesse a memória de terabytes. Mas talvez o maior trunfo já atingido pela indústria da informática esteja na mídia portátil. Assim como nos dispositivos fixos, os avanços tecnológicos nos armazenadores portáteis diminuíram as dimensões e aumentaram exponencialmente as capacidades de memória. Até os anos 80, o famoso “disquetão” de 5,25 polegadas e 1,2 MB era o mais usado para transportar dados de um computador a outro. Pouco tempo depois foi lançado o disquete de 3,5 polegadas e 1,44 MB, que tinha mais vantagem pela estabilidade (os “disquetões” estragavam com uma facilidade incrível) do que pela memória em si. O tempo passou e os computadores pessoais passaram a ser vendidos com drives leitores de CDs, que possuíam 700 MB, o que representava uma enorme capacidade de memória, se comparados com os disquetes, que ainda não haviam sido abandonados, devido aos preços altíssimos dos gravadores de CD. Quando estes tornaram-se populares, as pequenas unidades flexíveis de 1,44 MB foram sendo gradativamente deixadas de lado. Mas os avanços tecnológicos não pararam por aí. Em 1996, exatos 40 anos após o surgimento do RAMAC, foi lançada uma nova mídia muito semelhante aos discos compactos: era o DVD (Digital Versatil Disc), que podia armazenar até 4,7 GB e, posteriormente, com o DVD de camada dupla, 8, 5 GB. Desenvolvido numa parceria entre Toshiba, Philips e Sony, o DVD foi popularizado como uma mídia cinematográfica, pois a funcionalidade mais explorada pela indústria foi justamente a de reprodução de filmes. Sendo assim, além dos CDs, o DVD também foi o algoz de outra mídia muito importante para a história da tecnologia, as fitas VHS. Quando os 8,5 GB começaram a ser pouco para tanta qualidade gráfica, a indústria cinematográfica ganhou um novo parceiro: o Blu-ray. Lançado oficialmente em 2006, foi a primeira mídia a suportar resoluções altíssimas e áudio de alta qualidade em discos únicos. Os discos Blu-ray podem possuir 25 GB ou 50 GB (quando de camada dupla), sendo pouco utilizados para transporte de dados, já que o processo de gravação é um pouco demorado e a qualidade é idêntica à de DVDs. Os dispositivos que mais cresceram nos últimos anos, exclusivamente pela capacidade, facilidade e velocidade no transporte de dados, foram os pendrives, que outrora foram limitados aos 32 MB de memória e hoje já chegam a armazenar mais de 128 GB, sendo as mídias portáteis mais eficientes da atualidade. Em questões de memória, ficam atrás apenas dos discos rígidos, que podem armazenar terabytes. Um pendrive de 128 GB pode ser comparado (em questões de capacidade interna) com: 28 DVDs; 187 CDs; 91 mil disquetes de 3,5 polegadas ou 109 mil disquetes de 5,25 polegadas. Um disco rígido de 2 TB pode armazenar o conteúdo de 17 pendrives desses. Além disso, outra forma de transportar dados de forma segura – mesmo que não tão portátil – é através do uso de HDs externos. Eles geralmente são acoplados a gavetas externas e conectados aos computadores através de cabos USB. Por enquanto o processo de transferência de arquivos é um pouco lento, pois a velocidade de resposta dos USBs é limitada, mas num futuro próximo - com o surgimento de tecnologias como o Light Peak - o processo pode ser bem mais veloz. Cronologia da evolução dos computadores A.C. ~3500 a.C.: os sumérios criam a numeração e o ábaco. ~1500 a.C.: egípcios utilizam o Relógio de sol para contar o tempo. D.C. ~825 Invenção do conceito de algoritmo 1600 1614 John Napier e os logaritmos 1623 Invenção das calculadoras 1644 A Pascalina 1679 Calculadora de Leibnitz 1689 Calculadora de Brito 1800 1834 A primeira programadora: Augusta Lovelace 1844 Telégrafo de Morse 1861 Francisco João de Azevedo inventa uma máquina de escrever 1873 Primeiro motor eléctrico 1874 Primeira máquina de escrever 1892 máquinas de cálculo de Burroughs 1900 • Década de 1900 1900 Surgimento da memória magnética. 1902 As primeiras tele-impressoras. 1906 O tubo de vácuo. • Década de 1930 1936 O primeiro computador eléctrico de Atanasoff e início dos computadores ABC • Década de 1940 1940 George Stibitz interliga dois computadores via telefone, o que gerou idéias para o primeiro Modem 1942 Plankalkül (primeira linguagem de programação) 1945 O ENIAC torna-se operacional, inaugurando a primeira geração de computadores. 1949 Computador EDSAC utiliza fita magnética • Década de 1950 1950 Primeiro Modem digital 1959 O Circuito Integrado estabelece a sua marca de inovação tecnológica • Década de 1960 1961 A primeira folha de cálculo eletrônica 1962 O primeiro modem comercial com uma velocidade de 300 Baud 1963 Primeiro mouse 1964 Linguagem de programação Basic • Década de 1970 1971 O primeiro microprocessador, o Intel 4004 1972 A Xerox inicia o desenvolvimento de uma interface gráfica (GUI) 1975 A Microsoft é fundada por Bill Gates e Paul Allen 1976 A Apple lança o Apple 1 1977 Xerox introduz o laser 9700 1977 Lançamento do Apple II • Década de 1980 1980 Lançamento do Apple III 1981 Lançamento do IBM PC 1981 Dá-se início ao desenvolvimento do MS-DOS 1983 Apple Lisa 1984 HP pioneira na tecnologia de jacto de tinta 1984 Lançamento do Apple Macintosh 1985 Lançamento do Windows 1.0 1985 Surge o primeiro vírus 1985 Phillips inventa CD-ROM 1987 Windows 2.0 1989 Comunicação Wireless • Década de 1990 1990 A Adobe lança o Photoshop 1990 Windows 3.0, uma interface gráfica funcional 1991 Nasceu o Linux 1993 Intel Pentium 1993 Lançamento do processador i386 e co-processador matemático i387 1993 Lançamento do Windows NT 3.1 1995 Microsoft lança o Windows 95 com suporte a "ligar e usar" 1996 Lançamento do Windows NT 4.0 1996 Lançamento do Windows CE 1.0 1996 DVD (Digital Versatile/Video Disk) 1998 CDs graváveis e regraváveis (CD-RW) 1998 Microsoft lança o Windows 98 1999 Lançamento do Linux 2.2 1999 AMD cria o Athlon 1999 Nvidia lança a primeira GeForce 2000 2000 MS Windows 2000 2000 MS Windows ME 2001 Lançamento do Linux 2.4 2001 Lançamento do primeiro iPod da Apple Inc. 2001 MS Windows XP 2002 MS Windows XP SP1 2002 Lançamento do Lindows 2002 Lançamento do Linux 2.6 2003 Comunicações WiFi 2003 Lançamento do Microsoft Windows 2003 Server 2005 Microsoft apresenta o Windows Vista 2005 Apple Inc. anuncia a migração da plataforma Macintosh para processadores Intel 2006 Apple Inc. lança o iPod Nano, o menor iPod com tela LCD e o iPod Video, com capacidade de armazenamento de até 200GB 2006 Microsoft lança o Windows Vista para uso corporativo 2007 Microsoft lança o Windows Vista a uso doméstico 2007 Apple lança o iPhone 2009 Microsoft lança o Windows 7 2010 Apple apresenta o iPad 2011 Apple apresenta a tecnologia de E/S Thunderbold com a Intel em MacBooks Pro 2011 Apple apresenta iPad 2 e iOS 4.3