LÓGICA – A ARTE DE PENSAR RODRIGO ANGELO TOMAZI E-mails – [email protected] [email protected] Acadêmico de Sistemas de Informação – Faculdade Mater Dei – Pato Branco – PR. Palavras chaves: Lógica – Aplicabilidade – Raciocínio – Argumento – Premissa Área do Conhecimento: Ciências da Computação. RESUMO A presente pesquisa discute o ato de pensar corretamente ou não, ou seja, a lógica e a ilógica do pensamento humano. Aborda a história da lógica, sua diversidade e aplicabilidade em geral. INTRODUÇÃO Estudar lógica representa aprimorar a arte de pensar. O dom de raciocinar e o dom da inteligência, todo ser humano normal os possui, o que difere no entanto, é a forma com qual usamos e demonstramos esses dons. No instante que haja um aprimoramento, treinamento e uma aplicabilidade de nossos dons, poderemos julgar e até avaliar o rendimento intelectual do ser humano. Lógica, de maneira geral, consiste em ser a arte de pensar corretamente, isto é, nem sempre raciocinamos da maneira correta, às vezes tomamos uma decisão ao invés de outra, agimos diversas vezes de maneira ilógica. Mas por que isso acontece? Se todo ser humano normal tem o dom de raciocinar, como pode cometer equívocos lógicos? É verdade que problemas externos tais como: estresse, pressa, ou até mesmo comodismo, contribuem para isso, mas na verdade o que falta mesmo é pensar tranqüilamente, pacientemente e principalmente corretamente, e é neste ponto que encontramos a lógica como, “uma ciência que estuda as leis e critérios de validade que regem o pensamento e a demonstração, ou seja, ciências dos princípios formais do raciocínio”. [Manzano] Todo profissional que possuí como ferramenta de trabalho o raciocínio, seja para resolver problemas de ordem administrativa ou financeira, problemas matemáticos, de planejamento ou de estratégia, entre outros, utiliza como matéria prima para o seu trabalho a arte de pensar. Resolver problemas na mesma ordem dos citados anteriormente requer muita atenção e ótima performance de conhecimento do raciocínio. Há de lembrar que não existe disciplina que ensine puramente a pensar, o que existe são disciplinas que mostram como desenvolver e aperfeiçoar o dom de pensar. É de fundamental importância estudar lógica para o desempenho de qualquer profissão que necessite de um alto nível de raciocínio. Percebemos a importância da lógica na nossa vida, não só na teoria, como também na prática, já que quando queremos pensar, falar ou escrever corretamente, precisamos ordenar primeiro no pensamento, isto é, utilizar a lógica MATERIAL E MÉTODOS O presente estudo foi realizado tendo como metodologia a pesquisa bibliográfica. Partiu-se da seleção de autores e textos para a leitura, a análise e a interpretação. RESULTADO E DISCUSSÃO História da Lógica O início da história da lógica encontra-se na Grécia. Nessa época, a lógica e suas fórmulas eram desenvolvidas utilizando a linguagem ordinária, sujeitas às regras sintáticas usuais. Em seus esforços para fazer uma teoria da lógica concisa, houve muitas discussões. Parmênides gerou grande polêmica com sua primeira versão da "Lei do Meio Excluído" (por volta de 400(a.C.), que dizia que uma coisa só podia ser verdadeira ou falsa. Em resposta, Heraclitus propôs que as coisas podiam ser verdadeiras e falsas ao mesmo tempo. E assim estudos sobre a lógica iniciaram-se. Porém é com Aristóteles que se dá o verdadeiro nascimento da lógica, ciência das idéias e dos processos da mente. Aristóteles possuía a concepção de que a Lógica deveria fornecer os instrumentos mentais necessários para enfrentar qualquer tipo de investigação. Ele redigiu uma série de trabalhos, os quais seriam editados posteriormente, com o nome de Organon, que significa Instrumento. Aristóteles chamava a lógica de Analítica (do grego analysis, que significa "resolução"). A analítica explica o método pelo qual, partindo de uma dada conclusão, resolve-se precisamente nos elementos dos quais deriva, isto é, nas premissas e nos elementos de que brota, e assim fica fundamentada e justificada. Aristóteles construiu uma sofisticada teoria dos argumentos, cujo núcleo é a caracterização e análise dos assim chamados silogismos, os típicos raciocínios da lógica desse filósofo. O argumento: Todo homem é mortal Sócrates é homem Logo Sócrates é mortal. É o exemplo típico do silogismo perfeito. Foi com Aristóteles que tivemos uma das primeiras tentativas de se estabelecer um rigor nas demonstrações matemáticas. Sua análise do papel das definições e hipóteses na matemática foi bastante positivo. Ainda com os gregos, os megáricos (originários da cidade Mégara), fizeram estudos no campo. Além de interesse por certos enigmas lógicos como o "paradoxo do mentiroso": quem diz "O que eu afirmo agora é falso", enuncia algo verdadeiro ou falso? Houveram estudos sobre as condicionais construídas com se... ...então, como "Se chove então a rua está molhada", as definindo em termos extremamente polêmicos, mas que seriam assumidos como corretos, vinte e três séculos mais tarde pelos fundadores da Lógica Contemporânea. Os estóicos, também gregos, já tinham germinado o conceito de "proposição". Com Crísipo de Soles (280-206 a.C.), considerado o grande precursor do que hoje é chamado "Cálculo Proposicional", tiveram sua maior contribuição. Ele estudou as sentenças condicionais e também as disjuntivas (regidas pela partícula "ou") e as copulativas (regidas pelo "e"), tendo também reconhecido claramente o papel lógico desempenhado pela negação. Além disto, Crísipo foi capaz de relacionar tais idéias com as modalidades, elaborando, então, um sistema de princípios lógicos que, no seu campo específico, foi muito além dos poucos resultados obtidos por Aristóteles e seu discípulo Teofrasto. Lógica Moderna começou no século XVII com o filósofo e matemático alemão Gottfried Wilhelm Leibniz. Leibniz pensava que o problema das interrogações e polêmicas não resolvidas nas discussões filosóficas, assim como a insegurança dos resultados, não poderiam ser tratados à luz dos termos e dos processos conclusivos da linguagem ordinária, devido à ambiguidade desta. Ele queria dotar a Metafísica (aquela parte da Filosofia que estuda o "ser" em si) de um instrumento suficientemente poderoso que a permitisse alcançar o mesmo grau de rigor que tinha alcançado a Matemática. Assim, o projeto de criação de uma lógica simbólica e de caráter completamente calculístico, análogos aos procedimentos matemáticos, foi a idéia central de sua lógica. Leibniz percebeu também uma tendência verificada naquele momento histórico: o simbolismo matemático estava se tornando cada vez mais manipulável e seguro em todas as áreas, sendo mais automático e dispensando contínua referência a conteúdos geométricos intuitivos. Ele concebeu então, também para a lógica uma desvinculação análoga com respeito ao conteúdo semântico das proposições, aproveitando pela primeira vez a oportunidade de reduzir as regras da dedução lógica a meras regras de cálculo, isto é, a regras cuja aplicação possa prescindir da consideração do conteúdo semântico das expressões. A contribuição de Leibniz ao desenvolvimento da lógica aparece sob dois aspectos: ele aplicou com sucesso métodos matemáticos para a interpretação dos silogismos aristotélicos, e apontou aquelas partes da Álgebra que estão abertas a uma interpretação não aritmética. Pela primeira vez se expôs de uma maneira clara o princípio do procedimento formal. Leibniz tornou-se assim o grande precursor da Lógica Matemática. A partir de meados do século XIX a lógica formal se elabora como um cálculo algébrico, adotando um simbolismo peculiar para as diversas operações lógicas. Graças a este novo método, foi possível construir grandes sistemas axiomáticos de lógica, de maneira parecida com a matemática, com os quais se podem efetuar com rapidez e simplicidade raciocínios que a mente humana não consegue espontaneamente. O inglês George Boole (1815-1864) é considerado o fundador da Lógica Simbólica. Boole nasceu numa família de pequenos negociantes de poucos recursos em Linciln, Inglaterra, e tinha apenas instrução de uma escola comum. Acreditando que seus conhecimentos o ajudariam a se elevar acima de sua situação, Boole percebeu que tinha que estudar mais matemática. Boole fez amizade com De Morgan, se interessou por uma controvérsia sobre lógica que fora levantada com De Morgan pelo escocês Sir William Hamilton. Boole forneceu uma idéia clara de formalismo e a desenvolveu de modo exemplar. Boole percebeu que poderia ser construída uma álgebra de objetos que não fossem números, no sentido vulgar, e que tal álgebra, sob a forma de um cálculo abstrato, seria capaz de ter várias interpretações. O que chamou a atenção na obra foi a clara descrição do que seria a essência do cálculo, isto é, o formalismo, o procedimento, conforme o próprio George Boole descrevia, "cuja validade não depende da interpretação dos símbolos mas sim da exclusiva combinação dos mesmos" . Ele concebeu a lógica como uma construção formal à qual se busca posteriormente um interpretação. Boole criou o primeiro sistema bem sucedido para o raciocínio lógico, tendo sido pioneiro ao enfatizar a possibilidade de se aplicar o cálculo formal em diferentes situações e fazer cálculos de acordo com regras formais, desconsiderando as interpretações dos símbolos usados. Através de símbolos e operações específicas, as proposições lógicas poderiam ser reduzidas a equações e as equações silogísticas poderiam ser computadas, de acordo com as regras da álgebra ordinária. Pela aplicação de operações matemáticas puras e contando com o conhecimento da álgebra booleana é possível tirar qualquer conclusão que esteja contida logicamente em qualquer conjunto de premissas específicas. No começo do século XX a Lógica Simbólica se organiza com mais autonomia em relação à matemática e se elabora em sistemas axiomáticos desenvolvidos, que se colocam em alguns casos como fundamento da própria matemática e que prepararam o surgimento do computador. Aplicabilidade da Lógica A aplicabilidade da lógica encontra-se dividida conforme sua necessidade em determinados períodos da história, desde os primórdios com pensadores, filósofos e matemáticos até a atualidade, na presença de computadores, da tecnologia de informação, enfim, na Era da Tecnologia Digital. Lógica Matemática A passagem do século XVIII para o século XIX marca o início de um novo tempo na História da Computação. Mais do que qualquer período precedente, mereceu ser conhecido como a idade áurea da Matemática. O que se acrescentou ao assunto durante esses 100 anos supera de longe tanto em quantidade como em qualidade a produção total combinada de todas as épocas precedentes. Com uma possível exceção da idade conhecida na matemática como idade heróica, na Grécia antiga, foi uma das mais revolucionárias etapas do desenvolvimento dessa ciência e consequentemente também da Computação. Será particularmente objeto de estudo deste artigo a evolução da Lógica Simbólica - ou Lógica Matemática - que teve Leibniz como predecessor distante. A partir de meados do século XIX a lógica formal se elabora como um cálculo algébrico, adotando um simbolismo peculiar para as diversas operações lógicas. Graças a este novo método, puderam-se construir grandes sistemas axiomáticos de lógica, de maneira parecida com a matemática, com os quais se podem efetuar com rapidez e simplicidade raciocínios que a mente humana não consegue espontaneamente. A Lógica Simbólica - Lógica Matemática a partir daqui - , tem o mesmo objeto que a lógica formal tradicional: estudar e fazer explícitas as formas de inferência, deixando de lado - por abstração - o conteúdo de verdades que estas formas possam transmitir. Não se trata aqui de estudar Lógica, mas chamar a atenção para a perspectiva que se estava abrindo com o cálculo simbólico: a automatização de algumas operações do pensamento. A Máquina de Turing, conceito abstrato que efetivamente deu início à era dos computadores, baseou-se no princípio de que a simples aplicação de regras permite passar mecanicamente de uns símbolos a outros. Sistema lógico que foi inaugurado por Boole. Entretanto a lógica booleana estava limitada ao raciocínio proposicional e somente mais tarde, com o desenvolvimento dos quantificadores, a lógica formal estava pronta para ser aplicada ao raciocínio matemático em geral. Os primeiros sistemas foram desenvolvidos por F.L.G. Frege e G. Peano. Ao lado destes será necessário citar George Cantor (1829-1920), matemático alemão que abriu um novo campo dentro do mundo da análise, nascida com Newton e Leibniz, com sua teoria sobre conjuntos infinitos. No começo do século XX a Lógica Simbólica se organizará com mais autonomia em relação à matemática e se elaborará em sistemas axiomáticos desenvolvidos, que se colocam em alguns casos como fundamento da própria matemática e que prepararão o surgimento do computador. Lógica Difusa Aristóteles, filósofo grego (384 - 322 a.C.), foi o fundador da ciência da lógica, e estabeleceu um conjunto de regras rígidas para que conclusões pudessem ser aceitas logicamente válidas. O emprego da lógica de Aristóteles levava a uma linha de raciocínio lógico baseado em premissas e conclusões. Como por exemplo: se é observado que "todo ser vivo é mortal" (premissa 1), a seguir é constatado que "Sarah é um ser vivo" (premissa 2), como conclusão temos que "Sarah é mortal". Desde então, a lógica Ocidental, assim chamada, tem sido binária, isto é, uma declaração é falsa ou verdadeira, não podendo ser ao mesmo tempo parcialmente verdadeira e parcialmente falsa. Esta suposição e a lei da não contradição, que coloca que "U e não U" cobrem todas as possibilidades, formam a base do pensamento lógico Ocidental. A Lógica Difusa (Fuzzy Logic) viola estas suposições. O conceito de dualidade, estabelecendo que algo pode e deve coexistir com o seu oposto, faz a lógica difusa parecer natural, até mesmo inevitável. A lógica de Aristóteles trata com valores "verdade" das afirmações, classificando-as como verdadeiras ou falsas. Não obstante, muitas das experiências humanas não podem ser classificadas simplesmente como verdadeiras ou falsas, sim ou não, branco ou preto. Por exemplo, é aquele homem alto ou baixo? A taxa de risco para aquele empreendimento é grande ou pequena? Um sim ou um não como resposta a estas questões é, na maioria das vezes, incompleta. Na verdade, entre a certeza de ser e a certeza de não ser, existem infinitos graus de incerteza. Esta imperfeição intrínseca à informação representada numa linguagem natural, tem sido tratada matematicamente no passado com o uso da teoria das probabilidades. Contudo, a Lógica Difusa, com base na teoria dos Conjuntos Nebulosos (Fuzzy Set) tem se mostrado mais adequada para tratar imperfeições da informação do que a teoria das probabilidades. De forma mais objetiva e preliminar, podemos definir Lógica Difusa como sendo uma ferramenta capaz de capturar informações vagas, em geral descritas em uma linguagem natural e convertê-las para um formato numérico, de fácil manipulação pelos computadores de hoje em dia. Considere a seguinte afirmativa: Se o tempo de um investimento é longo e o sistema financeiro tem sido não muito estável, então a taxa de risco do investimento é muito alta. Os termos "longo", "não muito estável" e "muito alta" trazem consigo informações vagas. A extração (representação) destas informações vagas se dá através do uso de conjuntos nebulosos. Devido a esta propriedade e a capacidade de realizar inferências, a Lógica Difusa tem encontrado grandes aplicações nas seguintes áreas: Sistemas Especialistas; Computação com Palavras; Raciocínio Aproximado; Linguagem Natural; Controle de Processos; Robótica; Modelamento de Sistemas Parcialmente Abertos; Reconhecimento de Padrões; Processos de Tomada de Decisão (decision making). A Lógica Difusa ou Lógica Nebulosa, também pode ser definida , como a lógica que suporta os modos de raciocínio que são aproximados, ao invés de exatos, como estamos naturalmente acostumados a trabalhar. Ela está baseada na teoria dos conjuntos nebulosos e difere dos sistemas lógicos tradicionais em suas características e detalhes. Nesta lógica, o raciocínio exato corresponde a um caso limite do raciocínio aproximado, sendo interpretado como um processo de composição nebulosa. A lógica em questão foi desenvolvida por Lofti A. Zadeh da Universidade da Califórnia em Berkeley na década de 60 e combina lógica multivalorada, teoria probabilística, inteligência artificial e redes neurais para que possa representar o pensamento humano, ou seja, ligar a linguística e a inteligência humana, pois muitos conceitos são melhores definidos por palavras do que pela matemática. O valor verdade de uma proposição pode ser um subconjunto nebuloso de qualquer conjunto parcialmente ordenado, ao contrário dos sistemas lógicos binários, onde o valor verdade só pode assumir 2 valores : verdadeiro (1) ou falso (0). Foi Platão quem fez a base para o que viria a se tornar a Lógica de Fuzzy, indicando que havia uma terceira região (além de Verdadeiro ou Falso). Outros filósofos mais modernos também demonstraram este sentimento, como Hegel, Marx e Engels. Mas foi Lukasiewicz quem propôs pela primeira vez uma alternativa sistemática para a lógica de dois valores de Aristóteles. No início do século XX, Lukasiewicz descreveu uma lógica de três valores. O terceiro valor que ele propôs pode ser melhor expresso como o termo "possível", e lhe foi dado um valor numérico entre Verdadeiro e Falso. Assim ele propôs uma notação e sistema axiomático inteiro do qual ele esperava derivar matemáticas modernas. Posteriormente, ele explorou lógicas de quatro valores, cinco valores, e então declarou que a princípio não havia nada que impedisse a derivação de uma lógica de infinitos valores. Lukasiewicz sentiu que lógicas de três valores e de infinitos valores eram os mais intrigantes, mas ele se concentrou na lógica de quatro valores porque parecia ser mais facilmente adaptável à lógica de Aristóteles. Knuth propôs uma lógica de três valores semelhante à de Lukasiewicz, da qual ele especulou que a matemática se tornaria até mais elegante do que na lógica de dois valores. Sua visão, aparentemente perdida por Lokasiewicz, foi usar a integral definida [-1,0,+1] ao invés de [0,1,2]. Entretanto, esta alternativa falhou em ganhar aceitação, e passou a relativa obscuridade. A noção de uma lógica de infinitos valores não veio a tona até recentemente. Em 1965 Lotfi A. Zadeh publicou seu trabalho "Conjuntos de Fuzzy", que descreveu a teoria da matemática de conjuntos de fuzzy, e por extensão a lógica de Fuzzy. Esta teoria propôs fazer uma função (ou os valores Verdadeiro e Falso) operarem sobre o intervalo dos números reais [0.0,1.0]. Novas operações para o cálculo da lógica foram propostas, e mostraram ser a princípio pelo menos uma generalização da lógica clássica. Lógica Nebulosa (Fuzzy Logic) tem como objetivo modelar o modo aproximado de raciocínio, tentando imitar a habilidade humana de tomar decisões racionais em um ambiente de incerteza e imprecisão. Deste modo, a Lógica Nebulosa é uma técnica inteligente que fornece um mecanismo para manipular informações imprecisas, como conceitos de pequeno, alto, bom, muito quente, frio, que permite inferir uma resposta aproximada para uma questão baseada em um conhecimento que é inexato, incompleto ou não totalmente confiável. Devido às suas características intrínsecas, a Lógica Nebulosa é capaz de incorporar tanto o conhecimento objetivo (a partir de dados numéricos) quanto o conhecimento subjetivo (a partir de informações lingüísticas). É aplicada em sistemas de controle e de suporte à decisão onde a descrição do problema (regras de produção) não pode ser feita de forma precisa. Lógica Digital Desde o princípio das máquinas calculadoras, precessoras dos computadores atuais, os números foram transformados em sinais (mecânicos, inicialmente), controlados por um conjunto de engranagens e possibilitando a realização de operações matemáticas. Os primeiros computadores, ainda valvulados, conseguiam ser mais eficientes que os computadores mecânicos, pois possibilitavam a troca de estado (entre 0 e 1, desligado e ligado, falso e verdadeiro) de forma mais eficiente. Os transístores possibilitaram a substituição das válvulas, bem como o início da integração de portas lógicas, sendo que os integrados tipo Transistor-Transistor Level (TTL) formaram a primeira família de integrados, depois substituídos por técnicas mais avançadas de integração. O objetivo é tomar contato com os componentes, e compreender um pouco como se realizam as operações lógicas (e depois, as operações matemáticas) utilizando circuitos lógicos. Resumidamente trata-se de apresentar em matéria física o pensamento lógico exposto pela mente até então. As identidades booleanas utilizadas, podem ser demonstradas a partir da definição das portas lógicas AND, OR e NOT. Lógica Computacional Uma introdução às técnicas do chamado raciocínio dedutivo usando as ferramentas da Lógica Matemática. A Lógica Matemática estuda as noções de validade e consistência de argumentos utilizando elementos da Matemática, tais como a teoria dos conjuntos e a álgebra booleana. A noção de procedimento efetivo, que deu origem às primeiras "máquinas abstratas de computação efetiva" (como, por exemplo, a chamada Máquina de Turing, o primeiro modelo de computador programável por software, e que deu origem à chamada Tese de Church que afirma que qualquer função efetivamente computável pode ser computável por uma Máquina de Turing apropriadamente definida) está intimamente ligada à noção de "dedução em um sistema formal (simbólico)", como concebido por Gottlob Frege, o mentor da Lógica Moderna, justamente porque esta última veio como a implementação do sonho do filósofo Leibniz (século XVII) de criar uma máquina de verificação da validade de argumentos. A Lógica Computacional, uma área bastante ativa de pesquisas em Teoria de Computação trata dos fundamentos matemáticos dos processos computacionais e das atividades de desenvolvimento, verificação e execução de programas. O tratamento formal dessas questões tem levado a que diversas Lógicas Computacionais venham sendo propostas. De uma maneira geral, essas lógicas podem ser classificadas em dois grandes grupos: (i) lógicas de processos, que buscam caracterizar algebricamente seqüências de eventos computacionais e suas inter-relações - por exemplo, formalismos como a Lógica Dinâmica, e Lógica de Processos; e (ii) lógicas de recursos controlados, que procuram explorar a estreita relação existente entre programas, - cálculos e árvores de dedução – como a Lógica Linear. A base do funcionamento de um computador PC está na eletrônica e na lógica digital. O computador faz, na realidade, cálculos. Operações aritméticas e lógicas com números e textos (chamadas "strings"). Ora, se é trabalhado num sistema de cálculo decimal (com dez algarismos), seria muito lógico imaginar que um computador tem de ser capaz de identificar 10 níveis diferentes de energia para codificar cada um dos 10 algarismos. Mas não é isto que acontece. Um computador com esta característica seria muito caro e complexo. Ao contrário, o computador trabalha com o mínimo possível de níveis de energia para a codificação de todas as informações. Este mínimo são os dois estados físicos de energia distintos que os chips trabalham (por exemplo, 0 e 5V), a chamada eletrônica digital ou binária. Associados a estes estados físicos distintos temos dois estados lógicos distintos, que convencionou-se chamar de 0 e 1. Em computadores faz-se uso da chamada aritmética digital ou binária e da lógica digital, binária ou Booleana. Temos assim, o conceito de BIT, que é a menor unidade de informação que pode ser representada pelo computador. Ou seja, um bit só pode assumir um dos dois estados lógicos já citados, ou 0, ou 1. Dizemos, também por convenção, que um bit 0 está desligado e um bit 1 está ligado. Mas como vamos conseguir representar todos os dez algarismos do nosso sistema decimal e ainda letras e outros caracteres com apenas dois estados lógicos de um bit? Simplesmente agrupando-se estes bits. Para representar um algarismo, uma letra, um caractere dentro do computador, vamos utilizar um conjunto de bits, e não apenas um. Chegou-se a um número de 8 bits como sendo o suficiente. A este conjunto de 8 bits deu-se o nome de BYTE. O byte é a palavra do computador. É através do byte que o computador se comunica, trabalha, processa, armazena, calcula etc. Quantos bytes diferentes existem? Quantos conjuntos diferentes posso fazer com 8 bits? 256 (que é 28). Como cada byte representa um caracter, posso representar 256 caracteres diferentes (o suficiente para representar os 10 algarismos, todas as letras do alfabeto, diferenciando-as em maiúsculas e minúsculas, e ainda alguns caracteres especiais. Mas para podermos fazer esta representação é necessário uma tabela onde são relacionados cada byte diferente com um caracter e todos os computadores precisam usar a mesma "tabela de conversão" para poderem se entender. Estas tabelas já existem e são chamadas de códigos. De importante para nós temos os códigos EBCDIC (Extend Binary Coded Decimal Interchange Code) e ASCII (American Standart Code for Information Interchange). O código EBCDIC é um esquema de codificação desenvolvido pela IBM para ser usado em seus computadores como um método de padronização de associação de valores binários e caracteres alfabéticos, numéricos, de pontuação e de controle de transmissão. É análogo ao ASCII, e utiliza os 8 bits para a definição de 256 caracteres. Embora o EBCDIC não seja freqüente na microinformática, ele é bastante conhecido e utilizado em todo o mundo como o padrão da IBM para computadores de grande porte e minicomputadores. O código ASCII é o conjunto de caracteres do código padrão americano para o intercâmbio de informação, que consiste dos caracteres disponíveis num teclado padrão de 128 caracteres e incluindo códigos de controle não imprimíveis como retorno da cabeça de impressão e quebras de página. São 256 códigos divididos em dois conjuntos: o standard (básico) e o estendido, com 128 códigos cada. O ASCII Standard (básico) utiliza 7 bits (ou 0 + 7 bits para formar um byte) gerando 128 códigos de caracteres numerados de 0 a 127. Os 32 primeiros valores ficam reservados para códigos de controle de comunicação e da impressora. Os 96 códigos restantes estão associados aos sinais de pontuação convencionais, aos dígitos 0 a 9, e às letras maiúsculas e minúsculas do alfabeto romano. O ASCII Estendido utiliza 8 bits para cada código, proporcionando 128 códigos numerados de 128 a 255. Ficam associados a conjuntos de caracteres que podem variar conforme o fabricante do computador e quem desenvolve softwares. Portanto, enquanto o conjunto de caracteres ASCII standard é um padrão universal para os equipamentos e programas, os caracteres estendidos só poderão ser interpretados corretamente por programas projetados especialmente para fazê-lo. Por isso utilizamos com muita freqüência o byte para quantificarmos características do computador, como memória, capacidade de disco etc. Como o byte é a unidade, e, por isso mesmo, muito pequeno, fazemos uso dos múltiplos do byte. Mas lembre-se que estamos no campo da aritmética digital, onde mil vezes um byte são, na realidade, 1.024 bytes (210). A Lógica Matemática e Computacional por George Boole Fundamentos da Lógica Matemática e da Computação O inglês George Boole (1815-1864) é considerado o fundador da Lógica Simbólica. Ele desenvolveu com sucesso o primeiro sistema formal para raciocínio lógico. Mais ainda, Boole foi o primeiro a enfatizar a possibilidade de se aplicar o cálculo formal a diferentes situações, e fazer operações com regras formais, desconsiderando noções primitivas. Sem Boole, um pobre professor autodidata em Matemática, o caminho onde se ligou a Lógica à Matemática talvez demorasse muito a ser construído. Com relação à Computação, se a Máquina Analítica de Babbage foi apenas uma tentativa bem inspirada que teve pouco efeito sobre os futuros construtores do computador, sem a álgebra booleana, no entanto, a tecnologia computacional não teria progredido com facilidade até a velocidade da eletrônica. Durante quase mais de dois mil anos a lógica formal dos gregos, conhecida pela sua formulação silogística, foi universalmente considerada como completa e incapaz de sofrer uma melhora essencial. Mais do que isso, a lógica aristotélica parecia estar destinada a ficar nas fronteiras da metafísica já que somente se tratava, a grosso modo, de uma manipulação de palavras. Não se havia ainda dado o salto para um simbolismo efetivo, embora Leibniz já tivesse aberto o caminho com suas idéias sobre o "alfabeto do pensamento". Foi Boole em sua obra The Mathematical Analysis of Logic (1847) quem forneceu uma idéia clara de formalismo e a desenvolveu de modo exemplar. Boole percebeu que poderia ser construída uma álgebra de objetos que não fossem números, no sentido vulgar, e que tal álgebra, sob a forma de um cálculo abstrato, seria capaz de ter várias interpretações. O que chamou a atenção na obra foi a clara descrição do que seria a essência do cálculo, isto é, o formalismo, o procedimento, conforme o próprio George Boole descrevia, "cuja validade não depende da interpretação dos símbolos mas sim da exclusiva combinação dos mesmos". Ele concebeu a lógica como uma construção formal à qual se busca posteriormente um interpretação. Boole criou o primeiro sistema bem sucedido para o raciocínio lógico, tendo sido pioneiro ao enfatizar a possibilidade de se aplicar o cálculo formal em diferentes situações e fazer cálculos de acordo com regras formais, desconsiderando as interpretações dos símbolos usados. Através de símbolos e operações específicas, as proposições lógicas poderiam ser reduzidas a equações e as equações silogísticas poderiam ser computadas, de acordo com as regras da álgebra ordinária. Pela aplicação de operações matemáticas puras e contando com o conhecimento da álgebra booleana é possível tirar qualquer conclusão que esteja contida logicamente em qualquer conjunto de premissas específicas. De especial interesse para a Computação, sua idéia de um sistema matemático baseado em duas quantidades, o 'Universo' e o 'Nada', representados por '1' e '0', o levou a inventar um sistema de dois estados para a quantificação lógica. Mais tarde os construtores do primeiro computador entenderam que um sistema com somente dois valores pode compor mecanismos para perfazer cálculos. Boole estava convencido de que sua álgebra não somente demonstrou a equivalência entre Matemática e Lógica, mas que também representou a sistematização do pensamento humano. A ciência, a partir de Boole, viu que a razão humana é mais complicada e ambígua, difícil de ser conceituada e mais poderosa que a lógica formal. Mas do ponto de vista da Matemática e da Computação, a lógica simbólica booleana foi importante - e só os anos fizeram ver - pois a lógica de até então era incompleta e não explicava muitos princípios de dedução empregados em raciocínios matemáticos elementares. No entanto a lógica booleana estava limitada ao raciocínio proposicional, e somente após o desenvolvimento de quantificadores, introduzidos por Pierce, é que a lógica formal pôde ser aplicada ao raciocínio matemático geral. Além de Peirce, também Schöder e Jevons aperfeiçoaram e superaram algumas restrições do sistema booleano: disjunção exclusiva, emprego da letra v para exprimir proposições existenciais, admissão de coeficientes numéricos além do 0 e 1 e o emprego do sinal de divisão. O resultado mais importante no entanto foi a apresentação do cálculo de uma forma extremamente axiomatizada. CONCLUSÃO Tendo em vista a base de informações constituída com os parâmetros expostos torna-se concreto a importância do raciocínio lógico em todas as questões abordadas pelo ser humano no seu dia-a-dia. O Ato de pensar corretamente antes de executar qualquer ação é comprovadamente um ponto positivo para que tal tarefa seja executada com total sucesso. A história é de fato, quem logicamente melhor apresenta isso, na antigüidade, prevaleceram e tiveram respaldo maior os mais sábios, pensadores, filósofos e matemáticos. Com o modernismo chegou a tecnologia mecatrônica, são computadores, robôs, enfim, a era digital com sucesso e credibilidade cada vez maior. Mas em meio a tantas transformações, o que dizer da lógica do pensamento, do raciocínio, enfim do ser humano? Simples e lógico, o homem de crescimento demonstrou um alto nível nas questões relacionadas ao aprimoramento, treinamento e à aplicabilidade de seus dons, tendo assim a capacidade não só de aperfeiçoar a si próprio, como também de criar inúmeras invenções, de alto nível de qualidade e de vital necessidade ao ser humano. Enfim, toda evolução alcançada pela inteligência humana tem como base conclusiva três importantíssimos fatores: - O homem em si próprio; O raciocínio lógico: a arte de pensar; A aplicabilidade: treinar para aperfeiçoar. REFERÊNCIAS BIBLIOGRÁFICAS - Lógica de Programação – A construção de Algoritmos e Estrutura de Dados. André Luiz V. Forbellone Henri Frederico Eberspächer. - Lógica de Programação – Lógica de Programação com Pascal. Ana Fernanda Gomes Ascencio - Algoritmos – Lógica para desenvolvimento de Programação. José Augusto N. G. Manzano Jayr Figueiredo de Oliveria. Sites utilizados através da pesquisa pelo assunto: Lógica Aplicada UFPE: Universidade Federal de Pernambuco - CIN: Centro de informática PUC-SP: Universidade Pontifícia Católica de São Paulo. UEM: Universidade Estadual de Maringá. - DIM: Departamento de Informática