lógica – a arte de pensar

Propaganda
LÓGICA – A ARTE DE PENSAR
RODRIGO ANGELO TOMAZI
E-mails – [email protected]
[email protected]
Acadêmico de Sistemas de Informação – Faculdade Mater Dei – Pato Branco – PR.
Palavras chaves: Lógica – Aplicabilidade – Raciocínio – Argumento – Premissa
Área do Conhecimento: Ciências da Computação.
RESUMO
A presente pesquisa discute o ato de pensar corretamente ou não, ou seja, a
lógica e a ilógica do pensamento humano. Aborda a história da lógica, sua diversidade e
aplicabilidade em geral.
INTRODUÇÃO
Estudar lógica representa aprimorar a arte de pensar. O dom de raciocinar e o
dom da inteligência, todo ser humano normal os possui, o que difere no entanto, é a
forma com qual usamos e demonstramos esses dons.
No instante que haja um aprimoramento, treinamento e uma aplicabilidade de
nossos dons, poderemos julgar e até avaliar o rendimento intelectual do ser humano.
Lógica, de maneira geral, consiste em ser a arte de pensar corretamente, isto é, nem
sempre raciocinamos da maneira correta, às vezes tomamos uma decisão ao invés de
outra, agimos diversas vezes de maneira ilógica. Mas por que isso acontece? Se todo ser
humano normal tem o dom de raciocinar, como pode cometer equívocos lógicos? É
verdade que problemas externos tais como: estresse, pressa, ou até mesmo comodismo,
contribuem para isso, mas na verdade o que falta mesmo é pensar tranqüilamente,
pacientemente e principalmente corretamente, e é neste ponto que encontramos a lógica
como, “uma ciência que estuda as leis e critérios de validade que regem o pensamento
e a demonstração, ou seja, ciências dos princípios formais do raciocínio”. [Manzano]
Todo profissional que possuí como ferramenta de trabalho o raciocínio, seja para
resolver problemas de ordem administrativa ou financeira, problemas matemáticos, de
planejamento ou de estratégia, entre outros, utiliza como matéria prima para o seu
trabalho a arte de pensar. Resolver problemas na mesma ordem dos citados
anteriormente requer muita atenção e ótima performance de conhecimento do
raciocínio. Há de lembrar que não existe disciplina que ensine puramente a pensar, o
que existe são disciplinas que mostram como desenvolver e aperfeiçoar o dom de
pensar.
É de fundamental importância estudar lógica para o desempenho de qualquer
profissão que necessite de um alto nível de raciocínio. Percebemos a importância da
lógica na nossa vida, não só na teoria, como também na prática, já que quando
queremos pensar, falar ou escrever corretamente, precisamos ordenar primeiro no
pensamento, isto é, utilizar a lógica
MATERIAL E MÉTODOS
O presente estudo foi realizado tendo como metodologia a pesquisa
bibliográfica. Partiu-se da seleção de autores e textos para a leitura, a análise e a
interpretação.
RESULTADO E DISCUSSÃO
História da Lógica
O início da história da lógica encontra-se na Grécia. Nessa época, a lógica e suas
fórmulas eram desenvolvidas utilizando a linguagem ordinária, sujeitas às regras
sintáticas usuais.
Em seus esforços para fazer uma teoria da lógica concisa, houve muitas
discussões. Parmênides gerou grande polêmica com sua primeira versão da "Lei do
Meio Excluído" (por volta de 400(a.C.), que dizia que uma coisa só podia ser verdadeira
ou falsa. Em resposta, Heraclitus propôs que as coisas podiam ser verdadeiras e falsas
ao mesmo tempo. E assim estudos sobre a lógica iniciaram-se.
Porém é com Aristóteles que se dá o verdadeiro nascimento da lógica, ciência
das idéias e dos processos da mente. Aristóteles possuía a concepção de que a Lógica
deveria fornecer os instrumentos mentais necessários para enfrentar qualquer tipo de
investigação. Ele redigiu uma série de trabalhos, os quais seriam editados
posteriormente, com o nome de Organon, que significa Instrumento. Aristóteles
chamava a lógica de Analítica (do grego analysis, que significa "resolução"). A analítica
explica o método pelo qual, partindo de uma dada conclusão, resolve-se precisamente
nos elementos dos quais deriva, isto é, nas premissas e nos elementos de que brota, e
assim fica fundamentada e justificada.
Aristóteles construiu uma sofisticada teoria dos argumentos, cujo núcleo é a
caracterização e análise dos assim chamados silogismos, os típicos raciocínios da lógica
desse filósofo. O argumento:
Todo homem é mortal
Sócrates é homem
Logo Sócrates é mortal.
É o exemplo típico do silogismo perfeito.
Foi com Aristóteles que tivemos uma das primeiras tentativas de se estabelecer
um rigor nas demonstrações matemáticas. Sua análise do papel das definições e
hipóteses na matemática foi bastante positivo.
Ainda com os gregos, os megáricos (originários da cidade Mégara), fizeram
estudos no campo. Além de interesse por certos enigmas lógicos como o "paradoxo do
mentiroso": quem diz "O que eu afirmo agora é falso", enuncia algo verdadeiro ou
falso? Houveram estudos sobre as condicionais construídas com se... ...então, como "Se
chove então a rua está molhada", as definindo em termos extremamente polêmicos, mas
que seriam assumidos como corretos, vinte e três séculos mais tarde pelos fundadores da
Lógica Contemporânea.
Os estóicos, também gregos, já tinham germinado o conceito de "proposição".
Com Crísipo de Soles (280-206 a.C.), considerado o grande precursor do que hoje é
chamado "Cálculo Proposicional", tiveram sua maior contribuição. Ele estudou as
sentenças condicionais e também as disjuntivas (regidas pela partícula "ou") e as
copulativas (regidas pelo "e"), tendo também reconhecido claramente o papel lógico
desempenhado pela negação. Além disto, Crísipo foi capaz de relacionar tais idéias com
as modalidades, elaborando, então, um sistema de princípios lógicos que, no seu campo
específico, foi muito além dos poucos resultados obtidos por Aristóteles e seu discípulo
Teofrasto.
Lógica Moderna começou no século XVII com o filósofo e matemático alemão
Gottfried Wilhelm Leibniz.
Leibniz pensava que o problema das interrogações e polêmicas não resolvidas
nas discussões filosóficas, assim como a insegurança dos resultados, não poderiam ser
tratados à luz dos termos e dos processos conclusivos da linguagem ordinária, devido à
ambiguidade desta. Ele queria dotar a Metafísica (aquela parte da Filosofia que estuda o
"ser" em si) de um instrumento suficientemente poderoso que a permitisse alcançar o
mesmo grau de rigor que tinha alcançado a Matemática. Assim, o projeto de criação de
uma lógica simbólica e de caráter completamente calculístico, análogos aos
procedimentos matemáticos, foi a idéia central de sua lógica.
Leibniz percebeu também uma tendência verificada naquele momento histórico:
o simbolismo matemático estava se tornando cada vez mais manipulável e seguro em
todas as áreas, sendo mais automático e dispensando contínua referência a conteúdos
geométricos intuitivos. Ele concebeu então, também para a lógica uma desvinculação
análoga com respeito ao conteúdo semântico das proposições, aproveitando pela
primeira vez a oportunidade de reduzir as regras da dedução lógica a meras regras de
cálculo, isto é, a regras cuja aplicação possa prescindir da consideração do conteúdo
semântico das expressões.
A contribuição de Leibniz ao desenvolvimento da lógica aparece sob dois
aspectos: ele aplicou com sucesso métodos matemáticos para a interpretação dos
silogismos aristotélicos, e apontou aquelas partes da Álgebra que estão abertas a uma
interpretação não aritmética. Pela primeira vez se expôs de uma maneira clara o
princípio do procedimento formal. Leibniz tornou-se assim o grande precursor da
Lógica Matemática.
A partir de meados do século XIX a lógica formal se elabora como um cálculo
algébrico, adotando um simbolismo peculiar para as diversas operações lógicas. Graças
a este novo método, foi possível construir grandes sistemas axiomáticos de lógica, de
maneira parecida com a matemática, com os quais se podem efetuar com rapidez e
simplicidade raciocínios que a mente humana não consegue espontaneamente.
O inglês George Boole (1815-1864) é considerado o fundador da Lógica
Simbólica. Boole nasceu numa família de pequenos negociantes de poucos recursos em
Linciln, Inglaterra, e tinha apenas instrução de uma escola comum. Acreditando que
seus conhecimentos o ajudariam a se elevar acima de sua situação, Boole percebeu que
tinha que estudar mais matemática. Boole fez amizade com De Morgan, se interessou
por uma controvérsia sobre lógica que fora levantada com De Morgan pelo escocês Sir
William Hamilton.
Boole forneceu uma idéia clara de formalismo e a desenvolveu de modo
exemplar. Boole percebeu que poderia ser construída uma álgebra de objetos que não
fossem números, no sentido vulgar, e que tal álgebra, sob a forma de um cálculo
abstrato, seria capaz de ter várias interpretações. O que chamou a atenção na obra foi a
clara descrição do que seria a essência do cálculo, isto é, o formalismo, o procedimento,
conforme o próprio George Boole descrevia, "cuja validade não depende da
interpretação dos símbolos mas sim da exclusiva combinação dos mesmos" . Ele
concebeu a lógica como uma construção formal à qual se busca posteriormente um
interpretação.
Boole criou o primeiro sistema bem sucedido para o raciocínio lógico, tendo
sido pioneiro ao enfatizar a possibilidade de se aplicar o cálculo formal em diferentes
situações e fazer cálculos de acordo com regras formais, desconsiderando as
interpretações dos símbolos usados. Através de símbolos e operações específicas, as
proposições lógicas poderiam ser reduzidas a equações e as equações silogísticas
poderiam ser computadas, de acordo com as regras da álgebra ordinária. Pela aplicação
de operações matemáticas puras e contando com o conhecimento da álgebra booleana é
possível tirar qualquer conclusão que esteja contida logicamente em qualquer conjunto
de premissas específicas.
No começo do século XX a Lógica Simbólica se organiza com mais autonomia
em relação à matemática e se elabora em sistemas axiomáticos desenvolvidos, que se
colocam em alguns casos como fundamento da própria matemática e que prepararam o
surgimento do computador.
Aplicabilidade da Lógica
A aplicabilidade da lógica encontra-se dividida conforme sua necessidade em
determinados períodos da história, desde os primórdios com pensadores, filósofos e
matemáticos até a atualidade, na presença de computadores, da tecnologia de
informação, enfim, na Era da Tecnologia Digital.
Lógica Matemática
A passagem do século XVIII para o século XIX marca o início de um novo
tempo na História da Computação. Mais do que qualquer período precedente, mereceu
ser conhecido como a idade áurea da Matemática. O que se acrescentou ao assunto
durante esses 100 anos supera de longe tanto em quantidade como em qualidade a
produção total combinada de todas as épocas precedentes. Com uma possível exceção
da idade conhecida na matemática como idade heróica, na Grécia antiga, foi uma das
mais revolucionárias etapas do desenvolvimento dessa ciência e consequentemente
também da Computação. Será particularmente objeto de estudo deste artigo a evolução
da Lógica Simbólica - ou Lógica Matemática - que teve Leibniz como predecessor
distante.
A partir de meados do século XIX a lógica formal se elabora como um cálculo
algébrico, adotando um simbolismo peculiar para as diversas operações lógicas. Graças
a este novo método, puderam-se construir grandes sistemas axiomáticos de lógica, de
maneira parecida com a matemática, com os quais se podem efetuar com rapidez e
simplicidade raciocínios que a mente humana não consegue espontaneamente.
A Lógica Simbólica - Lógica Matemática a partir daqui - , tem o mesmo objeto
que a lógica formal tradicional: estudar e fazer explícitas as formas de inferência,
deixando de lado - por abstração - o conteúdo de verdades que estas formas possam
transmitir. Não se trata aqui de estudar Lógica, mas chamar a atenção para a perspectiva
que se estava abrindo com o cálculo simbólico: a automatização de algumas operações
do pensamento. A Máquina de Turing, conceito abstrato que efetivamente deu início à
era dos computadores, baseou-se no princípio de que a simples aplicação de regras
permite passar mecanicamente de uns símbolos a outros. Sistema lógico que foi
inaugurado por Boole.
Entretanto a lógica booleana estava limitada ao raciocínio proposicional e
somente mais tarde, com o desenvolvimento dos quantificadores, a lógica formal estava
pronta para ser aplicada ao raciocínio matemático em geral. Os primeiros sistemas
foram desenvolvidos por F.L.G. Frege e G. Peano. Ao lado destes será necessário citar
George Cantor (1829-1920), matemático alemão que abriu um novo campo dentro do
mundo da análise, nascida com Newton e Leibniz, com sua teoria sobre conjuntos
infinitos.
No começo do século XX a Lógica Simbólica se organizará com mais
autonomia em relação à matemática e se elaborará em sistemas axiomáticos
desenvolvidos, que se colocam em alguns casos como fundamento da própria
matemática e que prepararão o surgimento do computador.
Lógica Difusa
Aristóteles, filósofo grego (384 - 322 a.C.), foi o fundador da ciência da lógica, e
estabeleceu um conjunto de regras rígidas para que conclusões pudessem ser aceitas
logicamente válidas. O emprego da lógica de Aristóteles levava a uma linha de
raciocínio lógico baseado em premissas e conclusões. Como por exemplo: se é
observado que "todo ser vivo é mortal" (premissa 1), a seguir é constatado que "Sarah é
um ser vivo" (premissa 2), como conclusão temos que "Sarah é mortal". Desde então, a
lógica Ocidental, assim chamada, tem sido binária, isto é, uma declaração é falsa ou
verdadeira, não podendo ser ao mesmo tempo parcialmente verdadeira e parcialmente
falsa. Esta suposição e a lei da não contradição, que coloca que "U e não U" cobrem
todas as possibilidades, formam a base do pensamento lógico Ocidental.
A Lógica Difusa (Fuzzy Logic) viola estas suposições. O conceito de dualidade,
estabelecendo que algo pode e deve coexistir com o seu oposto, faz a lógica difusa
parecer natural, até mesmo inevitável. A lógica de Aristóteles trata com valores
"verdade" das afirmações, classificando-as como verdadeiras ou falsas. Não obstante,
muitas das experiências humanas não podem ser classificadas simplesmente como
verdadeiras ou falsas, sim ou não, branco ou preto. Por exemplo, é aquele homem alto
ou baixo? A taxa de risco para aquele empreendimento é grande ou pequena? Um sim
ou um não como resposta a estas questões é, na maioria das vezes, incompleta. Na
verdade, entre a certeza de ser e a certeza de não ser, existem infinitos graus de
incerteza. Esta imperfeição intrínseca à informação representada numa linguagem
natural, tem sido tratada matematicamente no passado com o uso da teoria das
probabilidades.
Contudo, a Lógica Difusa, com base na teoria dos Conjuntos Nebulosos (Fuzzy
Set) tem se mostrado mais adequada para tratar imperfeições da informação do que a
teoria das probabilidades. De forma mais objetiva e preliminar, podemos definir Lógica
Difusa como sendo uma ferramenta capaz de capturar informações vagas, em geral
descritas em uma linguagem natural e convertê-las para um formato numérico, de fácil
manipulação pelos computadores de hoje em dia. Considere a seguinte afirmativa: Se o
tempo de um investimento é longo e o sistema financeiro tem sido não muito estável,
então a taxa de risco do investimento é muito alta. Os termos "longo", "não muito
estável" e "muito alta" trazem consigo informações vagas. A extração (representação)
destas informações vagas se dá através do uso de conjuntos nebulosos. Devido a esta
propriedade e a capacidade de realizar inferências, a Lógica Difusa tem encontrado
grandes aplicações nas seguintes áreas: Sistemas Especialistas; Computação com
Palavras; Raciocínio Aproximado; Linguagem Natural; Controle de Processos;
Robótica; Modelamento de Sistemas Parcialmente Abertos; Reconhecimento de
Padrões; Processos de Tomada de Decisão (decision making).
A Lógica Difusa ou Lógica Nebulosa, também pode ser definida , como a lógica
que suporta os modos de raciocínio que são aproximados, ao invés de exatos, como
estamos naturalmente acostumados a trabalhar. Ela está baseada na teoria dos conjuntos
nebulosos e difere dos sistemas lógicos tradicionais em suas características e detalhes.
Nesta lógica, o raciocínio exato corresponde a um caso limite do raciocínio
aproximado, sendo interpretado como um processo de composição nebulosa.
A lógica em questão foi desenvolvida por Lofti A. Zadeh da Universidade da
Califórnia em Berkeley na década de 60 e combina lógica multivalorada, teoria
probabilística, inteligência artificial e redes neurais para que possa representar o
pensamento humano, ou seja, ligar a linguística e a inteligência humana, pois muitos
conceitos são melhores definidos por palavras do que pela matemática.
O valor verdade de uma proposição pode ser um subconjunto nebuloso de
qualquer conjunto parcialmente ordenado, ao contrário dos sistemas lógicos binários,
onde o valor verdade só pode assumir 2 valores : verdadeiro (1) ou falso (0).
Foi Platão quem fez a base para o que viria a se tornar a Lógica de Fuzzy,
indicando que havia uma terceira região (além de Verdadeiro ou Falso). Outros
filósofos mais modernos também demonstraram este sentimento, como Hegel, Marx e
Engels. Mas foi Lukasiewicz quem propôs pela primeira vez uma alternativa sistemática
para a lógica de dois valores de Aristóteles.
No início do século XX, Lukasiewicz descreveu uma lógica de três valores. O
terceiro valor que ele propôs pode ser melhor expresso como o termo "possível", e lhe
foi dado um valor numérico entre Verdadeiro e Falso. Assim ele propôs uma notação e
sistema axiomático inteiro do qual ele esperava derivar matemáticas modernas.
Posteriormente, ele explorou lógicas de quatro valores, cinco valores, e então
declarou que a princípio não havia nada que impedisse a derivação de uma lógica de
infinitos valores. Lukasiewicz sentiu que lógicas de três valores e de infinitos valores
eram os mais intrigantes, mas ele se concentrou na lógica de quatro valores porque
parecia ser mais facilmente adaptável à lógica de Aristóteles.
Knuth propôs uma lógica de três valores semelhante à de Lukasiewicz, da qual
ele especulou que a matemática se tornaria até mais elegante do que na lógica de dois
valores. Sua visão, aparentemente perdida por Lokasiewicz, foi usar a integral definida
[-1,0,+1] ao invés de [0,1,2]. Entretanto, esta alternativa falhou em ganhar aceitação, e
passou a relativa obscuridade.
A noção de uma lógica de infinitos valores não veio a tona até recentemente. Em
1965 Lotfi A. Zadeh publicou seu trabalho "Conjuntos de Fuzzy", que descreveu a
teoria da matemática de conjuntos de fuzzy, e por extensão a lógica de Fuzzy. Esta
teoria propôs fazer uma função (ou os valores Verdadeiro e Falso) operarem sobre o
intervalo dos números reais [0.0,1.0]. Novas operações para o cálculo da lógica foram
propostas, e mostraram ser a princípio pelo menos uma generalização da lógica clássica.
Lógica Nebulosa (Fuzzy Logic) tem como objetivo modelar o modo aproximado
de raciocínio, tentando imitar a habilidade humana de tomar decisões racionais em um
ambiente de incerteza e imprecisão. Deste modo, a Lógica Nebulosa é uma técnica
inteligente que fornece um mecanismo para manipular informações imprecisas, como
conceitos de pequeno, alto, bom, muito quente, frio, que permite inferir uma resposta
aproximada para uma questão baseada em um conhecimento que é inexato, incompleto
ou não totalmente confiável. Devido às suas características intrínsecas, a Lógica
Nebulosa é capaz de incorporar tanto o conhecimento objetivo (a partir de dados
numéricos) quanto o conhecimento subjetivo (a partir de informações lingüísticas). É
aplicada em sistemas de controle e de suporte à decisão onde a descrição do problema
(regras de produção) não pode ser feita de forma precisa.
Lógica Digital
Desde o princípio das máquinas calculadoras, precessoras dos computadores
atuais, os números foram transformados em sinais (mecânicos, inicialmente),
controlados por um conjunto de engranagens e possibilitando a realização de operações
matemáticas. Os primeiros computadores, ainda valvulados, conseguiam ser mais
eficientes que os computadores mecânicos, pois possibilitavam a troca de estado (entre
0 e 1, desligado e ligado, falso e verdadeiro) de forma mais eficiente. Os transístores
possibilitaram a substituição das válvulas, bem como o início da integração de portas
lógicas, sendo que os integrados tipo Transistor-Transistor Level (TTL) formaram a
primeira família de integrados, depois substituídos por técnicas mais avançadas de
integração. O objetivo é tomar contato com os componentes, e compreender um pouco
como se realizam as operações lógicas (e depois, as operações matemáticas) utilizando
circuitos lógicos.
Resumidamente trata-se de apresentar em matéria física o pensamento lógico
exposto pela mente até então. As identidades booleanas utilizadas, podem ser
demonstradas a partir da definição das portas lógicas AND, OR e NOT.
Lógica Computacional
Uma introdução às técnicas do chamado raciocínio dedutivo usando as
ferramentas da Lógica Matemática. A Lógica Matemática estuda as noções de validade
e consistência de argumentos utilizando elementos da Matemática, tais como a teoria
dos conjuntos e a álgebra booleana.
A noção de procedimento efetivo, que deu origem às primeiras "máquinas
abstratas de computação efetiva" (como, por exemplo, a chamada Máquina de Turing, o
primeiro modelo de computador programável por software, e que deu origem à chamada
Tese de Church que afirma que qualquer função efetivamente computável pode ser
computável por uma Máquina de Turing apropriadamente definida) está intimamente
ligada à noção de "dedução em um sistema formal (simbólico)", como concebido por
Gottlob Frege, o mentor da Lógica Moderna, justamente porque esta última veio como a
implementação do sonho do filósofo Leibniz (século XVII) de criar uma máquina de
verificação da validade de argumentos.
A Lógica Computacional, uma área bastante ativa de pesquisas em Teoria de
Computação trata dos fundamentos matemáticos dos processos computacionais e das
atividades de desenvolvimento, verificação e execução de programas. O tratamento
formal dessas questões tem levado a que diversas Lógicas Computacionais venham
sendo propostas. De uma maneira geral, essas lógicas podem ser classificadas em dois
grandes grupos: (i) lógicas de processos, que buscam caracterizar algebricamente
seqüências de eventos computacionais e suas inter-relações - por exemplo, formalismos
como a Lógica Dinâmica, e Lógica de Processos; e (ii) lógicas de recursos controlados,
que procuram explorar a estreita relação existente entre programas, - cálculos e árvores
de dedução – como a Lógica Linear.
A base do funcionamento de um computador PC está na eletrônica e na lógica
digital. O computador faz, na realidade, cálculos. Operações aritméticas e lógicas com
números e textos (chamadas "strings"). Ora, se é trabalhado num sistema de cálculo
decimal (com dez algarismos), seria muito lógico imaginar que um computador tem de
ser capaz de identificar 10 níveis diferentes de energia para codificar cada um dos 10
algarismos. Mas não é isto que acontece. Um computador com esta característica seria
muito caro e complexo. Ao contrário, o computador trabalha com o mínimo possível de
níveis de energia para a codificação de todas as informações. Este mínimo são os dois
estados físicos de energia distintos que os chips trabalham (por exemplo, 0 e 5V), a
chamada eletrônica digital ou binária. Associados a estes estados físicos distintos temos
dois estados lógicos distintos, que convencionou-se chamar de 0 e 1. Em computadores
faz-se uso da chamada aritmética digital ou binária e da lógica digital, binária ou
Booleana.
Temos assim, o conceito de BIT, que é a menor unidade de informação que pode
ser representada pelo computador. Ou seja, um bit só pode assumir um dos dois estados
lógicos já citados, ou 0, ou 1. Dizemos, também por convenção, que um bit 0 está
desligado e um bit 1 está ligado.
Mas como vamos conseguir representar todos os dez algarismos do nosso
sistema decimal e ainda letras e outros caracteres com apenas dois estados lógicos de
um bit? Simplesmente agrupando-se estes bits. Para representar um algarismo, uma
letra, um caractere dentro do computador, vamos utilizar um conjunto de bits, e não
apenas um. Chegou-se a um número de 8 bits como sendo o suficiente. A este conjunto
de 8 bits deu-se o nome de BYTE. O byte é a palavra do computador. É através do byte
que o computador se comunica, trabalha, processa, armazena, calcula etc.
Quantos bytes diferentes existem? Quantos conjuntos diferentes posso fazer com
8 bits? 256 (que é 28). Como cada byte representa um caracter, posso representar 256
caracteres diferentes (o suficiente para representar os 10 algarismos, todas as letras do
alfabeto, diferenciando-as em maiúsculas e minúsculas, e ainda alguns caracteres
especiais.
Mas para podermos fazer esta representação é necessário uma tabela onde são
relacionados cada byte diferente com um caracter e todos os computadores precisam
usar a mesma "tabela de conversão" para poderem se entender. Estas tabelas já existem
e são chamadas de códigos. De importante para nós temos os códigos EBCDIC (Extend
Binary Coded Decimal Interchange Code) e ASCII (American Standart Code for
Information Interchange).
O código EBCDIC é um esquema de codificação desenvolvido pela IBM para
ser usado em seus computadores como um método de padronização de associação de
valores binários e caracteres alfabéticos, numéricos, de pontuação e de controle de
transmissão. É análogo ao ASCII, e utiliza os 8 bits para a definição de 256 caracteres.
Embora o EBCDIC não seja freqüente na microinformática, ele é bastante conhecido e
utilizado em todo o mundo como o padrão da IBM para computadores de grande porte e
minicomputadores.
O código ASCII é o conjunto de caracteres do código padrão americano para o
intercâmbio de informação, que consiste dos caracteres disponíveis num teclado padrão
de 128 caracteres e incluindo códigos de controle não imprimíveis como retorno da
cabeça de impressão e quebras de página. São 256 códigos divididos em dois conjuntos:
o standard (básico) e o estendido, com 128 códigos cada.
O ASCII Standard (básico) utiliza 7 bits (ou 0 + 7 bits para formar um byte)
gerando 128 códigos de caracteres numerados de 0 a 127. Os 32 primeiros valores ficam
reservados para códigos de controle de comunicação e da impressora. Os 96 códigos
restantes estão associados aos sinais de pontuação convencionais, aos dígitos 0 a 9, e às
letras maiúsculas e minúsculas do alfabeto romano.
O ASCII Estendido utiliza 8 bits para cada código, proporcionando 128 códigos
numerados de 128 a 255. Ficam associados a conjuntos de caracteres que podem variar
conforme o fabricante do computador e quem desenvolve softwares. Portanto, enquanto
o conjunto de caracteres ASCII standard é um padrão universal para os equipamentos e
programas, os caracteres estendidos só poderão ser interpretados corretamente por
programas projetados especialmente para fazê-lo.
Por isso utilizamos com muita freqüência o byte para quantificarmos
características do computador, como memória, capacidade de disco etc. Como o byte é a
unidade, e, por isso mesmo, muito pequeno, fazemos uso dos múltiplos do byte. Mas
lembre-se que estamos no campo da aritmética digital, onde mil vezes um byte são, na
realidade, 1.024 bytes (210).
A Lógica Matemática e Computacional por George Boole
Fundamentos da Lógica Matemática e da Computação
O inglês George Boole (1815-1864) é considerado o fundador da Lógica
Simbólica. Ele desenvolveu com sucesso o primeiro sistema formal para raciocínio
lógico. Mais ainda, Boole foi o primeiro a enfatizar a possibilidade de se aplicar o
cálculo formal a diferentes situações, e fazer operações com regras formais,
desconsiderando noções primitivas.
Sem Boole, um pobre professor autodidata em Matemática, o caminho onde se
ligou a Lógica à Matemática talvez demorasse muito a ser construído. Com relação à
Computação, se a Máquina Analítica de Babbage foi apenas uma tentativa bem
inspirada que teve pouco efeito sobre os futuros construtores do computador, sem a
álgebra booleana, no entanto, a tecnologia computacional não teria progredido com
facilidade até a velocidade da eletrônica.
Durante quase mais de dois mil anos a lógica formal dos gregos, conhecida pela
sua formulação silogística, foi universalmente considerada como completa e incapaz de
sofrer uma melhora essencial. Mais do que isso, a lógica aristotélica parecia estar
destinada a ficar nas fronteiras da metafísica já que somente se tratava, a grosso modo,
de uma manipulação de palavras. Não se havia ainda dado o salto para um simbolismo
efetivo, embora Leibniz já tivesse aberto o caminho com suas idéias sobre o "alfabeto
do pensamento".
Foi Boole em sua obra The Mathematical Analysis of Logic (1847) quem
forneceu uma idéia clara de formalismo e a desenvolveu de modo exemplar. Boole
percebeu que poderia ser construída uma álgebra de objetos que não fossem números,
no sentido vulgar, e que tal álgebra, sob a forma de um cálculo abstrato, seria capaz de
ter várias interpretações. O que chamou a atenção na obra foi a clara descrição do que
seria a essência do cálculo, isto é, o formalismo, o procedimento, conforme o próprio
George Boole descrevia, "cuja validade não depende da interpretação dos símbolos mas
sim da exclusiva combinação dos mesmos". Ele concebeu a lógica como uma
construção formal à qual se busca posteriormente um interpretação.
Boole criou o primeiro sistema bem sucedido para o raciocínio lógico, tendo
sido pioneiro ao enfatizar a possibilidade de se aplicar o cálculo formal em diferentes
situações e fazer cálculos de acordo com regras formais, desconsiderando as
interpretações dos símbolos usados. Através de símbolos e operações específicas, as
proposições lógicas poderiam ser reduzidas a equações e as equações silogísticas
poderiam ser computadas, de acordo com as regras da álgebra ordinária. Pela aplicação
de operações matemáticas puras e contando com o conhecimento da álgebra booleana é
possível tirar qualquer conclusão que esteja contida logicamente em qualquer conjunto
de premissas específicas.
De especial interesse para a Computação, sua idéia de um sistema matemático
baseado em duas quantidades, o 'Universo' e o 'Nada', representados por '1' e '0', o levou
a inventar um sistema de dois estados para a quantificação lógica. Mais tarde os
construtores do primeiro computador entenderam que um sistema com somente dois
valores pode compor mecanismos para perfazer cálculos.
Boole estava convencido de que sua álgebra não somente demonstrou a
equivalência entre Matemática e Lógica, mas que também representou a sistematização
do pensamento humano. A ciência, a partir de Boole, viu que a razão humana é mais
complicada e ambígua, difícil de ser conceituada e mais poderosa que a lógica formal.
Mas do ponto de vista da Matemática e da Computação, a lógica simbólica booleana foi
importante - e só os anos fizeram ver - pois a lógica de até então era incompleta e não
explicava muitos princípios de dedução empregados em raciocínios matemáticos
elementares.
No entanto a lógica booleana estava limitada ao raciocínio proposicional, e
somente após o desenvolvimento de quantificadores, introduzidos por Pierce, é que a
lógica formal pôde ser aplicada ao raciocínio matemático geral. Além de Peirce,
também Schöder e Jevons aperfeiçoaram e superaram algumas restrições do sistema
booleano: disjunção exclusiva, emprego da letra v para exprimir proposições
existenciais, admissão de coeficientes numéricos além do 0 e 1 e o emprego do sinal de
divisão. O resultado mais importante no entanto foi a apresentação do cálculo de uma
forma extremamente axiomatizada.
CONCLUSÃO
Tendo em vista a base de informações constituída com os parâmetros expostos
torna-se concreto a importância do raciocínio lógico em todas as questões abordadas
pelo ser humano no seu dia-a-dia. O Ato de pensar corretamente antes de executar
qualquer ação é comprovadamente um ponto positivo para que tal tarefa seja executada
com total sucesso.
A história é de fato, quem logicamente melhor apresenta isso, na antigüidade,
prevaleceram e tiveram respaldo maior os mais sábios, pensadores, filósofos e
matemáticos. Com o modernismo chegou a tecnologia mecatrônica, são computadores,
robôs, enfim, a era digital com sucesso e credibilidade cada vez maior.
Mas em meio a tantas transformações, o que dizer da lógica do pensamento, do
raciocínio, enfim do ser humano?
Simples e lógico, o homem de crescimento demonstrou um alto nível nas
questões relacionadas ao aprimoramento, treinamento e à aplicabilidade de seus dons,
tendo assim a capacidade não só de aperfeiçoar a si próprio, como também de criar
inúmeras invenções, de alto nível de qualidade e de vital necessidade ao ser humano.
Enfim, toda evolução alcançada pela inteligência humana tem como base
conclusiva três importantíssimos fatores:
-
O homem em si próprio;
O raciocínio lógico: a arte de pensar;
A aplicabilidade: treinar para aperfeiçoar.
REFERÊNCIAS BIBLIOGRÁFICAS
-
Lógica de Programação – A construção de Algoritmos e Estrutura de
Dados.
André Luiz V. Forbellone
Henri Frederico Eberspächer.
-
Lógica de Programação – Lógica de Programação com Pascal.
Ana Fernanda Gomes Ascencio
-
Algoritmos – Lógica para desenvolvimento de Programação.
José Augusto N. G. Manzano
Jayr Figueiredo de Oliveria.
Sites utilizados através da pesquisa pelo assunto: Lógica Aplicada
UFPE: Universidade Federal de Pernambuco - CIN: Centro de informática
PUC-SP: Universidade Pontifícia Católica de São Paulo.
UEM: Universidade Estadual de Maringá. - DIM: Departamento de Informática
Download