Inteligência Artificial

Propaganda
Inteligência Artificial e a Filosofia
Painéis
Joel Luis Carbonera
Gélio José da Silva Júnior
Painel 1: Arte evocativa


A ideia aqui é elaborar uma arte que evoque o poder da ideia de uma inteligência
artificial, um ser artificial que pensa e tudo que isso representa, em termos filosóficos e
em termos de feito humano.
Uma ideia é nos apropriarmos da imagem forte, e já absorvida pelo imaginário popular,
do pensador de Rodin. Elaborar uma versão robótica do pensador. Penso em uma
imagem que se aproveita do fato de estar em um ambiente escuro. Talvez uma imagem
em preto, com detalhes em cores fosforecentes (o verde matrix, ou ou azul Tron, por
exemplo),só sugerindo. Penso em uma peça de acrílico,iluminada por trás, para dar
efeito de iluminação própria.
Painel 2: Introdução
O interesse pelo desenvolvimento de entidades artificiais inteligentes participa do
imaginário da humanidade há muito tempo.
Ao mesmo tempo, as tentativas de construção de autômatos inteligentes também são
bastante antigas e ocorreram em diversos pontos ao longo da história, ilustrando o interesse
intelectual em acessar os princípios subjacentes à inteligência. Este imaginário traçou um longo
caminho, até culminar na consolidação de uma disciplina científica que busca investigar o tema, a
partir do ponto de vista científico contemporâneo.
O artigo de Turing em 1950, “Computing Machinery and Intelligence”, aborda a
possibilidade de máquinas pensarem, colocando explicitamente a questão para a comunidade
cinetífica moderna e discutindo-a. Este trabalho cristaliza a ideia da possibilidade de uma máquina
se comportar de modo inteligente, desde que seja adequadamente programada para isso.
O nome “Inteligência Artificial”, e o estabelecimento formal de uma área de pesquisa
come este nome, ocorreram em 1956, em uma conferência em Dartmouth College (Buchanan,
2005). Nesta conferência, foram discutidas propostas de investigação que norteariam o início dos
trabalhos desta disciplina científica.
Painel 3: Inteligência Artificial forte e Inteligência Artificial Fraca
O filósofo John Searle distingue duas posturas em relação à IA:
 Hipótese da Inteligência Artificial forte: Afirma que sistemas de inteligência artificial
podem realmente pensar e ter uma mente genuína. Neste caso, estes sistemas não seriam apenas
simulações de inteligência, mas entidades realmente inteligentes.
 Hipótese da Inteligência Artificial fraca: Afirma que sistemas de inteligência
artificial podem agir de forma inteligente, ou agir como se fossem inteligentes (ou como se tivessem
mentes). Neste caso, estes sistemas, apesar de agirem de forma inteligente, não seriam entidades
genuinamente inteligentes, mas, no máximo simulações de comportamentos inteligentes. Nesta
visão, computadores podem ser vistos como ferramentas úteis para estudar a mente, permitindo o
teste empírico de modelos da mente.
Atualmente, as duas visões convivem na área da Inteligência Artificial. Uma parcela
considerável dos pesquisadores da área adota a hipótese da IA fraca. Por outro lado, há pesquisas
que assumem a hipótese da IA forte, e dedicam-se a discutir a viabilidade de uma inteligência
artificial geral, perseguindo o objetivo de entidades artificiais que pensam genuinamente,
elaborando e propondo teorias de como poderiam ser realizadas concretamente.
Painel 4: Alan Turing e suas nove objeções
4.1:
No artigo “Computing Machinery and Intelligence”, Turing discute nove possíveis
objeções à possibilidade de realização de uma inteligência artificial.
A objeção teológica
Este tipo de objeção assume que o ser humano é dotado de uma alma imortal, que é esta
alma imortal que permite o pensamento e que um possível Deus dotou os homens e mulheres com
esta alma, mas não fez o mesmo com os animais e as máquinas. Assim, nem animais nem máquinas
poderiam pensar.
Turing sente-se incapaz de aceitar qualquer parte deste argumento, pois para algumas
visões dogmáticas nem as mulheres tem alma, o que constitui um absurdo.
Turing também esboça uma resposta irônica, afirmando que o argumento questiona a
onipotência deste possível Deus. Se for Deus quem confere a capacidade de pensar, dotando um ser
com uma alma imortal, nada impediria que Deus a conferisse às máquinas, concedendo uma morada
artificial adequada para este Deus hipotético possa preencher com uma hipotética alma imortal.
Turing salienta que, historicamente, os argumentos teológicos costumam se revelar
insatisfatórios com o avanço do conhecimento e cita como exemplo as objeções teológicas em
relação à teoria heliocêntrica.
4.2:
A objeção da “cabeça na areia”
Objeções deste tipo teriam a seguinte forma “As consequências de máquinas pensantes
seriam terríveis, portanto, resta-nos esperar e acreditar que isso não pode ser feito”.
Turing vê este argumento como popular entre os intelectuais, orgulhosos da sua
"inteligência superior", que veem seu posto ameaçado pela possibilidade de uma máquina que pensa
e que poderia ser mais inteligente que eles próprios.
Cabe salientar que este argumento é falacioso, porque o fato de não querermos que algo
ocorra, não significa que não possa ocorrer.
A objeção matemática
Diversos resultados alcançados na lógica matemática podem ser usados para mostrar
que existem limitações nas máquinas de estados discretos (tais como os computadores digitais
modernos). Os resultados mais bem conhecidos deste tipo são os teoremas da incompletude de
Gödel, que provam que em qualquer sistema lógico suficientemente poderoso, é possível construir
declarações que não podem ser provadas verdadeiras, tampouco falsas dentro deste mesmo sistema.
Turing salienta que, apesar de ser conhecido que há limitações nas máquinas, não
podemos afirmar que o intelecto humano não tenha limitações. Humanos erram e isso não abala a
confiança que são inteligentes. Mesmo que o intelecto humano seja superior ao da máquina, não
está claro se isso significa que a máquina não é inteligente.
4.3:
O argumento da consciência
Em uma passagem de uma oração, Jefferson afirma que só poderíamos concordar que
uma máquina se iguala ao cérebro, quando ela pudesse escrever um soneto ou compor um concerto,
como consequências de pensamento e emoções realmente sentidos e não pela disposição acidental
de símbolos. Ou seja, para considerar uma máquina inteligente, não bastaria que ela escrevesse um
soneto, ela deveria também saber que o escreveu. Jefferson continua, afirmando que nenhum
mecanismo poderia sentir prazer diante dos seus sucessos, ou sentir dor quando suas válvulas
fundem-se, sentir-se confortado com lisonjas, sentir-se humilhado com seus erros, encantar-se pelo
sexo, zangar-se ou deprimir-se quando não consegue obter o que deseja.
Turing vê esta afirmação como uma suposição da necessidade da consciência para a
inteligência.
Turing afirma que, de acordo com o argumento, a única forma que teríamos para
verificar se uma máquina é realmente inteligente, envolveria ser a própria máquina e sentir a si
mesmo pensando. Da mesma forma que, só poderíamos considerar outro ser humano como um ser
inteligente caso fôssemos este ser humano.
A posição geral de Turing sobre este ponto é que de é inegável que existem mistérios
em relação ao fenômeno da consciência, mas que, no entanto, não é necessário resolver estes
mistérios para resolver a questão da possibilidade das máquinas pensarem. Isto sugere que Turing
vê inteligência e consciência como sendo independentes.
4.4:
O argumento da inaptidão
Estes argumentos supõem alguma incapacidade da máquina, para concluir que, devido a
esta inaptidão, uma máquina nunca será inteligente. Turing levanta algumas dessas incapacidades,
como ser gentil, bonito, simpático, ter iniciativa, ter senso de humor, distinguir o certo do errado,
cometer erros, apaixonar-se, gostar de morangos com creme, etc.
Ele ressalta que, geralmente, nenhuma evidência é oferecida para suportar estes
argumentos. Comenta também que o motivo que leva as pessoas acreditarem nessas inaptidões são
as experiências anteriores que elas tiveram com máquinas limitadas, de propósitos específicos.
A objeção da Lady Lovelace
Fundamenta-se no relato de Ada Byron (Lady Lovelace) a respeito da máquina analítica
de Charles Babbage, de que a máquina analítica não tem pretensões a originar nada de novo e de
que ela pode fazer apenas aquilo que sabemos como ordená-la para fazer.
No entanto, isto não implica que não seja possível construir uma máquina que pense por
si mesma, ou que, em termos biológicos, não seja possível dotar uma máquina de reflexos
condicionados que podem servir como base para o aprendizado. A viabilidade desta alternativa
constitui outra questão, que deve ser investigada.
Turing contrasta esta colocação de Ada Byron com outras questões. Como estar certo de
que um trabalho aparentemente original e criativo realizado por um sujeito não foi simplesmente o
crescimento de uma semente plantada nele pelo aprendizado ou o efeito do fato dele seguir
princípios gerais bem conhecidos?
4.5:
O argumento da continuidade no sistema nervoso
O cérebro não é uma máquina de estados discreta, possuindo características bastante
diversas deste tipo de máquina. Por exemplo, uma pequena diferença no sinal recebido por um
neurônio gera grandes diferenças no sinal de saída. Turing estava consciente deste fato e previu que
ele poderia ser usado como argumento contra a possibilidade de máquinas pensarem, assumindo
que estas características próprias do cérebro seriam necessárias para o pensamento e que não seria
possível reproduzir estas características em máquinas de estado discretas.
Apesar de Turing concordar com o fato de que existe esta diferença fundamental entre
cérebros (sistemas contínuos) e computadores digitais (sistemas discretos), ele discorda de que este
fato tenha consequências que inviabilizem uma máquina pensante. Turing assume que qualquer
sistema (inclusive os sistemas contínuos) pode ser simulado em um grau razoável de precisão em
máquinas discretas, desde que se tenha poder computacional suficiente para isso.
4.6:
O argumento da informalidade de comportamento
Este tipo de argumento parte da suposição de que não é possível determinar todo o
conjunto de regras que descreve o que uma pessoa deve fazer em cada circunstância possível, e
assume uma suposição adicional de que há um conjunto de regras que determina o que uma
máquina deve fazer em cada situação possível.
Turing afirma que ter o comportamento regulado por um conjunto de regras de
comportamento implica em ser uma máquina, e que, ao mesmo tempo e de forma oposta, ser uma
máquina implica em ter o comportamento controlado por regras de comportamento. Turing constata
que não é possível afirmar que tal conjunto de regras não exista e, portanto, não temos como
afirmar com certeza que humanos não tem o comportamento controlado por um conjunto de regras
de comportamento gerais.
O argumento da percepção extra-sensorial
Em 1950 a área de percepção extra-sensorial (telepatia, clarividência, precognição,
psicocinese, etc) era uma área de pesquisa consideravelmente ativa. Argumentos nessa linha
afirmariam que estas habilidades poderiam dar vantagens no teste de Turing. Supostamente, um
interrogador poderia telepaticamente identificar o humano, em um determinado teste.
Turing discute possibilidades de contornar isto. Uma possível máquina sensível à
telepatia, por exemplo, anularia esta vantagem. Outra possibilidade seria o isolamento do
interlocutor em uma possível sala à prova de telepatia.
Painel 5: John Searle e o argumento da sala chinesa
5.1
John Rogers Searle é um filósofo estadunidense que ficou notório pela projeção que
suas críticas ao projeto da IA tomaram, principalmente na forma do “argumento da sala chinesa”.
Este argumento foi apresentado à comunidade no artigo “Minds, brains and programs”, em 1980.
Neste artigo, Searle deixa claro que não faz nenhuma objeção à hipótese da IA fraca, mas foca-se
em delinear uma crítica contundente à hipótese da IA forte.
O foco das críticas de Searle é a habilidade humana de compreensão (ou entendimento).
Searle empenha-se em mostrar que programas de computador não podem exibir esta habilidade. O
filósofo apresenta um experimento mental que ficou amplamente conhecido na literatura como “o
experimento da sala chinesa”.
 Dentro de uma sala, existe um ser humano que fala inglês (poderia ser português),
mas não fala chinês.
 Esta sala tem um canal de entrada e saída de sentenças linguísticas escritas
 Dentro desta sala, há um livro com regras em inglês (ou português), que instruem ao
ser humano como relacionar certas sentenças em chinês a outras sentenças em chinês. Estas regras
consideram apenas a forma dos símbolos.
 É pedido para que o sujeito, dentro da sala, observe as sentenças em chinês que
entram na sala, identifique no livro esta sentença de entrada, siga as instruções do livro em relação a
esta entrada, gere a sentença correspondente, de acordo com as instruções do livro e coloque a
sentença correspondente na saída da sala.
5.2
Na visão de Searle, do ponto de vista de um observador externo, as saídas da sala
tornam-se indistinguíveis das respostas de um falante nativo de chinês. As pessoas que estão fora da
sala podem chamar algumas das sentenças em chinês que entram na sala de “perguntas” e chamar
outras sentenças em chinês que saem da sala de “respostas”, sem que o sujeito que está dentro da
sala saiba efetivamente que se trata de perguntas e respostas. Quem está dentro da sala está
manipulando estas sentenças apenas comparando a forma dos símbolos que entram, com os a forma
dos símbolos previstos pelas regras do livro, sem saber o significado de qualquer um dos símbolos
que manipula.
Com este experimento, Searle quer mostrar que, mesmo que sejam geradas respostas
razoáveis em linguagem natural, indistinguíveis das que um falante nativo de chinês geraria, não há
nenhuma compreensão genuína de chinês na sala, uma vez que, apenas símbolos sem significado
estão sendo manipulados. Como consequência, mesmo que uma máquina conseguisse passar no
teste de Turing, isto não significaria que ele compreende genuinamente o que está fazendo.
A habilidade humana de compreensão deve-se ao que ele chamou de intencionalidade,
que seria uma capacidade apresentada pelos seres vivos, através da qual nossos estados mentais se
relacionam com os objetos e estados de coisas no mundo.
Searle defende que a intencionalidade só pode manifestar-se em organismos biológicos,
pois ela depende dos poderes causais do cérebro. Searle defende que maquinas poderiam pensar,
desde que tenham poderes causais equivalentes ao cérebro biológico.
Painel 6: Hubert Dreyfus e a crítica às suposições que fundamentam o projeto da IA
6.1:
Hubert Dreyfus é um filósofo estadunidense e em seu livro “What Computers Can't
Do” (1979) ele identifica quatro suposições problemáticas que são assumidas pelos pesquisadores
da área, norteando todas as pesquisas da IA.
A suposição biológica
No início das pesquisas da neurologia, os cientistas assumiam que o neurônio disparava
em pulsos de “tudo ou nada” (ou seja, disparavam ou não). Este padrão de disparo permitia que os
cientistas vissem o neurônio como portas lógicas similares a dos computadores digitais. Esta
similaridade sugeriu que o cérebro pudesse ser visto como um manipulador de símbolos discretos
(zero ou um). No entanto, Dreyfus mostra evidências de que a ação e o tempo de disparo neural
possuem componentes analógicos, havendo assim componentes do neurônio que não podem ser
realizados por máquinas discretas.
A suposição psicológica
Do ponto de vista do filósofo, os pesquisadores da IA supõem, incorretamente, que a
mente opera sobre a informação de acordo com regras formais (ou, pelo menos, formalizáveis).
Para ele existe uma massa de conhecimento de senso comum do qual estamos inconscientes e que é
difícil transformá-lo em um encadeamento de símbolos discretos explícitos. Na visão de Dreyfus,
este conhecimento não está no cérebro como um conjunto de símbolos com significados
individuais, como os pesquisadores da IA costumam assumir.
6.2:
A suposição epistemológica
Esta suposição afirma que todo o conhecimento pode ser formalizado. Esta suposição é
de natureza epistemológica, porque, na Filosofia, a Epistemologia é a disciplina que estuda o
conhecimento.
O filósofo afirma que, mesmo quando os pesquisadores de IA aceitam que a suposição
psicológica é falsa, ainda podem assumir que é possível que uma máquina processadora de
símbolos represente todo o conhecimento, independentemente do fato de seres humanos
representarem o conhecimento desta forma ou não. Dreyfus afirma que não há justificativa para esta
suposição, uma vez que uma parte considerável do conhecimento humano não seria simbólica, do
ponto de vista dele.
A suposição ontológica
Esta suposição afirma que o mundo consiste em fatos independentes que podem ser
representados em símbolos independentes. Esta suposição é chamada de ontológica, porque a
Ontologia é a disciplina filosófica que estuda as categorias básicas de coisas que existem no mundo.
Na visão do filósofo, os pesquisadores de IA geralmente assumem que não há limites
para o conhecimento formal, porque, como outros cientistas, assumem que qualquer fenômeno do
universo pode ser descrito por símbolos ou teorias científicas. Desta forma, tomamos que tudo que
existe pode ser descrito como objetos, propriedades de objetos, classes de objetos, relações entre
objetos, etc. Dreyfus lança dúvidas sobre esta suposição, afirmando que há controvérsias a respeito
deste aspecto.
Painel 7: Roger Penrose / John Lucas - As objeções matemáticas
A objeção matemática baseia-se em provas matemáticas de que certas questões
matemáticas são, em princípio, insolúveis para sistemas formais específicos. Os teoremas da
incompletude de Gödel são o exemplo mais conhecido de evidências deste tipo. Em resumo, estes
teoremas provam que, dado um sistema formal (como uma máquina de Turing), é possível fazer
afirmações dentro deste sistema formal que não podem ser provadas verdadeiras nem falsas, dentro
do próprio sistema.
John Lucas afirma que o teorema de Gödel mostra que máquinas são mentalmente
inferiores aos seres humanos, porque máquinas são sistemas formais limitados pelo teorema da
incompletude – não podem estabelecer a verdade sobre certas sentenças que se pode expressar
nestas máquinas – enquanto seres humanos não possuem tal limitação.
Penrose afirma que, ao contrário da máquina, seres humanos são capazes de provar tais
teoremas com o uso da intuição e da criatividade e que estes fenômenos são causados por
fenômenos quânticos que ocorrem no cérebro. Para Penrose, uma máquina não pode reproduzir
estes fenômenos quânticos e, consequentemente, não é capaz de pensar como humanos.
Painel 8: Questões filosóficas
Nesta parede imagino essas questões filosóficas projetadas em tempo intgral. Imagino um efeito
artístico. Cada pergunta pode ser encarada como um elemento gráfico que interage com os outros.
Imagino as questões movendo-se pela parede. Uma lista de possíveis questões segue:
· O que é inteligência?
· Como ocorre a inteligência?
· Máquinas podem pensar?
· É preciso ter uma alma para pensar?
· Devemos criar máquinas inteligentes?
· Máquinas podem ter livre-arbítrio?
· Máquinas podem ter emoções?
· Máquinas podem ser criativas?
· O cérebro é um computador?
· Máquinas só exibem a inteligência dos seus programadores?
· O teste de Turing é decisivo para julgar a inteligência?
· A inteligência requer um corpo?
· Hardware e software são análogos a cérebro e mente?
· Máquinas podem aprender como humanos?
· Máquinas podem adaptar-se a situações novas?
· Máquinas podem ser conscientes?
· A consciência é necessária para o pensamento?
· O teorema de Gödel prova que máquinas não podem pensar?
· Máquinas podem compreender a linguagem natural?
· Máquinas podem fazer arte?
Painel 9: Coleta de feedback
 Algum dispositivo de interação para coletar feedback
 Qual feeback será coletado e como?
 Uma possibilidade é coletar respostas discursivas (não binárias) para alguma
pergunta (máquinas podem pensar?), associadas a uma semântica que permita fazer
análises (sim, não, não sei). Ou seja,o sujeito seleciona uma opção (sim, não, não sei)
e justifica com uma discussão em uma quantidade definida de caracteres. O feeback
é armazenado. O feedback armazenado pode dar origem a um estudo sobre como o
imaginário coletivo vêa IA.
 Neste mesmo terminal talvez possamos colocar também o score do teste de Turing.
Download
Random flashcards
modelos atômicos

4 Cartões gabyagdasilva

Anamnese

2 Cartões oauth2_google_3d715a2d-c2e6-4bfb-b64e-c9a45261b2b4

Criar flashcards