UNIVERSIDADE FEDERAL DA BAHIA DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO INTELIGÊNCIA ARTIFICIAL PROCESSAMENTO DE LINGUAGEM NATURAL 1. Introdução O que vem à cabeça quando se ouve falar em robôs? À muitos vem a imagem daqueles robôs de desenho animado ou dos filmes de ficção científica onde os humanos conversavam e interagiam com eles e eles com os humanos. Eles entendiam cada palavra dita pelo homem e respondiam facilmente à qualquer pergunta. E como eles conseguiam essa tal interação, se para o próprio homem o aprendizado da linguagem é gradual e complexo? Como os robôs tinham todo esse conhecimento da linguagem humana? Claro que eram filmes de ficção científica, porque para um robô compreender e processar essa linguagem não é tão fácil como parece. Os estudos para entender a mente (intelecto, pensamento, entendimento) e a inteligência (aprendizado, compreensão, percepção) humana é tão complexo que existe uma ciência voltada só para isso e que abrange não só a neurociência como também a psicologia, filosofia, inteligência artificial e a linguística. [CHIORO] Esta é a Ciência Cognitiva, é ela quem tenta entender, descrever e explicar as principais capacidades de cognição humana: a linguagem, o raciocínio, a percepção, a coordenação motora, etc. E usa como método para escrever programas que reproduzam essas capacidades cognitivas humana procurando elaborar uma réplica da inteligência destes. O resultado desses estudos em conjunto com outras áreas da inteligência artificial, como as redes neurais, leva a uma outra área da IA, a área de pesquisa ligada ao Processamento de Linguagem Natural, o tema deste artigo. 2. Histórico Danilo Martins, Karina Kataoka e Leonardo Trindade {lilobmm, karikataoka, leotavo}@gmail.com O desejo pela interação entre o homem e a máquina vem desde os primórdios do computador. Quando no fim da Segunda Guerra Mundial, e com o início da Guerra Fria, os americanos tiveram o interesse em traduzir automaticamente informações soviéticas da maneira mais rápida possível. E foram com calculadoras científicas que continham dados suficientes para traduzir palavra por palavra que o inglês Booth e o americano Warren Weaver, iniciaram os estudos pela tradução automática. Mas essas calculadoras não consideravam as questões linguísticas, como a sintaxe ou morfologia, apenas faziam a tradução de palavras-chave do inglês para o russo. [ALFARO] Em 1948 o inglês Richens introduziu, nesse programa desenvolvido por Booth e Weaver, informações relativas à análise gramatical da lingua russa. Além de proporcionar ao leitor informações mais precisas sobre a função da palavra na sentença, esse processo causou a diminuição de entradas no dicionário, o que acelerou a consulta automática.[ALFARO] Já em 1954, na Universidade de Georgetown, foi realizada uma experiência de tradução automática, a primeira até então, do russo para o inglês usando um computador como processador - ao invés das calculadoras científicas. O vocabulário continha 250 palavras e seis regras sintáticas. Salvador, Bahia, Julho de 2010. Nos anos 60, segundo [OLIVEIRA], os computadores já possuíam a habilidade de aceitar e responder questões em inglês relacionadas a vários assuntos - álgebra, medicina, relações de parentesco, entre outras, e podiam conduzir uma pesquisa psiquiátrica, a nível rudimentar, em inglês e alemão. Esse novo grupo de programas marcou o início do trabalho, em Inteligência Artificial, sobre o entendimento da linguagem natural. [MIRANDA] 4. Reconhecimento e Síntese de Voz Em 1966, no Massachusetts Institute of Technology (MIT), o cientista da computação Joseph Weizenbaum criou o ELIZA, um programa pequeno e simples, usando técnicas de Inteligência Artificial que simulava o diálogo entre um paciente e psicólogo, utilizando as próprias frases do paciente para formular novas perguntas. ELIZA é considerada uma das primeiras "máquinas pensantes". ELIZA não entendia sobre psicologia, ela apenas fazia a análise semântica das frases dita pelo paciente e respondia de acordo com o seu banco de dados. Desde cedo, o reconhecimento de voz na computação tem sido um assunto de ficção científica. Quem não se lembra de Mister Spok em "Jornadas nas Estrelas" dando comandos para o computador em voz alta. Ou do computador HAL, personagem fictício imortalizado na adaptação pro cinema da série "Uma Odisséia no Espaço", de 1968, capaz de falar naturalmente, reconhecer a voz humana, e ainda fazer leitura labial. Nas pesquisas, ainda não chegou-se a esse ponto, mas houve uma grande evolução nos últimos anos no desenvolvimento de aplicações para reconhecimento de voz, e com certeza, há ainda muito que evoluir. [LINGUATEC, 2001] [WOOD, 2000] 3. Processamento de Linguagem Natural (PLN) Os sistemas existentes hoje em dia funcionam como uma espécie de memorizadores de palavras. Estes associam frases ou palavras pré-determinadas em suas bases de dados, faladas por determinada pessoa, a uma certa ação também pré-estabelecida. [WOOD, 2000]. Esse tipo de técnica possui grande utilidade em sistemas que necessitem de grande interação com os usuários. Aplicações estas, geralmente conhecidas como chatbot ou ainda chatting robot. Essas aplicações de chatting podem ser usadas de diversas formas, desde um serviço de atendimento ao consumidor automatizado, a um sistema de identificação e tratamento de problemas de saúde. E sem deixar de mencionar a possibilidade do emprego delas na educação, por meio de um possível tutor inteligente. Entre outras aplicações mais comuns temos também aquelas utilizadas em sistemas de segurança, que utilizam o reconhecimento de voz de uma pessoa específica para controle de acesso, levando em consideração o timbre, entonação entre outras características. [Barton] Como em toda linguagem o sistema de processamento de linguagem natural necessita conhecer e manter informações morfológicas, sintáticas, semânticas e um conjunto de palavras suportadas por tal linguagem. Normalmente os computadores estão aptos a compreender instruções escritas em linguagens de computação como Java, C, Pascal, etc., mas requerem mais aprofundamento quando se trata da linguagem humana. Isso se deve ao fato de que as linguagens de computação são precisas, com regras fixas e estruturas lógicas bem definidas, que permitem ao computador saber como proceder a cada comando. Já na linguagem natural uma simples frase normalmente contém ambiguidades e interpretações que dependem do contexto, do conhecimento do mundo, de regras gramaticais, culturais e de conceitos abstratos. Os níveis de entendimento da linguagem natural são os seguintes: . Fonético: relacionamento das palavras com os sons da língua do ponto de vista da articulação e da recepção auditiva; · Morfológico: construção das palavras a partir unidades de significado primitivas e de como classificá-las em categorias morfológicas; · Sintático: relacionamento das palavras entre si, cada uma com o seu papel estrutural nas frases, a construção de frases; · Semântico: relacionamento das palavras com seus significados e de como eles são compostos para que a frase tornem-se compreensíveis; · Pragmático: uso de frases e sentenças em diferentes contextos, afetando o significado. A maioria do sistemas que processam a linguagem natural não atendem a todos esses itens, por sua dificuldade na implementação completa e correta. Trataremos nesse artigo os níveis relacionados à fonética, com o reconhecimento de voz, ao morfológico, sintático, semântico e pragmático com a análise textual. Apesar de parecer simples, reconhecer a voz humana não requer apenas um bom conhecimento computacional ou algorítimico, mas também de Fonética, Linguística, Reconhecimento de Padrões, e outras áreas da IA. [linguatec, 2001] 4.1. Breve Histórico: Final da década de 1950: Primeiras pesquisas tecnológicas para o reconhecimento de voz. 1964: IBM apresenta um sintetizador de voz para a fala de dígitos. 1978: A Texas Instruments lançou o primeiro chip dedicado à síntese de voz. 1984: IBM desenvolve um sistema capaz de trabalhar com mais de 5000 palavras, todavia, o processo de cálculo levava sempre vários minutos. 1986: IBM desenvolve o protótipo "Tangora 4" para a língua inglesa. Sistema em tempo real, utilizando trigramas (modelos probabilísticos para prever a próxima letra ou palavra em determinada fala ou texto). 1993: Utilizando as tecnologias testadas no sistema Tangora, a IBM lança o primeiro software comercial para reconhecimento de voz, o IBM Personal Dictation System, para OS/2, com valor na época em torno de R$ 1000,00, e disponível para computadores pessoais. 1993: Apple apresenta conjunto de rotinas para Mac, para reconhecimento e síntese de voz. 1993: Universidade Federal do Rio de Janeiro desenvolve Dosvox, com síntese de voz em português, para deficientes visuais usarem PC's com DOS. 1994: Dragon Systems apresenta o Dragon Dictate para ditados. 1996: IBM apresenta o MedSpeak/Radiology, primeiro produto para reconhecimento da fala contínua em tempo real. 1996: OS/2 Warp é o primeiro sistema a embutir comandos de voz. 1997: Dragon Systems lança o primeiro programa de uso geral para reconhecimento da fala contínua em inglês. 1997: IBM lança o ViaVoice, para fala contínua. 1998: IBM lança ViaVoice em português. 1998: MicroPower lança DeltaTalk, sintetizador de voz em português. 1999: Philips lança FreeSpeech 2000, com reconhecimento da fala em português. 1999: Lotus e Corel acrescentam recursos de voz a seus pacotes de aplicativos. 2000: L&H adquire Dragon Systems e lança L&H Dragon NaturallySpeaking 5.0. 2001: Telemar lança Vocall, primeiro serviço de voz aberto ao público, com síntese e reconhecimento da fala, para e-mails e agenda. 2001: L&H é colocada à venda, por se encontrar em grave crise financeira. 2001: Microsoft acrescenta recursos de voz (para ditados e comandos) ao Office XP. Na versão em português, essa facilidade está ausente. 4.2. Conceitos: O processamento pode ser aplicado, basicamente, em quatro áreas: comandos por voz; fala natural; síntese de voz e autenticação de voz. - Comandos por voz (ou reconhecimento de palavras) - Processamento de um trecho da fala digitalizada, para indicar uma ação a ser tomada. Bastante utilizado em centrais telefônicas automatizadas, handhelds, celulares ou PC's. Permite que um usuário acesse diretamente uma função sem a necessidade de percorrer as outras opções, em um menu muito extenso, por exemplo. - Fala natural (ou contínua) - Envolve a produção de texto a partir de frases faladas que tenham algum sentido semântico. A aplicação mais comum dessa tecnologia é o ditado de documentos em processadores de textos, planilhas ou envio de e-mails. - Síntese de Voz - Processo inverso do reconhecimento da fala. A entrada é um texto em formato digital. A aplicação transforma o texto em sons (ondas sonoras) perceptíveis ao ouvido humano. Este tipo de tecnologia é bastante útil quando o usuário não pode desviar a atenção para ler algo, ou não tem acesso ao texto escrito (fora de seu alcance, ou por questões de acessibilidade). - Autenticação por voz - Usa a idéia de uma voz única por pessoa, logo passível de associação e identificação. Esses sistemas podem ser usados para controle de acesso, ou função, por um usuário, substituindo os tradicionais "login" e "senha". forma como essa digitalização do som é feita depende muitas vezes da aplicação escolhida, mas a aplicação tem pelo menos dois componentes básicos: o modelo acústico e o linguístico. No modelo acústico, primeiramente, são eliminados os ruídos e informações desnecessárias, as alterações de volume, e são feitos alguns cálculos matemáticos, onde os dados são reduzidos a um determinado espectro de frequência. Essa é a preparação para que os dados possam ser então, analisados e convertidos em fonemas, ou melhor, em representação digital desses fonemas. Ex: "O Brasil não levou o hexa." => Fonemas: o-b-r-a-z-i-u-n-ã-o-l-ê-v-ô-u-o-é-c-i-s-á O segundo componente, o modelo linguístico, analisa a combinação de fonemas, e compara com uma base de dados pré-determinada (dicionário), para associar um conjunto de fonemas a uma determinada palavra. Num sistema de reconhecimento de comandos por voz, o modelo linguístico é bem mais simples, pois o dicionário já deve prever praticamente todas as formas de pronunciar determinado comando, ou dar uma resposta negativa, caso não haja um comando associado àquele conjunto de fonemas. Já na fala contínua, há a necessidade de uma base dados bastante extensa, logo, necessidade também de maior poder de processamento e algoritmo mais eficiente. Mas, a simples análise fonética não é suficiente para que uma aplicação identifique corretamente o sentido de frase, pois há muitas palavras com pronúncia semelhante ou equivalente, onde sua correta identificação é sensível ao contexto. Uma técnica utilizada para resolver este problema são os trigramas, modelos estatísticos que usam uma distribuição de probabilidades para "adivinhar" o sentido correto da fala. Uma estratégia utilizada seria por exemplo, na dúvida de identificação de determinada palavra, analisar as palavras que estão entre ela. Ex: Vou à UFBA. (fonema 'a' = à, há ou a ???, vou = verbo transitivo indireto, UFBA = lugar, verbo regido por preposição. Conclusão = à). Ou seja, o reconhecimento da fala contínua envolve também outras temas, como Gramática, Sintaxe, Ortografia, etc. Além disso é preciso fazer o agrupamento correto das palavras. Podemos ter as seguintes construções: "Vou à UFBA" - "Voua UFBA" - "Vou à ufiba". Por isso é vidente a necessidade de um bom modelo gramatical. A maioria dos pacotes atuais de reconhecimento de fala contém dicionários com cerca de 150 mil verbetes em português. Número próximo também ocorre no idioma inglês. 4.3 O processador de voz: O computador não entende a linguagem humana. É preciso transformar a fala em algo que possa ser armazenado, processado e compreendido pela máquina. Quando falamos em um microfone de PC, por exemplo, nossa voz é convertida em um sinal analógico que alimenta a entrada de uma placa de som. A placa contém um conversor analógico-digital que cria uma sequência de bits, estes sim interpretador por um software. A 4.4. Síntese de voz: Converter palavras em fonemas também é outro grande desafio. É preciso atentar, por exemplo, para a duração e a tonalidade de cada fonema. Cada sílaba tem sua intensidade. Pode ser desagradável ouvir um texto numa voz visivelmente mecânica, quando o que ser quer é simular a voz humana. Os sistemas de síntese de voz tentam reduzir ou eliminar essa percepção mecânica e "robotizada". Podemos nos deparar com palavras homógrafas (mesma grafia e pronúncias distintas). Voltamos então a necessidade de um modelo gramatical confiável, que permita ao aplicativo pronunciar adequadamente certa palavra. É um projeto considerado típico de redes neurais (como a equipe colega explicou). Para tornar a produção da voz o mais natural possível, também é necessário impor um ritmo de leitura, respeitar a pontuação e uma correta entonação. Esse modelo de entonação ainda é um dos principais desafios quando tratamos desta tecnologia. Esse modelo pode ser algorítmico ou baseado em amostras. O modelo algorítmico tende a ser incompleto pois além de prever as regras, é preciso prever as exceções, o que aumenta a complexidade do algoritmo da solução utilizada. O modelo baseado em amostras contém vários tipos de textos lidos, e se fundamenta em um modelo "mais" matemático ou estatístico. As arquiteturas de processamento dos sistemas de reconhecimento de escrita tanto cursiva quanto impressa são similares. Existe a entrada de dados, seja ela por meio do escaneamento ou por escrita manual em algum dispositivo, seguido da extração dos atributos, que tenta eliminar as variações dos caracteres, deixando ao classificador o papel de reconhecedor da letra apresentada. O classificador faz o mapeamento dos valores que os atributos possuem e verificam em seu banco de dados a correspondência com a letra conhecida. E por fim tem-se a resposta, a letra reconhecida que concatenadas formam-se as palavras, frases, textos, etc. [SILVA & RACZ & CUNHA & COSTA] 4.5. Alguns desafios/dificuldades: - uma mesma palavra pode ser falada de maneira mais curta ou extensa por diferentes pessoas, ou diferentes momentos, ou até mesmo, pelo instrumento utilizado para captação do som. - linguagem culta x linguagem coloquial/informal - palavras homófonas, homógrafas. - a influência de determinados sons sobre outros (eliminação de ruído). Um humano pode facilmente diferenciar, mas e um computador? - Produção de texto. Letras Maiúsculas ou minúsculas. - o surgimento de novos termos, exige constante evolução das aplicações. - estrangeirismos - processador veloz, muita memória, bom microfone e placa de som. [Linguatec] [Richter] 4.6. O futuro: Fig. 1.: Arquitetura de Reconhecimento para sistemas de reconhecimento de escrita. 5.1. Reconhecimento de letras impressas Scanners copiam os textos e geralmente fazem esse reconhecimento de escrita. Posteriormente os programas analisam cada caractere e comparam com padrões de fontes já existentes no banco de dados. 5.2. Reconhecimento de letras cursivas Com a popularização dos dispositivos móveis e consequentemente com a não utilização de teclados como dispositivo de entrada o estudo dessas técnicas de reconhecimento cresceu. A tecnologia e reconhecimento de produção de voz é bastante complexa, e ainda não muito popularizada. Mas o que se pode perceber é que o caminho natural é o aperfeiçoamento de mais aplicações voltadas para a automatização de tarefas, eliminação de digitação, de necessidade de leitura de textos, e também uma maior acessibilidade. A vasta área de aplicação desta tecnologia pode justificar o alto investimento e o surgimento de mais e mais sistemas que facilitem nossas atividades diárias. Sistemas esses que possam interagir e responder de forma mais humana. A alta quantidade de erros ainda torna o uso dessas aplicações um pouco restritas, mas com a crescente pesquisa e recursos computacionais cada vez mais poderosos, poderemos chegar a uma realidade próxima do que já estamos acostumados a ver em certos filmes de ficção científica. 5. Reconhecimento de Escrita Ao mesmo tempo em que os sistemas de reconhecimento de voz foram se desenvolvendo, o reconhecimento de escrita também foi estudado e desenvolvido. [MÜLLER] O reconhecimento de escrita atua em dois ítens, a que reconhece letras impressas (ou de forma) e as letras cursivas, a manual. Fig. 2.:Diagrama da arquitetura do sistema de reconhecimento de escrita manual através de dispositivo portátil. 7. Análise de Texto A área de estudo do Provessamento de Linguagem Natural mais importante, complexa e por sua vez, a principal é a análise textual, e tem sua maior aplicação. Veremos posteriormente exemplos de ferramentas que utilizam a análise de texto como principal aplicação. A fim de entender melhor o processamento de uma informação textual, tomemos como exemplo a frase “Eu quero imprimir o arquivo .init do Mário”, que deve ser processada e atendida pelo computador. As cinco fases (ou etapas) que o programa deverá executar a fim de atender corretamente serão: 7.1. Análise Morfológica Cada palavra é analisada e classificada isoladamente, levando em consideração a sua própria estrutura. Analogamente ao estudo da língua portuguesa, equivaleria a classificar cada palavra segundo sua classificação morfológica (adjetivo, substantivo, verbo, etc). Palavras cuja estrutura (grafia, ignoradas/descartadas neste ponto. por exemplo) estejam incorretas podem Fig. 3. Análise sintática do texto "Eu quero imprimir o arquivo .init do Mário". ser No exemplo dado, deve-se separar cada parte da expressão morfologicamente. A expressão “do Mário”, por exemplo, tornar-se -á preposição “de” mais artigo “o” mais substantivo próprio “Mário”. No processamento sintático (etapa correspondente à transformação da frase plana em estrutura hierárquica das unidades de significado da frase), também conhecido como parsing, geralmente encontramos dois componentes principais: “.init” deve ser reconhecido como um adjetivo qualificando a extensão de um arquivo. 7.2. Análise Sintática Analisa-se uma sequência linear de palavras a fim de analisar o seu relacionamento e emprego na frase.Comparando com o estudo da gramática portuguesa, seria equivalente a classificar cada expressão segundo seu emprego (análise sintática) na frase, como sujeito, predicado verbal, etc. Sequências de palavras criadas/organizadas de forma errônea podem ser rejeitadas aqui, como: “Carro o meu azul é”, que apesar de ser correta morfologicamente (cada palavra está escrita corretamente), não satisfaz as regras gramaticais sintáticas. Abaixo, uma imagem de como seria a árvore da análise sintática para a frase em questão, segundo [Elaine Rich & Kevin Knight]: Uma gramática, que é a representação declarativa dos fatos sintáticos da linguagem, isto é, que é capaz de reconhecer e validar todas as regras sintáticas (bem como os elementos morfológicos) da linguagem em questão; Um analisador, que se trata de um procedimento que compara a gramática com as frases de entrada a fim de produzir corretamente as estruturas a serem analisadas. 7.3. Análise Semântica Neste passo, as estruturas criadas pelo analisador sintático recebem significado, mapeando assim cada estrutura sintática a um objeto no domínio da tarefa e, mais uma vez, caso não seja possível fazer um mapeamento adequado, uma estrutura pode ser descartada. Rich & Knight citam Chomsky, ao exemplificar a construção frasal “Ideias verdes sem cor dormem furiosamente”, que apesar de bem construída sintaticamente, pode ser considerada semanticamente anômala. Duas coisas devem ser feitas aqui segundo [Rich & Knight]: Criar estruturas corretas que correspondam ao modo como os significados das palavras isoladas combinam entre sim. Esta etapa é denominada processamento em nível de frase, e várias são as abordagens aqui possíveis, como gramáticas semânticas, gramáticas de casos, análise conceitual e interpretação semântica aproximadamente conceitual. Deve-se ter uma base de conhecimentos suficiente para que se possa associar cada expressão/palavra a fim de determinar o relacionamento entre elas. Mapear palavras isoladas para objetos apropriados na base de conhecimentos ou na base de dados. Este processo é conhecido como processamento léxico e é responsável por identificar o significado de cada palavra em um dicionário, resolvendo problemas de ambiguidade por meio de alguma das técnicas possíveis. Wilks (1972), por exemplo, sugere o emprego da semântica de preferência; comportamento físico das outras pudessem ser empregados na compreensão dos atos da fala. 8. Ferramentas Muitas ferramentas hoje utilizam o processamento da linguagem natural como aplicação. Alguns exemplos: 7.4. Integração de Discurso Geralmente, o significado de uma frase será melhor compreendido, ou somente será compreendido a partir da interpretação da mesma juntamente com as frases antecedentes e/ou sucessoras a ela. Esta parte pode ser comparada à interpretação do texto, onde a compreensão do todo é importante para que se possa entender cada parte. DOSVOX: Sistema em português que se comunica com o usuário através da síntese de voz, viabilizando o uso do computador por deficientes visuais dando a eles mais independência. [Ver Anexo Fig. 4] A.L.I.C.E. (Artificial Linguistic Internet Computer Entity): É um chatterbot, ou seja, um programa que tenta simular uma conversa humana. Ele responde as perguntas, em inglês, de forma a dar impressão de estar conversando com outra pessoa. [Ver Anexo Fig.5] SETEZOOM: Outro exemplo de chatterbot mas em português. [Ver Anexo Fig. 6] ELIZA: Primeiro programa ou chatterbot de simulação de diálogo humano. Simulava o diálogo entre um paciente e o psicólogo. No exemplo dado, precisamos determinar quem são os usuários “Eu” e “Mário” a fim de saber quem está requisitando e quem é o proprietário do arquivo requisitado. Isso pode ser determinado por meio de análise de frases anteriores, bem como numa verificação do sistema (verificando quais os usuários chamados Mário existem no sistema, através do login, por exemplo). 9. Referências 7.5. Análise Pragmática [ALFARO] Alfaro, C.: "Descobrindo, Compreendendo e Analisando a Tradução Automática". Departamento de Letras. Pontifícia Universidade Católica do Rio de Janeiro. Rio de Janeiro, Rio de Janeiro, 1998. Finalmente, a estrutura frasal é reinterpretada a fim de determinar o que se disse (se é uma solicitação, pergunta, afirmação, etc.) a fim de determinar melhor qual deverá ser a reação do programa. A análise pragmática leva em conta que, palavras iguais podem possuir diferentes significados, dependendo do contexto em que está inserida. O significado não se encontra nas palavras em si, mas em sua interpretação [MIRANDA]. Um exemplo disso seria a frase “Você tem horas?”. Se ela for interpretada pelo lado sintático/semântico, somente, a resposta obtida será Sim ou Não. Já levando em conta a análise pragmática, que é como se espera que faça, já que a resposta desejada não é Sim/Não, a frase, ao final, ser interpretada como uma solicitação para que o programa responda qual é a hora naquele exato momento da pergunta. [MIRANDA] Sob a ótica pragmática, conforme [LACERDA], a pesquisa em Processamento de Linguagem Natural possui três implicações importantes: o significado de uma mensagem expressa de forma oral é representado somente parcialmente pelo conteúdo da mensagem. O receptor deve ser perceptivo quanto às intenções do emissor ao produzir a mensagem; a atribuição das intenções do emissor é componente integral no processo de compreensão do receptor; a teoria da compreensão da linguagem deveria determinar o âmbito para o qual as estratégias utilizadas pelas pessoas para chegar a explicações razoáveis sobre o [CHIORO] Chioro, R. "Ciência Cognitiva". http://an.locaweb.com.br/Webindependente/CienciaCognitiva/ciencia_cognitiva.htm [LACERDA] Lacerda, J. N. de. “Generalização de fatos na compreensão de textos em linguagem natural”. Universidade Federal de Santa Catarina. Florianópolis, Santa Catarina, 1996. [LINGUATEC] Linguatec Sprachtechnologien GmbH: “Grundlagen der spracherkennung”. http://www.spracherkennung.de/service/sebuch.htm , 2001. [MIRANDA] Miranda, E. M. de; Santiago, R.; Fernandes, A. M. da R.; Dazzi, R. L. S.: "Utilização de Processamento de Linguagem Natural para auxiliar na avaliação de algoritmos". Centro de Ciências Tecnológicas da Terra e do Mar. UNIVALI – Universidade do Vale do Itajaí. Itajaí, Santa Catarina. [OLIVEIRA] Oliveira, F. A. D. de: "Processamento de linguagem natural: princípios básicos e a implementação de um analisador sintático de sentenças da língua portuguesa”. Universidade Federal do Rio Grande do Sul. Porto Alegre, Rio Grande do Sul. [RICH] E. e [KNIGHT] K.: "Inteligência Artificial". Makron Books, 1993. [RICHTER] Richter, N.:"Spracherkennung - Informationen, Test und Produkte". http://www.diktatstarten.de/ 2001 Anexo de Figuras [MÜLLER] Müller, D. H.: "Processamento de Linguagem Natural". Universidade Federal do Rio Grande do Sul. Porto Alegre, Rio Grande do Sul, 2003. Fig.4. DOSVOX [SCHNEIDER] Schneider, M. O.: "Processamento de Linguagem Natural (PLN)". Pontifícia Universidade Católica de Campinas. Campinas, São Paulo, 2001. [SILVA] Silva, V. F.; [RACZ] Racz, A.; [CUNHA] Cunha, A. R.; [COSTA] Costa, A. H. R.: "Reconhecimento de Escrita Baseado em Redes Neurais Artificiais Utilizando B-SPLINES e TDF". Escola Politécnica da Universidade de São Paulo. São Paulo, São Paulo. Publicado em: VI Simpósio Brasileiro de Automação Inteligente. Bauru, setembro de 2003. [WOOD] Wood, L.: "Intro to Voice Recognition Software" http://www.weeno.com/art/1099/183.html, 2000. http://intervox.nce.ufrj.br/dosvox/intro.htm Fig.5. A.L.I.C.E Fig.6. SETEZOOM http://alice.pandorabots.com/ http://www.inbot.com.br/sete/