v secin

Propaganda
DE AMBIENTES ESTÁTICOS PARA A
COMUNICAÇÃO MÓVEL
22, 23 e 24 de maio de 2013 - Londrina-PR
EIXO TEMÁTICO:
O ciberespaço e a redefinição da informação
WEB INVISÍVEL: compreendendo a invisibilidade no ciberespaço
INVISIBLE WEB: understanding the invisibility in cyberspace
Marcos Vinicius Fidencio - [email protected]
Graduando em Biblioteconomia pela Universidade Estadual de Londrina.
Bolsista de iniciação científica do CNPq na modalidade PIBIC-AF
Silvana Drumond Monteiro - [email protected]
Docente do Programa de Pós-Graduação em Ciência da Informação da
Universidade Estadual de Londrina. Pesquisadora PQ2. Doutora em
Comunicação e Semiótica. Coordenadora do Curso de Biblioteconomia,
Universidade Estadual de Londrina.
RESUMO
Define-se a web invisível como o conteúdo do ciberespaço não indexado pelos mecanismos
de buscas. A metodologia empregada foi a pesquisa e a análise documentais para estudo
do objeto específico. Fez-se a categorização dos tipos de invisibilidade descobertas na
literatura – Web Opaca, que mistura mídias; Web privada, restrita pelos seus mantenedores;
Web proprietária, indexável mas que possui propriedade de alguma organização sendo
acessível por senha; e Web verdadeiramente invisível, excluída por política de exclusão dos
mantenedores ou por dificuldade de indexação. Como resultado, encontrou-se diferenças
terminológicas para referir-se a essa parcela do ciberespaço, sendo o denominador comum
entre todos os termos a não-indexação do conteúdo em buscadores gerais. Conclui-se que
o assunto merece maior atenção da área de Ciência da Informação.
Palavras-Chave: Web invisível. Web profunda. Indexação na Web. Mecanismos de buscas.
ABSTRACT
It’s defined as the invisible web of cyberspace content not indexed by search engines. The
methodology employed was to research and document analysis to study the specific object.
Made to categorize the types of discoveries invisibility in literature - Opaque Web, mixing
media, Web private, limited by their supporters; proprietary Web, indexable but owns
property in any organization and is accessible by password, and Web truly invisible excluded
by political exclusion of the maintainers or difficulty indexing. As a result, we found
differences in terminology to refer to this portion of cyberspace, being the common
Anais do V SECIN, 2013, p. 683 - 700
684
denominator between all terms non-indexation of the content in generic search engines.
Conclude that subject issue deserves more attention in the field of Information Science.
Keywords: Invisible Web. Deep web. Indexing the web. Search engines.
1 INTRODUÇÃO
A indexação do conteúdo disponível no ciberespaço passou por vários
estágios, cada qual com suas limitações: desde os antigos Gophers e diretórios, aos
modernos mecanismos de busca, gerais e especializados, baseados em uma
verdadeira “varredura” maquínica feita por crawlers/spiders, cuja instrução
algorítmica é, em síntese, somar novos links aos extensos índices do mecanismo de
busca para qual operam, sob a égide da recuperação da informação possível –
objetivo louvável, mas que ainda está longe de ser concretizado, por diferentes
porquês.
Nos seus primeiros anos, o conteúdo na Web era, basicamente, recuperado
apenas mediante a memorização das Universal Resources Locator (URL). Como
método pioneiro de indexar e facilitar a recuperação da informação no ciberespaço,
destacam-se as ferramentas de procura em repositórios File Transfer Protocol (FTP)
e os Gophers, como o Archie (CENDÓN, 2001), modelos bem diferentes das simples
interfaces dos buscadores atuais – cada vez mais aperfeiçoados.
A essa parcelada Web, dá-se o nome de informação visível (que formam a
web visível) e está referenciada nos índices dos buscadores designados gerais
(exemplos: Google, Ask, Bing, AltaVista, IxQuick e centenas de outros), facilmente
acessível, mediante uma query1 ideal. Esses buscadores possuem rastreadores que
operam com critérios próprios e com objetivo de descobrir uma nova URL e,
mediante essa, descobrir outras URLs em um processo teoricamente infinito de
mapeamento do ciberespaço e dos hiperlinks, garantindo, assim, um controle da
informação dispersa e dando um sentido ao caótico ciberespaço – ou, ao menos, em
parcela dele.
1
Query significa pergunta sem a estrutura de frase, mas entendida ou respondida como texto.
(MORVILLE; CALLENDER, 2010).
Anais do V SECIN, 2013, p. 683- 700
685
Ocorre que esse sonho de controle da informação no ciberespaço possui
dificuldades e limitações, por questões variadas, dispersas no tempo. A parcela
“sobrante” possui uma razão de ser: por questões tecnológicas, por questões
políticas ou por outras questões que, de alguma forma, dificultam que a totalidade da
informação no ciberespaço seja indexada, o que foi observado no decorrer das
investigações e levantamento bibliográfico a respeito do tema.
A essa parcela de conteúdo ciberspacial cuja indexação não é feita por
mecanismos de busca tradicionais a literatura nomeia de “Web Invisível”, termo
cunhado por Jill Ellsworth (1994 apud BERGMAN, 2001), noutros momentos de
“Web Oculta”, “Web Profunda” e outros adjetivos cujo denominador comum conota a
informação que não é, de alguma forma, indexada e somada aos índices dos
buscadores gerais. Representam um conteúdo maior do que o recuperável, bem
como de alta qualidade.
Para a Ciência da Informação o conhecimento desse manancial não pode
passar despercebido, principalmente por que a quantidade de informação rotulada
como invisível possui qualidade inestimável, uma vez que grande parte dela
constitui-se de banco de dados especializados. Assim, é pertinente dissertar a
respeito do tema, pois ter acesso a esse conteúdo faz parte do fazer bibliotecário.
Desse modo, este trabalho tem como objetivos: fornecer uma visão das
limitações da indexação na Web, o que na literatura é atribuído à Web Invisível e
suas ramificações; demonstrar as potencialidades da Web invisível e seus
respectivos mecanismos de busca.
A esta introdução, segue-se: os procedimentos metodológicos junto ao
referencial teórico com uma pequena explanação da contribuição de cada autor; os
resultados (expressos com maior ênfase), com especial atenção ao tema “Dark
Web” - principalmente pela carência da literatura sobre o tema; e por fim, mas não
menos importante, uma parte do trabalho dedica-se a sumarizar alguns mecanismos
específicos descobertos durante as investigações, sobretudo para ilustrar algumas
fontes de informação da Web Invisível e, se o leitor assim desejar, aventurar-se
nelas: experiência formidável.
Anais do V SECIN, 2013, p. 683- 700
686
2 PROCEDIMENTOS METODOLÓGICOS
A pesquisa documental, com a consequente análise, foi o modo pelo qual o
objeto foi perscrutado e a pesquisa desenvolvida. A primeira etapa foi a aproximação com o tema mediante levantamento bibliográfico em língua portuguesa e inglesa
– formando o corpus teórico – a qual seguiu-se de discussão teórica entre pares
com o material recuperado dessa forma: comparando a literatura; discutindo e
analisando as diferenças terminológicas; e questionando quais os motivos dos
mecanismos de busca não conseguirem indexar essa parcela do ciberespaço.
Mediante o domínio da teoria, a segunda fase da pesquisa concentrou-se
em explorar as fontes de informação da Web invisível (corpus de buscadores): suas
características, potencialidades, funcionamento e público alvo.
Dessa interação com a teoria e com a prática, a terceira e última parte da
pesquisa concentrou-se em escrever sobre o tema, situando essa parcela do
ciberespaço em seu status quo: cuja concentração, constatou-se, é em um novo
desdobramento desta Web conhecida como Dark Web (BECKETT, 2009), em que a
regra dos utilizadores é ter a informação oculta por motivos múltiplos.
A maior parte da literatura a respeito do tema é em inglês, embora o trabalho
de Araújo (2001) tenha contribuido para investigar questões terminológicas, além
disso, os mecanismos de busca da web indexável foram muito bem trabalhados por
Branski (2004) e Cendón (2001).
De fundamental importância foi o trabalho de Andy Beckett (2011), sobretudo
por ser bastante recente ao mostrar as novas configurações do tema pesquisado, a
Dark Web, uma ramificação maniqueísta do ciberespaço. Também importante foi a
crescente familiarização in loco com os mecanismos de busca especializados,
voltados à tarefa de indexar esse rico manancial: uma análise de alguns deles será
apreciada mais adiante.
A dissertação a respeito dos resultados parciais encontrados é que dará,
fundamentalmente, uma visão mais aprofundada do referencial teórico, citado aqui
de maneira sumarizada, bem como quais conclusões e observações foram possíveis
mediante análise e como cada autor contribuiu para a compreensão do tema.
Anais do V SECIN, 2013, p. 683- 700
687
3 WEB INVISÍVEL
Embora o termo Web Invisível tenha surgido em 1994, é na década de 2000
que a literatura explora-o de maneira mais consistente, sobretudo pela grande
repercussão de dois trabalhos: o de Michael Bergman (2001), que trouxe dados
valiosos a respeito da dimensão desse conteúdo; e o de Sherman e Price (2001),
muito louvável, em caracterizar melhor o espaço, inclusive a forma pela qual pode
ser explorado entre grandes áreas temáticas ou, ainda, quais tipos de informação
são de fato impossíveis de se indexar por diversos problemas.
A dimensão da Web invisível carece de uma precisão segura, embora ela
seja maior que a Web visível. Bergman (2001) estima que é de 400 a 550 vezes
maior que a Web indexada, enquanto que, a respeito dessa afirmação, Sherman e
Price (2001, p. 82) dizem que o autor chegou a esse número incluindo informações
efêmeras sobre tempo, temperatura, entre outras.
Nesse sentido, Rajaraman (criador do Kosmix) confessa que os mecanismos
de busca indexam uma fração muito pequena do ciberespaço. “Eu não sei, para ser
honesto, que fração. Ninguém tem uma estimativa muito boa de como é grande a
Web profunda. De cinco a cem vezes maior do que a Web de superfície é a única
estimativa que conheço.” (apud BECKETT, 2009, p. 2-3).
Diferenças à parte é certo que a literatura considera a Web invisível maior
do que a visível, com rico valor de conteúdo intelectual e potencialidade de
exploração econômica, visto que há mecanismos específicos focados na indexação
dessas informações.
Bergman (2001) ilustra, em seu relatório, uma figura amplamente
reproduzida em outros artigos, em que a fina camada nomeada “Surface Web” é a
parte da Web recuperada por buscadores gerais, enquanto que a grande camada,
“The Deep Web”, é a parte estimada de informações não recuperadas. Os “barcos”
são os buscadores na tentativa de indexar conteúdo (peixes, na ilustração):
Anais do V SECIN, 2013, p. 683- 700
688
Figura 1 – A Web da superfície e a Web profunda
Fonte: Bergman ( 2001, p. 6).
A investigação de Bergman (2001) trouxe outros dados elucidativos (e
bastante surpreendentes) que ajudaram a compreender como esse espaço se
configura:

a Web profunda é a maior categoria crescente de informações no
ciberespaço;

existem mais de 200.000 sites profundos;

o conteúdo da Web profunda é de alta qualidade;

a qualidade do conteúdo total da profunda é de 1.000 a 2.000 vezes maior
que a Web de superfície;

mais da metade do conteúdo da Web profunda reside em base de dados
especializadas;

um total de 95% da Web profunda é gratuita, acessível ao público
mediante assinatura (BERGMAN, 2001, p.2).
Anais do V SECIN, 2013, p. 683- 700
689
Já Sherman e Price (2001) preocuparam-se, entre outras coisas, em
categorizar essa Web, aproximando-a a seus possíveis utilizadores, ilustrando casos
fictícios de necessidades de informação. Os dois trabalhos se completam, e formam
a base para as discussões posteriores na literatura.
Na descrição das várias camadas da Web, Sherman e Price (2001) deixam
perceber que o termo invisível não é exatamente o par dicotômico da Web visível,
mas apenas a existência de planos de invisibilidade, como as desdobras ou texturas
do ciberespaço.
As categorias propostas por eles merecem ser citadas, pois ilustram, com
bastante consistência, as diretrizes gerais que se desdobram essa diretriz maior
nomeada aqui Web Invisível. A figura a seguir é esquemática para que seja mais
ilustrativa a explanação de cada conceito, adaptada de Ford e Mansourian (2006):
Figura 2 - As Várias Webs
Fonte: Adaptado de Ford e Mansourian (2005, p. 585).
Basicamente, a Web Invisível se divide em quatro partes, segundo Sherman
e Price (2001), embora uma nova parte apareça na literatura como “Dark Web”
(BECKETT, 2011), assunto de apreciação posterior. Essas quatro partes possuem
Anais do V SECIN, 2013, p. 683- 700
690
características bem definidas, o que facilita a compreensão da dimensão da Web
Invisível e respondem a questões investigativas que propiciaram este trabalho.
3.1 Camadas de invisibilidade da web
Para Sherman e Price (2001) o paradoxo da Web invisível consiste
justamente que sua existência é de fácil compreensão, mas de difícil definição,
concretamente com termos específicos. Não obstante, os autores conseguem fazêlo de forma surpreendentemente didática.
3.1.1 Web opaca
Consiste em sites que misturam arquivos e mídias, em que alguns deles são
facilmente indexáveis e outros são incompreensíveis aos rastreadores. Pela
dificuldade em classificar esses sites, em Web visível ou invisível, são designados
como Web opaca. Além disso, segundo os autores supracitados, há outros motivos
de cunho tecnológico para a existência dela, ou seja, arquivos que podem ser, mas
não são incluídos nos índices dos mecanismos de busca, por várias razões, a saber:

profundidade do rastreador (crawler): reduzir a profundidade ajuda a
reduzir os custos de indexação;

número máximo de resultados visíveis: quando o número máximo de
páginas visualizáveis for atingido, em resposta a uma pergunta, o
mecanismo de busca retorna um número limite de resultados visíveis. As
páginas que os algoritmos não incluíram, em ordem de relevância, tornamse irrecuperáveis para aquela “query” em especial. Essa limitação é cada
vez mais incomum, tendo em vista que mecanismos como o Google ou
Yahoo! retornam resultados em bilhões;

frequência do rastreador: pode ocultar páginas da Web visível por algum
período de tempo. Esse problema só é eliminado com a constante visita
do restrador à página e sua re-indexação;

URLs desconectadas: páginas que não têm links. Isso ocorre por que
existem duas formas básicas para indexar o conteúdo da Web: ou o autor
Anais do V SECIN, 2013, p. 683- 700
691
envia um pedido de submissão a um mecanismo ou o robô descobre por si
próprio. Para que o segundo tipo descrito seja possível, é necessário que
outras páginas, já indexadas, apontem para a nova.
3.1.2 Web privada
Consiste em páginas que são deliberadamente excluídas dos mecanismos,
ou seja, o conteúdo possui restrição deliberada pelos mantenedores, por três
grandes motivos, as saber:

páginas protegidas por “password”: o conteúdo só é acessível para
associados ou pessoas que têm senhas;

uso de “no index”: impede que o robô indexe a página. Método inseguro,
colocado pelo próprio Web Master, ficando a critério da política dos
buscadores indexar ou não;

uso de arquivos “robots.txt” para impedir o acesso de buscadores na
página. Método seguro, e bem mais comum.
3.1.3 Web proprietária
Embora seja indexável, é restrito por ser
propriedade dos seus
mantenedores (instituições, órgãos etc.), acessível mediante registro, em muitos
casos gratuitos, assinatura e/ou pagamento de taxas.
Algumas páginas da Web são visualizadas mediante assinatura, nesse caso,
estamos falando de Web Proprietária.
3.1.4 Web verdadeiramente invisível
Quatro grandes motivos formam a Web verdadeiramente invisível, embora
as adaptações e aperfeiçoamentos dos mecanismos sejam constante para superálos:
Anais do V SECIN, 2013, p. 683- 700
692

algumas páginas possuem formatos de arquivos como o PDF, Postscript,
Flash, Shockwave, programas executáveis, e arquivos comprimidos;
difíceis e/ou impossíveis de serem indexados;

a política de exclusão do mecanismos, uma vez que alguns arquivos
podem ser indexados , mas não são, como por exemplo formatos PDF;

As páginas dinâmicas que são geradas mediante solicitação ou consultas;
informações armazenadas em banco de dados.
3.1.5 Dark web
Embora não tenha sido descrita nas categorias de Sherman e Price (2001),
é bastante seguro considerar a Dark Web como uma nova ramificação da Web
Invisível: suas características são próprias; sua filosofia é própria e, além de tudo,
seu conteúdo é o mais enigmático e desordenado de todas as ramificações.
É em Beckett (2009) que há uma apresentação dessa parcela do
ciberespaço tão pouco explorada na literatura. O cenário para o surgimento dessa
Web deve-se à tese de Ian Clarke de 2000, então estudante da Edinburgh
University, cujo resultado foi a criação de um
programa chamado“FreeNet”
(BECKET, 2009).
O FreeNet foi criado pensado na liberdade de expressão e de conteúdo,
como o protótipo perfeito de informação livre e sem restrições – principalmente
judiciais – para seus usuários. Um usuário do FreeNet compartilha, ao participar da
rede, uma parcela do seu Disco Rígido para armazenar informações criptografadas
que ele mesmo jamais saberá do que se trata. O criador do software, em resposta
ao Beckett, disse que a parcela de informação ilegal circulando no FreeNet não é o
suficiente para negar as pessoas a liberdade de se comunicar (CLARKE, 2009), o
que demonstra o quão ideológico é o software.
Iniciativa semelhante ocorreu com a criação do software The Onion Router
(THOR), um projeto voluntário para aqueles que procuram tráfego de informação
anônima na Internet (BECKETT, 2009). O desenvolvimento inicial do THOR era para
o Laboratório de Pesquisa Naval Americano, para proteger a comunicação
governamental. Hoje, o Thor pode ser utilizado por qualquer pessoa, embora essa
liberdade tenha causado problemas legais, como aponta Beckett (2009).
Anais do V SECIN, 2013, p. 683- 700
693
Na prática, como funciona o THOR? Utilizando o THOR, as rotas para
roteamento de pacotes é randômica e a informação é encriptografada, ou seja,
“perde” a identidade do solicitante. Através do THOR é que surgiu uma iniciativa de
construção de sites utilizando o sufixo “onion”. Todo site que possui o sufixo onion é
inacessível e ilegível a qualquer navegador Web normal, sendo exclusivo dos
usuários da rede THOR, aí sim, legíveis aos navegadores.
Em ambos os casos, uma coisa fica bastante clara: na Dark Web o
anonimato é desejável aos utilizadores, principalmente por causa de posições
filosóficas dos usuários ou alguma posição contrária às normas sociais.
3.2 Mecanismos de busca dedicados à web invisível
Vários mecanismos de busca, públicos e privados, mas altamente
específicos, dedicam-se a indexar informações invisíveis aos mecanismos gerais,
que só indexam a Web da superfície. Inúmeros bancos de dados podem ser
enquadrados como Web Invisível, principalmente portais de periódicos pagos,
comuns aos bibliotecários de referência ou aos pesquisadores. A pesquisa
naturalmente chegou até a eles e a outros buscadores.

Mednar
Um dos mais completos buscadores na área da saúde. O que faz do
MedNar muito útil são suas relações semânticas que eliminam boa parte da
polissemia dos buscadores tradicionais, ligando qualquer palavra-chave à área de
saúde, especialmente à Medicina. Além disso, quando o buscador finaliza uma
busca ele apresenta categorias em que o tópico pesquisado mais apareceu em
forma de “Result Topics”. Como exemplo, para "coração" aparecem tópicos de
“Falha cardíaca”, “Doenças do coração", "enfarto”, etc.
A empresa criadora do MedNar (Deep Web Technologies) também possui
outros buscadores com o intuito de indexar outros tipos de informação, não ligadas à
Medicina, e pode ser considerada um sucesso no grande trabalho de criar um
buscador de qualidade com alta revocação e precisão. Com design inteligente e
Anais do V SECIN, 2013, p. 683- 700
694
amplo uso dos recursos da Web 2.0, o MedNar é uma fonte de informação
indispensável para o pesquisador na área médica.
Figura 3 – Mednar
Fonte: MEDNAR. Disponível em: <http://mednar.com/mednar/>.

History world
O History world é uma forma diferente de procurar informação na Web, pois,
o que conta são os dados históricos do que está sendo pesquisado. O buscador
pode ser considerado uma espécie de busca específica e histórica para eventos
mundiais. Tradicionalmente, os buscadores da superfície permitem uma query sem
indicação cronológica ou factual, enquanto que o History world apresenta seus
resultados dispersos no tempo e com as várias formulações lógicas possíveis
(queries) para encontrar aquela formulação em buscadores externos.
Figura 4 – History world
Fonte: HISTORY World. Disponível em: < http://www.historyworld.net/>.
Anais do V SECIN, 2013, p. 683- 700
695

SurfWax
As buscas em feeds RSS são possíveis com o SurfWax, ainda que
incompletas por serem restritas no tempo. Com o buscador é possível digitar a raiz
de alguma palavra e ver quais os feeds que remetem a tal nos últimos sete dias.
A empresa criadora denomina-o de pesquisador dinâmico, característica
fundamental do estilo de busca adotado: o banco de dados do buscador é atualizado
a cada hora e se renova 100% em sete dias, voltando a informação do feed a ficar
perdida nos confins da Web. Sua interface é simples e diferente, “dinâmica” na
medida em que cada letra é digitada.
Figura 5 – SurfWax
Fonte: SURFWAX. Disponível em: <http://lookahead.surfwax.com/index-2011.html.

Pipl
Buscador dedicado a encontrar pessoas e informações sobre elas. O Pipl
acessa uma enorme quantidade de bases de dados diferentes, que vão desde de
listas telefônicas às redes sociais. Sua interface é simples: uma primeira caixa de
texto é dedicada para inserir nome, telefone, e-mail ou nome de usuário de algum
serviço; a segunda caixa (opcional) é para inserir dados geográficos (cidade, estado,
país). Um dos seus méritos é fazer as buscas em vários países, ao contrário do
concorrente Zaba Search, centrado nos Estados Unidos.
Contudo, há outras opções melhores de buscadores para quem procura
alguém em registros históricos ou telelistas, e o aperfeiçoamento das buscas nas
próprias redes sociais é constante, graças ao cruzamento de dados (e
Anais do V SECIN, 2013, p. 683- 700
696
integrabilidade, como nas redes do Google) fornecidos pelo próprio utilizador, o que
faz com que procurar alguém em redes sociais específicas seja uma melhor opção
para quem já é cadastrado.
Na realidade, o Pipl é uma grande ideia (ainda que não seja nova) com
potencial para ser uma ferramenta coringa. Com a pluralidade de redes sociais o
Pipl torna-se atrativo e com grande potencial de crescimento, o que dependerá,
obviamente, dos desenvolvedores em explorar essas oportunidades.
Figura 6 - Pipl
Fonte: PIPL. Disponível em: < https://pipl.com/>.

Internet Archive
O propósito do Internet Archive é ser uma grande biblioteca do ciberespaço
para acesso a pesquisadores, historiadores, e público interessado no seu conteúdo.
O Internet Archive
faz a indexação de páginas antigas de sites que não mais
existem. O projeto teve início em 1996, em São Francisco, Estados Unidos. Nenhum
buscador indexa URLs antigas, portanto, as páginas do Internet Archive são
cuidadosamente indexadas para que existam para sempre.
Anais do V SECIN, 2013, p. 683- 700
697
Figura 7 – Internet Archive
Fonte: INTERNET Archive. Disponível em:<http://archive.org/index.php>.

Complete Planet
Desenvolvido pelos mantenedores do BrightPlanet, inclusive Michael
Bergman, permite a busca de arquivos invisíveis de todos os tipos, seja por busca
simples, avançada ou diretórios. A homepage diz que o Complete Planet faz buscas
em mais de setenta mil bases de dados diferentes. O fato é que o Complete Planet
possui ótima revocação, ótimos mantenedores e, possivelmente, é o Search Engine
nesse segmento mais bem sucedido financeiramente, com inúmeras soluções
tecnológicas diferentes disponíveis e bastante inovação e pioneirismo.
Figura 8 - Complete Planet
Fonte: COMPLETE Planet. Disponível em:< http://aip.completeplanet.com>.

OAIster
Conhecido pelos bibliotecários, o OAIster é ligado à Online Computer Library
Center (OCLC) e indexa repositórios de qualquer tipo de mais de 1.100
contribuidores. O curioso dos repositórios é que alguns são indexados pelos
mecanismos de busca, outros, não – questão essa ligada à política dos
mantenedores. Por isso, o OAIster é uma excelente ferramente para recuperar
Anais do V SECIN, 2013, p. 683- 700
698
informação na Web, pois boa parte do seu conteúdo não é somado aos índices dos
buscadores.
Figura 9 - OAIster
Fonte: OAISTER. Disponível em: http://www.oclc.org/oaister/>.
Certamente, inúmeros outros buscadores poderiam ser apreciados, de toda
forma, consideramos que os mais pertinentes para fornecer uma visão panorâmica
da Web Invisível estão aqui. A familiarização com os buscadores especializados
facilitará e aumentará a percepção de possibilidade de acesso às informações que
não são indexadas nos buscadores gerais.
4 CONSIDERAÇÕES FINAIS
O ciberespaço pode parecer, ao sujeito navegador comum, um lugar
relativamente organizado, de fácil acesso a todo conteúdo das nuvens, sobretudo
por que ele (usuário) pode não ter a idéia de que resultados insatisfatórios de um
query transitam em diversos fatores entre a limitação tecnológica à restrição
deliberada. Ao navegador comum a parcela não indexada pode parecer também
“invisível aos olhos”, ainda que seja potencialmente, mas, e aos bibliotecários?
Buscadores específicos feitos por bibliotecários (Infomine, IPL2 e etc.) mostram o
quanto esses profissionais são preocupados com a recuperação da informação na
rede, ainda que, nem sempre, observem a informação que indexam como Web
invisível.
A Web a cada dia se mostra mais interessante, cheia de possibilidades e
inovações, em um período de tempo tão pequeno – familiarizar-se com essa fonte
de informação é cada vez mais fundamental para a prática professional do
bibliotecário e para áreas correlatas com a Ciência da Informação.
Anais do V SECIN, 2013, p. 683- 700
699
Por fim, a terminologia a respeito da Web Invisível, cujo padrão é desejável
para a comunicação científica, é extremamente difusa entre os pesquisadores e,
também, no senso comum. É um ponto que sem dúvidas necessita de maior reflexão
e exploração, embora as contribuições de Araújo (2001) e Sherman e Price (2001)
sejam notáveis. E a área de Ciência da Informação, interdisciplinar que é, inclusive
com a linguagem e linguística, merece explorar essa Web e tais questões, pois tem
competência o suficiente para tanto, do contrário, quem o fará, além dos
engenheiros e analistas de sistemas?
REFERÊNCIAS
ALTAVISTA. Disponível em:<http://br.altavista.com/>. Acesso em: 16 jan. 2013.
ARAÚJO, J. P. Invisível, oculta ou profunda?. 2001. Disponível em:
<www.comunicar.pro.br/artigos/weboculta.htm>. Acesso em: 16 jan. 2012.
ASK. Disponível em:< http://br.ask.com/?o=312&l=dir>. Acesso em: 16 jan. 2013.
BECKETT, A. The dark side of the internet. Disponível em:
<http://www.guardian.co.uk/technology/2009/nov/26/dark-side-internet-freenet>.
Acesso em: 16 jan. 2013.
BERGMAN, M. K. White paper: the deep we: surfacng hidden value. Journal of
Eletronic Publishing, v. 7, n. 1, ago. 2001.
BING. Disponível em:<http://br.bing.com/>. Acesso em: 16 jan. 2013.
BRANSKI, R. M. Recuperação da informação na web. Perspectivas em Ciência da
Informação, Belo Horizonte, v. 9, n. 1, p. 70-87, jan./jun. 2004.
CENDÓN, B. V. Ferramentas de busca na Web. Ciencia da Informação, Brasília, v.
30, n. 1, p. 39-49, abr. 2001.
CLARKE, I. The guardian writes about freenet. Disponível em:
<http://blog.locut.us/2009/11/26/the-guardian-writes-about-freenet/>. Acesso em: 16
jan. 2013.
COMPLETE Planet. Disponível em:< http://aip.completeplanet.com>. Acesso em: 16
jan. 2013.
FORD, N.; MANSOURIAN, Y. The invisible web: an empirical study of cognitive
invisibility. Journal of Documentation, London, v. 62, n. 5, 2006.
GOOGLE. Disponível em: <http://www.google.com.>. Acesso em: 16 jan. 2013.
Anais do V SECIN, 2013, p. 683- 700
700
HISTORY World. Disponível em: < http://www.historyworld.net/>. Acesso em: 20 fev.
2013.
INFOMINE. Disponível:<http://infomine.ucr.edu/>. Acesso em: 16 jan. 2013.
INTERNET Archive. Disponível em:<http://archive.org/index.php>. Acesso em: 16
jan. 2013.
IPL2. Disponível em:<http://www.ipl.org/>. Acesso em: 17 fev. 2013.
IXQUICK. Disponível em:<https://www.ixquick.com/>. Acesso em: 16 jan. 2013.
MEDNAR. Disponível em: <http://mednar.com/mednar/>. Acesso em: 11 fev. 2013.
MORVILLE, P.; CALLENDER, J. Search patterns: design for discovery. Canadá:
O’Reilly, 2010.
OAISTER. Disponível em: <http://www.oclc.org/oaister/>. Acesso em: 16 jan. 2013.
PIPL. Disponível em: < https://pipl.com/>. Acesso em: 20 fev. 2013.
SHERMAN, C.; PRICE, G. The invisible web: uncovering information sources:
search engines can't see. Medford: Cyberage books, 2001.
SURFWAX. Disponível em: <http://lookahead.surfwax.com/index-2011.html>.
Acesso em: 11 fev. 2013.
THOR project. Disponível em: <http://www.thorproject.org>. Acesso em: 16 jan.
2013.
YAHOO. Disponível em: < http://br.search.yahoo.com/>. Acesso em: 16 jan. 2013.
ZABA Search. Disponível em:< http://www.zabasearch.com/>. Acesso em: 20 fev.
2013.
Anais do V SECIN, 2013, p. 683- 700
Download