Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Deep Web e Jornalismo. Como Transformar Dados Desta Rede Anônima em Informação de Relevância Social1 Lucas Vieira de ARAÚJO2 Krishma CARREIRA3 Pedro Henrique TOTH4 Universidade Metodista de São Paulo, São Paulo, SP RESUMO A informação jornalística é alcançada a partir de fontes, documentos e dados. Eles estão nos mundos off-line e on-line e são captados por motores de busca e por cruzamentos de dados. Existe ainda outra fonte anônima, que não é captada por buscadores tradicionais que indexam somente o que está na chamada “superfície da internet”. Ela reside em uma segunda rede chamada Deep Web. Há ferramentas que possibilitam a entrada direta e segura neste universo. Neste artigo vamos analisar o potencial deste imenso canal de comunicação, que é a Deep Web, cujos dados podem ser transformados em informações relevantes se forem explorados e conectados da maneira correta por jornalistas com pensamento computacional e até por hackers jornalistas. A metodologia tem caráter exploratório e baseia-se em pesquisa bibliográfica interdisciplinar. PALAVRAS-CHAVE: Deep Web; análise de dados; jornalismo na Deep Web; jornalismo de dados; hacker jornalismo. INTRODUÇÃO O jornalista, seja no mundo analógico ou digital, trabalha a partir de dados5 que filtra, traduz e transforma em informação6. 1 Trabalho apresentado no GT Comunicação Digital e Tecnologias do PENSACOM BRASIL 2015. 2 Doutorando em Comunicação Social na linha de pesquisa Inovações Tecnológicas na Comunicação Contemporânea pela Universidade Metodista de São Paulo - Umesp, e-mail: [email protected] 3 Mestranda em Comunicação Social na linha de pesquisa Inovações Tecnológicas na Comunicação Contemporânea pela Universidade Metodista de São Paulo - Umesp, e-mail: [email protected] 4 Mestrando em Comunicação Social na linha de pesquisa Inovações Tecnológicas na Comunicação Contemporânea pela Universidade Metodista de São Paulo - Umesp, e-mail: [email protected] 5 Entendemos dado como unidade elementar de informação que existe antes da interpretação e do processamento cognitivo do sujeito (FLORIDI, 2000). 6 A informação, segundo Peter Drucker, é um dado dotado “de relevância e propósito” (apud DAVENPORT, 1998, p.19). 1 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Até a internet, o jornalista encontrava dados no mundo off-line a partir do que observava, do que presenciava, da relação com fontes, do que achava em documentos ou em outros meios impressos ou até através do que recebia anonimamente. Com o avanço tecnológico, o computador foi parar nas redações dos veículos de comunicação, onde substituiu a máquina de escrever, passou a servir como base de arquivo e virou uma ferramenta presente no dia a dia dos jornalistas. Nos últimos anos, a forma de receber notícias também foi alterada: ela começou a ser consumida de forma mais individual e móvel. Outra mudança foi na distribuição, que passou a ser instantânea, global e focada no perfil do consumidor. O conteúdo também foi modificado através do uso de hipertextos e de recursos multimídias, interação e personalização. Com a internet, os dados continuaram a ser garimpados da mesma forma do que no mundo analógico, mas também passaram a ser obtidos através das redes telemáticas7. Antônio Fidaldo (2007) diz que: como a investigação na vida real parte de fatos observados, assim também as ações apuradas algoritmicamente servirão de ponto de partida para a investigação no âmbito de mineração de dados. Cabe ao jornalista dar-se conta num e noutro caso, nos eventos ocorridos na vida do dia a dia ou nas relações extraídas dos dados informáticos, do que é e não é notícia (PINTO, 2011, p. 36). O jornalista pode, portanto, trabalhar “com dados e informações armazenados (agora em imensos e infindáveis bancos de dados)”, explica S. Squirra (2015, p.72). Ele reforça a “extrema necessidade da realização de pesquisas em bancos de dados digitais online para a criação, estruturação e enriquecimento de relatos jornalísticos confiáveis" (p.73). Este tipo de jornalismo pode ser feito a partir de dados estruturados ou não8. Com a mineração (data mining) é possível filtrar dados, encontrar padrões inusitados, tendências e relações relevantes entre eles que podem ter um imenso valor 7 Um bom exemplo sobre dados no mundo on-line é o que ocorre com a movimentação do Estado Islâmico (EI) na web, onde imagina-se ser ainda mais difícil controlar a organização do que no mundo off-line. Em matéria na Folha de S. Paulo sobre repercussões do atentado a Paris, no dia 13 de novembro de 2015, o jornal reforça esta questão com a manchete “Europa tem desafio de conter escalada da radicalização on-line. Apesar de medidas de segurança no mundo ‘real’, atração de jovens para causas radicais acontece pela internet”. Disponível em: <http://www1.folha.uol.com.br/mundo/2015/11/1709252-europa-tem-desafio-de-conter-escalada-da-radicalizacaoon-line.shtml>. Acesso em 21 de nov. 2015. 8 Muitos dados ainda são fechados dentro de “silos” e não disponibilizados por governos ou empresas. No Brasil, a lei de acesso à informação é de 2011, mas muitos dados ainda não são disponíveis ou quando estão, não são “amigáveis” do ponto de vista da utilização dos usuários ou da integração entre bancos de dados diferentes. Sobre este assunto, uma referência interessante é o livro “Lei de acesso à informação” de Fabiano Angélico. 2 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 jornalístico. O data mining é um ponto de partida precioso para a descoberta ou complementação de notícias. Ele consiste em separar as especificidades para encontrar padrões mais gerais. Mas além dos dados que o jornalista pode procurar através de buscadores, bancos de dados e do Big Data, existe ainda a possibilidade de tentar encontrá-los na Deep Web, que é uma camada invisível da web, muito maior do que o lado visível conhecido pela maioria dos internautas. O QUE É A DEEP WEB? Em 1991, Tim Berners-Lee criou a web (World Wide Web). Ela foi um projeto desenvolvido dentro do CERN (European Organization for Nuclear Research), com objetivo de ser uma ferramenta colaborativa, de modo que todos os pesquisadores e cientistas desta organização pudessem compartilhar resultados e pesquisas com os demais para agilizar o processo científico. Por ser uma ferramenta amigável ao usuário e sem necessidade de conhecimento técnico para ser usada, a web popularizou-se rapidamente e atingiu, no ano de 2014, a marca de 968.882.453 websites abertos9. Dentro desse gigantesco volume de websites, destacam-se os sites pessoais ou blogs, portais de conteúdo, as redes sociais, os wikis, as ferramentas de busca, os chats e os sites de compartilhamento de mídia. O crescimento da web impulsionou o desenvolvimento de diversas ferramentas, como os buscadores. Todavia, ser visível nem sempre é uma alternativa válida para todas as pessoas. Algumas delas preferem o anonimato. No ano de 1994, três anos apenas após a criação da web, o termo “web invisível” foi criado pelo Dr. Jill Ellsworth (BERGMAN, 2001), referindo-se ao conteúdo presente na web daquela época e que era invisível aos mecanismos de busca existentes. Pode-se dizer que este foi, de forma prematura, o nascimento da Deep Web10. Mas vale observar que, naquela época, os buscadores da web existentes eram baseados em serviços de diretório e para que o site pudesse aparecer nos resultados de busca, era necessário que o dono ou mantenedor da 9 Disponível em: <http://www.internetlivestats.com/total-number-of-websites/>. Acesso em: 8 out. 2015. 10 A Deep Web (web profunda) é também conhecida como deepnet, web invisível, undernet ou web oculta. 3 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 página executasse um cadastro, fornecendo dados como título do site, endereço, categoria da página e palavras-chave relacionadas. Por conta deste motivo, não se pode afirmar que todos os sites que não apareciam nos buscadores tinham como interesse fazer parte da Deep Web. Poder ser que eles entrassem nela involuntariamente. O interesse pelo anonimato fez com que essa “web paralela” crescesse muito. Em julho de 2000, a Deep Web já possuía um volume de dados 500 vezes maior que a web convencional (HE et al., 2007). Para melhor explicar a Deep Web, alguns autores fazem a seguinte analogia: se a web fosse um grande oceano de informações, a Deep Web seria a parte mais profunda, onde as ferramentas de busca não conseguiriam lançar suas redes. A figura 1 ilustra essa comparação. Figura 1 – Analogia do oceano usada para explicar a Deep Web Fonte: NATÁRIO, 2012. Torna-se necessário separar duas etapas na Deep Web: o processo de criar sites invisíveis e o processo de navegação invisível. Para que um site seja invisível, quatro ações devem ser tomadas. A primeira diz 4 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 respeito ao não uso de servidores DNS11 no site. Servidor DNS é o responsável por traduzir nomes em endereços IP12. Ou seja, é ele que nos ajuda a recordar que para que possamos acessar, por exemplo, o site do UOL, basta digitar no navegador www.uol.com.br, não sendo necessário decorar o endereço IP do servidor, que no caso do Uol é 220.221.2.45. Sem o uso do DNS, o site torna-se acessível somente para o usuário que possui conhecimento do endereço do IP do mesmo e, consequentemente, inacessível para quem não o possui. Da mesma maneira, os buscadores como Google, Bing e Yahoo, que se baseiam em softwares chamados crawlers13, não conseguem, de maneira tão simples, localizar a página. A segunda medida usada para que o site permaneça invisível é que o mesmo seja dinâmico14. Isto é, ele somente apresentará o conteúdo da página ao usuário caso este efetue uma busca que contenha palavras-chave específicas. Como os buscadores tradicionais varrem a página (sem entrarem com nenhum tipo de informação na mesma), os sites da Deep Web, na visão dos motores de busca, são páginas em branco e, portanto, não são indexadas. O terceiro fator que impede a indexação das páginas desta rede anônima pelos buscadores é a pequena quantidade ou total ausência dos hyperlinks15 entre as páginas, o que impede os crawlers de indexá-los. Por fim, o quarto fator aplicado aos sites da Deep Web é o uso de sistemas de login, exigindo do usuário um cadastro prévio, que costuma passar por um processo de seleção e aprovação. Esse processo de login também acaba por bloquear os buscadores de executarem o processo de indexação das páginas, tornando os sites da Deep Web ocultos na web convencional. 11 DNS: Domain Name System – Sistema de Nomes de Domínio. 12 IP: Internet Protocol – Protocolo de Internet. 13 Crawlers são pequenos softwares que varrem a web, indexando, em bancos de dados, todas as palavras presentes na página do endereço onde as mesmas se encontram. Disponível em: <http://www.businessdictionary.com/definition/web-crawler.html>. Acesso em: 13 out. 2015. 14 Os sites se dividem em duas grandes categorias: estáticos e dinâmicos. Os sites estáticos são aqueles que possuem informações que não mudam constantemente, fornecendo o mesmo conteúdo a todos os que o visualizam. Sites dinâmicos são aqueles que fornecem conteúdo diferenciado, dependendo, por exemplo, da localização, horário ou ainda linguagem do usuário que o acessa. 15 Termo cunhado por Theodor Holm Nelson, conhecido por Ted Nelson, em 1965. Ele descreve palavras ou imagens que conectam o documento em questão a outros documentos relacionados. 5 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 É importante ressaltar que a Deep Web e a “web convencional” operam ambas dentro do mesmo contexto da internet. Portanto, são essas quatro técnicas apresentadas que garantem a separação de ambas. DEEP WEB COMO REDE DE DADOS DE INTERESSE JORNALÍSTICO A Deep Web tem um lado iluminado e um lado ilícito. Por ela trafegam, por exemplo, documentos sigilosos, artigos acadêmicos, livros e são realizados fóruns. Ela é muito usada por quem quer simplesmente “conversar” ou trocar informação de forma anônima, sem ser detectado seja por empresas ou governos (autoritários ou não). Por isso, é um ambiente que pode ser usado para proteger o jornalista envolvido com uma matéria investigativa, assim como garantir a não revelação da fonte que repassa os dados. Julien Assange e outros colaboradores do site Wikileaks16, por exemplo, trabalharam no vazamento de centenas de documentos secretos de alguns governos, como Estados Unidos. Todavia, na Deep Web também existem muitos usuários que procuram algo ilegal, o que reforça a ideia negativa sobre este ambiente e alimenta um grande preconceito. Como pode ser observado em um matéria especial exibida, em março de 2015, no programa Repórter Record da TV Record17, em que foi anunciado: “uma equipe de investigação sobre Deep Web revela o submundo de assassinatos, armas e explorações de menores na internet”. Os itens mais comercializados neste lado invisível da internet são: maconha (31,60%); medicamentos que precisam de prescrição médica como Ritalina e o Xanax (21,05%); metanfetaminas (10,53%), entre outros. A figura 3 mostra uma lista com os principais produtos. 16 Organização de mídia ativista, sem fins lucrativos, que tem sede na Suécia e é composta por jornalistas, programadores, engenheiros, matemáticos, entre outros profissionais, espalhados pelo mundo e com identidade anônima. O Wikileaks foi criado, em 2006, pelo australiano Julien Assange. 17 Disponível em: < http://noticias.r7.com/reporter-record-investigacao/videos/deep-web-reporter-recordinvestigacao-mostra-o-submundo-da-internet-16102015>. Acesso em 24 nov. 2015. 6 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Figura 3 – Produtos mais comercializados na Deep Web Fonte: CIANCAGLINI et al, 2013, p.11 Nos Estados, foi criada, em 2013, uma empresa chamada Vocativ. Trata-se de uma startup de mídia e tecnologia que usa data mining, através de uma ferramenta proprietária, para explorar a Deep Web. Suas descobertas estão sendo citadas por empresas jornalísticas como The New York Times, The Washington Post, Daily News, NBC News, entre outras. A Vocativ faz mineração de dados para compor conteúdo que define como original. Eles procuram perspectivas e tendências camufladas. Segundo o grupo, o coração desta startup é a tecnologia exclusiva que possui. Mais de 80% da Internet fica fora do alcance da Google, em uma área chamada Deep Web. Vocativ explora este vasto espaço inexplorado, que inclui tudo, desde fóruns públicos e bancos de dados para as plataformas sociais a sites de comércio eletrônico. Nossa tecnologia proprietária, Verne, nos permite pesquisar e monitorar a Deep Web para identificar as últimas notícias rapidamente e descobrir histórias que de outra forma não poderiam ser contadas. Muitas vezes, nós sabemos o que estamos procurando, como testemunhas perto das linhas de frente de um conflito ou de dados relacionados a um movimento político emergente. Nós também descobrimos informações inesperadas, como publicações pró-armas, como rifles de assalto para os fãs de suas páginas no Facebook (tradução nossa).18 18 Disponível em: < http://www.vocativ.com/about/>. Acesso em: 21 nov.2015. 7 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 COMO O JORNALISTA PODE OBTER DADOS NA DEEP WEB O método mais conhecido para a navegação na Deep Web é através do navegador TOR (The Onion Router). Ele baseia-se em uma tecnologia chamada onion routing, que foi inicialmente criada, em 1995, pelo Escritório Americano de Pesquisa Naval (US Office of Naval Research)19. Anos mais tarde, ela foi liberada para domínio público. A tecnologia presente no TOR utiliza diversos servidores instalados na internet, que operam como “rotas alternativas” ao caminho padrão de comunicação dos dados. Ou seja, ao invés do usuário seguir a rota de transmissão padrão para o processo de comunicação, ele é encaminhado a diversos percursos alternativos até que as mensagens cheguem ao destino. Essa navegação fora do padrão estabelecido torna o processo de rastreamento do usuário algo praticamente impossível, visto que a cada novo servidor que o usuário é encaminhado, uma nova camada de criptografia é adicionada em seus dados. A figura 2 ilustra de forma simplificada o funcionamento da rede TOR. Figura 2 - Diagrama da rede TOR simplificado Fonte: LEIGH, M. et al., 2011, p. 2. 19 Disponível em: <http://www.onr.navy.mil/>. Acesso em 01 nov. 2015. 8 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Além de precisar do TOR para navegar, o jornalista tem que se cadastrar em alguns sites para participar de fóruns e salas de bate-papo. Em outras circunstâncias, ele terá que ser recomendado por outro usuário. JORNALISTA COM PERFIL COMPUTACIONAL Para saber navegar e obter dados a partir da internet invisível é preciso, antes de mais nada, que o jornalista ultrapasse o perfil de um contador de histórias e que ele se reinvente dentro da nova ecologia de mídia que tem se desenhado. Ele precisa entender as redes de computadores, a internet visível e a Deep Web como sistemas complexos com componentes sem controle central, com simples regras de operação que crescem para o comportamento coletivo complexo, processam informações sofisticadas e adaptam-se através do aprendizado e da evolução. Sistemas complexos são os que são auto-organizados, emergentes e não triviais (MITCHEL, 2009). E para entendê-los é preciso ter pensamento computacional. Jannet Wing (2008) o descreve como a habilidade de usar abstração para decompor uma grande tarefa; de tratar todos os aspectos de um problema. A reunião de jornalismo e pensamento computacional20 coloca em evidência a função do hacker jornalista. Antes de entrarmos nas questões sobre este hibridismo, iremos abordar o perfil dos hackers. Segundo Steven Levy, eles surgiram a partir de 1950, primeiramente dentro do Instituto de Tecnologia de Massachusetts (MIT) e depois na Califórnia, quando professores e alunos passaram a usar o termo para descrever pessoas com grande habilidade técnica na informática, que aprendiam fazendo, através da prática, e se tornavam excelentes programadores e desenvolvedores de sistemas (...) Estes personagens, autodidatas, eram apaixonados pela solução de problemas a ponto de varar 20 Existem iniciativas importantes sobre a junção entre jornalismo e pensamento computacional. A seguir, serão citados alguns exemplos. O debate sobre esta questão começou no Georgia Institute of Technology, nos Estados Unidos, 2006, com a realização de um curso sobre o tema. Na primavera de 2012, a Columbia Journalism School ofereceu um curso chamado Frontiers of Computacional Journalism. Um exemplo, no Brasil, é a Escola de Dados (Data School), projeto relacionado a Open Knowledge Foundation e que promove cursos de programação para jornalistas. Em Portugal, na cidade de Porto, em 2014, ocorreu um encontro para discutir jornalismo computacional. O evento foi organizado por jornalistas e por engenheiros. Outras universidades americanas como Stanford também estão oferecendo cursos que abordam a interface entre as duas áreas. E a Columbia organizou, em outubro de 2015, o evento Computation + Journalism Symposion. 9 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 madrugadas na resolução de algo que não tivesse funcionando (apud FOLETTO; DEAK, 2014, p.3). Manuel Castells reforça a importância do hacker no mundo em rede ao colocá-lo como uma das camadas ou níveis da cultura da internet, junto com empresários, cientistas e comunidade virtual (1999). Os hackers têm, em comum, a desconfiança em relação às autoridades e a promoção da descentralização, do compartilhamento, da transparência e da informação livre. E qual seria a relação do jornalismo com a cultura hacker? Eles não estariam em lados opostos, um a defender que a informação não deve ser propriedade de ninguém e o outro, a justamente, ter ela como matéria-prima básica para o seu funcionamento, quanto mais inédita melhor, quanto de fonte mais exclusiva, mais difícil de obter e mais valiosa? Estaria aí uma prova de que jornalistas e os hackers estão em lados opostos e, por princípios, não conversam, sob risco de falência econômica das instituições jornalísticas? (FOLETTO; DEAK, 2014, p.5). Foletto e Deak levantam esta dúvida sobre a relação entre hacker e jornalismo para, em seguida, mostrarem como ela é possível. A aproximação, num primeiro momento, dá-se pela própria lógica do trabalho de ambos, jornalistas e hackers, de ‘ir atrás da informação’, buscando-a em arquivos, bases de dados ou com fontes e usando-a seja para produzir uma reportagem ou para testar formatos, conexões e permissões necessários para um bom desenvolvimento de um software ou site (FOLETTO; DEAK, 2014, p.6). CONCLUSÃO As inúmeras mudanças tecnológicas, que levaram ao desenvolvimento e à popularização do computador e da internet, impactaram o jornalismo profundamente. Como consequência, faz parte da prática jornalista atual saber navegar entre dados recolhidos nos mundos analógico e digital. E neste último, não basta ficar apenas no território da internet visível. A Deep Web, como foi demonstrado, é uma rede rica em dados para o jornalismo e ainda é relativamente pouco explorada. Além de servir de ponto de 10 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 investigação de fatos com alto valor-notícia21 agregado, a Deep Web é um ambiente que, por prezar o anonimato, pode ajudar o jornalista a se comunicar com fontes sigilosas e a trocar documentos importantes22. Na internet invisível, é possível fazer cruzamentos relevantes e descobrir padrões e tendências através de mineração de dados. Na era da informação e do Big Data, ao lado do jornalista tradicional, existe um novo profissional que deve entender de comunicação em rede, precisa dominar a técnica e o pensamento computacionais para filtrar, cruzar, interpretar e visualizar dados e investigar os fatos surgidos a partir deles. Com o desenvolvimento desse perfil, ele poderá transitar melhor entre o mundo off-line, a internet visível e até mesmo pela Deep Web. Este novo jornalista é resultado de um saber cada vez mais interdisciplinar, fruto do cruzamento das Ciências da Informação, da Computação, da Comunicação, das Ciências Sociais e até mesmo do Design. Pode-se dizer que uma das novas funções jornalísticas relevantes é, portanto, a figura do hacker jornalista. Ele é capaz de lidar com diferentes bancos de dados, além de ter habilidade de narrar histórias e de usar bem as ferramentas disponíveis no mundo on-line. Ele sabe, portanto, improvisar e explorar possibilidades inusitadas. Até mesmo os jornalistas que não desejam desenvolver a prática ou não têm habilidades de um hacker deveriam investir em aprender a lógica computacional para entender todo o processo que envolve os dados no mundo de hoje e para saber até onde é possível chegar na rede. Com todo impacto dos avanços tecnológicos sobre o jornalismo, está acabando o tempo em que basta o jornalista aprender o mínimo necessário para navegar na web. 21 Em 1965, os noruegueses Johan Galtung e Mari Homboe Ruge enumeraram os fatores que compõem os critérios de noticiabilidade jornalística: impacto (amplitude do fato, frequência, negatividade, caráter inesperado e clareza); empatia da audiência e o pragmatismo da cobertura. No caso da Deep Web, que surgiu mais de duas décadas após a definição do valor-notícia, consideramos que ela só não atende ao critério do pragmatismo da cobertura. 22 Como a Deep Web tem o anonimato do usuário como padrão, cabe fazer uma ressalva, que deve ser discutida, sobre a necessidade de ampliar o cuidado com a checagem dos dados. Também deve ser debatida a questão da ética jornalística neste ambiente. 11 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 REFERÊNCIAS AGBOGUN, J. Deep Web: as a search tool. New York: Lap Lambert Academic Publishing, 2011. BERGMAN, M. K. White paper: the Deep Web, surfacing hidden value. The Journal of Eletronic Publishing, v.7, n.1, 1 ago, 2001. BERNERS-LEE, T. Weaving the web: the original design and ultimate destiny of the World Wide Web. 1.ed. New York: HaperBusiness, 2001. CASTELLS, Manuel. A sociedade em rede: a era da informação: economia, sociedade e cultura. Vol. 1. Paz e Terra, São Paulo, 1999. CIANCAGLINI, T. et al. Below the surface: exploring the Deep Web contentes. Tokyo: Trend Micro, 2013. DAVENPORT, Thomas H. Ecologia da informação: por que só a tecnologia não basta para o sucesso na era da informação. São Paulo: Futura, 1998. Disponível em: <http://amormino.com.br/livros/20141114-ecologia-informacao.pdf>. Acesso em: 10 de ago. 2015. FAGOYIMBO, J. B. The armed forces: instrument of peace, strength, development and prosperity. Bloomington: AuthorHouseUK, 2013. FLORIDI, Luciano. The language of information. In: __________ Information: a very short introduction. New York: Oxford University Press, 2000. p. 19-36. FOLETTO, Leonardo; DEAK, Andre. Aproximações da cultura hacker ao jornalismo: práticas e produtos jornalísticos disruptivos brasileiros. In: VI Congreso Internacional de Ciberperiodismo y Web 2.0. Bilbao, 2014. Disponível em: <http://www.leofoletto.info/wpcontent/uploads/2015/09/artigo-ciberperiodismo-bilbao-2014.pdf>. Acesso em: 20 nov.2015. GLEIK, J. A informação: uma história, uma teoria, uma enxurrada. 1.ed. São Paulo: Companhia das Letras, 2013. HE, B. et al. Acessing the Deep Web. Communications of the ACM, v.50, n.5, p.94-1, 1 mai.2007. LEIGH, D.; HARDING, L. Wikileaks: inside Julian Assange’s war on secrecy. Great Britain: PublicAffairs, 2011. 12 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 LIMA JUNIOR, Walter Teixeira. Jornalismo inteligente na era do data mining. Líbero. Revista do Programa de Pós-Graduação em Comunicação da Faculdade Cásper Líbero, São Paulo, ano IX, n.18, p.119-126, dez. 2006. ____________________________Jornalismo computacional em função da era do big data. Líbero. Revista do Programa de Pós-Graduação em Comunicação da Faculdade Cásper Líbero, São Paulo, v.14, n.28, p.45-52, dez.2011. Disponível em: < http://casperlibero.edu.br/wpcontent/uploads/2014/05/1-Jornalismo-computacional.pdf> . Acesso em: 30 mai. 2015. PINTO, Diego da Silva. Jornalismo na era de dados inteligentes. Disponível em: <http://docslide.com.br/documents/jornalismo-na-era-da-web-de-dados-inteligentes.html>. Acesso em 30 out.2015. NATÁRIO, R. Cyber threats history: na overview. Disponível em: < http://tremblinguterus.blogspot.com.br/2012/10/cyber-threats-history-i-overview.html >. Acesso em: 21.out.2015. MITCHELL, Melanie. Complexity: a guide tour. New York: Oxford University Press, 2009. SOUSA, João Pedro de. Uma breve história do jornalismo no ocidente. Disponível em: < http://www.bocc.uff.br/pag/sousa-jorge-pedro-uma-historia-breve-do-jornalismo-noocidente.pdf>. Acesso em: 10 nov.2015. SOUZA, Ana Beatriz Leite de Souza et al. A Deep Web como ferramenta de produção jornalística. Anais.... Intercom. Rio de Janeiro: set.2015. Disponível em: <http://portalintercom.org.br/anais/nacional2015/resumos/R10-2392-1.pdf>. Acesso em: 20 nov.2015. SQUIRRA, Sebastião. Jornalismo online. São Paulo: Arte e Ciência, 1998. __________________. Ciber+com, +mídias, +espaço, +logias...: coletânea científica 1. São Paulo: Ed. do Autor, 2015. TECHNET, M. What is DNS: domain name system (DNS). Disponível em: < https://technet.microsoft.com/en-us/library/cc787921(v=ws.10).aspx >. Acesso em: 28 set.2015. WING, Jannette. M. Computational thinking and thinling about computing. Philosophical Transactions. Journal of The Royal Society, London, 2008. Disponível em: < https://www.cs.cmu.edu/~CompThink/papers/Wing08a.pdf>. Acesso em: 11 ago. 2015. 13 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 WOODS, D.; THOENY, P. Wikis for Dummies. 1.ed. Indianopolis: Wiley Publishing, 2007. 14