abrir - Portal Intercom

Propaganda
 Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Deep Web e Jornalismo.
Como Transformar Dados Desta Rede Anônima em Informação de Relevância
Social1
Lucas Vieira de ARAÚJO2
Krishma CARREIRA3
Pedro Henrique TOTH4
Universidade Metodista de São Paulo, São Paulo, SP
RESUMO
A informação jornalística é alcançada a partir de fontes, documentos e dados. Eles estão
nos mundos off-line e on-line e são captados por motores de busca e por cruzamentos de
dados. Existe ainda outra fonte anônima, que não é captada por buscadores tradicionais
que indexam somente o que está na chamada “superfície da internet”. Ela reside em
uma segunda rede chamada Deep Web. Há ferramentas que possibilitam a entrada direta
e segura neste universo. Neste artigo vamos analisar o potencial deste imenso canal de
comunicação, que é a Deep Web, cujos dados podem ser transformados em informações
relevantes se forem explorados e conectados da maneira correta por jornalistas com
pensamento computacional e até por hackers jornalistas. A metodologia tem caráter
exploratório e baseia-se em pesquisa bibliográfica interdisciplinar.
PALAVRAS-CHAVE: Deep Web; análise de dados; jornalismo na Deep Web;
jornalismo de dados; hacker jornalismo.
INTRODUÇÃO
O jornalista, seja no mundo analógico ou digital, trabalha a partir de dados5 que
filtra, traduz e transforma em informação6.
1
Trabalho apresentado no GT Comunicação Digital e Tecnologias do PENSACOM BRASIL 2015.
2
Doutorando em Comunicação Social na linha de pesquisa Inovações Tecnológicas na Comunicação Contemporânea
pela Universidade Metodista de São Paulo - Umesp, e-mail: [email protected]
3
Mestranda em Comunicação Social na linha de pesquisa Inovações Tecnológicas na Comunicação Contemporânea
pela Universidade Metodista de São Paulo - Umesp, e-mail: [email protected]
4
Mestrando em Comunicação Social na linha de pesquisa Inovações Tecnológicas na Comunicação Contemporânea
pela Universidade Metodista de São Paulo - Umesp, e-mail: [email protected]
5
Entendemos dado como unidade elementar de informação que existe antes da interpretação e do processamento
cognitivo do sujeito (FLORIDI, 2000).
6
A informação, segundo Peter Drucker, é um dado dotado “de relevância e propósito” (apud DAVENPORT, 1998,
p.19).
1
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Até a internet, o jornalista encontrava dados no mundo off-line a partir do que
observava, do que presenciava, da relação com fontes, do que achava em documentos
ou em outros meios impressos ou até através do que recebia anonimamente.
Com o avanço tecnológico, o computador foi parar nas redações dos veículos de
comunicação, onde substituiu a máquina de escrever, passou a servir como base de
arquivo e virou uma ferramenta presente no dia a dia dos jornalistas.
Nos últimos anos, a forma de receber notícias também foi alterada: ela começou
a ser consumida de forma mais individual e móvel. Outra mudança foi na distribuição,
que passou a ser instantânea, global e focada no perfil do consumidor. O conteúdo
também foi modificado através do uso de hipertextos e de recursos multimídias,
interação e personalização.
Com a internet, os dados continuaram a ser garimpados da mesma forma do que
no mundo analógico, mas também passaram a ser obtidos através das redes telemáticas7.
Antônio Fidaldo (2007) diz que: como a investigação na vida real parte de
fatos observados, assim também as ações apuradas algoritmicamente
servirão de ponto de partida para a investigação no âmbito de mineração de
dados. Cabe ao jornalista dar-se conta num e noutro caso, nos eventos
ocorridos na vida do dia a dia ou nas relações extraídas dos dados
informáticos, do que é e não é notícia (PINTO, 2011, p. 36).
O jornalista pode, portanto, trabalhar “com dados e informações armazenados
(agora em imensos e infindáveis bancos de dados)”, explica S. Squirra (2015, p.72). Ele
reforça a “extrema necessidade da realização de pesquisas em bancos de dados digitais
online para a criação, estruturação e enriquecimento de relatos jornalísticos confiáveis"
(p.73). Este tipo de jornalismo pode ser feito a partir de dados estruturados ou não8.
Com a mineração (data mining) é possível filtrar dados, encontrar padrões
inusitados, tendências e relações relevantes entre eles que podem ter um imenso valor
7
Um bom exemplo sobre dados no mundo on-line é o que ocorre com a movimentação do Estado Islâmico (EI) na
web, onde imagina-se ser ainda mais difícil controlar a organização do que no mundo off-line. Em matéria na Folha
de S. Paulo sobre repercussões do atentado a Paris, no dia 13 de novembro de 2015, o jornal reforça esta questão com
a manchete “Europa tem desafio de conter escalada da radicalização on-line. Apesar de medidas de segurança no
mundo ‘real’, atração de jovens para causas radicais acontece pela internet”. Disponível em:
<http://www1.folha.uol.com.br/mundo/2015/11/1709252-europa-tem-desafio-de-conter-escalada-da-radicalizacaoon-line.shtml>. Acesso em 21 de nov. 2015.
8
Muitos dados ainda são fechados dentro de “silos” e não disponibilizados por governos ou empresas. No Brasil, a lei
de acesso à informação é de 2011, mas muitos dados ainda não são disponíveis ou quando estão, não são “amigáveis”
do ponto de vista da utilização dos usuários ou da integração entre bancos de dados diferentes. Sobre este assunto,
uma referência interessante é o livro “Lei de acesso à informação” de Fabiano Angélico.
2
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 jornalístico. O data mining é um ponto de partida precioso para a descoberta ou
complementação de notícias. Ele consiste em separar as especificidades para encontrar
padrões mais gerais.
Mas além dos dados que o jornalista pode procurar através de buscadores,
bancos de dados e do Big Data, existe ainda a possibilidade de tentar encontrá-los na
Deep Web, que é uma camada invisível da web, muito maior do que o lado visível
conhecido pela maioria dos internautas.
O QUE É A DEEP WEB?
Em 1991, Tim Berners-Lee criou a web (World Wide Web). Ela foi um projeto
desenvolvido dentro do CERN (European Organization for Nuclear Research), com
objetivo de ser uma ferramenta colaborativa, de modo que todos os pesquisadores e
cientistas desta organização pudessem compartilhar resultados e pesquisas com os
demais para agilizar o processo científico. Por ser uma ferramenta amigável ao usuário e
sem necessidade de conhecimento técnico para ser usada, a web popularizou-se
rapidamente e atingiu, no ano de 2014, a marca de 968.882.453 websites abertos9.
Dentro desse gigantesco volume de websites, destacam-se os sites pessoais ou blogs,
portais de conteúdo, as redes sociais, os wikis, as ferramentas de busca, os chats e os
sites de compartilhamento de mídia.
O crescimento da web impulsionou o desenvolvimento de diversas ferramentas,
como os buscadores. Todavia, ser visível nem sempre é uma alternativa válida para
todas as pessoas. Algumas delas preferem o anonimato. No ano de 1994, três anos
apenas após a criação da web, o termo “web invisível” foi criado pelo Dr. Jill Ellsworth
(BERGMAN, 2001), referindo-se ao conteúdo presente na web daquela época e que era
invisível aos mecanismos de busca existentes. Pode-se dizer que este foi, de forma
prematura, o nascimento da Deep Web10. Mas vale observar que, naquela época, os
buscadores da web existentes eram baseados em serviços de diretório e para que o site
pudesse aparecer nos resultados de busca, era necessário que o dono ou mantenedor da
9
Disponível em: <http://www.internetlivestats.com/total-number-of-websites/>. Acesso em: 8 out. 2015.
10
A Deep Web (web profunda) é também conhecida como deepnet, web invisível, undernet ou web oculta.
3
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 página executasse um cadastro, fornecendo dados como título do site, endereço,
categoria da página e palavras-chave relacionadas. Por conta deste motivo, não se pode
afirmar que todos os sites que não apareciam nos buscadores tinham como interesse
fazer parte da Deep Web. Poder ser que eles entrassem nela involuntariamente.
O interesse pelo anonimato fez com que essa “web paralela” crescesse muito.
Em julho de 2000, a Deep Web já possuía um volume de dados 500 vezes maior que a
web convencional (HE et al., 2007). Para melhor explicar a Deep Web, alguns autores
fazem a seguinte analogia: se a web fosse um grande oceano de informações, a Deep
Web seria a parte mais profunda, onde as ferramentas de busca não conseguiriam lançar
suas redes. A figura 1 ilustra essa comparação.
Figura 1 – Analogia do oceano usada para explicar a Deep Web
Fonte: NATÁRIO, 2012.
Torna-se necessário separar duas etapas na Deep Web: o processo de criar sites
invisíveis e o processo de navegação invisível.
Para que um site seja invisível, quatro ações devem ser tomadas. A primeira diz
4
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 respeito ao não uso de servidores DNS11 no site. Servidor DNS é o responsável por
traduzir nomes em endereços IP12. Ou seja, é ele que nos ajuda a recordar que para que
possamos acessar, por exemplo, o site do UOL, basta digitar no navegador
www.uol.com.br, não sendo necessário decorar o endereço IP do servidor, que no caso
do Uol é 220.221.2.45. Sem o uso do DNS, o site torna-se acessível somente para o
usuário que possui conhecimento do endereço do IP do mesmo e, consequentemente,
inacessível para quem não o possui. Da mesma maneira, os buscadores como Google,
Bing e Yahoo, que se baseiam em softwares chamados crawlers13, não conseguem, de
maneira tão simples, localizar a página.
A segunda medida usada para que o site permaneça invisível é que o mesmo seja
dinâmico14. Isto é, ele somente apresentará o conteúdo da página ao usuário caso este
efetue uma busca que contenha palavras-chave específicas. Como os buscadores
tradicionais varrem a página (sem entrarem com nenhum tipo de informação na
mesma), os sites da Deep Web, na visão dos motores de busca, são páginas em branco e,
portanto, não são indexadas.
O terceiro fator que impede a indexação das páginas desta rede anônima pelos
buscadores é a pequena quantidade ou total ausência dos hyperlinks15 entre as páginas,
o que impede os crawlers de indexá-los.
Por fim, o quarto fator aplicado aos sites da Deep Web é o uso de sistemas de
login, exigindo do usuário um cadastro prévio, que costuma passar por um processo de
seleção e aprovação. Esse processo de login também acaba por bloquear os buscadores
de executarem o processo de indexação das páginas, tornando os sites da Deep Web
ocultos na web convencional.
11
DNS: Domain Name System – Sistema de Nomes de Domínio.
12
IP: Internet Protocol – Protocolo de Internet.
13
Crawlers são pequenos softwares que varrem a web, indexando, em bancos de dados, todas as palavras presentes
na página do endereço onde as mesmas se encontram. Disponível em:
<http://www.businessdictionary.com/definition/web-crawler.html>. Acesso em: 13 out. 2015.
14
Os sites se dividem em duas grandes categorias: estáticos e dinâmicos. Os sites estáticos são aqueles que possuem
informações que não mudam constantemente, fornecendo o mesmo conteúdo a todos os que o visualizam. Sites
dinâmicos são aqueles que fornecem conteúdo diferenciado, dependendo, por exemplo, da localização, horário ou
ainda linguagem do usuário que o acessa.
15
Termo cunhado por Theodor Holm Nelson, conhecido por Ted Nelson, em 1965. Ele descreve palavras ou imagens
que conectam o documento em questão a outros documentos relacionados.
5
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 É importante ressaltar que a Deep Web e a “web convencional” operam ambas
dentro do mesmo contexto da internet. Portanto, são essas quatro técnicas apresentadas
que garantem a separação de ambas.
DEEP WEB COMO REDE DE DADOS DE INTERESSE JORNALÍSTICO
A Deep Web tem um lado iluminado e um lado ilícito. Por ela trafegam, por
exemplo, documentos sigilosos, artigos acadêmicos, livros e são realizados fóruns. Ela é
muito usada por quem quer simplesmente “conversar” ou trocar informação de forma
anônima, sem ser detectado seja por empresas ou governos (autoritários ou não). Por
isso, é um ambiente que pode ser usado para proteger o jornalista envolvido com uma
matéria investigativa, assim como garantir a não revelação da fonte que repassa os
dados. Julien Assange e outros colaboradores do site Wikileaks16, por exemplo,
trabalharam no vazamento de centenas de documentos secretos de alguns governos,
como Estados Unidos.
Todavia, na Deep Web também existem muitos usuários que procuram algo
ilegal, o que reforça a ideia negativa sobre este ambiente e alimenta um grande
preconceito. Como pode ser observado em um matéria especial exibida, em março de
2015, no programa Repórter Record da TV Record17, em que foi anunciado: “uma
equipe de investigação sobre Deep Web revela o submundo de assassinatos, armas e
explorações de menores na internet”.
Os itens mais comercializados neste lado invisível da internet são: maconha
(31,60%); medicamentos que precisam de prescrição médica como Ritalina e o Xanax
(21,05%); metanfetaminas (10,53%), entre outros. A figura 3 mostra uma lista com os
principais produtos.
16
Organização de mídia ativista, sem fins lucrativos, que tem sede na Suécia e é composta por jornalistas,
programadores, engenheiros, matemáticos, entre outros profissionais, espalhados pelo mundo e com identidade
anônima. O Wikileaks foi criado, em 2006, pelo australiano Julien Assange.
17
Disponível em: < http://noticias.r7.com/reporter-record-investigacao/videos/deep-web-reporter-recordinvestigacao-mostra-o-submundo-da-internet-16102015>. Acesso em 24 nov. 2015.
6
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Figura 3 – Produtos mais comercializados na Deep Web
Fonte: CIANCAGLINI et al, 2013, p.11
Nos Estados, foi criada, em 2013, uma empresa chamada Vocativ. Trata-se de
uma startup de mídia e tecnologia que usa data mining, através de uma ferramenta
proprietária, para explorar a Deep Web. Suas descobertas estão sendo citadas por
empresas jornalísticas como The New York Times, The Washington Post, Daily News,
NBC News, entre outras.
A Vocativ faz mineração de dados para compor conteúdo que define como
original. Eles procuram perspectivas e tendências camufladas. Segundo o grupo, o
coração desta startup é a tecnologia exclusiva que possui.
Mais de 80% da Internet fica fora do alcance da Google, em uma área
chamada Deep Web. Vocativ explora este vasto espaço inexplorado, que
inclui tudo, desde fóruns públicos e bancos de dados para as plataformas
sociais a sites de comércio eletrônico. Nossa tecnologia proprietária, Verne,
nos permite pesquisar e monitorar a Deep Web para identificar as últimas
notícias rapidamente e descobrir histórias que de outra forma não poderiam
ser contadas. Muitas vezes, nós sabemos o que estamos procurando, como
testemunhas perto das linhas de frente de um conflito ou de dados
relacionados a um movimento político emergente. Nós também descobrimos
informações inesperadas, como publicações pró-armas, como rifles de
assalto para os fãs de suas páginas no Facebook (tradução nossa).18
18
Disponível em: < http://www.vocativ.com/about/>. Acesso em: 21 nov.2015.
7
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 COMO O JORNALISTA PODE OBTER DADOS NA DEEP WEB
O método mais conhecido para a navegação na Deep Web é através do
navegador TOR (The Onion Router). Ele baseia-se em uma tecnologia chamada onion
routing, que foi inicialmente criada, em 1995, pelo Escritório Americano de Pesquisa
Naval (US Office of Naval Research)19. Anos mais tarde, ela foi liberada para domínio
público.
A tecnologia presente no TOR utiliza diversos servidores instalados na internet,
que operam como “rotas alternativas” ao caminho padrão de comunicação dos dados.
Ou seja, ao invés do usuário seguir a rota de transmissão padrão para o processo de
comunicação, ele é encaminhado a diversos percursos alternativos até que as mensagens
cheguem ao destino. Essa navegação fora do padrão estabelecido torna o processo de
rastreamento do usuário algo praticamente impossível, visto que a cada novo servidor
que o usuário é encaminhado, uma nova camada de criptografia é adicionada em seus
dados. A figura 2 ilustra de forma simplificada o funcionamento da rede TOR.
Figura 2 - Diagrama da rede TOR simplificado
Fonte: LEIGH, M. et al., 2011, p. 2.
19
Disponível em: <http://www.onr.navy.mil/>. Acesso em 01 nov. 2015.
8
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 Além de precisar do TOR para navegar, o jornalista tem que se cadastrar em
alguns sites para participar de fóruns e salas de bate-papo. Em outras circunstâncias, ele
terá que ser recomendado por outro usuário.
JORNALISTA COM PERFIL COMPUTACIONAL
Para saber navegar e obter dados a partir da internet invisível é preciso, antes de
mais nada, que o jornalista ultrapasse o perfil de um contador de histórias e que ele se
reinvente dentro da nova ecologia de mídia que tem se desenhado. Ele precisa entender
as redes de computadores, a internet visível e a Deep Web como sistemas complexos
com componentes sem controle central, com simples regras de operação que crescem
para o comportamento coletivo complexo, processam informações sofisticadas e
adaptam-se através do aprendizado e da evolução. Sistemas complexos são os que são
auto-organizados, emergentes e não triviais (MITCHEL, 2009). E para entendê-los é
preciso ter pensamento computacional. Jannet Wing (2008) o descreve como a
habilidade de usar abstração para decompor uma grande tarefa; de tratar todos os
aspectos de um problema.
A reunião de jornalismo e pensamento computacional20 coloca em evidência a
função do hacker jornalista. Antes de entrarmos nas questões sobre este hibridismo,
iremos abordar o perfil dos hackers. Segundo Steven Levy, eles surgiram a partir de
1950,
primeiramente dentro do Instituto de Tecnologia de Massachusetts (MIT) e
depois na Califórnia, quando professores e alunos passaram a usar o termo
para descrever pessoas com grande habilidade técnica na informática, que
aprendiam fazendo, através da prática, e se tornavam excelentes
programadores e desenvolvedores de sistemas (...) Estes personagens,
autodidatas, eram apaixonados pela solução de problemas a ponto de varar
20
Existem iniciativas importantes sobre a junção entre jornalismo e pensamento computacional. A seguir, serão
citados alguns exemplos. O debate sobre esta questão começou no Georgia Institute of Technology, nos Estados
Unidos, 2006, com a realização de um curso sobre o tema. Na primavera de 2012, a Columbia Journalism School
ofereceu um curso chamado Frontiers of Computacional Journalism. Um exemplo, no Brasil, é a Escola de Dados
(Data School), projeto relacionado a Open Knowledge Foundation e que promove cursos de programação para
jornalistas. Em Portugal, na cidade de Porto, em 2014, ocorreu um encontro para discutir jornalismo computacional.
O evento foi organizado por jornalistas e por engenheiros. Outras universidades americanas como Stanford também
estão oferecendo cursos que abordam a interface entre as duas áreas. E a Columbia organizou, em outubro de 2015, o
evento Computation + Journalism Symposion.
9
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 madrugadas na resolução de algo que não tivesse funcionando (apud
FOLETTO; DEAK, 2014, p.3).
Manuel Castells reforça a importância do hacker no mundo em rede ao colocá-lo
como uma das camadas ou níveis da cultura da internet, junto com empresários,
cientistas e comunidade virtual (1999).
Os hackers têm, em comum, a desconfiança em relação às autoridades e a
promoção da descentralização, do compartilhamento, da transparência e da informação
livre.
E qual seria a relação do jornalismo com a cultura hacker? Eles não estariam
em lados opostos, um a defender que a informação não deve ser propriedade
de ninguém e o outro, a justamente, ter ela como matéria-prima básica para o
seu funcionamento, quanto mais inédita melhor, quanto de fonte mais
exclusiva, mais difícil de obter e mais valiosa? Estaria aí uma prova de que
jornalistas e os hackers estão em lados opostos e, por princípios, não
conversam, sob risco de falência econômica das instituições jornalísticas?
(FOLETTO; DEAK, 2014, p.5).
Foletto e Deak levantam esta dúvida sobre a relação entre hacker e jornalismo
para, em seguida, mostrarem como ela é possível.
A aproximação, num primeiro momento, dá-se pela própria lógica do
trabalho de ambos, jornalistas e hackers, de ‘ir atrás da informação’,
buscando-a em arquivos, bases de dados ou com fontes e usando-a seja para
produzir uma reportagem ou para testar formatos, conexões e permissões
necessários para um bom desenvolvimento de um software ou site
(FOLETTO; DEAK, 2014, p.6).
CONCLUSÃO
As inúmeras mudanças tecnológicas, que levaram ao desenvolvimento e à
popularização do computador e da internet, impactaram o jornalismo profundamente.
Como consequência, faz parte da prática jornalista atual saber navegar entre dados
recolhidos nos mundos analógico e digital. E neste último, não basta ficar apenas no
território da internet visível.
A Deep Web, como foi demonstrado, é uma rede rica em dados para o
jornalismo e ainda é relativamente pouco explorada. Além de servir de ponto de
10
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 investigação de fatos com alto valor-notícia21 agregado, a Deep Web é um ambiente
que, por prezar o anonimato, pode ajudar o jornalista a se comunicar com fontes
sigilosas e a trocar documentos importantes22. Na internet invisível, é possível fazer
cruzamentos relevantes e descobrir padrões e tendências através de mineração de dados.
Na era da informação e do Big Data, ao lado do jornalista tradicional, existe um
novo profissional que deve entender de comunicação em rede, precisa dominar a técnica
e o pensamento computacionais para filtrar, cruzar, interpretar e visualizar dados e
investigar os fatos surgidos a partir deles. Com o desenvolvimento desse perfil, ele
poderá transitar melhor entre o mundo off-line, a internet visível e até mesmo pela Deep
Web. Este novo jornalista é resultado de um saber cada vez mais interdisciplinar, fruto
do cruzamento das Ciências da Informação, da Computação, da Comunicação, das
Ciências Sociais e até mesmo do Design.
Pode-se dizer que uma das novas funções jornalísticas relevantes é, portanto, a
figura do hacker jornalista. Ele é capaz de lidar com diferentes bancos de dados, além
de ter habilidade de narrar histórias e de usar bem as ferramentas disponíveis no mundo
on-line. Ele sabe, portanto, improvisar e explorar possibilidades inusitadas.
Até mesmo os jornalistas que não desejam desenvolver a prática ou não têm
habilidades de um hacker deveriam investir em aprender a lógica computacional para
entender todo o processo que envolve os dados no mundo de hoje e para saber até onde
é possível chegar na rede. Com todo impacto dos avanços tecnológicos sobre o
jornalismo, está acabando o tempo em que basta o jornalista aprender o mínimo
necessário para navegar na web.
21
Em 1965, os noruegueses Johan Galtung e Mari Homboe Ruge enumeraram os fatores que compõem os
critérios de noticiabilidade jornalística: impacto (amplitude do fato, frequência, negatividade, caráter inesperado e
clareza); empatia da audiência e o pragmatismo da cobertura. No caso da Deep Web, que surgiu mais de duas décadas
após a definição do valor-notícia, consideramos que ela só não atende ao critério do pragmatismo da cobertura.
22
Como a Deep Web tem o anonimato do usuário como padrão, cabe fazer uma ressalva, que deve ser discutida,
sobre a necessidade de ampliar o cuidado com a checagem dos dados. Também deve ser debatida a questão da ética
jornalística neste ambiente.
11
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 REFERÊNCIAS
AGBOGUN, J. Deep Web: as a search tool. New York: Lap Lambert Academic Publishing,
2011.
BERGMAN, M. K. White paper: the Deep Web, surfacing hidden value. The Journal of
Eletronic Publishing, v.7, n.1, 1 ago, 2001.
BERNERS-LEE, T. Weaving the web: the original design and ultimate destiny of the World
Wide Web. 1.ed. New York: HaperBusiness, 2001.
CASTELLS, Manuel. A sociedade em rede: a era da informação: economia, sociedade e
cultura. Vol. 1. Paz e Terra, São Paulo, 1999.
CIANCAGLINI, T. et al. Below the surface: exploring the Deep Web contentes. Tokyo: Trend
Micro, 2013.
DAVENPORT, Thomas H. Ecologia da informação: por que só a tecnologia não basta para o
sucesso na era da informação. São Paulo: Futura, 1998. Disponível em:
<http://amormino.com.br/livros/20141114-ecologia-informacao.pdf>. Acesso em: 10 de ago.
2015.
FAGOYIMBO, J. B. The armed forces: instrument of peace, strength, development and
prosperity. Bloomington: AuthorHouseUK, 2013.
FLORIDI, Luciano. The language of information. In: __________ Information: a very short
introduction. New York: Oxford University Press, 2000. p. 19-36.
FOLETTO, Leonardo; DEAK, Andre. Aproximações da cultura hacker ao jornalismo:
práticas e produtos jornalísticos disruptivos brasileiros. In: VI Congreso Internacional de
Ciberperiodismo y Web 2.0. Bilbao, 2014. Disponível em: <http://www.leofoletto.info/wpcontent/uploads/2015/09/artigo-ciberperiodismo-bilbao-2014.pdf>. Acesso em: 20 nov.2015.
GLEIK, J. A informação: uma história, uma teoria, uma enxurrada. 1.ed. São Paulo:
Companhia das Letras, 2013.
HE, B. et al. Acessing the Deep Web. Communications of the ACM, v.50, n.5, p.94-1, 1
mai.2007.
LEIGH, D.; HARDING, L. Wikileaks: inside Julian Assange’s war on secrecy. Great Britain:
PublicAffairs, 2011.
12
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 LIMA JUNIOR, Walter Teixeira. Jornalismo inteligente na era do data mining. Líbero. Revista
do Programa de Pós-Graduação em Comunicação da Faculdade Cásper Líbero, São Paulo, ano
IX, n.18, p.119-126, dez. 2006.
____________________________Jornalismo computacional em função da era do big data.
Líbero. Revista do Programa de Pós-Graduação em Comunicação da Faculdade Cásper Líbero,
São Paulo, v.14, n.28, p.45-52, dez.2011. Disponível em: < http://casperlibero.edu.br/wpcontent/uploads/2014/05/1-Jornalismo-computacional.pdf> . Acesso em: 30 mai. 2015.
PINTO, Diego da Silva. Jornalismo na era de dados inteligentes. Disponível em:
<http://docslide.com.br/documents/jornalismo-na-era-da-web-de-dados-inteligentes.html>.
Acesso em 30 out.2015.
NATÁRIO, R. Cyber threats history: na overview. Disponível em: <
http://tremblinguterus.blogspot.com.br/2012/10/cyber-threats-history-i-overview.html >. Acesso
em: 21.out.2015.
MITCHELL, Melanie. Complexity: a guide tour. New York: Oxford University Press, 2009.
SOUSA, João Pedro de. Uma breve história do jornalismo no ocidente. Disponível em: <
http://www.bocc.uff.br/pag/sousa-jorge-pedro-uma-historia-breve-do-jornalismo-noocidente.pdf>. Acesso em: 10 nov.2015.
SOUZA, Ana Beatriz Leite de Souza et al. A Deep Web como ferramenta de produção
jornalística. Anais.... Intercom. Rio de Janeiro: set.2015. Disponível em:
<http://portalintercom.org.br/anais/nacional2015/resumos/R10-2392-1.pdf>. Acesso em: 20
nov.2015.
SQUIRRA, Sebastião. Jornalismo online. São Paulo: Arte e Ciência, 1998.
__________________. Ciber+com, +mídias, +espaço, +logias...: coletânea científica 1. São
Paulo: Ed. do Autor, 2015.
TECHNET, M. What is DNS: domain name system (DNS). Disponível em: <
https://technet.microsoft.com/en-us/library/cc787921(v=ws.10).aspx >. Acesso em: 28 set.2015.
WING, Jannette. M. Computational thinking and thinling about computing. Philosophical
Transactions. Journal of The Royal Society, London, 2008. Disponível em: <
https://www.cs.cmu.edu/~CompThink/papers/Wing08a.pdf>. Acesso em: 11 ago. 2015.
13
Universidade Metodista de São Paulo Cátedra UNESCO/UMESP de Comunicação para o Desenvolvimento Regional Sociedade Brasileira de Estudos Interdisciplinares da Comunicação PENSACOM BRASIL – São Bernardo do Campo, SP – 16 a 18 de novembro de 2015 WOODS, D.; THOENY, P. Wikis for Dummies. 1.ed. Indianopolis: Wiley Publishing, 2007.
14
Download