Nothing Special   »   [go: up one dir, main page]

Comunicação Digital e Jornalismo de Inserção Big Data, Inteligência Artificial Etc

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 192

COMUNICAÇÃO DIGITAL E JORNALISMO DE INSERÇÃO:

Como big data, inteligência artificial, realidade aumentada e internet das coisas
estão mudando a produção de conteúdo informativo
MÁRCIO CARNEIRO DOS SANTOS

COMUNICAÇÃO DIGITAL E JORNALISMO DE INSERÇÃO:


Como big data, inteligência artificial, realidade aumentada e internet das coisas
estão mudando a produção de conteúdo informativo

1ª edição

LABCOM DIGITAL
São Luís
2016
Esta licença permite que outros façam download desta obra e
compartilhem desde que atribuam crédito ao autor, mas sem que possam alterá-los de
nenhuma forma ou utilizá-los para fins comerciais.

Publicado com o apoio da FAPEMA via edital APUB – nº 21/2015

Editor

Márcio Carneiro dos Santos

Capa

Cary Wolinsky/Getty Images

Dados Internacionais de Catalogação na Publicação (CIP)

Carneiro, Márcio

Comunicação digital e jornalismo de inserção: como big


data, inteligência artificial, realidade aumentada e internet das
coisas estão mudando a produção de conteúdo informativo./
Márcio Carneiro dos Santos. São Luis: LABCOM DIGITAL,
2016.

p. 192

ISBN: 978-85-68070-04-8
1. Comunicação digital. 2. Realidade aumentada. 3 Jornalismo
de inserção. I. Titulo
CDD: 302.23

2016 • 1a edição •
Laboratório de Convergência e Mídias - LABCOM.
Universidade Federal do Maranhão
Avenida dos Portugueses, 1966 - Bacanga, São Luís - MA, 65080-805
AGRADECIMENTOS

O conteúdo de um livro é muito mais do que a transcrição dos pensamentos do


autor. É também a reverberação de todos os contatos e intercâmbios pessoais e
acadêmicos que ele teve até o ponto onde decidiu transformar todo esse enorme
conjunto de vivências e referências em algo ordenado para conhecimento coletivo. A
ausência desses elementos provavelmente levaria a empreitada ao fracasso. Por isso, é
preciso agradecer.

A todos os professores do programa de Tecnologias da Inteligência e Design


Digital da PUC-SP com quem tive o prazer de estudar, entre eles meu orientador João
Mattar e a professora Lucia Santaella, que teve a ousadia de criar um programa como o
TIDD. Em especial aos professores Jorge Albuquerque e Nelson Brissac que me
apresentaram os temas da ontologia sistêmica e da complexidade, que uso neste livro,
bem como ao professor Luís Carlos Petry que me trouxe o pensamento de Sennett. Aos
meus orientandos, ex-orientandos e bolsistas de iniciação científica e tecnológica, que
colaboraram e colaboram até hoje nas pesquisas que tenho desenvolvido no LABCOM
e, em especial, por sua ajuda mais direta nesta publicação, a Lenilson e Ana Carolina,
pela transposição de alguns conceitos em visualizações gráficas que utilizo aqui; a
Jorge, Anderson e Karla pela ajuda fundamental no projeto Jumper; à Tatiana que me
ajuda a explicar o que faço e à Anissa que mais uma vez assume a normatização de um
texto meu. Aos professores Pedro Russi, Luís Martino e Thäis de Mendonça, do
programa de Comunicação da UNB, que tanto me apoiaram no estágio de pós-
doutorado na linha de Teorias e Tecnologias da Comunicação. Principalmente, aos
precursores do caminho que hoje percorro, que muito antes de mim tiveram a coragem
de desenvolver estudos na fronteira entre a Comunicação e a Tecnologia, em especial,
aos professores e amigos Sebastião Squirra e Walter Lima Júnior, pelas muitas horas de
conversa de inestimável valor para minha formação e líderes respectivamente do grupo
ComTec e da rede JorTec, iniciativas acadêmicas das quais tenho a honra de participar.
À Fundação de Amparo à Pesquisa e ao Desenvolvimento Científico e Tecnológico do
Maranhão-FAPEMA que, com sua política de editais públicos, tanto tem impulsionado
o trabalho acadêmico local, permitindo entre milhares de outras ações, a publicação
desse livro através do edital APUB-2015.

A Sonia, João e Mariana, simplesmente por existirem e fazerem parte da minha


vida.
SUMÁRIO

PREFÁCIO ..................................................................................................... 6
INTRODUÇÃO ..................................................................................................... 8

PARTE I - PRESSUPOSTOS TEÓRICOS


CAPÍTULO 1 FILOSOFIA DA TECNOLOGIA............................................... 18
CAPÍTULO 2 MÉTODOS DIGITAIS: a internet e as redes como
instrumentos de pesquisa............................................................. 32
CAPÍTULO 3 NOTAS SOBRE UMA TEORIA GERAL DA
COMUNICAÇÃO INTERCONECTADA.................................. 56

PARTE II – TECNOLOGIAS
CAPÍTULO 4 JORNALISMO E REALIDADE AUMENTADA.................... 78
CAPÍTULO 5 INTELIGÊNCIA ARTIFICIAL E SISTEMAS DE GERAÇÃO
DE CONTEÚDO AUTOMATIZADO........................................ 94
CAPÍTULO 6 JORNALISMO E INTERNET DAS COISAS: o modelo de
jornalismo de imersão.................................................................. 113

PARTE III – EXPERIMENTOS


CAPÍTULO 7 MODELAGEM DE EXPERIMENTO COM RESULTADOS
DO FUTEBOL............................................................................. 123
CAPÍTULO 8 FERRAMENTA PARA CONSTRUÇÃO DE MAPAS POR
ÁREA.......................................................................................... 134
CAPÍTULO 9 COLETA DE DADOS EM PLATAFORMAS WEB................. 145

POR FIM.................................................................................................................. 155

APÊNDICES
APÊNDICE A OS IMPACTOS DA TECNOLOGIA E O PROCESSO DE
PRODUÇÃO JORNALÍSTICA NAS REDAÇÕES E
ASSESSORIAS DA CIDADE DE SÃO LUÍS........................... 167
APÊNDICE B COMO AVALIAR AS CHANCES DE ADOÇÃO DE UMA
NOVA TECNOLOGIA?............................................................. 175
APÊNDICE C O CIBERESPAÇO COMO MUNDO DIEGÉTICO................... 183
PREFÁCIO

Na atualidade, é possível conectar digitalmente as mais diversificadas fontes de


informação estruturada. São tantas maneiras, formas e meios, que cada pesquisador é
impelido a elaborar a sua própria estratégia e escolher as ferramentas adequadas em
função dos objetivos que se propôs alcançar. No universo das redes telemáticas, com os
nós, os clusters e as conexões funcionando como estradas e pontos de parada, infinitas
possibilidades de interação com os dados, fazem o cientista que pesquisa comunicação
digital ter a real dimensão dos desafios que enfrentará para fornecer nexo social a tudo
que possa coletar, processar, distribuir e publicizar. É um terreno fértil para se
experimentar, mesclar procedimentos e construir pontes metodológicas. É perceber e se
apropriar da formação de um novo ecossistema informativo. Nunca vivemos em tal
estrutura comunicacional. São tantos os desafios que, ao invés de enfrentá-los, muitos
acreditam que usar os paradigmas do passado ajudará a sobreviver no novo cenário
midiático.
Assim, artigos e livros são produzidos com a pretensão de dizer quais são os
modelos de jornalismo que devem ser utilizados nesse novo ecossistema informativo e
quais os métodos corretos para verificar os fenômenos que a cada segundo surgem na
rede. Entretanto, no meio de palavras e argumentos, os antigos dogmas do jornalismo,
como o tal clássico “formador de opinião pública”, estão sendo embutidos nessas
publicações com outras nomenclaturas e conexões semânticas. Portanto, ajudando em
nada no avanço e adaptação das práticas jornalísticas em um novo ecossistema
informativo conectado. Auspicioso, o livro elaborado pelo professor e pesquisador
Márcio Carneiro é um balão de oxigênio no meio do vácuo intelectual no campo do
jornalismo, fornecendo estrutura de reflexão para quem deseja pensar sobre as
possibilidades factíveis no atual momento tecnológico em que vivemos.
Márcio Carneiro entende que a rede Internet é descentralizada e de baixa
hierarquia, portanto, permite a emergência de um sistema complexo. Para enfrentar o
desafio de entender e colaborar para que o jornalismo tenha a sua validade social,
construída ao longo de 400 anos, também na Web, o cientista encara o desafio de criar o
Laboratório de Convergência de Mídias (LABCOM) que, além de produzir livros e
textos, desenha tecnologias com um olhar interdisciplinar.
Para isso, vale-se de uma importante ferramenta da ciência, a pesquisa
experimental, que não tem o objetivo de ser aplicada nos meios de produção da notícia,

6
mas é fundamental para verificar as variáveis, a fim de observar as relações de
causalidade entre elas. A partir desse posicionamento, a curva de aprendizagem
aumenta e é possível sugerir novos produtos jornalísticos com o objetivo de estar em
sintonia com as necessidades informativas da sociedade contemporânea.
Então, pesquisador da nossa área, leia o livro e faça como Márcio Carneiro:
divirta-se com o novo parque de possibilidades tecnológicas, pois o passado do
jornalismo pertence ao passado.
Cabe a nós, a partir do que realmente é importante no processo jornalístico
consolidado nos últimos quatro séculos, construir o presente e o futuro do jornalismo,
para que ele continue sendo relevante à sociedade.

Boa leitura.

Walter Lima Júnior

7
INTRODUÇÃO

Os processos de digitalização de grande parte da produção de sentido


humana têm impactado de diversas formas o ecossistema midiático contemporâneo,
reconfigurando aspectos tecnológicos, culturais e econômicos.
Já há algum tempo temos tentado mapear uns traços dessas transformações,
insistindo que uma forma mais efetiva de fazê-lo é partindo da premissa de que olhamos
para um sistema complexo onde os vetores da mudança atuam em diversos pontos e
com múltiplas intensidades, ocasionando reações, conexões e consequências por vezes
aparentemente previsíveis e, por outras, totalmente inesperadas, configurando apenas
um espaço amostral cheio de possibilidades, incluindo aí aquelas advindas do acaso, do
randômico e do caótico.
A velocidade dos processos que temos presenciado e a falta de ferramentas
mais eficientes para utilização têm agravado o nível de dificuldade da empreitada dentro
do campo da Comunicação que, como veremos adiante, tem fortes raízes nas
Humanidades e nas Ciências Sociais, do período pré-digital. Tal fato, em algumas
situações, tem levado pesquisadores da área, por suas origens e formação tradicional, a
processar apenas parte do cenário disponível, excluindo muitas vezes tudo que advém
da asséptica lógica binária que move máquinas digitais e sistemas e, consequentemente,
a desconsiderar muitas das características que esse tipo de ordenação insere em meios,
mensagens, percepções e formas de produção. E não necessariamente por vício ou
preconceito, mas pela falta de treinamento para identificar e compreender os processos e
modos de operação que são a essência de códigos, aplicações, protocolos, interfaces e
plataformas que hoje, direta ou indiretamente, constituem os objetos de muitas
pesquisas.
A tentativa de acessar esse lado da questão, através da ferramenta mais
comum utilizada pelos que têm as origens antes descritas, no caso, a interpretação, ao
mesmo tempo em que produz ensaios e divagações magistralmente redigidos, faz, por
exemplo, com que pesquisas aplicadas e de cunho experimental sejam minoritárias na
produção acadêmica gerada dentro desses limites.
A antiga discussão sobre as fronteiras desse campo bem como as
especificidades de uma epistemologia a ele dedicada convivem com um olhar às vezes
incrédulo dos representantes de outras áreas que também não conseguem apreender o

8
foco mais preciso do complexo campo da Comunicação, palavra que parece permear e
imiscuir-se em quase todas as atividades humanas.
Diante de tão intricada situação, é fundamental dizer que o presente trabalho
está longe de propor uma solução ou um conjunto teórico totalmente novo capaz de
superar as atuais dificuldades e, bem distante disso, caracteriza-se, ao contrário, pela
simplicidade de pensamento e ações com muito mais semelhança com os relatos de
percurso do que com os grandes tratados.

E que caminho seria esse?

Há cerca de cinco anos fundamos o Laboratório de Convergência de Mídias


– LABCOM –, com o propósito central de explorar as fronteiras entre Comunicação e
Tecnologia, estudando os percursos teóricos de muitos outros pesquisadores que, antes
de nós, começaram a olhar para os processos de digitalização e suas consequências. A
essa imprescindível revisão, que continua como função permanente da nossa rotina,
acrescentamos o propósito de, em vez de apenas observar, injetar materialidade em
nossas ações e projetos, dando a eles um direcionamento para a solução de problemas
reais, para a criação de produtos e sistemas com potencial de utilização e para a jornada
da experimentação e vivência de tentativas e erros, muito mais próxima do caminho do
artífice, que é contrariado pela resistência do mundo e dos materiais com que trabalha,
do que daquele do voyeur, que se protege através da distância e das narrativas que
constrói para si mesmo.
Essa escolha levou-nos à constatação de que não tínhamos como fazer isso
com uma equipe homogênea, originária apenas das mesmas raízes, e que a chance que
teríamos para tocar o laboratório seria enfrentar o diálogo e a interação com estudantes e
pesquisadores principalmente das Ciências Exatas, para quem as particularidades do
digital têm um sentido muito mais próximo e objetivo. Ao longo do tempo, utilizando
editais de fomento e de bolsas para iniciação científica e tecnológica, tivemos a rica
oportunidade de convivência com designers, programadores, geógrafos e matemáticos,
formados ou em formação, que sem dúvida alguma nos abriram portas para explorar as
imbricações e conexões do digital na Comunicação; hoje, por nós entendida como um
campo em expansão, restando aos que enveredam por essa trilha o desafio de
acompanhar tal movimento, preservando, entretanto, a essência do que nos diferencia

9
dos outros, sem nos furtar dos novos diálogos com os teóricos das redes, das ciências
cognitivas, da interação homem-máquina e da filosofia da tecnologia.

A proposta da design science (DS)

O termo science of design, que posteriormente chamou-se design science,


foi introduzido pelo economista e filósofo Herbert Simon numa obra considerada
seminal para esse campo, The sciences of the arficial (As ciências do artificial),
publicada pela primeira vez em 1969. Nela o autor começa a esboçar um novo
paradigma epistemológico que hoje se caracteriza pela orientação à solução de
problemas, seja através da criação de novos artefatos (conceito que vamos detalhar a
frente), seja pela melhoria das soluções existentes. Focada inicialmente nos campos da
Engenharia e dos Sistemas de Informação, a design science viu sua utilização expandir-
se pela Gestão, Educação, bem como pelas Ciências Sociais Aplicadas de forma geral,
oferecendo um caminho alternativo para pesquisadores que desejam ir além das fases de
descrição e análise de objetos de pesquisa dados previamente. O caráter prescritivo e
propositivo dessa vertente procura integrar projetos que, mantendo o rigor dos métodos
científicos tradicionais, buscam também a relevância social de seus achados na
implementação de melhorias objetivas a problemas de determinada classe. Ao escrever
sobre o artificial, Simon (1996) refere-se às coisas criadas pelo homem, de certa forma
remetendo-se à divisão grega entre physis e tekhnè, sendo essa última o contraponto da
primeira, representada pelas coisas autogeradas pela natureza.
A obra de Simon se enquadra dentro de um conjunto de outros textos que
em diversos níveis fazem uma crítica aos limites dos paradigmas científicos tradicionais
focados na descrição analítica que, apenas eventualmente, fazem predições sobre
determinados temas. Longe de ser contra tais procedimentos, já tão solidificados no
ambiente científico, a design science propõe uma espécie de extensão, direcionada à
solução de problemas reais e à melhoria de artefatos existentes. Em Gibbons (1994), Le
Moigne (1994), March e Smith (1995), Romme (2003), Van Aken (2011) e Wall,
Wyidmeyer e Sawy (1992) encontramos diversas referências a essa visão. Em português
o trabalho de Dresch, Lacerda e Antunes Jr. (2015) é um dos poucos livros disponíveis
sobre o tema, representando fundamental colaboração ao desenvolvimento da DS no
Brasil.

10
O direcionamento da DS para critérios objetivos na solução de problemas
pode ser entendido a partir de um de seus conceitos fundamentais, o de “validade
pragmática” que “busca assegurar a utilidade da solução proposta para o problema.
Considera: custo/benefício da solução, particularidades do ambiente em que será
aplicada e as reais necessidades dos interessados na solução” (DRESCH; LACERDA;
ANTUNES Jr., 2015, p. 59). Considerando esses aspectos, observa-se que o ensaismo
presente em alguns trabalhos acadêmicos, facilmente encontrados na área da
Comunicação, estão bem distantes da DS, basicamente por não considerarem nem o
aspecto do rigor científico1, como também o da relevância social.

Artefatos e classes de problemas

Outro conceito fundamental para a DS é o de artefato. Design Science é a


“ciência que procura consolidar conhecimento sobre o projeto e desenvolvimento de
soluções para melhorar sistemas existentes, resolver problemas e criar novos artefatos”
(DRESCH; LACERDA; ANTUNES Jr., 2015, p. 59). O conceito de artefato pode ser
entendido como o produto final do percurso proposto pela DS e por isso algo que está
associado ao contexto específico do problema resolvido. O artefato, criado pelo homem,
representa um intermediador entre um conjunto do conhecimento estabelecido em
determinada área e as condições específicas que envolvem o problema que o artefato
deverá resolver.
Os artefatos podem ser divididos em categorias e um das classificações mais
aceitas é a de March e Smith (1995) que propõe quatro tipos: constructos, modelos,
métodos e instanciações.
Constructos – são os elementos mais básicos no desenvolvimento da DS,
elementos conceituais cujo objetivo é definir um conjunto de definições utilizadas na
solução do problema, estabelecendo uma espécie de vocabulário sobre determinado
campo onde tal problema está inserido. São os conceitos sobre os quais a solução opera
e que o pesquisador ira utilizar para evoluir do puramente abstrato para o tangível
(Figura 1) e aplicado à determinada situação.
• Modelos – são descrições sobre determinado sistema que estabelecem
relações entre os constructos previamente definidos. São uma espécie de

1
Ver Machado e Rohden (2016) e Machado e Sant’anna (2014).

11
representação da realidade que procura descrevê-la, mesmo que através
de simplificações, mas que tem o objetivo de apreender sua lógica de
operação interna para utilização como solução.
• Métodos – são conjuntos de procedimentos e ações orientados para o
desempenho de determinada tarefa ou solução de um dado problema. Os
métodos podem estar relacionados a modelos previamente estabelecidos,
sendo um passo a mais na escala entre abstração e tangibilidade da
solução que propomos anteriormente.
• Instanciações – o conceito de instância ou instanciar, bastante conhecido
entre programadores e cientistas da computação, representa na DS talvez
o nível mais tangível da solução criada no contexto prévio que a inspirou,
ou seja, representa o artefato em operação no ambiente que gerou a
necessidade da solução. As instanciações nos permitem também avaliar
algo importante dentro da proposta da DS que é a sua efetividade em
relação ao problema proposto ou às melhorias pretendidas no sistema
existente.

Figura 1: Escala de tangibilidade dos artefatos na DS. Fonte: Elaborado pelo autor

Um quinto tipo de artefato é admitido por alguns autores que se referem a


ele usando termos como regras tecnológicas, regras de projeto ou mais comumente
design propositions.

• Design Propositions - Essas proposições de design ou do projeto seriam


contribuições teóricas que podem ser feitas a partir da aplicação dos
princípios da DS diante de um tipo específico de problemas, ou em seus
próprios termos, operando sobre uma classe de problemas.

12
O termo classe de problemas que temos utilizado também faz parte dos
conceitos importantes da DS. Conjuntos de problemas práticos ou teóricos que tem já
estabelecido um conjunto de soluções ou artefatos a eles ligados constituem-se numa
classe de problemas. Como exemplo da Comunicação e das Ciências Sociais,
poderíamos citar a necessidade geral de coletar dados em repositórios na internet, que
poderíamos nomear como coleta de dados digitais. Seja para a produção de uma matéria
jornalística, para um plano de gestão ou para a definição de uma política pública sobre
determinado tema, com os processos de digitalização e o crescimento do uso de bases
de dados, a necessidade de conseguir tais informações, acessando seus repositórios
disponíveis na rede, tais como portais de transparência, por exemplo, caracteriza uma
classe de problemas onde operam artefatos como os métodos de scraping (raspagem) e
extração automatizada, bem como as instanciações disponíveis exemplificadas pelos
algoritmos em determinada linguagem de programação, que operam para resolver tais
problemas. Nesse último exemplo, os códigos poderiam não só ser classificados como
instanciações mas também como métodos, já que executam sequencias de comandos
para realizar suas funções.
O paradigma epistemológico da DS e a utilização de seus princípios
aplicados à pesquisa, a design science research (DSR), têm inspirado projetos e
iniciativas que temos desenvolvido ao longo do tempo e que, fora desse contexto,
estariam numa espécie de vácuo onde normalmente se confundem a pesquisa aplicada, a
pesquisa experimental e todas as variações do trabalho empírico de cunho científico.
Principalmente no campo da Comunicação, que tem forte tradição em outras disciplinas
das quais importou muito do ferramental de pesquisa utilizado, estudos como o de
Machado e Rohden (2016) demonstram como ainda é incipiente o desenvolvimento de
pesquisas voltadas para a proposição de soluções de problemas reais. Decidimos trilhar
tal caminho inspirados pelo trabalho de precursores que optaram pelo estranhamento de
operar a partir de classes de problemas e estratégias de pesquisa, em alguns casos, bem
diferentes das tradicionais da Comunicação, como pode ser observado na produção do
grupo ComTec2 e da rede JorTec3, por exemplo.
Guiado por proposições epistemológicas como a DS, com ênfase na
transdisciplinaridade, o livro traz notas e registros que descrevem um pouco do que
conseguimos avistar dentro das perspectivas propostas unindo experimentos,

2
<https://comtec.pro.br/>.
3
<http://tecjor.net/index.php?title=Objetivos>.

13
considerações teóricas e exemplos de utilização metodológica, com foco principal no
que hoje poderíamos descrever como eixo central do nosso trabalho que é a aplicação de
sistemas inteligentes ao processo de produção jornalística. Trata-se de uma temática
controversa porque as transformações nas redações ao mesmo tempo em que têm gerado
reduções de quadros, sobrecarga de trabalho para os remanescentes e até fechamento de
muitos veículos tradicionais de mídia, apontam também para um novo cenário onde a
busca pela requalificação do conteúdo e o aumento da percepção de relevância aos
consumidores continuam sendo metas possíveis, dependentes não só das novas
ferramentas utilizadas, mas também da reconfiguração adequada das habilidades dos
jornalistas e de seus processos produtivos, passando, portanto, pela atividade acadêmica
de formação de profissionais e pesquisadores, que são o público alvo principal desta
publicação.
O trabalho foi dividido em três partes que se complementam e oferecem
rotas de leitura diferentes de acordo com os interesses individuais de cada um.
A primeira parte – Pressupostos Teóricos – explicita um esforço de inserir
abordagens e procedimentos mais adaptados ao cenário dos processos digitais dentro de
um campo com fortes ligações com as Ciências Humanas e Sociais do período pré-
internet que ainda norteiam a maior parte dos esforços de pesquisa da área e, apesar de
sua efetividade e enormes serviços prestados, em algumas situações têm dificuldades de
captar o quadro completo quando tratamos de objetos regidos pela lógica binária, como
sites, tweets, plataformas de mídias sociais e bases de dados, entes bastante comuns
atualmente no ecossistema midiático que, como defendemos, apresentam uma ontologia
específica que deve ser considerada em qualquer esforço epistemológico ou
metodológico para entendê-los.
Assim iniciamos com um capítulo sobre a Filosofia da Tecnologia, primeira
porta de diálogo que consideramos aberta hoje aos pesquisadores da Comunicação e
seguimos, no capítulo dois, com o tema dos Métodos Digitais, que representam uma
tentativa de expandir a caixa de ferramentas do pesquisador contemporâneo sendo
muito úteis em determinadas situações. Por fim, no capítulo três, propomos uma
colaboração teórica orientada a conciliar parte do conhecimento tradicional da
Comunicação com uma visão sistêmica do ambiente digital a partir da sua mais forte
metáfora, a rede. A divisão tenta estabelecer, respectivamente, um contexto para a
discussão, um conjunto de ferramentas para fazê-lo e uma direção teórica que considera
as especificidades do ambiente digital. Como se pode ver na primeira parte, o foco não é

14
o jornalismo e sim as possíveis conexões que podem ser ativadas quando tentamos
projetar novos cenários para essa atividade a partir de soluções focadas em tecnologia.
As temáticas abordadas nessa parte são uma tentativa de explicitar os fundamentos que
consideramos importantes para o desenvolvimento da uma Ciência da Comunicação
onde a relação entre sociedade e tecnologia reflita a centralidade contemporânea que tal
tema adquiriu.
A segunda parte – Tecnologias – já tem seu direcionamento mais firme para
a aplicação de alguns tópicos, bastante discutidos atualmente como soluções de uso
geral, para a atividade específica da produção jornalística. Aqui, destacamos a
Realidade Aumentada (AR – Augmented Reality) no capítulo quatro, a Inteligência
Artificial (AI – Artificial Inteligence) no capítulo cinco e a Internet das Coisas (IoT –
Internet of Things) no capítulo seis, como ferramentas possíveis de integração capazes
de serem unidas em um modelo que chamamos de “jornalismo de inserção”, oferecendo
novas possibilidades não apenas de uso mas também em termos de formatos narrativos
e modelos de negócios.
Por fim, na terceira parte – Experimentos - listamos alguns relatos de nossas
atividades onde os pressupostos teóricos da primeira parte guiaram iniciativas de
utilização aplicada das tecnologias discutidas, diante de situações definidas de pesquisa
e desenvolvimento, tais como um gerador de leads de notícias automatizado no capítulo
sete; uma ferramenta para facilitar a geração de mapas de maior complexidade no
capítulo oito e um exercício de extração de dados a partir de uma plataforma da internet,
no capítulo nove. Provavelmente, mais importantes que os objetivos específicos de cada
um desses trabalhos sejam as descrições sobre como foram organizadas as estratégias de
abordagem para problemas dessa ordem, seguindo o roteiro previamente estabelecido
no capítulo dos Métodos Digitais.
A repetição de alguns cases apresentados antes de forma reduzida não se
trata de erro de revisão mas sim da inserção do tema em níveis de profundidade
diferentes, o primeiro de caráter informativo apenas e o segundo mais detalhado e
descritivo, pensando nos que têm intenção de estruturar pesquisas com objetivos
semelhantes. É o caso do gerador de leads automatizado que tem um resumo na
primeira parte, aparece no capítulo dedicado à inteligência artificial e também está
descrito na parte três dos experimentos. Como o livro pode ser lido integralmente ou de
acordo com os interesses específicos de cada um, enfatizamos alguns trabalhos para que
eles estejam presentes na maioria dos roteiros de leitura, basicamente por nossa

15
avaliação de importância em relação ao cenário do jornalismo contemporâneo e às
transformações que vem sofrendo.
A esse conjunto propomos também três apêndices que contribuem para o
quadro que desejamos traçar. No apêndice A resumimos os resultados de uma pesquisa
feita em nossa cidade sobre o impacto das tecnologias nas redações que, apesar de não
ter abrangência nacional, traz indícios de que tanto jornalistas, gestores e profissionais
de TI, ligados aos veículos de mídia, pensam sobre as transformações das novas
tecnologias e têm o desejo de experimentá-las e operá-las de forma mais efetiva, até
como fator para a manutenção da empregabilidade. No apêndice B fazemos um breve
resumo das teorias clássicas da difusão de inovações, para que o leitor possa também
utilizar esse pensamento para avaliar as possibilidades e chances de adoção que tais
tendências podem conseguir quando incorporadas ao fazer jornalístico. Por fim, no
apêndice C temos um texto escrito há um certo tempo sobre o conceito de ciberespaço,
elemento chave em muitas das discussões deste livro, que ainda não tinha tido a
oportunidade de ser publicado.
Esperamos que com este material possamos contribuir com um olhar que de
certa forma não parece estar nem no campo das Ciências Exatas nem totalmente
integrado ao material tradicionalmente produzido na Comunicação. O olhar do mestiço
que por suas origens nunca é totalmente aceito nos grupos previamente definidos,
pagando normalmente um preço alto por isso, mas que, em compensação, às vezes,
consegue perceber e visualizar paisagens que, na hibridação das diferenças, podem
oferecer também beleza e utilidade, como nos breves momentos de transição entre o dia
e a noite, no limiar entre a luz e a escuridão.

16
PARTE I
PRESSUPOSTOS TEÓRICOS

17
CAPÍTULO 1

FILOSOFIA DA TECNOLOGIA

O campo da Filosofia da Tecnologia aborda temas que podem nos ajudar em


algumas questões mais gerais que, entendemos, estão presentes nos processos de
transformação pelos quais passa a atividade jornalística contemporânea.
Visões diferentes sobre como a técnica moderna, a ciência e grupos sociais
interagem representam uma dessas temáticas e por isso iniciamos nosso percurso mais
especificamente pela tendência contemporânea que tem destinado interesse crescente
aos aspectos da materialidade e da ação prática do ser humano no mundo, com e através
da tecnologia, usando essa discussão para argumentar pela importância do
desenvolvimento de pesquisas de cunho experimental e, principalmente, aplicado no
campo da Comunicação, orientados para a solução de problemas reais, como os que
empresas de mídia tradicional e seus jornalistas enfrentam atualmente.
Além disso, apresentamos brevemente o conceito de agência, fundamental para
sustentar a discussão sobre gamificação que faremos à frente no modelo de Jornalismo
de Inserção que será apresentado.
Aproveitamos para também refutar a visão muitas vezes comum de que a
relação entre Comunicação e Tecnologia impõe aos que se interessam por essa temática
uma espécie de postura acrítica ou de adoração, ao estilo do que denominamos
ciberiluminismo, ou seja, a posição de que a tecnologia é sempre benéfica e positiva
para a sociedade. O estudo da Filosofia da Tecnologia nos apresenta um quadro bem
mais complexo e, através dele, pretendemos argumentar que tal visão simplificadora
não deve ser o motivo para o distanciamento dessa convergência entre dois campos que
têm adquirido centralidade cada vez maior no mundo contemporâneo.

Relações entre Tecnologia e Sociedade

Enquanto a Filosofia tem mais de dois mil anos de conhecimento acumulado, o


ramo da Filosofia da Tecnologia pode ser considerado relativamente novo. A ideia de
que a tecnologia nada mais é do que ciência aplicada, aparentemente, afastou o interesse
dos filósofos que, por muito tempo, não viam no tema algo que valesse a pena explorar.

18
Antes do século XX, Bacon, Marx e alguns poucos abordaram a questão da tecnologia,
muitas vezes de forma periférica.
Para que as afirmações anteriores tenham sentido é importante ressaltar as
diferenças entre técnica e tecnologia. Enquanto a primeira já fazia parte das discussões
dos filósofos gregos, a última efetivamente começa a constituir-se, ainda que de forma
embrionária, no Renascimento, a partir da junção da ciência aplicada e do objetivo,
naquele momento, cada vez mais claro, de dominar a natureza a partir da razão.
Para entender a diferença é preciso voltar cerca de cinco séculos antes da era
cristã. A tekhnè dos gregos, segundo Lemos (2002), estava intimamente ligada às ações
práticas cobrindo uma ampla faixa de atividades que iam dos ofícios mais simples
baseados em trabalhos manuais até as artes e a medicina. Era tekhnè, portanto, tudo
aquilo produzido pela ação do homem em contraponto ao que era gerado pela natureza.
Essa primeira dicotomia na Grécia de Platão e Aristóteles trazia um julgamento
de valor bem definido: o fazer da natureza era superior porque permitia a possibilidade
de gerar a si mesmo, de atravessar a fronteira entre a ausência e a presença, de forma
independente. A herança divina, por isso mais pura, fazia da physis o princípio da
geração das coisas naturais, superior à tekhnè, sempre algo inferior, sem a capacidade da
auto-poièses, ou seja, da autorreprodução.
A essa diferença Platão ainda acrescentou a ideia de que a contemplação e a
atividade do pensamento, da busca pelo conhecimento e pela compreensão do mundo,
eram as mais nobres possibilidades dadas aos humanos. As atividades práticas, segundo
ele, eram inferiores, provavelmente decretando a primeira cisão entre a mão e o cérebro
que Sennett (2009), mais de dois mil anos depois, vai desenvolver a partir da análise
histórica do trabalho artesanal, pensando, com base nos conceitos de Hannah Arendt4, a
diferença entre o Animal Laborens, aquele a quem interessa apenas o como, e o Homo
Faber, o que pensa no porquê.
As premissas dos gregos provavelmente têm seu reflexo até hoje no conceito
ainda difundido de que as atividades manuais ou artesanais são menos importantes.
Entretanto, Sennett (2009) também nos lembra que é no início da história humana que
encontramos o mito de Hefesto, o deus dos artífices, aquele que ensinou ao homem o
uso das ferramentas, tirando-o do caos e da vida nômade, possibilitando o início da

4 Sennett é discípulo de Arendt mas questiona a visão dela sobre a questão da tecnologia e a divisão
proposta entre animal laborens, o trabalhador braçal condenado à rotina, e o homo faber, superior ao
primeiro, consciente da vida em comunidade, que é capaz de discernir sobre seus próprios atos e procurar
soluções melhores.

19
civilização. O fazer humano, se não tinha o dom de se autocriar, tinha sim já o poder da
transformação, de alterar o que era tácito e natural. Hefesto traduzia uma possibilidade
humana associada aos ambientes digitais: a agência5.
Se as origens da técnica repousam na antiguidade, o conceito de tecnologia
veio bem depois. Ensina-nos Lemos (2002) que a tecnologia é a técnica moderna, muito
distante do imaginário da antiguidade e liberta dos seus laços com o divino. Pelo
contrário, é a técnica que, baseada na razão e no desenvolvimento científico, na física
newtoniana, na matemática cartesiana e no empirismo, transforma a natureza em
“objeto de livre conquista” (LEMOS, 2002, p. 45).
Para Rüdiger (2007, p. 175), “a técnica é, em essência, uma mediação do
processo de formação da vida humana em condições sociais determinadas”. Já a
tecnologia é

o conhecimento operacional que designamos pelo termo técnica enquanto se


articula com a forma de saber que chamamos ciência, através da mediação da
máquina e, potencialmente, em todas as áreas passíveis de automatização,
conforme define o tempo que a criou, a Modernidade (RÜDIGER, 2007, p.
186).

Se para Heidegger a técnica é um modo de existência do homem no mundo, a


partir da modernidade esse existir tomará um rumo direto de agressão à natureza, agora
sujeita ao conhecimento humano e à ideia de um progresso linear, constante e que não
pode ser parado. Para muitos, como Sennett, abre-se aqui a caixa de Pandora, a deusa da
invenção enviada por Zeus à terra e que para os gregos representava também a cultura
das coisas produzidas pelo homem, através das quais este poderia causar danos a si
mesmo.
Os grandes conflitos mundiais da primeira metade do século XX, o Nazismo e
o pesadelo da Guerra Fria e da ameaça nuclear materializaram os piores sonhos dos
gregos em um mundo que, em tese, deveria ser mais evoluído justamente pela existência
da tecnologia.
Nos últimos três séculos, a Filosofia da Ciência ocupou muitos pensadores,
mas só no século XX, a partir de eventos como a bomba atômica em Hiroshima e
Nagasaki e, posteriormente, as preocupações com as mudanças climáticas, a poluição

5 A capacidade de agirmos ou exercermos nossa própria vontade nos ambientes digitais. De certa forma
um conceito ligado ao de interatividade. Ver Murray (2003).

20
gerada pelo desenvolvimento industrial6 e a manipulação genética com a possibilidade,
mesmo que teórica, da clonagem de seres humanos que esse cenário começou a mudar e
a produção teórica sobre uma Filosofia da Tecnologia passou a tomar corpo.
A intensidade e a velocidade das mudanças econômicas e sociais nas últimas
décadas, de alguma forma, ligadas ao desenvolvimento tecnológico, deram a esse
campo um interesse com crescimento exponencial e uma diversidade de correntes e
enfoques.
As possibilidades vão do determinismo tecnológico e sua versão radical da
tecnologia autônoma de Ellul (1968), que de forma geral coloca os homens à mercê da
tecnologia, até versões opostas, como as que pregam a construção social da tecnologia,
definida não por parâmetros fora do controle humano mas, pelo contrário, a partir da
interação de vários grupos de interesse que definem as linhas gerais do seu
desenvolvimento.
Nomes como Heidegger, Arendt e Marcuse representam uma visão crítica do
problema, com escritos nem sempre de fácil leitura. Segundo Dusek (2006), há
variações para todos. Linguistas anglo-americanos, neo-marxistas, fenomenologistas
europeus, existencialistas, hermeneutas, representantes do pragmatismo americano e
filósofos pós-modernos como Deleuze, Virilio e, mais recentemente, Bruno Latour,
focalizaram seus olhares sobre a relação entre o homem e a tecnologia, transformando
uma temática pouco valorizada em algo com uma centralidade quase inevitável.
Em 1976 foi fundada a Sociedade para a Filosofia e a Tecnologia (SPT),
segundo sua própria página pública na internet7, uma organização internacional
independente que estimula, dá suporte e intermedia discussões filosóficas relevantes
sobre tecnologia.
As possibilidades de pensar as relações entre sociedade e tecnologia deram
origem a novos campos como o que hoje conhecemos como STS (Science and
Technology Studies). Nele, pensadores como Castells (1999) e Andrew Feenberg (2002)
têm se dedicado a formular um cenário compatível com os desafios de estudar uma
relação obviamente multifacetada e complexa.
Em sua crítica às visões simplistas sobre o papel da tecnologia no mundo de
hoje, Feenberg propõe-nos, inicialmente, uma espécie de mapeamento das posições

6 Em janeiro de 2013 a poluição em Pequim chegou a 25 vezes do valor máximo aceitável ao ser
humano, gerando inclusive um protesto que se constituía na venda de latinhas de ar na cidade. Edição do
Jornal Nacional – TV Globo – 29/01/2013.
7 <http://www.spt.org/>.

21
normalmente apresentadas e a partir delas tenta incorporar questões como democracia,
poder e liberdade, como fatores também importantes a considerar nas discussões dos
STS.
Na cartografia de Feenberg das sociedades modernas a tecnologia ocupa um
lugar de destaque entre as fontes de poder que se articulam no meio social. Para ele, as
decisões políticas que definem muitos dos aspectos da nossa vida cotidiana são
direcionadas pela influência dos controladores dos sistemas técnicos, sejam eles das
grandes corporações, militares, ou de associações profissionais de grupos como físicos,
engenheiros e, mais recentemente, poderíamos sugerir também desenvolvedores de
software.
Ao fazer tal constatação o autor remete-se ao pensamento de Marx que já no
século XIX criticava a ideia de que a economia pudesse ser apenas regida por fatores
extrapolíticos, através de leis naturais com a da oferta e da procura. Do mesmo modo,
imaginar o papel da tecnologia sem avaliar as diversas relações que ela estabelece com a
sociedade pode implicar em uma visão reduzida do problema.
Em um caminho semelhante à crítica marxista de uma economia regulada por
uma ordem natural e inexorável, Feenberg relativiza a racionalidade da tecnologia a
partir da constatação de que sua gênese e desenvolvimento acontecem no mundo dos
homens e, por isso, também são influenciados por ele.

Criação técnica envolve interação entre razão e experiência. Conhecimento


da natureza é necessário para fazer um equipamento que funcione. Este é o
elemento da atividade técnica que consideramos como racional. Mas o
equipamento deve funcionar num mundo social e as lições da experiência
nesse mundo influenciam o design (FEENBERG, 2010, p. 17)8.

A dicotomia entre a racionalidade técnica e o conhecimento que vem da


experiência e contato com o mundo, assim como proposta por Feenberg, será mais
explorada à frente. Tal preocupação também pode ser encontrada no pensamento de
outros autores que, a partir de pontos de observação diferentes, exploraram a força da
materialidade do mundo em seu confronto com a razão pura.

A questão da materialidade nas discussões sobre tecnologia e comunicação

8 “Technical creation involves interaction between reason and experience. Knowledge of nature is
required to make a working device. This is the element of technical activity we think of as rational. But
the device must function in a social world, and the lessons of experience in that world influence design.”
(Tradução do autor).

22
Nas últimas quatro décadas, os processos de digitalização e convergência
receberam crescente atenção das mais diversas áreas do conhecimento, tendo em vista
sua inegável interferência nas atividades humanas.
Das redes sociais à cibercultura, dos games online ao capital globalizado e suas
bolhas, dos ambientes virtuais aos avatares e entes digitais; um movimento de
desmaterialização, de descolamento entre representados e representantes parece estar
em andamento com ritmo acelerado. As discussões sobre esse aspecto da cultura atual
remontam ao final do século XX, em autores como Baudrillard, Jameson e Eco, entre
outros. Se é intensa a movimentação sobre as iniciativas de compreender tais processos,
também é possível notar que uma espécie de movimento contrário, de retorno ou busca
da dimensão material da existência, tem se manifestado em autores ou pesquisadores
contemporâneos que nos falam de indícios desse caminho, mesmo nos dias de hoje em
que estamos tão inseridos nas categorias e desdobramentos do que se considera virtual,
como em Benedikt (1991), Bricken (1990), Cohen (2007), Leão (2003), Macey (2000),
Punday (2000), Santaella (2003; 2004) e Stockinger (2001).
É óbvio que questões ligadas à materialidade são muito anteriores, entretanto,
para o presente trabalho, serão pensadas no horizonte temporal definido no início do
texto e relacionadas aos processos desencadeados pela convergência entre máquinas de
numerização e máquinas de representação, a trajetória que Manovich (2001) descreve
com detalhes mostrando como as tecnologias da informação e da comunicação uniram-
se, depois de décadas em trajetórias paralelas, constituindo, por fim, o atual cenário do
que se convencionou chamar de sistemas midiáticos digitais.
Don Ihde (2009), no texto que abre a coletânea “New Waves in Philosophy of
Technology”, faz um breve resumo sobre as diversas gerações de filósofos que se
dedicaram ao tema. Comentando a nova geração de autores do livro que apresenta, Ihde
fala sobre os principais traços que identifica no pensamento contemporâneo ali
representado.
A principal característica apontada é um aprofundamento em direção a uma
visão mais pragmática e empírica, a partir da análise do que ele chama de tecnologias
concretas. Esse direcionamento já havia sido tomado por sua própria geração, que
incluía entre outros, Albert Borgmann, Hubert Dreyfus, Andrew Feenberg, Donna
Haraway e Langdon Winner.
Para Ihde, as gerações anteriores a dele traziam a marca de uma forte divisão
entre visões utópicas e distópicas sobre a relação entre tecnologia e sociedade, bem

23
como o fato de enfrentarem o tema normalmente a partir de abordagens mais
metafísicas onde, em muitos trabalhos, pairava a sombra da ameaça tecnológica às
formas tradicionais da cultura e à própria humanidade.
A figura de Heidegger é destacada, representando o pensamento que superou a
divisão geracional proposta, apesar das ressalvas de que, sem perder a importância, o
sentido de suas palavras e, principalmente, suas conclusões também foram relativizadas
à medida que o tempo passou.
Nas imbricações entre tecnologia, comunicação e filosofia é possível
identificar essa preocupação com o tangível aos sentidos de forma explícita ou indireta.
Entre as muitas possibilidades, três autores que abordam a questão com estratégias e
intenções diferentes serão aqui destacados por falarem sobre o que talvez não seja uma
reação a algo oposto, mas sim a representação dialética do mesmo fenômeno.
De um lado a existência humana e sua indissolúvel relação de mútuas
influências com a técnica que molda o mundo e torna-se ferramenta para que possamos
operar sobre ele e, do outro, o lado humano que permanece conectado sem a mediação
da máquina e insere-nos naquilo que chamamos de real.
Por fim, Idhe aponta também como traço da nova geração de filósofos da
tecnologia um endereçamento à questão da materialidade e seus desdobramentos. Por
isso, no texto que segue, faz-se uma tentativa de encontrar possíveis pontes ou conexões
entre o pensamento de três autores que não estão nas listas tradicionais dos filósofos da
tecnologia e muito menos nas dos que representam juntos alguma corrente de
pensamento.
Apesar disso, e muito mais ligados à Comunicação e às Humanidades de forma
geral, Marshall McLuhan, Hans Ulrich Gumbrecht e Richard Sennett trazem-nos
questões que, ao nosso modo de ver, podem colaborar com as discussões da Filosofia da
Tecnologia e com a geração que Idhe (2009) nos apresentou.

Marshall McLuhan e os meios como extensões dos sentidos do homem

Em muitos livros sobre as teorias da Comunicação, o pensador canadense


Marshall McLuhan é classificado como pertencente ou até fundador de uma corrente
normalmente denominada de “determinismo tecnológico”, fato que só comprova uma
verdade talvez mais objetiva, a de que sua obra foi menos lida ou compreendida do que
devia.

24
Com o advento da internet, o trabalho de McLuhan tem sido recuperado com
olhares mais atentos e agora, a partir de um cenário midiático complexo, volta a ser
retomado com interesse por muitos pesquisadores que têm entre os seus objetos os
meios de comunicação e suas relações com os homens e a cultura.
Se existe algum determinismo no pensamento de McLuhan este encontrar-se-á
não nos objetos tecnológicos, mas no sistema nervoso humano, nos mecanismos de
percepção que a neurociência, muitos anos depois da publicação dos principais textos
do autor, ainda trabalha para desvendar.
Em alguns trechos de sua obra a conexão não mediada do aparelho sensório
humano e sua forma de reagir aos estímulos determinam o que conhecemos por
realidade e, portanto, altera-se quando algo se interpõe, “... a racionalidade ou
consciência é, em si mesma, uma ratio ou proporção entre os componentes sensórios da
experiência e não algo que se acrescenta a essa experiência” (MCLUHAN, 2007, p.
132).
É por tais declarações que McLuhan é nosso primeiro caminho no retorno ao
sensível já que, para ele, os meios são tradutores, instrumentos de conexão com a
realidade material, extensões de nós mesmos. Como um precursor de muitas ideias, o
autor recoloca a questão da materialidade na época diminuída pela preocupação com os
conteúdos e seus significados.
Para McLuhan, mais importante do que as mensagens eram os meios e suas
relações com o ser humano no nível do sistema nervoso, em uma espécie de mecanismo
construtor de mundos, anterior à interpretação pela razão.

Pois a mensagem de qualquer meio ou tecnologia é a mudança de escala,


cadência ou padrão que esse meio ou tecnologia introduz nas coisas humanas
(...). Os efeitos da tecnologia não ocorrem aos níveis das opiniões e dos
conceitos: eles se manifestam nas relações entre os sentidos e nas estruturas
de percepção, num passo firme e sem qualquer resistência (MCLUHAN,
2007, p. 22-34).

McLuhan lembra-nos sobre o que, muitas vezes, esquecemos em considerar a


respeito de nossa relação com o mundo sensorial, entretidos que estamos com os
significados das coisas e sua interpretação, mar enorme guiado pela subjetividade, tão
diverso e numeroso quanto os habitantes da terra.

Hans Ulrich Gumbrecht e os efeitos de presença direcionados aos sentidos

25
Se em McLuhan não há efetivamente um retorno à materialidade e sim uma
antecipação das questões que agora ganham vulto, em Gumbrecht há uma explícita
intenção de questionar a interpretação, por consequência, a hermenêutica e a
superioridade da razão humana capaz de apreender e organizar o mundo, aprofundando-
se em questões que apenas se iniciam na materialidade e que logo devem ser levadas
adiante e para bem longe do corpo e do sensorial.
Em sua proposição de um campo não hermenêutico, Gumbrecht (1998)
argumenta que o primado da razão foi abalado pelo que muitos autores chamam de
condição pós-moderna, caracterizada por processos de destemporalização,
destotalização e desrreferencialização.
Utilizando a semiótica de Hjelmslev, o autor vai afirmar a inviabilidade atual
das Ciências do Espírito – Geisteswissenschaften – como preconizadas por Dilthey e
principalmente por Heidegger.

Tratando agora do campo não-hermenêutico, parto de um princípio dedutivo:


se, como apresentei, a centralidade da interpretação, não apenas em Dilthey e
Heidegger, senão na própria vida cotidiana, estava fundada nas premissas de
temporalidade, totalidade e referencialidade e, se hoje esses conceitos
entraram em crise, então pode-se supor que a crise atinge de fato a
centralidade da interpretação. (GUMBRECHT, 1998, p. 143).

É para enfrentar esse problema que Gumbrecht propõe o que chama de campo
não hermenêutico, conceito que vai elaborar melhor posteriormente em outra obra
(GUMBRECHT, 2004), propondo a dicotomia entre produção de sentido e produção de
presença, em uma estruturação menos radical que não exclui a interpretação, mas a
equilibra com processos direcionados à apreensão direta pelo corpo e pelos sentidos.
De Hjelmslev, o autor importa a oposição conceitual básica entre expressão – o
significante – e conteúdo – o significado – acrescentando a isso uma segunda divisão
entre forma e substância.
É na área da expressão e, principalmente, em suas formas que Gumbrecht foca
seu interesse, justamente por sua característica material, na materialidade do
significante, antes menos valorizada.
Para sustentar seu pensamento, Gumbrecht retoma o trabalho de Paul Zumthor,
interessado nas qualidades da voz humana, e de Friedrich Kittler que tenta conectar a
materialidade dos meios de comunicação e dos movimentos corporais impostos por
eles, expandindo a temática antecipada por McLuhan e indicando o caminho que será
aprofundado por nosso próximo autor, Sennett.

26
Para a compreensão dos termos produção de presença e produção de sentido,
Gumbrecht, inicialmente, lembra-nos da etimologia do termo produção e sua raiz latina
producere que quer dizer trazer à frente, destacar.
Assim, na produção de sentido é destacada a interpretação e seus processos,
enquanto na produção de presença, é a materialidade que toma a frente. “O que esse
livro por fim defende é uma relação com as coisas do mundo que oscila entre efeitos de
presença e efeitos de sentido. Efeitos de presença, entretanto, exclusivamente
direcionados aos sentidos” (GUMBRECHT, 2004, p. 15).
Em outro trecho do seu trabalho Gumbrecht (2004, p. 15) diz:

Enquanto a moderna (inclusive contemporânea) cultura ocidental pode ser


descrita por um processo progressivo de abandono e esquecimento da
presença, alguns dos efeitos especiais produzidos hoje pelas mais avançadas
tecnologias de comunicação podem tornar-se importantes para um
redespertar de um desejo por presença9.

Se esse redespertar para a materialidade é percebido por Gumbrecht em


algumas novidades tecnológicas, é em práticas muito mais antigas que Sennett, nosso
terceiro autor, vai encontrar seu caminho.

Richard Sennett e o caminho do artífice

O encontro de Sennett com a materialidade é construído através de um trajeto


bem diferente dos autores anteriores. É na ideia de transformação que Sennett baseia
seus argumentos.
O trabalho do artífice e sua paciente e repetitiva ação sobre os objetos com os
quais trabalha representam, para Sennett, o caminho para reencontrar a técnica em
harmonia com os homens. “Sustento duas teses polêmicas: primeiro, que todas as
habilidades, até mesmo as mais abstratas, têm início como práticas corporais; depois,
que o entendimento técnico se desenvolve através da força da imaginação” (SENNETT,
2009, p. 20).
O projeto de Sennett inicia-se com o estabelecimento de uma oposição entre
dois personagens míticos, Hefestos, que simboliza a técnica que ajuda os homens a
tornar o mundo melhor, e Pandora, que representa a técnica baseada apenas na busca da

9 “While modern (including contemporary) Western culture can be described as a process of progressive
abandonment and forgetting of presence, some of the “special effects” produced today by the most
advanced communication technologies may turn out to be instrumental in reawakening a desire of
presence.” (Tradução do autor).

27
eficiência, cega o bastante pelos seus objetivos, a ponto de destruir tudo mais ao seu
redor. “A tese que sustentei neste livro é de que o ofício de produzir coisas materiais
permite perceber melhor as técnicas de experiência que podem influenciar nosso trato
com os outros”. (SENNETT, 2009, p. 322)
Sennett procura construir um conceito de ética próprio, capaz de mudar o
ambiente social, como o artífice transforma os materiais em que trabalha. Uma proposta
que resgata o demioergos do hino a Hefestos, uma espécie de produtividade centrada
não em si mesma, não instrumental, mas sim coletiva, cidadã, uma visão da técnica
reconciliada com a sociedade.
O autor parece também propor esse retorno à apreensão do mundo de forma
direta e não tão somente mediada pelos sistemas de signos e linguagens que fomos
construindo ao nosso redor.
Sennett pretende sentir o mundo de um jeito novo. Mas, para tanto, o mundo
tem que possibilitar esse contato, essa resistência, esse potencial de modelagem que não
aceita tão facilmente a intenção do operador. Algo que só a materialidade pode oferecer
e que só o caminho do artífice, com sua escolha pela precisão e pela paciência tem a
chance de enfrentar.
Diz Sennett (2009, p. 19) que o artífice é aquele que alimenta “[...] o desejo de
um trabalho benfeito por si mesmo.” É assim que ele define a habilidade artesanal
completando que esta “[...] abrange um espectro muito mais amplo que o trabalho
derivado de habilidades manuais; diz respeito ao programa de computador, ao médico e
ao artista.” (SENNETT, 2008, p. 19).
Diante da resistência do objeto do seu trabalho, o artífice molda sua
transformação trilhando um caminho que representa uma linha tênue entre a técnica e a
arte. Do contato da mão com o mundo e da conexão da mesma com a mente surge a
força que altera a matéria, que a organiza e a faz melhor. “Todo bom artífice sustenta
um diálogo entre práticas concretas e ideias; esse diálogo evolui para o estabelecimento
de hábitos prolongados, que por sua vez criam um ritmo entre a solução de problemas e
a detecção de problemas.” (SENNETT, 2009, p. 20).
Sua filiação intelectual a Hannah Arendt guia seus passos em direção a essa
ética particular que na simplicidade do trabalho do artífice tem objetivos muito maiores.

A unidade entre a mente e o corpo do artífice pode ser encontrada na


linguagem expressiva que orienta a ação física. Os atos físicos de repetição e
prática permitem a esse Animal Laborens desenvolver as habilidades de

28
dentro para fora e reconfigurar o mundo material através de um lento
processo de metamorfose (SENNETT, 2009, p. 327).

Em Sennett o mundo material é a massa de modelar do oleiro que o artífice,


com sua destreza, pode lapidar, como o ourives faz com a pedra bruta e o soprador de
vidro também, insuflando forma no que antes era pó.
Se em McLuhan o determinismo neurológico, de certa forma, aprisiona o
homem à sua própria biologia, apesar de um amplo leque de possibilidades de escape;
em Gumbrecht, esse contato com o material aparece não como uma obrigação, mas
como uma possibilidade esquecida que é preciso recuperar, em um reawakening que vai
de encontro à tendência das culturas ocidentais modernas e contemporâneas em
superestimar a razão e a sua capacidade interpretativa como única forma aceitável de
estar e entender o mundo.
Já em Sennett, a matéria é o caminho da transformação do artífice. Por ela é
possível reconciliar a técnica e os homens em um mundo melhor.
O retorno à materialidade, como já dissemos, é uma questão muito mais antiga
do que as ideias e autores que listamos aqui. Entretanto, McLuhan, Gumbrecht e
Sennett dão a ela um contorno pessoal, rico e atualizado, em sintonia com
questionamentos que nos desafiam hoje e que, com a ajuda deles, estamos mais aptos a
enfrentar.
Outro aspecto relacionado à materialidade é o que chamamos de agência, uma
possibilidade cada vez mais considerada quando pensamos e desenvolvemos algum tipo
de interação entre homem e computador em ambientes digitais. Para terminar este
capítulo, faremos alguns comentários sobre esse conceito que será um dos guias do que
apresentaremos mais à frente.
O próprio caminho do pesquisador, principalmente o que se dedica à pesquisa
empírica e aplicada, com foco na solução de problemas reais e no desenvolvimento de
produtos, assemelha-se ao do artífice, justamente por ter que lidar diretamente com
aspectos materiais da realidade e não simplesmente tentar descrevê-los a partir de uma
versão subjetiva do que apreende. De certa forma, foi nessa direção que decidimos
enveredar e os tópicos que apresentaremos em outros capítulos traduzem tal
direcionamento, com base nas premissas da Filosofia da Tecnologia que discutimos até
aqui e em colaborações mais recentes como a linha da Design Science (DS), paradigma
científico onde a simples descrição e constatação de fenômenos é acoplada a iniciativas

29
preditivas e prescritivas, no desenvolvimento de artefatos com utilidade e relevância
social10.

O conceito de agência

O conceito de agência, nos termos de Murray (2003), está ligado intimamente à


noção de prazer e fruição que podemos observar em espectadores/usuários (Murray os
chama de interatores) com games, narrativas e experiências semelhantes de contato e
utilização de conteúdos digitais através da intermediação de um computador.

Na pista de dança podemos no máximo influenciar nosso parceiro, mas os


músicos e os demais dançarinos praticamente não são afetados. Dentro do
mundo do computador, entretanto, quando o arquivo certo se abre, quando
nossas fórmulas para planilhas eletrônicas funcionam corretamente, ou
quando os sapos simulados prosperam na lagoa modelo, pode-se ter a
sensação de que todo o salão de baile está sob o nosso comando. Quando as
coisas estão indo bem no computador, podemos ser tanto o dançarino quanto
o mestre de cerimônias da dança. Essa é a sensação da agência. Devido ao
uso vago e difundido do termo ‘interatividade’, o prazer da agência em
ambientes eletrônicos é frequentemente confundido com a mera habilidade
de movimentar um joystick ou de clicar com um mouse. Mas a atividade por
si só não é agência (MURRAY, 2003, p. 128).

Neste trabalho propomos que a agência e seus efeitos positivos em termos da


experiência proporcionada não são exclusivos dos usuários ou utilizadores finais, mas
também dos criadores dos produtos, dos que estão envolvidos na sua produção, seja por
laços profissionais ou não.
De hackers a artistas, de pesquisadores imersos em teses e experimentações a
profissionais que dedicam grande tempo da sua vida às suas atividades laborais, dos
antigos artífices aos atuais proprietários das novas impressoras em 3D, fica a noção de
que a possibilidade de ação sobre o mundo, guiada pela vontade individual, tornou-se
algo a ser perseguido com, cada vez mais, intensidade, basicamente por poder
proporcionar uma espécie de prazer em cada uma das empreitadas.
No apêndice B, onde discutiremos com mais detalhes os processos de adoção
de inovações, ficará claro que a oportunidade de experimentar e observar resultados, de
interagir com a inovação sem o possível ônus das consequências de uma escolha errada,
faz grande diferença na potencial velocidade de adoção daquela tecnologia. A agência e
sua respectiva fruição podem influenciar esse processo e, obviamente, não possibilitar
isso implica em dificultar tal aproximação.

10
Para mais detalhes sobre a DS ver Simon (1996) e Dresch, Lacerda e Antunes Júnior (2015).

30
No mundo contemporâneo, impactado pelos efeitos das tecnologias de
informação e comunicação, o desejo de interação com o mundo e o outro parece ser
cada vez mais considerado como um valor ou objetivo a ser alcançado. Os pensadores
que listamos antes trazem-nos possíveis caminhos para compreender a importância cada
vez maior dada a essa tendência.

A autoria nos meios eletrônicos é procedimental. Autoria procedimental


significa escrever as regras pelas quais os textos aparecem tanto quanto
escrever os próprios textos. Significa escrever as regras para o envolvimento
do interator, isto é, as condições sob as quais as coisas acontecerão em
resposta às ações dos participantes. Significa estabelecer as propriedades dos
objetos e dos potenciais objetos no mundo virtual, bem como as fórmulas de
como eles se relacionarão uns com os outros. O autor procedimental não cria
simplesmente um conjunto de cenas, mas um mundo de possibilidades
narrativas (MURRAY, 2003, p. 149).

No capítulo em que descreveremos o modelo de jornalismo de inserção,


retomaremos o conceito de agência como fator fundamental ao desenvolvimento de
ambientes imersivos de consumo de informação, capaz de atrair a atenção das novas
gerações para atividades que, com seus modelos atuais, têm enfrentado sérias
dificuldades diante da fragmentação das audiências e da perda de relevância dos
produtos oferecidos.

31
CAPÍTULO 2

MÉTODOS DIGITAIS: a internet e as redes como instrumentos de pesquisa

O impacto dos processos de digitalização em grande parte da produção de


sentido humana tem hoje seus efeitos estudados em diversas frentes. Entre elas,
poderíamos citar: a) o surgimento de novos modelos de negócio e de uma economia
onde há excesso de informação e a atenção das pessoas transforma-se em ativo
extremamente valorizado; b) a série de mudanças comportamentais impulsionadas por
novas formas de sociabilidade e interação; c) os desdobramentos em termos de relações
de poder e participação cívica a partir de uma esfera pública expandida e mais
complexa, povoada por um número bem maior de atores com agendas e interesses
diversos.
Diante das possibilidades de angulações e de um ainda pouco explorado
sentido de aceleração no ritmo das mudanças em andamento é ainda tímido o processo
de atualização do ferramental teórico e metodológico no campo da Comunicação para
enfrentar os novos problemas que estamos nos propondo a estudar atualmente.
Tal fato, em parte, deve-se à lógica particular do desenvolvimento científico
que precisa sempre de mais tempo de depuração para estabelecer suas bases, em tese,
mais sólidas e provenientes da maturação das ideias, da validação da prova e da crítica
entre pares.
Outro aspecto mais específico é a própria origem histórica de muito do que
se fez em Comunicação a partir do conhecimento e experiências de áreas como a
Sociologia, a Psicologia, a Antropologia e a Economia que, definitivamente, até por sua
anterioridade, impactaram bastante as principais tradições ou perspectivas teóricas
estabelecidas no nosso campo. Essa ligação, embora fundamental, de certa forma parece
hoje também acrescentar um grau a mais de dificuldade na proposição de um
pensamento gestado originalmente em questões ligadas às mídias digitais.
Seria improdutivo argumentar contra o fundamental papel que todas essas
inter-relações e origens aportaram à Comunicação, bem como sua função estruturadora
de grande parte do que é feito em pesquisa na área até hoje. Entretanto, é possível
pensar nas possibilidades de reconfiguração e expansão do campo a partir de novas
conexões, por exemplo, com a Ciência da Computação e a Neurociência, com os
estudos da interação homem-máquina (IHM), ou ainda com a Filosofia da Tecnologia.

32
Além disso, o pensamento comunicacional do ambiente digital reforçou
iniciativas internas como a Media Ecology, oriunda da tradição dos estudos com ênfase
nos meios, anteriores inclusive ao advento da popularização dos computadores.

Cada definição de Comunicação está fundada numa metáfora. A


Comunicação já foi vista sucessivamente como canal, instrumento, flecha,
projétil, conflito, contrato, orquestra, espiral e rede. [...] Neste texto faremos
uma aposta muito clara pela metáfora do ecossistema, ou seja a Comunicação
entendida como um conjunto de intercâmbios, hibridações e mediações
dentro de um entorno onde confluem tecnologias, discursos e culturas
(SCOLARI, 2008, p.26)11.

A linhagem teórica estabelecida por McLuhan (2007), mais recentemente,


por Bolter e Grusin (2000) e ainda Scolari (2008), para citar apenas alguns, teve muitos
dos seus trabalhos revisitados diante das transformações contemporâneas e da
necessidade de não mais apenas serem alvos de constatação, mas sim de terem seus
desdobramentos e consequências múltiplas avaliados de forma científica.
Falando sobre as pesquisas ligadas à internet, Rogers (2013) estabelece uma
diferença fundamental entre objetos, conteúdos, equipamentos e ambientes nativamente
digitais e aqueles que foram digitalizados, ou seja, que, com outras origens, foram
portados ou migraram para o digital usando os termos de Vilches (2003).
Um jornal impresso pode ter seu conteúdo transposto12 para um site, como
também o áudio de um programa tradicional de rádio pode ser convertido para um
arquivo MP3 e acessado online na página da emissora na internet. Já um tweet é um
objeto originalmente criado em uma plataforma digital e apesar de poder ser facilmente
convertido para um meio material (com a impressão do seu texto em folha de papel, por
exemplo) não terá de início um equivalente analógico até que essa conversão
aconteça13.
Transpondo tal raciocínio ao trabalho de pesquisa, Rogers também separa os
métodos eminentemente digitais dos que ele denomina de virtuais, ou seja, que têm sua

11 Tradução do autor.
12 A ideia de transposição de conteúdos é explorada no webjornalismo por Mielniczuk (2001) e outros.
13 Apesar de ser um tópico que foge ao escopo deste texto, é importante observar que, apesar do processo
de digitalização ser aparentemente muito mais frequente e intenso nos dias de hoje do que o caminho
inverso, qualquer conteúdo midiático digital vai ser percebido pelo aparelho sensório humano através de
uma “desdigitalização”, ou seja, para ouvir o áudio mp3 os fones ou caixas de som terão que converter a
energia elétrica do circuito digital em energia sonora ou cinética, para que suas membranas de vibração
possam posteriormente estimular o tímpano humano, que, por sua vez, encaminhará as vibrações para
serem decodificadas no cérebro. Nesse caso, as conversões em formas energéticas diferentes vão tentar
preservar a ordem, a sintaxe interna da música ou mensagem sonora que está sendo transmitida, lidando
com os efeitos da redundância e entropia relativos a esse processo. Como um texto introdutório à
angulação no estudo de fenômenos passíveis de análise pela teoria da informação ver Epstein (1986).

33
origem em outros campos e têm sido adaptados para a internet e as redes sociais. A
netnografia ou etnografia virtual, os questionários aplicados via e-mail, as entrevistas
mediadas pelo computador e pelas redes são algumas das formas adaptadas, diferentes,
por exemplo, da mineração e raspagem de dados (data mining e scraping), do acesso
direto às APIs14 das plataformas de mídia social, da utilização de métricas com o Page
Rank15 ou de ferramentas como Open Refine16 para, respectivamente, coletar, classificar
e organizar dados. A proposta pretende “reorientar o campo da pesquisa relacionada
com a internet estudando e adaptando o que chamo de métodos do meio, ou talvez de
forma simplificada, métodos inseridos nos objetos digitais (ROGERS, 2013, E-
book)”17.
Assim, este capítulo é o recorte de um projeto que se propõe a: aprofundar a
compreensão dos problemas gerados pelo processo de digitalização; utilizar e aprimorar
ferramentas, técnicas e metodologias que considerem as características específicas dos
objetos digitais (o que detalharemos a seguir como uma ontologia específica); avaliar as
implicações do digital nas fases de coleta, análise e difusão de dados, de forma a
integrar um caminho teórico para avaliar esses problemas; que se constituiria em uma
epistemologia especializada para a Comunicação Digital.

Por uma epistemologia específica do digital

Vargas (1994), ao desenvolver seu pensamento sobre uma filosofia da


tecnologia, propõe a ideia de que em diferentes períodos da humanidade estabeleceu-se
uma conexão entre crenças, ciências e metafísica, esta última pensada na concepção de
Ortega y Gasset. Escreve Vargas (1994, p. 27), “pois que a metafísica é entendida por
Ortega como o tratado teórico sobre a raiz da realidade, sobre a qual os homens, em
cada cultura e em cada época, edificam seu mundo”.
Assim, com os gregos, a partir do questionamento fundamental sobre a
natureza das coisas e a crença de que por trás das aparências do mundo havia algo

14 Uma API – Application Programming Interface (Interface de Programação de Aplicações) é o


conjunto de rotinas, padrões e instruções de programação que permite que os desenvolvedores criem
aplicações que possam acessar e interagir com determinado serviço na internet, inclusive extraindo dados
dele.
15 PageRank é uma métrica ligada à Teoria de Redes que identifica centralidade ou importância a partir
das conexões entre os elementos da rede, sendo uma das estratégias utilizadas pelo Google para ranquear
resultados de busca.
16 Mais detalhes sobre a solução Open Refine em: <www.openrefine.org>.
17 [E-book]. Tradução do autor.

34
permanente, verdadeiro e eterno que eles denominavam de physis, surgem a metafísica
de Aristóteles, a physica e a matemática gregas, com a aritmética e a geometria.

Quando os objetos matemáticos puderam se estabelecer como objetos


racionais, revelou-se, através deles, a possibilidade de inteligir as ideias
platônicas ou as substâncias aristotélicas como entidades eternas, imutáveis e
permanentes, fontes de toda realidade lógica e inteligível. Assim o caminho
da ciência matemática conduziu, na Grécia, à Metafísica (VARGAS, 1994, p.
30).

Na Idade Média, a eternidade da physis natural é reconfigurada no ocidente


a partir da disseminação do cristianismo e da crença na divindade única, criadora do
mundo. Em Santo Agostinho, a busca da verdade e a busca por Deus tornam-se a
mesma coisa e, na teologia de São Tomás de Aquino, a razão e a fé andam juntas já que
a primeira vai sustentar e confirmar os enunciados da segunda, sendo a lógica, agora, a
ferramenta para essa tarefa.
Com o Renascimento e nos anos que se seguiram, mais uma vez uma grande
mudança aconteceu. A confiança ilimitada apenas na razão humana e na lógica como
formas de conhecimento do mundo e da verdade perderam força. A geografia, as
grandes viagens e a observação mais atenta dos fatos naturais começaram a expor
dúvidas e diferenças entre as antigas crenças e o que era encontrado através da
experimentação, não ainda formatada no sentido atual, mas já considerando a natureza
como uma instância capaz de fornecer aos interessados segredos e descobertas, mesmo
que ainda, através do poder da Igreja, esses fossem um reflexo da criação divina.
Com Galileu muda-se o critério de validação do conhecimento, que deixa de
ser feito pela fé e passa a ser resultado da comprovação experimental de algo que antes
era apenas conjectura racional. Mesmo sendo condenado em 1633 pelo Santo Ofício,
seu pensamento já representava a visão de um mundo natural concebido como uma
máquina em movimento. A metafísica de Descartes irá propor uma solução conciliatória
onde a experimentação nascente, a crença no Deus criador, a razão e a ética pudessem
coexistir.
As ideias de força, trabalho e energia trouxeram a metafísica de Leibniz e a
concepção de uma natureza destituída de alma, afastada de Deus e que, por ser inóspita
e hostil, precisaria ser dominada; ideias que Newton irá consolidar com sua Física,
dando início ao que entendemos hoje como ciência moderna.
Usando as palavras de Vargas (1994) poderíamos então pensar sobre a “raiz
da realidade” que os homens contemporâneos usam para edificar seu mundo? Em que

35
acreditam, como percebem o ambiente em que estão e que forças os movem nos dias de
hoje? Diante da enorme lista de possibilidades, talvez seja viável indicar que um mundo
hiperconectado, regido pelos velozes fluxos de informação que trafegam em redes
digitais, impactando ciência, economia, política, cultura, crenças e comportamento
humano, seria um dos itens da complexa metafísica do século XXI.
O conceito de sociedade informacional de Castells, de certa forma,
corrobora tal visão. “Uma revolução tecnológica concentrada nas tecnologias da
informação começou a remodelar a base material da sociedade em ritmo acelerado”.
(CASTELLS, 1999, p. 39).
Um aspecto interessante sobre essa linha de pensamento traduz-se no fato de
que a transformação material de que nos fala o autor está intimamente ligada ao advento
dos processos de digitalização, pelos quais grande parte da produção de sentido humana,
antes dependente dos suportes materiais para seu registro, torna-se agora uma enorme
massa de informação numérica, traduzida em sequências de 0 (zero) e 1 (um),
processadas de forma automatizada e, por muitas vezes, totalmente transparente ao
entendimento comum, fluindo ao nosso redor, sem que saibamos direito o que
realmente está acontecendo.
Seguindo a construção dessa metafísica do mundo digital contemporâneo é
necessário um esforço adicional para compreensão dos seus elementos constituintes, dos
entes que sustentam sua existência, bem como nas formas e métodos para que possamos
estudá-los e entendê-los. Ao digital caberiam, portanto, ainda que de forma restrita ou
especializada, uma ontologia e uma epistemologia capazes de ajudar-nos na descrição
do mundo que nos rodeia.
A utilização de uma abordagem ontológica para enfrentar problemas que
envolvem situações complexas é sugerida por Vieira (2008) quando afirma que

[...] a complexidade exige que possamos entender e modelar a interação entre


coisas e processos de natureza muitas vezes bem diversas, sob pena de não
captação do que há de fundamental nesses sistemas. É a Ontologia que pode
facilitar isso, com seu enfoque em busca do geral e do completo (VIEIRA,
2008, p. 25).

O próprio termo “ontologia” precisa ser aqui melhor explicado, mesmo que
de forma resumida e apontando mais especificamente para a aplicação que daremos a
ele neste texto.
A raiz “ont(o), do grego ón óntos, ser, ente, indivíduo, que se documenta em
vocábulos formados na linguagem científica internacional a partir do século XIX”

36
(CUNHA, 2007, p. 561) implica um interesse pela “exposição ordenada dos caracteres
fundamentais do ser que a experiência revela de modo repetido e constante”
(ABBAGNANO, 2007, p. 848).
Assim, Vieira afirma que “uma das vantagens da prática ontológica é que,
ao lidarmos com traços muito gerais das coisas, podemos utilizar os mesmos para fazer
comparações e conexões inter e transdisciplinares” (VIEIRA, 2008, p. 26).
O trabalho de Manovich (2001), no intuito de descrever as características
dos objetos digitais, dentro da discussão que trava sobre a dificuldade teórica em
delimitar novas e velhas mídias, parece-nos oferecer, ainda que o autor não use os
termos diretamente, uma proposta que nos aproximaria de uma ontologia dos entes
digitais.
Para Manovich (2001), os objetos digitais apresentam cinco traços ou
características que podem ou não estar presentes simultaneamente em sua existência, a
saber: descrição numérica, modularidade, automação, variabilidade e transcodificação.
A descrição numérica indica, como já citamos, que os objetos digitais
constituem-se no final das contas de sequências de números, podendo, por isso, sofrer
muitas das transformações que se aplicam a essa categoria, entre elas a possibilidade de
replicação idêntica, desde que a nova sequência mantenha a estrutura e a ordem original
da primeira. A transformação na indústria das gravadoras, definitivamente impactada
pelo consumo da música digital, é apenas um dos possíveis exemplos das consequências
da descrição numérica que poderíamos citar.
A modularidade nos termos de Manovich descreve os objetos digitais como
compostos de partes que podem ser arranjadas de diversas formas, sem que cada parte
ou módulo perca sua identidade original. Ao visitarmos a página de um site na internet
não estamos vendo a imagem de um único elemento completo, mas sim o resultado da
construção feita pelo browser18 a partir de diversas partículas de informação, os
pequenos arquivos enviados pelo servidor onde o site está hospedado. Esses são
agrupadas e estruturadas pela ordem descrita no código da programação HTML
(HiperText Markup Language) que define onde e de que jeito cada texto, foto, título,
vídeo, ou o que mais a página possua, vão estar.

18 Browser é uma categoria de software que age como um cliente de internet solicitando conteúdo aos
servidores da rede e organizando os elementos recebidos nas páginas que visitamos em nossa navegação
pela web.

37
A partir das duas primeiras características, as duas seguintes estabelecem-se
como consequências. Se podemos aplicar operações ou transformações matemáticas
sobre os objetos e recombiná-los em diversas configurações, porque são compostos de
forma modular, podemos também programar as ações e automatizar parte delas, para
que possam ser realizadas de forma transparente, sem que o usuário sequer perceba o
que está acontecendo. A automação permite que, ao apertar a tecla ENTER do
computador, uma grande quantidade de linhas de código de programação seja executada
e algo novo aconteça na tela, sem que seja necessário ser programador ou entender que
processos estão por trás dessa ação.
Para Manovich, as diversas possibilidades de combinação entre esses
elementos fazem com que eles também reajam de forma diferente a partir de contextos
ou situações distintas. A ideia de interatividade seria para o autor uma forma de
expressão da variabilidade dos objetos digitais, adaptáveis, programáveis e
recombináveis oferecendo aos usuários novas formas de contato e fruição. A não
linearidade das narrativas construídas a partir de hiperlinks ou a imersão que um game
oferece são bons exemplos do que o autor entende como variabilidade.
Por fim, a quinta característica será a que nos vai oferecer a base para dar
sequência ao tema que nos propomos abordar. Em termos simples, através do que ele
denomina de transcodificação, cada objeto digital é constituído de duas camadas ou
layers, uma utilizada para carregar o sentido a ser interpretado e processado pelos
humanos, a camada da representação, que nos oferece o material para que possamos
lidar com tal objeto. Entretanto, pela transcodificação existe ainda uma segunda
camada, que também descreve ou traz informações sobre o objeto, só que para o
processamento maquínico, automatizado, o layer dos dados estruturados que os
computadores entendem e que é usado para fazer esse objeto trafegar pelas redes
digitais.

38
Figura 2: Imagem do site do LABCOM/UFMA (www.labcomufma.com) com seu respectivo código
HTML aparente. Fonte: Do autor

Na imagem de uma página de um site na internet podemos identificar a


presença dessas duas camadas. Na parte de cima, temos a página como estamos
acostumados a ver e na parte de baixo, explicitamos parte do código HTML que a
descreve, a organiza e a constrói. Os dois layers de Manovich estão sempre presentes,
andam juntos e impactam um ao outro, influenciando-se mutuamente, mesmo quando
não os percebemos. Uma simples alteração no código fará com que a página apresente
de imediato um novo aspecto, como na característica da atualização constante que
atribuímos ao webjornalismo. No sentido inverso, a necessidade de inclusão de um
gráfico, para ilustrar melhor a matéria do mesmo site jornalístico, vai exigir uma nova
alteração do código para que possa suportá-lo.
Que impacto tal proposta ontológica teria quando a pesquisa envolve temas
e objetos que tenham vinculações diretas com o digital?
A resposta de Rogers (2013) indica que, mesmo portando métodos
tradicionais para o emprego em pesquisas ligadas ao digital, podemos, em algumas
situações, estar utilizando um ferramental inadequado, por não considerar os aspectos
específicos desses objetos, ou, ainda, poderíamos acrescentar, estar em condição
desconfortável para inferir ou avançar em conclusões mais sólidas, já que estamos
processando apenas parte da informação que nos é disponibilizada.
A ideia de métodos do meio, ou seja, métodos que exploram a lógica interna
inerente aos objetos digitais, ou nos termos que estamos propondo, que consideram sua
ontologia específica, permitem novas abordagens e formas mais eficientes de enfrentar
dificuldades implícitas em algumas temáticas contemporâneas.

39
Por exemplo, varredura e extração de dados, inteligência coletiva e
classificações baseadas em redes sociais, ainda que de diferentes gêneros e
espécies, são todas técnicas baseadas na internet para coleta e organização de
dados. Page Rank e algoritmos similares são meios de ordenação e
classificação. Nuvens de palavras e outras formas comuns de visualização
explicitam relevância e ressonância. Como poderíamos aprender com eles e
outros métodos online para reaplica-los? O propósito não seria tanto
contribuir para o refinamento e construção de um motor de buscas melhor,
uma tarefa que deve ser deixada para a Ciência da Computação e áreas afins.
Ao invés disso o propósito seria utiliza-los e entender como eles tratam
hiperlinks, hits, likes, tags, datestamps e outros objetos nativamente digitais.
Pensando nesses mecanismos e nos objetos com os quais eles conseguem
lidar, os métodos digitais, como uma prática de pesquisa, contribuem para o
desenvolvimento de uma metodologia do próprio meio (ROGERS, 2013, E-
book).19

A proposta de Rogers vai ao encontro do percurso que ora propomos


partindo de uma visão do mundo contemporâneo onde o digital apresenta uma
centralidade crescente, composto por entes com características específicas e, por isso,
demandando também uma adequação ou extensão metodológica capaz de colaborar com
pesquisas cujos objetos de alguma forma têm essa característica.
A necessidade de iniciativas nessa linha pode ser justificada também por
algumas condições verificáveis relacionadas à produção de informação a partir das
redes: volume, variedade, velocidade. Não à toa tais termos estão associados a outro
conceito contemporâneo, o de big data, que de forma simplificada poderia ser definido
como o conjunto de métodos, ferramentas e processos destinados a lidar com a
verdadeira enxurrada informacional com a qual nos deparamos hoje, tema que Gleick
(2013) descreve em uma perspectiva histórica e técnica.
Para o método científico um desafio adicional está ligado às estratégias de
amostragem. À medida que temos fenômenos que acontecem com grande velocidade,
variedade e volume, como os comentários no Twitter sobre determinado tema ou
evento, por exemplo, até que ponto poderemos estabelecer amostras demasiado
pequenas e ainda conseguir inferir algo com validade razoável?
É óbvio que cada pesquisa tem suas características particulares e em muitas
delas o trabalho com amostras reduzidas é plenamente viável. Entretanto, conforme o
universo de estudo se expande, em termos relativos, tais amostras representam
percentuais cada vez menores e, talvez, menos significativos.

19 Tradução do autor.

40
Segundo dados do Twitter amplamente repercutidos na mídia20, o debate no
SBT entre os candidatos à Presidência da República no segundo turno, que aconteceu
no dia 16 de outubro de 2014, teve mais de 550 mil publicações na plataforma e pico de
9.535 tweets por minuto (TPMs), quando, no final do programa, a candidata Dilma
Rousseff passou mal e foi ajudada por uma repórter.
Em uma situação assim, o que seria possível extrair da massa de conteúdo
com análises que considerassem 10, 100, 1.000 ou 10.000 tweets? E como fazer isso no
caso das amostras maiores?
São situações assim que exigem a incorporação de métodos que considerem
as características inerentes aos objetos digitais, entre elas a transcodificação nos termos
de Manovich. Como veremos a seguir, uma alternativa viável, para casos onde os dados
são gerados dentro de uma plataforma de mídias sociais como o Twitter, é o contato
direto com os servidores que a sustentam ou, em termos técnicos, a utilização da sua
API (Application Programming Interface) para realizar consultas e extração de
informação a partir do layer da máquina.

A curva epistêmica e seu deslocamento

A inclusão dos métodos digitais no ferramental disponível para o


pesquisador da Comunicação pode ajudar a enfrentar um problema que, com a situação
de volume, variedade e velocidade, foi agravado e tem sua representação sugerida
através do que denominamos aqui de curva epistêmica (artefato modelo).
O gráfico abaixo relaciona duas variáveis ligadas aos resultados advindos de
pesquisas científicas na área de Ciências Sociais: profundidade e inferenciabilidade ou
seja, a capacidade de fazer inferências a partir dos dados e análises que se têm (artefatos
constructos).
Ao operar com abordagens qualitativas, que dão ênfase ao layer do sentido e
da significação humana, é possível conseguir um elevado grau de profundidade e
especificidade já que o pesquisador tem contato direto com o nível dos indivíduos,
entrevistando-os, observando em profundidade seu comportamento e coletando, a partir
de suas opiniões e visão de mundo, os dados para análise.

20 <http://oglobo.globo.com/brasil/debate-entre-presidenciaveis-gera-mais-de-550-mil-tweets-
14280643>.

41
O contraponto dessa forma de pesquisa é justamente a dificuldade de
estabelecer padrões mais gerais. Em muitos casos, as estratégias de amostragem não são
probabilísticas e, por isso, oferecem potencial reduzido de gerar inferências.
Longe estamos aqui de fazer críticas a essa forma de pesquisa que em
muitas situações é amplamente justificável e até, em alguns casos, a única alternativa
viável. Mesmo assim, a restrição existe e nos ambientes digitais pode ser agravada,
gerando um distanciamento entre resultados e procedimentos científicos, levando às
vezes ao caminho de um questionável ensaismo, como exemplifica Machado (2012).
As abordagens quantitativas que utilizam procedimentos estatísticos e
estratégias de amostragem probabilísticas oferecem, ao contrário, maior potencial de
extração de inferências e suporte mais sólido à identificação de padrões e tendências
diante de universos maiores. Ao mesmo tempo, sofrem da falta de aprofundamento na
compreensão do nível individual tendo seus resultados criticados justamente por
reduzirem a complexidade humana a modelos extremamente simplórios.
De novo, cada pesquisa tem seus objetivos e para atingi-los percorre o
caminho que cada pesquisador considera mais viável e efetivo para alcançá-los.
Entretanto, considerando o ambiente digital e suas características, nossa proposta
epistemológica baseada em uma ontologia específica dos objetos estudados pretende
minimizar as consequências das duas abordagens expostas à medida que, com os
métodos digitais, pretende olhar para as duas camadas de que são constituídas,
extraindo dados de ambas, dentro do possível, e ainda considerando as inter-relações
que estabelecem entre si.

Gráfico 1: Deslocamento da curva epistêmica considerando os eixos da profundidade na apreensão dos


objetos de estudo em relação ao potencial de fazer inferências embasadas sobre eles. Fonte: Elaborado
pelo autor.

42
O deslocamento da curva epistêmica com a inclusão dos métodos digitais
que permitem a coleta de dados do layer da máquina oferece ao pesquisador a
possibilidade de operar com amostras maiores e ainda ter um potencial de
aprofundamento considerável. Um exemplo seria coletar grandes massas de tweets e
ainda poder analisar o conteúdo das mensagens através de ferramentas específicas como
o NLTK Natural Language Toolkit21.

Gráfico 2: Considerando os quadrados no segundo gráfico como o potencial de conhecimento a ser


extraído das pesquisas, é possível ver como o deslocamento da curva epistêmica, em tese, aumenta sua
área e, consequentemente, a qualidade de seus resultados que combinam profundidade e
inferenciabilidade em uma relação mais efetiva, minimizando sua proporcionalidade inversa. Fonte:
Elaborado pelo autor.

Se considerarmos, na figura acima da direita, que o ponto médio de cada


curva é a situação de equilíbrio entre nosso potencial de fazer inferências com
sustentação científica mantendo ainda um razoável nível de profundidade na percepção
dos objetos estudados, o deslocamento da curva epistêmica mostra-nos que o potencial
de geração de conhecimento com a adoção dos métodos digitais faz crescer, em tese,
essa possibilidade.

A nova caixa de ferramentas do pesquisador de Ciências Sociais

A diversidade de novas ferramentas hoje disponíveis ao pesquisador de


Ciências Sociais não poderia ser totalmente coberta neste texto. Por isso, decidimos
destacar algumas delas considerando sua abrangência e aplicabilidade. Como já foi dito

21 <http://www.nltk.org/>.

43
anteriormente, uma série de técnicas, como a mineração de dados, a extração direta de
informações a partir das APIs das plataformas de mídias sociais, o desenvolvimento de
códigos customizados para coleta e análise de material são apenas algumas
possibilidades.
Tais soluções oferecem uma espécie de escala de utilização como
representada no gráfico abaixo:

Gráfico 3: Representação da escala de utilização dos métodos digitais. Fonte: Elaborado pelo autor.

Tal escala vai da utilização de ferramentas e técnicas já existentes em sua


configuração padrão, em um nível inicial; com ajustes a fim de personalizá-las, para
atender nossas necessidades específicas, em nível médio; ou ainda, em um nível mais
alto, através da criação de soluções baseadas em programação e desenvolvimento de
código.
Na segunda pirâmide (Gráfico 3) exemplificamos a escala em uma situação
de coleta de dados que utiliza a busca do Google, inicialmente com sua interface
normal, depois a partir de uma solução com maior poder de personalização como os
alertas22 e, por fim, através de um código específico para coletar e armazenar esses
dados.
Desse modo, definimos métodos digitais (artefato constructo) como o
conjunto de ferramentas, processos e abordagens de pesquisa que consideram a
ontologia dos objetos digitais e as estruturas de redes por onde circulam, utilizando-se
de recursos computacionais intensivos para coleta e análise de dados.
É importante dizermos que a proposta dos métodos digitais não impede de
forma alguma sua adoção em parceria com outros procedimentos ou abordagens
tradicionais, sendo traduzida na maioria das vezes como um conjunto adicional de
recursos à disposição do pesquisador.

22 <https://www.google.com/alerts>.

44
Rogers (2013) lista algumas categorias ou questões que potencialmente são
objetos (classes de problemas) a serem abordados pelos métodos digitais. Entre eles
podemos citar:

• os links e as suas relações de conexão;


• os sites como arquivos;
• a lógica da busca como processo de pesquisa;
• as esferas formadas pelo conjunto de sites (web esfera), blogs
(blogosfera) e notícias (news esfera) e suas interconexões;
• estudos da internet nacional em questões como censura, limitações de
acesso e outras;
• cultura participativa e plataformas de mídias sociais como em Santos
(2013);
• questões gerais ligadas a situações de volume, velocidade e variedade
na produção ou circulação de informações, como na identificação de
padrões em grandes massas de dados como em Moretti (2007).

Em termos gerais, a abordagem que propomos para os métodos digitais


resume-se às seguintes etapas (artefato método):

Etapa 1 - Identificar a estrutura que contém os dados que precisamos. Algumas


possibilidades apresentam-se com mais frequência.

a) Bases de Dados que permitem consultas amigáveis via preenchimento de


formulários ou procedimentos simples. Exemplo: portais de transparência
governamentais onde é possível requisitar dados sobre determinado tema e
período.
b) APIs que exigem requisições estruturadas no formato que estabelecem, ou
seja, respeitando sua sintaxe própria. Exemplo: APIs do Twitter e do
Facebook que precisam ou de uma aplicação específica para solicitar
conteúdo, como os aplicativos que as acessam em nossos celulares, ou de um
código customizado que consiga estabelecer tal diálogo e coletar as
informações que a API entrega a partir de cada tipo de requisição.
c) Conteúdo disponível em páginas de internet que podem ser extraídos
diretamente via técnicas de scraping (raspagem de dados). Como textos de
matérias em portais jornalísticos ou tabelas e informações gerais publicadas,
tais como previsão do tempo, cotação do dólar e resultados de competições
esportivas.
d) Informações protegidas em ambientes fechados, acessadas apenas por
usuários cadastrados e que contam com mecanismos de proteção como
encriptação de dados e outros. Tais ambientes eventualmente podem ser
acessados por técnicas de hacking que estão além do escopo deste livro.

45
Etapa 2 – Formatar a consulta ou requisição de dados alinhada ao tipo de repositório
onde eles se encontram de acordo com as opções acima.
Etapa 3 – Analisar os dados coletados a partir do processamento possível partindo do
que foi efetivamente conseguido. Nesta fase, dificilmente encontramos as informações
organizadas do jeito ideal e ferramentas como o Open Refine e outras semelhantes
podem nos ajudar na “limpeza” e organização da massa bruta que recebemos para
transformá-la em algo efetivamente útil para responder às nossas questões de pesquisa.

O caminho proposto pelos métodos digitais, portanto, baseia-se na


compreensão da ontologia dos entes constituídos a partir da lógica binária e de suas
formas estruturais, considerando também as modalidades específicas de troca de
informações que são capazes de realizar. Tal visão constitui-se, ao nosso modo de ver,
em uma perspectiva que considera uma espécie de materialidade da qual já falamos
anteriormente, onde há pouco espaço para a interpretação eminentemente subjetiva, que
caracteriza o olhar direcionado apenas para uma parte das relações que tal objeto pode
estabelecer.

Ferramentas de uso geral


Além dos casos de customização de ferramentas que descreveremos a
seguir, de forma resumida, trataremos, a título de exemplo, de duas metodologias mais
estruturadas, que não têm seu uso exclusivamente nas Ciências Sociais, mas que têm
sido utilizadas por alguns pesquisadores da Comunicação na tentativa de enfrentar
novas questões de pesquisa ligadas ao ambiente digital. São elas a análise de redes
sociais (ARS) e a modelagem baseada em agentes (MBA), também conhecida por ABM
do inglês – agent based modeling.

ARS - Análise de Redes Sociais (Social Network Analisys)


Segundo Barabási (2009), Leonhard Euler, matemático suíço, foi um dos
precursores do que hoje chamamos de Teoria das Redes. Ao resolver o problema das
pontes de Königsberg que desafiava as pessoas a descobrir se era possível achar uma
rota onde só se passasse apenas uma vez por todas elas, Euler transformou o desenho
das pontes em uma representação feita apenas por pontos (nós) e ligações (edges) entre
eles e criou o que hoje chamamos de grafo, ou seja, a representação visual de uma rede.

46
Figura 3: Representação das pontes de Königsberg e o grafo de Euler simplificando o desenho. Fonte:
Barabási (2009).

Em tese, um conceito bastante aceito é de que uma rede é qualquer conjunto


de elementos no qual alguns deles estão conectados em pares através de links
(EASLEY; KLEINBERG, 2010) ou de forma mais simples, uma coleção de pontos
unidos em pares por linhas (NEWMAN, 2010).
É justamente tal definição tão geral que permite aplicar o conhecimento que
vem se desenvolvendo sobre redes a fenômenos diversos como cadeias alimentares,
rotas de companhias aéreas, neurônios ou o mercado de ações global.
A internet é o exemplo mais famoso das redes e o fato desse ambiente ser o
principal suporte para a comunicação digital do mundo contemporâneo indica que
podemos usar grafos23 e a abordagem de redes para estudá-la sendo, por exemplo, no
caso das plataformas de redes sociais24, as pessoas que constituem a rede, seus nós,
nodos ou vértices e as relações que estabelecem entre si, as conexões, links ou edges.

O padrão de conexões de um dado sistema pode ser representado como uma


rede, os componentes do sistema sendo os nós e as conexões as ligações entre
eles. Pensando assim não seria surpresa (apesar de que em alguns campos
essa percepção é recente) a estrutura dessas redes, seu padrão característico
de interações, ter um grande efeito sobre o comportamento do sistema. As
conexões em uma rede social afetam como as pessoas aprendem, formam
opiniões, se informam, como também afetam outros fenômenos menos
óbvios como a disseminação de doenças. (NEWMAN, 2010, p. 2)

A essência da metodologia ARS baseia-se na presunção de que a estrutura


das conexões de uma rede interfere no comportamento do sistema formado pelos
elementos que a compõem. Esse olhar específico diferencia de forma clara os estudos
utilizando tal abordagem.

23
Grafos são representações visuais das redes que mostram seus nós e conexões.
24 Plataformas de mídias sociais são “ferramentas online que dão suporte à interação social entre
usuários.” (Tradução do autor). (HANSEN, SHNEIDERMAN, SMITH, 2011, p.30).

47
Nas Ciências Sociais, em muitos trabalhos, assume-se que as pessoas agem
e tomam decisões de forma individualística, sem observar o comportamento de outros
atores, considerando basicamente seus atributos pessoais e não os diversos contextos de
interação em que estamos inseridos.
Na ARS, ao contrário, é destacado o aspecto da influência recíproca entre os
atores que estão conectados por algum tipo de relação para que se possa entender o
comportamento de cada um. “Central para a agenda teórica e metodológica da ARS é
identificar, medir e testar hipóteses sobre as formas de estruturação e conteúdo das
relações entre atores” (KNOKE; YANG, 2008, p. 4)
Muitos autores concordam que o trabalho do psiquiatra Jacob Moreno,
considerado o fundador do campo denominado Sociometria, foi fundamental para o
desenvolvimento da ARS. Segundo Prell (2012), utilizando grafos que chamava de
sociogramas, Moreno começou a fazer o mapeamento de relações sociais simples nos
anos 30, trabalho que ele consolidou cerca de 20 anos depois em seu livro “Who Shall
Survive” de 1954.
Apesar de seus esforços, o fato de realizar toda a construção dos
sociogramas, bem como sua análise, sem qualquer recurso computacional, limitou
muito a aplicação das ideias de Moreno e sua linha de trabalho no período inicial. Foi
com a chegada dos computadores que a ARS reemergiu nos anos 60 e 70, nos padrões
que conhecemos hoje, a partir do desenvolvimento de pesquisadores ligados ao
departamento de Sociologia de Harvard que estabeleceram os conceitos iniciais da
metodologia bem como suas métricas de análise.

Figura 4: Exemplo de visualização de rede social gerada pela ferramenta NodeXL25. Fonte: Elaborado
pelo autor.

25 Ver mais em: <http://nodexl.codeplex.com/>.

48
MBA – Modelagem Baseada em Agentes (Agent-Based Modeling)

“Formalmente, modelagem baseada em agentes é um método computacional


que permite ao pesquisador criar, analisar e experimentar modelos que são compostos
por agentes que interagem em um ambiente” (GILBERT, 2008, p. 2).
Existem duas modalidades básicas de pesquisa social.
Na primeira, coletamos informações, entre outras formas, através de
entrevistas, observação ou utilização de dados secundários e, a partir delas, conduzimos
nossas análises, tentando compreender o que estamos estudando e, eventualmente,
construindo uma explicação com maior ou menor generalidade sobre nosso objeto,
resultando talvez em novos conceitos ou teorias.
Na segunda, partimos de algum conhecimento teórico sobre nosso
problema, construímos um modelo e, com ele, simulamos a dinâmica social que
pretendemos analisar utilizando os resultados encontrados, entre outras finalidades, para
validar as premissas teóricas que usamos no início do processo ou reformatá-las com
base no que achamos. A modelagem baseada em agentes (MBA) segue este último
caminho.
Poderíamos dizer que MBA é um método de simulação computacional que a
partir de ferramentas específicas permite a modelagem de um mundo, um microcosmo,
que tenta representar o sistema social que pretendemos estudar, povoado por
representantes dos atores sociais que nos interessam, os agentes.
Uma das principais vantagens dessa metodologia está relacionada às
dificuldades já reconhecidas na execução de experimentos científicos envolvendo
pessoas ou sistemas sociais. A complexidade envolvida no objeto humano põe em risco
os resultados de muitas iniciativas que simplesmente não conseguem conduzir seus
procedimentos dentro de parâmetros considerados rigorosos o suficiente para dar
validade e força às inferências e resultados encontrados.
Isso sem falar nas questões éticas, no tempo para conseguir autorização dos
conselhos dedicados a avaliar propostas de pesquisa envolvendo pessoas e nas
dificuldades intrínsecas de controle sobre um experimento onde a complexidade e a
subjetividade são fatores preponderantes.
A ideia de modelo também deve ser aqui melhor entendida.
A ciência social computacional, que se desenvolveu a partir dos anos 90
com mais intensidade, tem se utilizado do procedimento de construir modelos,

49
representações simplificadas dos sistemas sociais a estudar, para com eles explorar de
forma mais eficiente sua complexidade e processos internos.
É preciso inicialmente afirmar que tal processo de modelagem implica em
uma simplificação do complexo objeto proposto, o que, mesmo assim, não deixa de
oferecer possibilidades de análise do problema; e tal procedimento não se trata de uma
exceção.

A conquista conceitual da realidade começa, o que parece paradoxal, por


idealizações. Extraem-se os traços comuns de indivíduos ostensivamente
diferentes, agrupando-os em espécies (classes de equivalência). Fala-se assim
do cobre e do homo sapiens. É o nascimento do objeto-modelo ou modelo
conceitual de uma coisa ou de um fato. [...] E se um dado modelo não oferece
todos os detalhes que interessam, poder-se-á em princípio complicá-lo. A
formação de cada modelo começa por simplificações, mas a sucessão
histórica dos modelos é um progresso de complexidade. (BUNGE, 2008, p.
14)

Um dos melhores exemplos de modelo seria o mapa rodoviário que, apesar


de não ser uma espécie de fotografia reduzida da área real que representa, tem sua
utilidade, mesmo a partir das severas simplificações que impõe às estradas, cidades e
regiões.
O uso de modelos em Ciências Sociais é anterior aos computadores, mas foi
com a chegada dos grandes lotes de dados das ações governamentais, como os censos,
bem como a exponencial produção de informações gerada pela internet e, mais
recentemente, as plataformas de mídias sociais, que a modelagem com base
computacional começou a ganhar relevância entre as possibilidades metodológicas a
disposição dos pesquisadores.

Experimentos de Customização de Código (Artefato Instanciação)

A seguir descreveremos de forma reduzida três trabalhos de pesquisa por


nós desenvolvidos onde a ideia de métodos digitais foi utilizada em sua escala de
aplicação mais intensa para operacionalizar ou complementar as etapas de coleta e
análise de dados. Esses experimentos são mais detalhados na parte 3 do livro.

1) Avaliando uma métrica de intensidade

Tópico: Plataformas de Redes Sociais e conexão com suas APIs para coleta de dados
em grande volume

50
O trabalho tinha por objetivo avaliar a hipótese da plataforma Twitter ser
considerada um sistema de produção de notícias, em que usuários se comportariam
como produtores de conteúdo e audiência, constituindo uma rede onde informação e
atenção trafegam simultaneamente a partir das relações de interesse e filiação criadas
pelas categorias de seguidos e seguidores. Para isso, decidiu-se buscar no sistema algo
que fosse semelhante aos clássicos conceitos de valores-notícia ou critérios de
noticiabilidade. O experimento modelado fez medições da métrica tweets por minuto
(TPM) considerada como uma variável capaz de representar o interesse dos emissores
por determinados fatos ou temáticas e, daí, motivá-los a escrever sobre eles, como
jornalistas que consideram tais critérios também de forma intuitiva para decidir o que
vão publicar. Foi desenvolvido um código em linguagem Python, denominado Social
Tracker (ST), para coletar e analisar posts durante a transmissão do desfile das escolas
de samba do Carnaval do Rio de Janeiro de 2013 e verificar a variação dos TPMs de
acordo com o que estava acontecendo na transmissão. Mais detalhes em Santos (2013).

Figura 5: Imagem da resposta da API do Twitter recuperada por ST. Fonte: Santos (2013)

2) Software pode escrever textos jornalísticos?

Tópico: Inteligência artificial e simulação

O experimento propôs-se a testar de forma prática a possibilidade já


levantada por Lage (1997) e expandida por Arce (2009), sobre a produção de textos
jornalísticos através de processos automatizados, ambos, entretanto, trabalhos

51
eminentemente teóricos. Tal procedimento que já é praticado por pelo menos duas
empresas americanas de inteligência artificial (Narrative Science e Automated Insights)
serviu de base para o desenvolvimento de um protótipo simplificado de código capaz de
escrever leads sobre os resultados do Campeonato Brasileiro de Futebol da Série A de
2013 a partir da extração automatizada dos dados sobre os resultados dos jogos
publicados no portal Terra. A ferramenta extraia apenas os gols das partidas e utilizava
as regras do próprio campeonato para inferir outras informações sobre a situação dos
times e, a partir da concatenação de listas de palavras, escrever pequenos textos para
publicação, como demonstrado em Santos (2014).

Figura 6: Tela do software com o lead construído a partir das informações lidas sobre o campeonato em
determinada rodada. Fonte: Santos (2014)

3) Extraindo dados da base de arquivos Internet Archive

Tópico: Sites como arquivo e raspagem de dados via código

A pesquisa de caráter aplicado desenvolveu solução de código para coletar


informações de forma automatizada em arquivos digitais estruturados em bases de
dados acessíveis pela internet, para utilização por pesquisadores de história da mídia e
de outras áreas. Explora-se, assim, a possibilidade de automação parcial da coleta, a
partir da aplicação de ferramentas de código customizado, construídas em linguagem de
programação Python, que utilizam a sintaxe específica do HTML (HiperText Markup

52
Language) para localizar e extrair elementos de interesse como links e imagens. A
coleta automatizada de dados, também conhecida como raspagem (scraping) ou
mineração, é um recurso cada vez mais comum no jornalismo investigativo e pode, no
caso do trabalho acadêmico, ser utilizada tanto para a execução de rotinas repetitivas,
permitindo ao pesquisador mais tempo para as tarefas de maior complexidade, como
para identificar padrões e tendências em grandes volumes de informação que, em
algumas situações, podem passar despercebidos no processo exclusivamente manual.
Nosso experimento inicial acessava o site conhecido como WaybackMachine ou
Internet Archive26 que se constitui de uma biblioteca digital de sites de internet.
Atualmente, já é possível acessar as versões das páginas iniciais arquivadas no
repositório e, a partir delas, analisar a evolução das versões, a intensidade e regularidade
das alterações e também as palavras ou termos mais utilizados ao longo do tempo.

Figura 7: Tela do Internet Archive com a marcação das versões arquivadas (399 entre 1997 e 2014) do
site da UFMA em suas respectivas datas no ano de 2007 que podem ser extraídas via código. Fonte:
Internet Archive (2014)

26 <https://archive.org/>.

53
Figura 8: Print do arquivo com a lista de links extraídos automaticamente para as páginas arquivadas.
Fonte: Elaborado pelo autor.

A proposta dos métodos digitais e suas diversas modalidades de aplicação,


longe de estabelecer um conflito com as formas tradicionais utilizadas no desenho de
pesquisas da Comunicação, em nosso entendimento, vêm acrescentar ao conjunto de
recursos disponíveis novas ferramentas capazes de traduzir as especificidades dos
objetos que se constituem a partir da lógica binária e que em profusão povoam as redes
telemáticas contemporâneas.
A disposição de estudá-los, considerando suas características específicas,
principalmente no que se refere ao seu potencial de carregar não só o sentido para a
interpretação humana, mas também as instruções e a sintaxe entendidas pelas máquinas,
pode abrir oportunidades para o desenvolvimento da pesquisa em nossa área, integrando
novas angulações e abordagens às já existentes.
O deslocamento da curva epistêmica que propomos no texto representa uma
direção geral, aplicável dentro do possível, e talvez capaz de oferecer um eixo mais
sólido a muitas discussões que hoje ainda carecem da objetividade e rigor que se
esperam do trabalho denominado científico.
A presença dos objetos digitais no mundo pode estar constituindo a
anomalia a qual assinala Kuhn (2009), potencialmente capaz de gerar uma ampla

54
revisão dos métodos e pressupostos teóricos em que nos baseamos hoje para executar o
nosso trabalho. Não necessariamente destruindo o que se tem, mas permitindo que
novas espécies epistêmicas, híbridas ou totalmente novas, também possam surgir e
prosperar.

55
CAPÍTULO 3

NOTAS SOBRE UMA TEORIA GERAL DA COMUNICAÇÃO


INTERCONECTADA

Se a complexidade do mundo se traduz de certa forma por uma percepção


de interconectividade cada vez maior, ou seja, a sensação de que as partes influenciam-
se gerando situações novas na compreensão que temos do todo; ao pensarmos na
comunicação digital contemporânea, esse quadro torna-se ainda mais óbvio, indicando
que a escolha de uma abordagem sistêmica ou baseada na Teoria dos Sistemas merece
ser considerada.
Precisamos antes, então, definir o que entendemos por sistemas.
Discutindo a questão da “direção do tempo”, Uyemov afirma que “a
definição usual de sistema como uma conjunção de elementos que são mutuamente
efetivos e mutuamente conectados é relativamente limitada apesar do fato de ser
normalmente reconhecida” (UYEMOV, 1975, p. 96) e para tanto propõe uma definição
axiomática. Ele escreve:

Permita-nos agora definir a noção de sistema como uma coleção de


elementos (m) na qual a relação (R) é percebida a partir de uma propriedade
previamente definida (P). A fórmula é a seguinte: (m) S = đƒ [ R (m) ] P.
(UYEMOV, 1975, p.96).

Vieira nos esclarece indicando, a partir da fórmula de Uyemov, que

[...] um agregado (m) de coisas (qualquer que seja a sua natureza) será um
sistema S quando por definição existir um conjunto de relações R entre os
elementos do agregado de tal forma que venham a partilhar propriedades P.
A vantagem dessa definição é que nos permite uma leitura direta da noção de
sistema a partir de um de seus parâmetros mais simples, a ideia de
composição, como expressa pela notação (m), o agregado que formará o
sistema. (VIEIRA, 2008, p.29)

A partir de uma visão sistêmica, propomos que a Comunicação (C) é o


conjunto de relações (R) que é inerente a qualquer agregado social humano, sendo,
portanto, um traço característico e definidor do mesmo.
Com o advento dos processos e sistemas digitais, o universo inicial foi
expandido, incluindo novas classes de emissores e receptores, entre elas máquinas,
circuitos, ou, de forma mais geral, o que denominamos hoje de internet das coisas (IoT).
Considerando alguns pressupostos da Ecologia dos Meios (SCOLARI,
2008), o ecossistema comunicacional, antes basicamente humano, evoluiu para um
estado mais complexo caracterizado pelo aumento do número de conexões entre os seus

56
elementos, bem como a integração de entes digitais compartilhando e interferindo na
massa de informação movimentada em seu funcionamento.

A abordagem sistêmica da Teoria das Redes

O gráfico abaixo de autoria do pesquisador Cesar Hidalgo publicado no


Blog do MIT Media Lab sugere que o aumento da quantidade de informação no mundo
implica em uma necessidade também crescente de conexões entre as pessoas e grupos
de pessoas, para que seja possível continuar achando soluções e resolvendo problemas
coletivos cada vez mais complexos.

Figura 9: The structure of a society is connected to its total amount of information. Fonte: Mit Media Lab
(2011).

A ideia de que a estrutura da sociedade está ligada à quantidade de


informação disponível sugere que novas formas de associação (conexões e
comunidades) serão cada vez mais uma tendência, principalmente se considerarmos o
suporte que as tecnologias de informação e comunicação tem oferecido a esse fim.
A partir da possibilidade de múltiplas conexões comunicacionais, em um
modelo normalmente descrito como de “muitos para muitos”, emergem novas
configurações e efeitos resultantes desse processo que, ao nosso modo de ver,

57
necessitam também de quadros teóricos interdisciplinares para que possam ser avaliados
de forma mais abrangente.
Uma das possiblidades teóricas disponíveis para enfrentar tais questões é a
Teoria das Redes embasada pelo que hoje chamamos de Teoria dos Sistemas
Complexos ou da Complexidade.
Uma definição tornou-se popular para traduzir o tema da complexidade: o
todo é diferente da soma das partes. A definição de Mitchell (2009) organiza o conceito
propondo que um sistema complexo é aquele em que

[...] um número grande de componentes conectados sem um controle central


e simples regras de operação faz emergir um comportamento coletivo
complexo, sofisticado processamento de informações e adaptação, via
aprendizado ou evolução (MITCHELL, 2009, p.13).

Na modelagem do problema proposto aqui consideramos o ambiente de


comunicação digital como um sistema formado por pessoas, grupos e coisas que
interagem de múltiplas formas e onde se observa a emergência de vários estados ou
saídas do sistema (como, por exemplo, o engajamento ou aumento na participação em
questões cívicas ou políticas). Partimos da premissa de que, entre outras variáveis
possíveis de análise, podemos avaliar como a estrutura das conexões da rede interfere
no comportamento do sistema (NEWMAN, 2010).
Neste trabalho, propomos três fatores que potencializam os efeitos da
estrutura em rede do ambiente digital sobre os comportamentos emergentes do sistema
em questão, são: as condições de hiperconectividade, a possibilidade de difusão
acelerada de inovações e os processos de desintermediação e reintermediação a partir
dos novos atores sociais presentes na esfera pública digital.

Hiperconectividade

Como descreve Barabási (2009), a ideia de que estamos próximos uns dos
outros mais do que imaginamos surgiu pela primeira vez em um conto do húngaro
Frigyes Karinthy, chamado Láncszemek (Correntes), publicado em 1929. Décadas
depois, em 1967, Stanley Milgram, professor de Harvard, realizou um experimento,
hoje clássico, com o objetivo de descobrir a “distância” entre duas pessoas quaisquer
nos Estados Unidos.

58
A questão balizadora do experimento era: quantos conhecidos são
necessários para conectar dois indivíduos selecionados ao acaso? Como
ponto de partida ele escolheu duas pessoas-alvo, a esposa de um estudante
graduado em teologia em Sharon, Massachusetts, e um corretor de ações em
Boston. Escolheu Wichita, em Kansas, e Omaha, em Nebraska, como pontos
de partida para o estudo [...]. O experimento de Milgram envolveu a remessa
de cartas a moradores aleatoriamente selecionados de Wichita e Omaha
pedindo-lhes que participassem de um estudo sobre o contato social na
sociedade americana (BARABÁSI, 2009, p. 25).

Pedindo às pessoas através das cartas que, se não conhecessem os


destinatários, tentassem enviar para alguém que considerassem mais próximos a eles,
Milgram chegou ao número de 5,5 pessoas necessárias para chegar ao destino proposto.
O pesquisador então arredondou o resultado para seis criando o tema que em 1991
viraria a peça teatral de John Guare chamada “Seis Graus de Separação” e,
posteriormente, o filme hollywoodiano com o mesmo título (Milgram nunca usou esse
termo no seu experimento) estrelado pelo ator Will Smith.

Stanley Milgram nos conscientizou de que não apenas estamos conectados,


mas também que vivemos em um mundo no qual ninguém está mais do que a
alguns poucos apertos de mão de qualquer outra pessoa. Em outras palavras
vivemos em um mundo pequeno (small word). Nosso mundo é pequeno
porque a sociedade é uma rede bastante densa (BARABÁSI, 2009, p. 27).

O próprio Barabási conduziu um experimento semelhante, desta vez


tentando avaliar a distância média entre duas páginas quaisquer na internet, um sistema
com bilhões de elementos. Chegou ao resultado de 19 graus de separação, indicando um
nível de proximidade semelhante se considerarmos o tamanho do universo que avaliou.
Pensando hoje nas redes sociais, nas plataformas que permitem e facilitam o
contato entre indivíduos que nem sempre são amigos ou mesmo conhecidos, é fácil
perceber como esses ambientes digitais podem potencializar as conexões e
eventualmente diminuir os graus de separação dos experimentos citados acima.
É importante ressaltarmos o papel dos mecanismos automatizados de busca
e seleção de pessoas que compartilham interesses ou amigos comuns. Em plataformas
como o Facebook e o Twitter tais mecanismos estão presentes e potencializam o
crescimento das redes pessoais bem como a quantidade de usuários das plataformas
(métricas importantes para o modelo de negócio dessas empresas) a um ritmo intenso e
em curtos períodos de tempo. Em fevereiro de 2012, o Facebook já tinha mais de 845
milhões de usuários ativos. Destes, cerca de 40 milhões eram brasileiros. Hoje o número
mundial de usuários passa de um bilhão e meio de pessoas representando um
crescimento vertiginoso da rede.

59
Voltando à nossa abordagem sistêmica, tratamos, portanto, de um sistema
que cresce exponencialmente aumentando a conectividade entre seus membros de forma
rápida, o que, pelo menos em tese, utilizando o exemplo dos recentes eventos de
manifestações nas ruas do país, poderia ser útil em qualquer tentativa de coordenação
para uma ação cívica ou política.
O contraponto da hiperconectividade pode estar em estudos como o de
Dunbar (1993) que propõe uma relação entre o tamanho do neocórtex cerebral e o limite
de relações sociais gerenciáveis por um indivíduo em um dado momento. Dunbar
sugere que o limite humano está em torno de 150 pessoas com quem poderíamos nos
relacionar socialmente.
Além disso, em um estudo da própria equipe do Facebook, divulgado por
Marlow (2009), fica claro que as relações entre membros são diferentes e podem ser
classificadas a partir do grau de intensidade, visualizado como abaixo pelos seus
padrões de comunicação. O número médio de conexões de um usuário do Facebook é
de 120 a 130, próximo ao limite de Dunbar.
Os grafos abaixo representam a mesma rede de um usuário do Facebook,
que vai sendo filtrada a partir da rede inicial que mostra todos os “amigos” listados em
seu perfil. Os grafos seguintes mostram apenas as pessoas com quem realmente esse
usuário mantém relações, as com quem se comunicou e, por fim, os diálogos, em que
houve mensagens e respostas.

Figura 10: Níveis de Comunicação entre os amigos de um usuário do Facebook.


Fonte: Overstated (2009)

60
Mayfield (2005) também sugere que as redes sociais sobrepõem-se
formando um ecossistema em camadas. A partir dos seus vínculos mais próximos
teríamos o que o autor denomina de rede de colaboração, com escala média de menos de
vinte pessoas. Daí, temos o nível do que ele chama de rede social, formada com número
médio de 150 indivíduos que se comunicam e que dão escala ao fluxo de informações.
Além dela, está a que ele define como rede política, formada a partir de todos os
desdobramentos das duas anteriores, com escala na faixa do(s) milhar(es), constituídos
por todos os que terão conhecimento do conteúdo publicado ou disponibilizado pelos
atores sociais das redes anteriores.27

Difusão acelerada

O engajamento em uma atividade política, mantendo o exemplo que temos


utilizado, pode ser tratado através dos modelos de difusão em ambientes conectados,
partindo da premissa de que a participação pode ser considerada como uma escolha
entre aderir ou não a uma inovação (a ação coletiva ou cívica). Os modelos acadêmicos
de difusão descrevem processos onde ideias, comportamentos, piadas, novos produtos e
inclusive doenças espalham-se através de uma população.
Segundo Rogers (2003) ou ainda Mahajan e Peterson (1985), em um
processo de difusão de uma inovação existem quatro elementos fundamentais: a
inovação, os canais de comunicação, o tempo e o sistema social. Rogers define difusão
como “o processo em que uma inovação é comunicada através de certos canais ao longo
do tempo para membros de um sistema social.” (ROGERS, 2003, p. 5).
A presença dos virais da internet, conteúdos que se espalham com grande
velocidade (inclusive sendo usados como estratégia de marketing) e o uso de
plataformas sociais que favorecem o imediatismo das postagens, como o Twitter, podem
colaborar para a difusão de ações de diversas ordens.
Como inovação, retornaremos a Rogers em seu trabalho clássico sobre o
tema quando define o termo como “uma ideia, prática ou objeto que é percebido como
novo por um indivíduo ou outra unidade de adoção.” (ROGERS, 2003, p. 11).

27 A lista de discussão e o Grupo Beatrice (http://grupobeatrice.blogspot.com.br/) são um exemplo de um


blog que se alimenta de dezenas de outras listas formando um ecossistema de redes e atores sociais que
compartilham conteúdo.

61
É importante ressaltarmos o termo “percebido”. Se a inovação é realmente
nova ou não, em termos do tempo que transcorreu entre o seu primeiro uso ou
descoberta, para Rogers, não tem tanta relevância como a percepção que o indivíduo
tem sobre o fato. Se a ideia parece nova para quem toma ciência dela (mesmo não
sendo), será uma inovação.
Se pensarmos, por exemplo, em um tipo de mensagem digital, o conteúdo
viral, como uma “novidade” que flui pela rede como uma espécie de inovação que as
pessoas escolhem ou não adotar, ou seja, passar adiante, será possível aplicar certos
modelos de difusão a esse objeto.

Figura 11: Modelo simples de contágio em Rede.

Acima, é possível visualizar a dinâmica de uma rede simples onde existe a


transmissão de algo que se espalha ao longo dos nós da rede. O modelo é baseado em
estudos sobre a disseminação de epidemias entre redes sociais em ambientes reais.
Desde o trabalho de Ryan e Gross (1943), os adotantes de uma inovação
foram divididos em categorias que refletem a dinâmica de propagação da mesma na
rede social. Rogers os define como inovadores, adotantes imediatos, maioria imediata,
maioria posterior e retardatários. O autor propõe que a maioria das inovações tem sua
velocidade de adoção representada por uma curva com formato de S como abaixo.

62
Figura 12: Gráfico S proposto por Ryan e Gross (1943) e sintetizado por Rogers (1995).

Entretanto, se a descrição acima é passível de ser aplicada ao uso de novos


produtos, como o caso estudado em 1943, é preciso lembrar que ações coletivas exigem
não só adoção, mas também algum mecanismo de coordenação entre as partes, que
também não são necessariamente iguais, como veremos abaixo.
De qualquer forma, a estrutura da rede, as tecnologias de informação e
comunicação e a chance de viralização de conteúdos podem ser consideradas fatores
indutores de uma conexão entre o ambiente digital e a possiblidade do surgimento de
efeitos coletivos, como no caso do engajamento político, bem como de qualquer outra
reação sistêmica ou coletiva no ecossistema comunicacional contemporâneo.

Desintermediação e Reintermediação

No seu livro a “A riqueza das nações” de 1776, Adam Smith tratando do


que chamou de “a mão invisível do mercado” falou pela primeira vez do tema da
complexidade, mesmo sem descrever o assunto nesses termos.
A ideia de que uma espécie de ordem emerge do sistema formado pelos
elementos que hoje comumente chamamos de “mercado”, a partir das ações de
compradores e vendedores sem, entretanto, estar ligada à vontade individual de nenhum
dos seus elementos constituintes, reforça a definição básica já descrita acima de que a
soma das partes é maior do que o todo.
Séculos depois Benkler (2006) fala-nos de outra riqueza, a das redes, e de
seu potencial de engendrar novas formas de ordenamento social e econômico baseado
no ambiente digital.

63
Essas novas práticas emergentes tem possibilitado um enorme sucesso em
áreas tão diversas como o desenvolvimento de software e reportagens
investigativas, vídeos de vanguarda e jogos online para vários jogadores.
Juntos elas sugerem a emergência de um novo ambiente informacional, onde
os indivíduos são livres para assumir um papel mais ativo do que era possível
na economia da informação industrial do século vinte. Essa nova liberdade
traz grandes possibilidades: como dimensão da liberdade individual, como
plataforma para melhor participação democrática, como meio para forjar uma
cultura mais crítica e uma crescente economia dependente da informação,
como um mecanismo para permitir avanços no desenvolvimento humano em
todo lugar (BENKLER, 2006, p.14).

Para Benkler (2006), um cenário com novas formas de participação, criadas


a partir do compartilhamento e da ação coletiva de grupos, não mais baseados em
hierarquias rígidas ou interesses comerciais, começou a emergir. Como exemplos reais,
cita o desenvolvimento do sistema operacional de computadores LINUX, a partir de
uma comunidade de programadores que defendem o software livre e sites como a
Wikipédia, bem como muitas outras iniciativas do que hoje chamamos de Web 2.0, um
paradigma que orienta sites ou plataformas online que enfatizam a interação e a
colaboração dos usuários28.
No jornalismo, trabalhos como o de Machado (2003), Mielniczuk (2001),
Primo e Träsel (2006), Barbosa (2005) e Recuero (2005) também identificaram uma
forte alteração nos processos de produção jornalística a partir do cenário digital onde
computadores, redes e bancos de dados têm permitido:

a) a produção de conteúdo pelos usuários, antigos leitores;


b) um maior equilíbrio entre fontes oficiais, oficiosas e independentes que
passam a transitar e se inter-relacionar de formas cada vez mais
complexas, em um espaço público redimensionado por novos atores;
c) a desintermediação ou pelo menos alteração do papel de gatekeeper
desempenhado pelos veículos tradicionais de comunicação que filtram e
influenciam a opinião pública;
d) o crescimento do papel da recomendação e da opinião entre pares como
nova função mediadora da comunicação;
e) a utilização dos fluxos de informação que trafegam pelas redes sociais
como fonte de pauta e objeto de monitoramento.

No ciberespaço, pela primeira vez, os movimentos sociais, até então atores


políticos dependentes na medida que a difusão do registro verbal na cena
comum passa pela mediação das organizações jornalísticas, podem sem os
impedimentos colocados pela tecnologia necessária para manter os meios

28 Ver O'REILLY, Tim. "What Is Web 2.0 - Design Patterns and Business Models for the
NextGeneration of Software." O'Reilly Network: What is Web 2.0. 30 Sept 2005. O'Reilly Publishing. 09
Apr. 2006.

64
convencionais, contribuir para a constituição de um espaço público
democrático (MACHADO, 2001, p.5).

As três condições descritas acima traçam um cenário macro potencialmente


promissor para um possível efeito da comunicação em rede nas atividades coletivas. No
entanto, tal análise não pode ser feita apenas no nível da rede como um todo, mas
também no nível do indivíduo, o que permite igualmente várias abordagens teóricas.
No modelo que descrevemos a seguir partimos de três padrões básicos de
difusão, escolhendo um deles para exemplificar os tipos de questões envolvidas no
problema da adesão individual a uma ação coordenada.
Utilizaremos o exemplo de adesão a um ato de protesto para visualizar
alguns mecanismos relacionados à comunicação digital interconectada que pretendemos
analisar, entretanto, o tipo de construção que propomos aplicar-se-ia também a diversos
outros efeitos percebidos hoje na intersecção entre mídia tradicional, redes sociais e
plataformas digitais de interação coletiva de modo geral. Como exemplo, poderíamos
citar as manifestações de ódio ou preconceito racial que têm sido identificadas em
espaços digitais coletivos; o crescimento do que denominamos de TV social, ou seja, as
diversas modalidades de engajamento das pessoas com o conteúdo tradicional dos
canais televisivos através da internet e aplicativos de segunda tela; bem como a
migração das novas gerações para plataformas como YouTube e Snapchat em
detrimento das modalidades tradicionais de consumo de conteúdo midiático.
Em todos esses casos parece-nos faltar ao ferramental teórico atual da
Comunicação (que, como já discutimos antes, tem fortes bases no pensamento de outras
áreas e ainda do período pré-internet) uma base mais efetiva de conceitos e teorias
capazes de dar conta de tais fenômenos. O capítulo anterior sobre os métodos digitais
deixa claro que não considerar a ontologia específica dos objetos que têm descrição
numérica pode se transformar em um fator capaz de enviesar uma apreensão mais
completa em projetos de pesquisa onde as questões voltam-se a esse tipo de ente.
Continuaremos, portanto, a reconfigurar tópicos da teoria das redes e dos sistemas
complexos para a utilização no campo da Comunicação, pelo menos enquanto
conhecimento especializado, com foco nos processos comunicacionais em ambientes
digitais e interconectados.

Formas de Difusão

65
Young (2009), discutindo modelos de difusão que incorporem a
heterogeneidade dos elementos da rede, propõe três formas básicas de difusão. É
importante ressaltarmos que os processos não se excluem mutuamente e, pelo contrário,
podem sobrepor-se de acordo com a situação analisada.
Vale lembrarmos também que em nossa abordagem utilizamos a premissa
de que a participação em uma ação coletiva de cunho político ou cívico pode ser tratada
como um processo de adesão a uma inovação, onde o que se transfere ou se espalha pela
rede é justamente a decisão de atuar e participar.
Como lembra Mayfield, “a estrutura em que todos se ligam com todos os
outros é uma rede que age como um canal através do qual viajam notícias, dicas de
emprego, possíveis parceiros românticos e doenças contagiosas”29 (MAYFIELD, 2005,
p. 122).

Contágio

O modo de contágio é o que mais incorpora os processos identificados pela


epidemiologia na propagação de doenças servindo, entretanto, para utilização em outras
áreas do conhecimento. Pelo modelo de contágio as pessoas adotam uma inovação
quando entram em contato com alguém que já adotou, como os virais da internet.
Segundo Gleick (2013), o conceito de “meme” foi desenvolvido por Richard
Dawkins em analogia com os genes humanos, portadores da informação essencial para a
reprodução da vida. A partir do pensamento do biólogo Jacques Monod sobre o poder
que algumas ideias têm de se espalhar mais do que outras, Dawkins imaginou um ente
que não se movimentava entre células, mas na cultura, cujo vetor de transmissão seria a
língua e o campo de contágio, os cérebros humanos. Para Dawkins, os memes, a fim de
se replicarem, competem por recursos limitados, no caso o tempo e a atenção das
pessoas.
O economista e prêmio Nobel Herbert Simon (1962) sustentava, duas
décadas antes da internet, que um mundo com riqueza de informação provoca
naturalmente a escassez daquilo que a informação consome: a atenção. Resumindo,
riqueza de informação produz pobreza de atenção. Os memes de Dawkins disputam
nossa atenção e o modelo de contágio, utilizando a metáfora da doença que se espalha

29 “The structure of everyone’s links to everyone else is a network that acts as a channel trough which
news, job tips, possible romantic partners and contagious diseases travel.” (Tradução do autor).

66
em uma população, descreve essa possibilidade. A volatilidade dos virais talvez se deva
a dois aspectos: a estrutura da rede cada vez mais densa que facilita o contágio e o
próprio surgimento dos mesmos e, em contrapartida, a necessidade de atenção por parte
dos receptores, cada vez mais divididos pela enorme oferta de informação disponível no
sistema midiático digital.

Limiar Social (Social Threshold)

Nesta modalidade as pessoas adotam a inovação quando um determinado


número de outras pessoas da rede também o fazem, ou seja, é necessário chegar a um
limite ou limiar (threshold) para que a adesão aconteça.
A análise vai se aprofundar nesta modalidade por ser a que aparentemente
envolve um processo de decisão mais “negociado” a partir de uma tensão entre nossos
interesses individuais e o que poderíamos chamar de interesses coletivos.

Aprendizado Social (Social Learning)

O aprendizado social é uma forma de adoção que implica em um processo


mais racional de comparação e avaliação de vantagens. As pessoas adotam quando
veem evidências suficientes, entre adotantes anteriores, que as convencem de que a
inovação é interessante. Seria o caso, por exemplo, de um novo modelo de celular que
decidimos comprar depois que coletamos informações sobre suas qualidades e vemos
nossos amigos ou pessoas mais próximas também usando e recomendando.
Podemos aprender através de nossas redes sociais e nessa área o grau de
intensidade das relações, os conceitos de laços fortes e fracos e ainda todo o potencial
informativo que flui pelas redes são fatores que vão influenciar no processo.

Modelagem Sistêmica e exemplo simplificado de adesão

A partir do segundo tipo de difusão discutido por Young (2009), o de limiar


social, vamos modelar uma situação bem simples para exemplificar a utilização da
teoria das redes na compreensão dos mecanismos de comunicação envolvidos em uma
situação de participação que pode fomentar individualmente a adesão em atividades
cívicas ou políticas, ou seja, uma ação coletiva.

67
Nesse modelo é importante considerarmos o conceito de limite ou limiar
(threshold) como o ponto a partir do qual o indivíduo adere, vamos dizer assim, ao
comportamento coletivo que identifica no seu entorno.
Desse modo, imaginemos a pequena rede abaixo onde cada nó representa
um indivíduo e seus vizinhos (os outros nós com os quais mantém contato e relações
sociais), que poderíamos supor como amigos ou conhecidos de uma turma da
universidade ou gestores de empresas da cidade, que avaliam se devem ou não
participar de uma manifestação de preservação ambiental, seja presencialmente, ou
através de apoio financeiro, ou ambos.
Em cada nó indicamos uma identificação e o limiar a partir do qual o ator
social se engaja na ação coletiva. Por exemplo, o nó central do grafo é identificado com
A-3, isto é, o nó A só vai participar se houver no mínimo 3 participantes no evento, ele
e mais dois. É importante observarmos que cada nó só está ciente do limiar dos nós com
os quais mantém contato direto, ou seja, o nó D só conhece o limiar de A, assim como C
e B não sabem qual o limiar um do outro.

Gráfico 4: Rede com limiar social e poucos canais de comunicação entre os elementos o que dificulta a
adesão coletiva. Fonte: Elaborado pelo autor.

Nessa situação, D vai participar de qualquer jeito porque, com limiar 1,


adere a ação coletiva sem precisar ter certeza de que outros o farão. Seria o caso, por
exemplo, de um ativista ou pessoa que tem interesse direto na preservação ambiental,
que apoia e se engaja em todas as atividades da área. Já B, com limiar 3, provavelmente,
não participaria porque só sabe da intenção de A e da sua própria, 2, portanto, menor do
que o seu mínimo necessário para o engajamento. A situação de C também é idêntica.
Com tal configuração (gráfico acima) o evento não teria grande
representatividade já que parte da comunidade não participaria, justamente por basear
sua decisão apenas no conhecimento individual que sua rede de contatos diretos lhe
informa. A inclusão de novos canais de comunicação interpessoal, como observamos no

68
diagrama abaixo, altera fortemente o resultado das decisões individuais e, em
consequência, do resultado da ação coletiva como um todo.

Gráfico 5: Rede com limiar social e poucos canais de comunicação entre os elementos o que dificulta a
adesão coletiva. Fonte: Elaborado pelo autor.

No gráfico acima a situação altera-se com um aumento de participação. Na


primeira rede, de B, que agora sabe que, além de A, D também irá com certeza. Na
segunda rede, todos os membros participariam já que C agora também sabe que A e B
pretendem ir ou apoiar. Para entendermos melhor o conceito de limiar, se o de C fosse 4
em vez de 3, mesmo na última configuração, estaria de fora, por só saber dele mesmo,
de A e B.
Esse modelo simplificado de participação, baseado também nas Teorias da
Ação Coletiva e Teoria dos Jogos, demonstra como o fluxo de informação e a
disponibilidade de canais de comunicação na rede fazem emergir três comportamentos
diferentes no sistema, baseados na coordenação de ações a partir do conhecimento
mútuo: um primeiro com pouca adesão, o segundo já com a maioria aderindo e o último
com adesão total.
A situação descrita serve como exemplo para demonstrar a necessidade de
uma abordagem multidisciplinar e baseada em múltiplos níveis, do conjunto e do
indivíduo, para o enfrentamento das questões propostas.
É muito comum hoje nos depararmos com estudos da Comunicação que têm
como objeto a produção de sentido que ocorre dentro das plataformas de redes sociais.
Entretanto, as abordagens utilizadas, focadas apenas no estudo das mensagens ali
produzidas ou ainda de caráter meramente descritivo, pouco têm a acrescentar ao
conhecimento já estabelecido, basicamente porque ignoram os efeitos da estrutura do
sistema sobre o que está acontecendo. Tal fato é agravado quando a partir dessa visão
incompleta ainda se pretende tirar conclusões ou fazer inferências baseadas em amostras
não probabilísticas e com pouca representatividade.

69
Através da tipologia de Young (2009) para difusão optamos por explorar a
modalidade de limite ou limiar social para exemplificar a utilização da teoria das Redes
como ferramenta de modelagem e análise para discussão dos problemas aqui propostos.
As redes e as tecnologias de informação e comunicação têm gerado
impactos sociais, culturais e políticos que provavelmente ainda não podemos avaliar na
totalidade, basicamente por estarmos no meio do processo e fazermos parte dele,
estando cientes disso ou não.

A internet permite aos indivíduos abandonar a ideia de uma esfera pública


basicamente construída por declarações acabadas, gerada por um grupo de
atores, socialmente conhecidos como ‘a mídia’, para pensar num conjunto de
práticas sociais que veem os indivíduos como participantes de um debate.
Declarações na esfera pública agora podem ser vistas como um convite para
uma conversa e não mais como uma coisa pronta (BENKLER, 2006, p.180).

É importante ressaltarmos também que os mundos online e off-line


dialogam e influenciam-se mutuamente
Estudos como de Chwe (2000) demonstram a relação entre as instituições
sociais, como os órgãos públicos, e as ações coletivas, haja vista que podem gerar
fluxos de comunicação que garantam às pessoas que outras também estão cientes do
problema ou questão discutida, incentivando-as a participar. Nos termos do modelo
acima, uma campanha pública de combate à dengue ajuda as pessoas a avaliar a
situação a partir de um quadro mais amplo, além dos seus vínculos mais próximos e
diretos, atingindo, assim, o seu limiar de participação de forma mais rápida,
basicamente por estarem cientes de que muitas outras pessoas também estarão adotando
o comportamento recomendado de cuidados para a não proliferação do mosquito.
Na dinâmica das redes, os fenômenos que popularmente conhecemos como
“efeitos cascata ou em cascata” são exemplos de ação coletiva que pode ser induzida
pelo poder público, principalmente em situações em que a resolução do problema
comum depende de uma adesão do maior número de atores sociais possível.
A importância dos fluxos de informação para a realização de ações coletivas
coordenadas também aparece claramente em regimes totalitários, onde o direito à
reunião e ao trabalho dos jornalistas são normalmente diminuídos ou eliminados, como
estratégia de combate aos opositores.
A sequência de eventos conhecida como “Primavera Árabe”, onde em
vários países ditaduras antigas enfrentaram oposição nas ruas, é um exemplo das

70
possiblidades de análise com um olhar interdisciplinar que envolva teorias de Rede e de
Comunicação.
A utilização de redes sociais para contornar as restrições de comunicação
em tais cenários e potencialmente gerar mudanças em escala e velocidade inéditas
também reforça o interesse desse tipo de abordagem e sua utilidade para a compreensão
de situações e sistemas de considerável complexidade.

Modelando o Ecossistema Midiático Interconectado

Partindo dos princípios que apresentamos antes, poderíamos então visualizar


o ecossistema comunicacional contemporâneo como uma rede em evolução onde os
processos digitais contribuíram fortemente para uma expansão dos canais por onde flui
a informação, aspecto que constituiria a base material do adensamento dessa rede e dos
efeitos culturais e econômicos posteriores.
No ambiente pré-digital tínhamos um ecossistema povoado basicamente
pelos veículos de mídia tradicional difundindo informação para a esfera pública com um
enorme poder concentrado, atuando sobre formadores de opinião (pontos verdes) e a
população em geral (pontos brancos), como na figura abaixo.

Figura 13: Grafo da rede de comunicação pré-digital. Fonte: Elaborado pelo autor.

Aproximando a visualização (Figura 14) fica mais clara a falta de opções


para que as pessoas comuns tivessem acesso a um conjunto mais diverso de fontes de

71
informação e, consequentemente, de visões de mundo (nível individual) ou de reações
ocasionadas por processos de difusão (nível coletivo).

Figura 14: Representação de um veículo tradicional da grande mídia atuando de forma concentrada sobre
a sociedade. Fonte: Elaborado pelo autor.

A falta de interconexão mais densa entre pessoas e grupos traça o cenário


geral que foi utilizado como base para a maioria das correntes e teorias tradicionais da
Comunicação (Figura 15).

Figura 15: Ecossistema midiático que serve de base para as teorias tradicionais da Comunicação. Fonte:
Elaborado pelo autor.

Com o advento dos processos digitais e a consequente expansão dos canais


de comunicação via blogs, sites, plataformas de redes sociais e todas as outras
possiblidades que foram oferecidas aos antigos receptores do mundo pré-internet, houve

72
uma alteração na rede informacional criando um novo padrão de fluxos, caracterizado
não apenas pela maior oferta de vias de tráfego para recepção mas também de novas
possiblidades de interação e engajamento com todo o ecossistema constituindo um
estado diferente do anterior.

Figura 16: Modelo de rede mais densa com mais possibilidades de interconexão e maior diversidade de
fluxos de comunicação. Fonte: Elaborado pelo autor.

A incorporação, pelos pesquisadores da Comunicação, de ferramentas


originárias da teoria de Redes, por exemplo, iniciou-se no Brasil de forma mais
significativa a partir de 2010 com soluções de visualização como o NodeXL30 que tem
sido usado com certa frequência por grupos de pesquisa que têm foco em metodologias
como a análise de redes sociais (ARS)31.
É possível assim listarmos alguns aspectos relacionados às características do
atual sistema midiático contemporâneo em função do aumento da densidade de
conexões individuais utilizando, como já foi exposto, sua metáfora mais representativa,
no caso, a rede:

30 <http://research.microsoft.com/en-us/projects/nodexl/>.
31 Ver por exemplo o trabalho do grupo Midiars em: <http://www.midiars.net/>.

73
a) Que a maior densidade de vias de tráfego de informação impacta todo o
sistema principalmente em termos da velocidade com que o mesmo
assume estados diferentes e evolui ao longo do tempo;

b) Que o fator tempo de propagação, antes pouco interessante para os


estudos da Comunicação, passa a ter relevância fundamental por traduzir
justamente o impacto da configuração do sistema sobre os efeitos
registrados sobre o mesmo;

c) Que a interconexão de um número maior de entes no sistema


comunicacional também ocasiona uma profusão de leituras,
comportamentos, interpretações e diversidade de modo geral, como em
uma combinação multifatorial que pode, inclusive, convergir para
estados caóticos onde parecem imperar uma completa desordem ou de
equilíbrio dinâmico, aparentemente estático;

d) Que o efeito sistêmico inverso à facilidade de propagação das


informações é a dificuldade de sincronizar agendas e interesses em um
ambiente onde, aparentemente, o indivíduo é levado a acreditar que sua
vontade individual e seu pensamento, potencializado pelos canais da
rede que favorecem sua expressão, são mais importantes que o da
coletividade, gerando excessos de diversas ordens como, por exemplo,
os já citados crimes de ódio e discriminação nas redes sociais. Algo que
alguns autores conceituam usando o termo “alegação de Babel”.

Figura 17: Representação de rede de relações do autor gerada através do NodeXL e utilizando a função de
identificação de clusters (grupos mais interconectados) como exemplo da atual situação de
hiperconectividade, difusão acelerada potencial e desintermediação e reintermediação. Fonte: Elaborado
pelo autor.

74
Uma analogia que pode ser usada seria imaginar o ecossistema midiático como
uma cidade em dois estados.
No primeiro, a cidade tem apenas as grandes avenidas para escoar todo o fluxo de
tráfego que vai crescendo ao longo do tempo. A importância e o impacto de tudo que
acontecia nessas vias tinham sempre grande repercussão em todo o trânsito da cidade já
que não havia alternativas. À medida que o número de carros foi aumentado mais
crescia a dependência do sistema em relação a esses canais e também mais demorado
ficava movimentar-se a partir dele, ou seja, as mudanças de estado tinham um tempo
maior para acontecer porque o sistema reduzia a velocidade do fluxo de informação
(representada pelos carros e seus motoristas). Esse é o retrato do ambiente pré-digital
onde apenas poucos e poderosos emissores concentravam todo o tráfego,
transformando-se em grandes hubs de poder dentro do sistema e, consequentemente,
desacelerando todo o conjunto.
No segundo estado as grandes vias não deixam de existir, mas a cidade consegue
estabelecer uma rede de ruas alternativas e avenidas interbairros capazes de oferecer
opção ao trânsito da crescente massa de veículos. Assim, a velocidade média do sistema
aumenta porque o número maior de conexões facilita o tráfego e permite que os
processos de deslocamento aconteçam com mais celeridade. O sistema como um todo
transforma-se mais rapidamente e a centralidade das antigas vias principais (antes as
únicas disponíveis) é reduzida em virtude da existência das outras possibilidades para o
fluxo. A presença do fluxo maior em outras áreas, que antes não eram próximas às
grandes vias, também ativa o desenvolvimento das outras regiões, dando-lhes
potencialmente oportunidades novas de crescimento e visibilidade. Por fim, abrem-se
novas opções de escolha ao usuário que trafega pela cidade e ele irá fazê-las em função
do seu próprio pensamento, mas também a partir do que os outros entes do sistema
estão fazendo ou, pelo menos, da percepção que tem sobre como os outros estão
decidindo.
Nessa descrição, a comunicação que se estabelece entre pontos da cidade e seus
motoristas, bem como a partir da sua base material que foi transformada, impacta todo o
sistema e também a velocidade com que emergem novos estados do mesmo. Olhar só
para as placas de trânsito ou buzinadas (as mensagens individuais), ou para o tipo de
pavimentação de cada via (o meio), ou ainda para quem as construiu ou determinou (os
antigos poderosos emissores) e suas intenções (sem considerar os usos e apropriações

75
em andamento que não estão sob esse controle) está longe de descrever o que realmente
está acontecendo.
Talvez isso esteja limitando agora muitos estudos no Campo da Comunicação.

76
PARTE II
TECNOLOGIAS

77
CAPÍTULO 4

JORNALISMO E REALIDADE AUMENTADA

Desde os primórdios o jornalismo esteve ligado a algum tipo de tecnologia,


sendo o desenvolvimento do processo de impressão de Gutemberg um dos principais
fatores que alavancou a expansão da atividade.
Muito tempo depois, já no final do século XX, a chegada das redes, da
internet e dos computadores às redações iniciou um ciclo de profundas mudanças que
até hoje está em andamento e que alguns, como Soria (2014), descrevem simplesmente
como um tsunami, traduzindo o impacto devastador que positiva e negativamente a
digitalização de grande parte do processo de produção jornalística tem causado.
Machado (2003), ao descrever o início da mudança, ensina-nos que duas
posições se estabeleceram para compreender o que estava acontecendo. A primeira, que
poderíamos chamar de instrumentalista, entendia que computadores eram apenas mais
uma ferramenta à disposição dos jornalistas, artefatos adicionais a serem utilizados na
execução do seu trabalho, como antes também haviam sido as inovações do telégrafo,
da máquina de escrever e do telex, entre outras.
Já na segunda forma de entender a transformação, a chegada do digital
representava uma alteração muito mais extensa, capaz de impactar todas as etapas do
processo de produção, como também as habilidades necessárias para exercer a função
de jornalista, os modelos de negócio dessa cadeia produtiva e os próprios papéis
desempenhados tradicionalmente por emissores e receptores em relação aos veículos de
massa.

A falta de clareza sobre as consequências para o jornalismo da disseminação


do suporte digital dificulta a compreensão plena das particularidades da
prática jornalística nas redes, das mudanças no perfil do profissional, na
estrutura organizacional das empresas jornalísticas e das funções que o
usuário passa a ocupar no sistema de produção de conteúdos (MACHADO,
2003, p. 2).

Bradshaw e Rohumaa (2011), no histórico que traçam sobre o início do


jornalismo online no ocidente, indicam os britânicos Today de 1986 como o precursor
na produção de conteúdo usando tecnologia digital e o Daily Telegraph como um dos

78
primeiros jornais impressos a ter sua versão transposta32 na ainda pouco conhecida
internet de 1994.
Passaram-se os anos e novas tecnologias foram continuamente sendo
incorporadas ao fazer jornalístico. As bases de dados, a integração de múltiplas mídias
para contar uma única história, a capacidade de customizar e segmentar o conteúdo em
função dos interesses de usuários cada vez mais exigentes e difíceis de atrair. Surgiram
os sistemas Content Management Systems (CMS) que permitiram aos jornalistas
publicar diretamente seu conteúdo sem a intermediação de um programador ou
especialista em HTML33.
Chamar os tradicionais consumidores de notícias de leitores também não é
mais tão preciso. A digitalização, o barateamento dos equipamentos para produzir
imagens e som, a expansão da infraestrutura da internet e a ubiquidade dos dispositivos
móveis fizeram dos cidadãos fornecedores de conteúdo, dando a eles um espaço
crescente no processo de produção jornalística e fazendo surgir os conceitos de user
generated content (UGC), conteúdo gerado por usuários, e também o de jornalismo
participativo, termo que traduz uma série de iniciativas com escopo e dimensão
diversos34, indo do jornalismo produzido por ou para pequenas comunidades até
grandes iniciativas que, via internet, ganham alcance internacional.
O impacto da tecnologia no jornalismo também obrigou a revisão de alguns
conceitos clássicos como o da pirâmide invertida e do lead. A necessidade da
atualização constante e a pressão do tempo criaram novas formas narrativas onde a
notícia é construída em camadas, a partir das unidades de informação que vão se
tornando disponíveis, sendo conectadas pelos hiperlinks, cuja estrutura pode ir de
materiais praticamente brutos, sem qualquer edição, a pacotes completos do jornalismo
tradicional incluindo análises, desdobramentos e contextualização.
O conceito de resolução semântica de Fidalgo (2003) descreve o processo,
fazendo uma analogia com as imagens digitais que, a partir do aumento do número de
pixels35 que as formam, permitem gradualmente melhor visualização e compreensão. Na

32Mielniczuk (2001) discorre acerca das fases do jornalismo digital, chamando a primeira de fase
transpositiva, justamente porque o conteúdo do impresso era apenas copiado para a internet sem grandes
alterações.
33 HTML (HiperText Markup Language) é a linguagem que organiza os elementos de qualquer página na
web e que os browsers utilizam para construir o que os leitores veem em seus computadores.
34Ver em Knight e Cook (2013) a distinção entre os dois conceitos.
35O conceito de pixel parte da ideia de que as imagens digitais são formadas por matrizes de pontos que
definem a resolução da tela e traduz a menor unidade constituinte da representação das imagens quando
são gerenciadas por computadores.

79
redação digital as partículas de informação chegam em fluxo contínuo e com elas
construímos nossas histórias, iniciando, às vezes, apenas com poucas palavras na área
de “últimas notícias” e, quando merecem, chegando às grandes reportagens contadas no
ambiente digital como a premiada Snow Fall36.

Híbridos e Novas Espécies

Os desdobramentos da última característica atribuída por Manovich (2001)


aos objetos digitais, a transcodificação, acabam por constituir um cenário bastante
complexo, caracterizado pelo surgimento de novas formas híbridas que envolvem a
mistura de aspectos tecnológicos, oriundos da era analógica, bem como do cenário
digital, imbricados entre novos e velhos hábitos que cultivamos no contato com os
meios de comunicação.
Na matriz abaixo (Figura 18) propomos exemplificar algumas dessas
hibridações encontradas em quatro grandes quadrantes. A dos hábitos culturais antigos,
baseadas em tecnologias digitais e analógicas, e a dos novos hábitos contemporâneos,
que também se enredam entre os dois setores.
Para entender a proposta vamos pensar no conceito de poder centralizado
como um componente cultural presente em diversas etapas da civilização humana e
imaginar que as tecnologias ou ferramentas para exercê-lo na era analógica estavam
associadas à força da grande mídia e ao sistema broadcast de transmissão. Quando
atravessamos o quadrante da era analógica para a era digital, o conceito cultural de
poder centralizado permanece, mas agora remixado por novas tecnologias como o
tratamento de grandes massas de dados (big data), o monitoramento de redes e as
estratégias de coleta e análise desses dados, gerando conhecimento utilizável para a
manutenção desse poder. Os recentes casos de espionagem digital associados ao ex-
funcionário da Agência de Segurança Nacional Americana (NSA), Edward Snowden,
são exemplos de situação híbrida, onde velhos e novos conceitos parecem conviver.

36 <http://www.nytimes.com/projects/2012/snow-fall/?forceredirect=yes#/?part=tunnel-creek>.

80
Figura 18: Matriz de hibridização expandida baseada no conceito de transcodificação.
Fonte: Elaborado pelo autor.

Em outro exemplo mais simples, podemos citar o hábito da leitura matinal


tão associado ao jornal impresso que recebíamos37 em nossas casas, atualizado pelo
acesso através dos tablets que, entretanto, ainda mantêm uma referência táctil
reconfigurada através das funções touch que nos permitem passar páginas e deslocar
coisas, ainda que através da mediação da interface digital.
Nesse grande cruzamento de possibilidades é possível, por exemplo,
lembrar não só da clássica ideia de McLuhan (2007), dos meios como extensões do
homem, mas também da sua menos conhecida teoria, a do Tetrad ou quatro leis da
mídia (MCLUHAN; MCLUHAN, 1988), publicada apenas após a sua morte, onde
estabelece, através de quatro perguntas básicas, uma espécie de ferramenta para
compreender e avaliar os meios na sua constante evolução.
Apesar de ter sido imaginada para os meios tradicionais poderíamos fazer o
exercício de propô-las aos objetos digitais e pensar o que eles aumentam ou
intensificam; o que eles tornam obsoleto ou deslocado; o que retomam ou recuperam da
obsolescência e, por fim, em que podem se transformar ou produzir quando levados a
um extremo?

37 Apesar do tempo verbal ser aqui colocado no passado, é óbvio que ainda há um grande número de
assinantes de jornais impressos que os recebem no seu formato tradicional. Entretanto, aparentemente,
uma mudança de hábitos, suportada pela disponibilidade desses conteúdos em formatos digitais, parece
estar em andamento. Tal constatação pode ser corroborada pela queda de faturamento e consequente
busca de novos modelos de negócios associadas às empresas que sustentam veículos impressos
tradicionais.

81
O conceito de remediação desenvolvido por Bolter e Grusin (2000), como
uma sequência do tetrad de McLuhan, também estabelece parâmetros para pensar como
os meios vão interagir entre si, definindo um espectro de possibilidades que vai
justamente das formas mais brandas de remediação, em que o meio mais novo apenas
vai facilitar o acesso ao conteúdo do meio mais antigo, até formas mais extremas, onde
o meio novo apaga o anterior.
No livro que escreveram propondo sua teoria, Bolter e Grusin (2000)
detalham o processo indicando que o meio que remedia o outro pode fazer isso de
quatro formas básicas. A primeira servindo apenas de canal para que o conteúdo do
meio anterior seja acessado (transparência); a segunda expandindo as características
originais do meio anterior (aperfeiçoamento); a terceira seria alterando de forma
significativa o meio anterior em uma espécie de crítica às suas limitações
(reconfiguração); por fim, na quarta forma haveria a total absorção do meio antigo pelo
meio que o remedia, fazendo com que as características do meio anterior não possam
ser mais percebidas (apagamento).
A fase transpositiva do webjornalismo nos termos de Mielniczuk (2001) é
um exemplo da primeira situação enquanto a relação entre telefonia fixa tradicional e
telefonia móvel parece caminhar para um caso da última modalidade.
Scolari (2008), na sua tentativa de estabelecer uma teoria comunicacional
para os meios digitais, avança nas consequências das hibridizações e choques que os
meios enfrentam durante sua evolução, concatenando o pensamento de muitos de seus
precursores através da metáfora biológica do ecossistema, onde seres diversos convivem
gerando novas espécies, híbridos criados pelo contato e pela mudança, em um processo
em andamento que ainda tentamos compreender. Entendemos que a realidade
aumentada é um deles, justamente por traduzir as experiências que oferecem ao
observador combinando elementos reais e virtuais, em um resultado que mistura as
ideias de transparência e opacidade, não só de elementos que transportam sentido mas
também de informações que estão ali, porém não para a leitura humana.
Nesse texto propomos a RA como uma forma de híbrido que remedia não só
o meio impresso e a televisão, mas a maioria das interfaces ou displays anteriores, na
modalidade que definimos anteriormente como de aperfeiçoamento.

82
Realidade Aumentada: Conceito, Histórico e Possibilidades de Utilização

Em termos simplificados a tecnologia da realidade aumentada (RA) baseia-


se na possibilidade de associação de algum tipo de conteúdo multimídia adicional
(fotos, vídeo, animações, objetos tridimensionais ou áudio) a uma imagem ou padrão
visual previamente determinado, em alguns casos associado a informações de
geolocalização.
Assim, por exemplo, uma aplicação de RA instalada em um celular poderá
oferecer a um turista que visita determinada cidade informações sobre seus prédios
históricos.
Nesse caso, associação acontece entre a imagem da fachada do prédio,
previamente inserida no banco de dados da aplicação de RA, e o áudio explicativo ou os
textos superpostos à imagem da câmera do celular.
O termo realidade aumentada traduz, portanto, em sua origem, esse fato
essencial: à imagem do real, que é capturada pela câmera do dispositivo, são
adicionados objetos virtuais gerados ou processados pelo computador. Nesse sentido, a
realidade vista pela câmera do dispositivo seria aumentada por esses novos elementos,
que nada mais são do que arquivos digitais, trazidos pela aplicação e sobrepostos ou
apresentados de forma síncrona à imagem à qual estão associados e que, de fato, os
solicitou ou disparou, a partir da associação previamente estabelecida.
Milgran et al. (1994) estruturaram em um diagrama (Figura 19) a relação
entre elementos reais que, em tese, são os que estão submetidos às leis da física e
compõem o que entendemos por realidade, e elementos virtuais que são os gerados pelo
computador e pelos processos de digitalização.
Para os autores, entre os extremos, poderíamos dizer “puros”, haveria então
possibilidades de mistura ou mixagem em graus distintos. Mais próximos ainda do
ambiente real, teríamos a realidade aumentada em que os elementos virtuais são
adicionados, mas continuam sendo minoria. Já no outro lado desse espectro teríamos a
realidade virtual onde o ambiente gerado pelo computador prevalece e o que se quer é
uma imersão do espectador em um mundo totalmente criado pela máquina.

83
Figura 19: Simplified Reality-Virtuality (RV) Continuum. Fonte: Milgran et al. (1994).

Azuma (1997, p. 355) descreve essa relação relacionando RA e Realidade


Virtual (RV):

A realidade aumentada (RA) é uma variação dos ambientes virtuais (AV) ou


da realidade virtual (RV) como é mais comumente chamada. As tecnologias
dos AV permitem uma imersão completa do usuário dentro de um ambiente
sintético. Enquanto imerso, o usuário não consegue ver o mundo real ao seu
redor. Ao contrário, a RA permite que o usuário veja o mundo real, com
objetos virtuais sobrepostos ou em composição com ele. Assim, a RA
suplementa a realidade ao invés de substitui-la completamente38.

Sándor (2012) apresenta uma definição simplificada dizendo que “RA é a


expansão de um sentido comum (a visão) com a adição de dados fornecidos por
equipamentos da tecnologia da informação”. Já Kipper e Rampolla (2013) lembram que
a realidade aumentada não se caracteriza por uma tecnologia, mas um conjunto delas39,
e que ainda representa também um campo de pesquisa, uma visão do futuro da
computação, uma emergente indústria comercial e um novo meio para expressão
criativa.
Os autores também categorizaram os principais suportes para acesso ao
conteúdo de RA que seriam quatro: (1) computadores pessoais com webcams; (2)
quiosques inteligentes; (3) smartphones e tablets; e (4) óculos de RA e capacetes
montados (Figura 20).

38 Augmented Reality (AR) is a variation of Virtual Environments (VE), or Virtual Reality as it is more
commonly called. VE technologies completely immerse a user inside a synthetic environment. While
immersed, the user cannot see the real world around him. In contrast, AR allows the user to see the real
world, with virtual objects superimposed upon or composited with the real world. Therefore, AR
supplements reality, rather than completely replacing it. (Tradução do autor).
39 Para citar apenas algumas, poderíamos incluir os bancos de dados, o reconhecimento de imagens e
padrões e a área conhecida como CV – Computer Vision, ligada à Ciência da Computação.

84
Figura 20: Suportes para aplicações de RA. Fonte: Uchoa (2013)

Aplicações em RA e jornalismo

Existem aplicações de RA dedicadas a diversas áreas como medicina,


indústria, marketing, treinamento e entretenimento. O presente trabalho pretende
explorar três possibilidades de utilização da RA no processo de produção jornalística. A
primeira, como forma de extensão do suporte impresso, agregando a ele novas
funcionalidades; a segunda, como elo-de-ligação entre o fluxo audiovisual da televisão
tradicional e aplicações de segunda tela, que também permitem novas formas de
interação e oferta de informação customizada; por fim, como estratégia de
acessibilidade capaz de enfrentar alguns problemas já identificados entre os produtos
jornalísticos de web.
Pavlik e Bridges (2013) descrevem de forma detalhada as possibilidades de
utilização da RA no processo de produção jornalística enfatizando seu potencial em
termos de expansão das capacidades narrativas oferecidas pela tecnologia.
Utilizando a teoria da Difusão de Inovações de Rogers (2003), os autores
lembram que uma das formas mais simples de RA, os QR (quick response) codes, já
conseguiu ganhar certa escala de utilização entre os veículos de informação sendo,
portanto, viável imaginar que formas mais ricas ou elaboradas também se tornem mais
comuns a partir dos experimentos de utilização que já estão sendo realizados por
grandes empresas do setor como New York Times, The Guardian, BBC e outras.
Seguindo o pensamento de Rogers (2003), algumas condições facilitam o
percurso da difusão de uma tecnologia, entre elas a possibilidade de inserção entre os

85
processos já utilizados, a facilidade de utilização, experimentação e observação de
resultados, bem como a percepção de vantagens nesse uso.
Os experimentos estudados por Pavlik e Bridges (2013) tiveram boa
avaliação entre as empresas que testaram a partir de métricas ligadas:

a) à quantidade de downloads da aplicação proposta;

b) ao aumento do tempo médio de interação com o produto conectado à


aplicação de RA;

c) aos comentários e avaliações recebidos dos usuários;

d) à reverberação que tais ações geraram alavancando também o fluxo de


conversação nas redes sociais.

Obviamente, o desenvolvimento tecnológico capaz de oferecer soluções


mais simples de utilização ao usuário que vai experimentar o aplicativo de RA, bem
como ao que vai produzir o conteúdo acoplado à aplicação é fundamental e está em
andamento.
Em 2008, a Mobilize lançou o Wikitude40, um browser de RA, categoria de
aplicativos que permite o fácil acesso aos experimentos com a tecnologia e sua criação
por não programadores. Layar41, Metaio42 e Aurasma43 são outras empresas que foram
fundadas posteriormente e baseadas em browsers próprios criaram, cada uma com
próprias peculiaridades, seus ecossistemas que incluem aplicativos, experimentos,
ferramentas de criação e formas de monetização a partir do uso, demonstrando o
crescimento e o potencial da tecnologia de RA como indústria em ascensão.
A base material necessária à difusão desse tipo de aplicação, a saber
telefones e tablets conectados à internet, também está em franco crescimento no mundo,
como mostram Horowitz e Evans (2014), entre outros.

RA e a extensão do papel

Considerando as principais características atribuídas ao webjornalismo


segundo Mielniczuk (2001), a da hipertextualidade parece ser a mais distante do

40 <http://www.wikitude.com/>.
41 <https://www.layar.com/>.
42 <http://www.metaio.com/home/>.
43 <http://www.metaio.com/home/>.

86
jornalismo impresso tradicional. Entretanto, é justamente ela que a utilização de
aplicações de RA acopladas ao conteúdo jornalístico permite.
À medida que podemos utilizar qualquer imagem ou padrão visual distinto
como gatilho ou elemento que vai disponibilizar o conteúdo adicional da aplicação de
RA ao usuário, cada foto ou conjunto de imagens impressas em um jornal poderá,
potencialmente, transformar-se em hiperlink, capaz de trazer, a quem está visualizando
aquela notícia, conteúdo adicional de diversas formas.
Um exemplo simples seria a cobertura de um evento como uma palestra ou
inauguração em que, a partir da foto da pessoa que fez o discurso, se poderia acessar o
vídeo da fala inteira ou mais imagens sobre a mesma situação.
O caso do jornal japonês Tokyo Shimbun44 vai além dessa possibilidade
tendo em vista que ao acoplar conteúdo adicional a páginas impressas também aponta
um caminho de reencontro dos veículos de mídia tradicionais com as novas gerações, ao
transformar a notícia em material educacional para crianças, capaz de contextualizar de
forma lúdica a informação que publica (Figura 21).

Figura 21: Aplicação de RA desenvolvida para crianças a partir do jornal impresso. Fonte: YouTube
(2013)

Essa possibilidade, inclusive, também é apontada por Pavlik e Bridges


(2013, p. 5) quando dizem que “as audiências se desconectaram das formas tradicionais
das notícias e se voltaram para as mídias sociais e a comunicação móvel para aprender
sobre seu mundo”45. Os autores afirmam que os jovens, principalmente, poderão ser

44 <http://www.youtube.com/watch?feature=player_embedded&v=2ouW5W_tMbg>.
45 “Audiences have become disengaged from traditional news formats and have turned to social media
and mobile communications to learn about their world.” (Tradução do autor).

87
atraídos para o conteúdo de notícias oferecido via AR haja vista que este se apresenta de
forma interativa e multimídia, incorporado ao mundo real.

RA e a extensão da tela da TV

Os aplicativos de segunda tela têm se transformado em uma das grandes


apostas dos radiodifusores para reconectar a audiência fragmentada pela internet ao seu
conteúdo tradicional. A partir da constatação de que as pessoas usam ativamente as
redes sociais para comentar o que estão vendo pela TV, gerando uma espécie de
conversação online paralela (o que alguns autores chamam de backchannel46), criaram-
se aplicativos que permitem, entre outras funções, o acesso a conteúdo exclusivo
adicional e formas de interagir via redes sociais (Figura 22).

Figura 22: Exemplo de APP de segunda tela da séria Hannibal do canal AXN. Fonte: AXN (2014).

Uma das características desses aplicativos é a de sincronização com o início


da transmissão do episódio na TV, o que permite ao espectador acompanhá-lo com o
apoio do conteúdo oferecido na segunda tela. Normalmente, isso acontece de duas
formas:
a) utilizando o horário do início da transmissão, ou seja, quando a
emissora começa a transmitir, atualiza o conteúdo do aplicativo de
forma que ao mesmo tempo que o episódio avança, de forma síncrona,
novas informações relativas ao que está acontecendo possam ser
acessadas;

46 Para mais detalhes sobre o conceito ver Santos (2013).

88
b) utilizando algum tipo de sinal ou traço sonoro, que é captado pelo
microfone do tablet ou celular que está sendo usado para acessar o
aplicativo, para que ele entenda que o episódio começou e, assim,
passe a oferecer o conteúdo sincronizado.

A partir dessa situação, no Laboratório de Convergência de Mídias


iniciamos alguns experimentos utilizando a RA como recurso para sincronização de
conteúdo, substituindo as formas já utilizadas por imagens do próprio material
audiovisual.
Assim, saindo da ficção e voltando ao jornalismo, torna-se possível agregar
conteúdo adicional às matérias telejornalísticas de uma forma mais rápida, considerando
que basta apontar para determinado elemento visual e obter com ele um caminho
imediato, por exemplo, para a página na internet da emissora, onde mais informações
sobre tal fato podem ser disponibilizadas.
Expande-se, desse modo, a informação dedicada a cada tema, superando
uma dificuldade inerente ao espaço na TV que é limitado pelo rígido controle da grade
de programação. Ao mesmo tempo, tal expediente evita os problemas que a tecnologia
da interatividade em TV digital enfrentou, já que a superposição de conteúdo adicional
sobre a própria tela, onde o fluxo audiovisual está sendo exibido, sempre gerou críticas.
Indo além nesse caminho, atualmente temos trabalhado em uma ferramenta
de autoria, chamada T-Autor, originalmente criada para a construção de aplicações de
interatividade para o SBTVD – Sistema Brasileiro de TV Digital, adaptando-a para
oferecer de forma simplificada a construção das próprias aplicações de segunda tela,
dentro da filosofia original de focar em não programadores e utilizando uma forma
intuitiva de agregar conteúdo, ao estilo dos CMS para a produção jornalística (Figura
23).

89
Figura 23: Print da tela do software T-Autor para construção de aplicações. Fonte: Elaborado pelo autor.

RA e a extensão da interface do computador

Como aponta Belarmino (2014), apesar de todos os avanços tecnológicos,


há sérias restrições ao acesso de pessoas com algum tipo de deficiência visual ao
conteúdo jornalístico disponível na internet. Arminda e Woitowicz (2014), utilizando
ferramenta de avaliação descrita por Palácios (2011), também demonstram que mesmo
os grandes portais jornalísticos da internet estão ainda longe de oferecer seu conteúdo
de forma acessível, segundo os padrões preconizados pela W3C (2008).
Em 2013, o Laboratório de Convergência de Mídias, pensando nos grandes
eventos que o Brasil iria sediar, começou a desenvolver o protótipo de uma aplicação
para celulares chamada BABEL (Figura 24), basicamente explorando a possibilidade de
agregar conteúdo sonoro via RA a imagens. O aplicativo foi pensado para oferecer
tradução de materiais, tais como cardápios ou folhetos com informações turísticas,
associando as imagens contidas neles ao texto traduzido.

90
Figura 24: Logo do aplicativo de tradução baseado em RA. Fonte: Elaborado pelo autor (2014).

Posteriormente, percebemos que seria possível utilizar a solução para


acoplar conteúdo sonoro a outras formas de material, incluindo aí a própria tela do
computador, exibindo, por exemplo, a página principal de um portal jornalístico. Assim,
uma versão sonora, com os principais títulos ou tópicos destacados, poderia ser entregue
via RA. Ainda que não testada, seria plenamente possível pensar em uma conexão
automatizada via arquivos dinâmicos entre o CMS onde o jornalista está postando seu
conteúdo na página eletrônica e o banco de dados da aplicação de RA, intermediado por
um software de síntese de voz que, a partir do texto original, pudesse gerar o respectivo
arquivo de áudio e salvá-lo de forma que pudesse ser associado às imagens da própria
página.
Tal possibilidade, ainda que em caráter exploratório, é tecnicamente viável
com as ferramentas que hoje já estão disponíveis aos interessados na aplicação dessa
tecnologia.

Desdobramentos da RA

A tecnologia da RA traduz uma das formas de remediação previstas por


Bolter e Grusin (2000), concretizada pelo casamento de elementos reais e virtuais,
representando, de certa forma, o contínuo das hibridizações pensadas pelos teóricos do
meio.
Por ainda estar mais próxima da realidade física do que aplicações que
proporcionam uma imersão total em ambientes virtuais, a RA oferece aos meios de
comunicação tradicional uma forma mais branda de remediação que impacta menos a

91
aceleração das transformações tecnológicas em andamento, expandindo funcionalidades
e, talvez, ainda oferecendo um ponto de reencontro entre as novas gerações e formas
mais antigas de acesso à notícia.
Pavlik, um dos precursores no estudo dessa tecnologia, com experimentos
que exploraram seu conceito de relato imersivo, vê na RA uma forma paralela à própria
notícia, uma vez que o conteúdo das aplicações também permite ao usuário um canal
para expandir o conhecimento do mundo que está ao seu redor.
Devido às limitações do próprio escopo deste trabalho deixamos de analisar
outras implicações e possibilidades da utilização da RA pelo jornalismo, principalmente
a partir da capacidade de conectar os conteúdos adicionais não apenas a imagens ou
padrões específicos, mas também às informações de localização, facilmente acessáveis
através dos dispositivos móveis.
Essa linha de desenvolvimento levar-nos-ia a pensar em uma convergência
maior entre a produção de conteúdo e as possíveis formas de disponibilizá-lo, incluindo
aí a adição de metadados de geolocalização ao material coletado na reportagem, como
fotos e vídeos, possibilitando não só uma forma mais confiável de validação dos
mesmos, mas também sua inserção no banco de dados das aplicações de RA para
posterior visualização a partir da presença do usuário nesses locais.
Assim, ao invés de usar como gatilho uma determinada imagem, a
localização via celular permitiria, por exemplo, assistir a vídeos dos eventos na praça
Tahrir a um indivíduo que estivesse lá, inserindo-o no contexto da notícia através do
conteúdo que foi gerado a partir daquela localização, em uma forma narrativa com
características imersivas muito mais interessantes.
O desenvolvimento de projetos como Google Glass que representa o
crescimento de outra tendência tecnológica importante, a dos wearables, poderá dar um
passo a mais na portabilidade e mobilidade das soluções de RA, oferecendo novas
possibilidades narrativas.
Recentemente, o laboratório que coordenamos iniciou experimentos com
plataformas compactas de processamento de dados, como o Raspberry Pi associado a
implementação na linguagem Python da solução OpenCV, que disponibiliza uma série
de ferramentas para o reconhecimento de imagens e padrões, base das aplicações de
RA.
Como os processos de difusão tecnológica são guiados por múltiplos fatores
é impossível hoje prever qual será o grau de inserção da RA na produção jornalística,

92
entretanto, as diversas possibilidades disponíveis fazem-nos supor que novas espécies
no ecossistema midiático poderão surgir e prosperar.

93
CAPÍTULO 5

INTELIGÊNCIA ARTIFICIAL E SISTEMAS DE GERAÇÃO DE CONTEÚDO


AUTOMATIZADO

O medo e o fascínio das máquinas

Apesar de simplificadora, a versão dualista das relações entre homens e


tecnologia ainda hoje é utilizada. Sejam prometeicos ou fáusticos (RÜDIGER, 2007),
apocalípticos ou integrados (ECO, 2006), ciberiluministas ou neoluditas47, muito
esforço tem sido dedicado por áreas como a Filosofia da Tecnologia e afins para discutir
a questão, que se inicia com o conceito de técnica.
Se as origens da técnica repousam na antiguidade, o conceito de tecnologia
veio bem depois. Ensina-nos Lemos (2002) que a tecnologia é a técnica moderna, muito
distante do imaginário da antiguidade e liberta dos seus laços com o divino. É a técnica
que, baseada na razão e no desenvolvimento científico, na física newtoniana, na
matemática cartesiana e no empirismo, transforma a natureza em “objeto de livre
conquista” (LEMOS, 2002, p. 45).
Para Rüdiger (2007, p. 175), “a técnica é, em essência, uma mediação do
processo de formação da vida humana em condições sociais determinadas”. Já a
tecnologia é

o conhecimento operacional que designamos pelo termo técnica enquanto se


articula com a forma de saber que chamamos ciência, através da mediação da
máquina e, potencialmente, em todas as áreas passíveis de automatização,
conforme define o tempo que a criou, a Modernidade (RÜDIGER, 2007, p.
186).

Para Heidegger, a técnica é um modo de existência do homem no mundo,


mas a partir da modernidade esse existir tomará um rumo direto de agressão à natureza,
agora sujeita ao conhecimento humano e à ideia de um progresso linear, constante e que
não pode ser parado. Para muitos, como Sennett (2009), abre-se aqui a caixa de
Pandora, a deusa da invenção enviada por Zeus à terra e que, para os gregos,

47A ideia do ciberiluminismo está relacionada à visão extremamente positiva e, às vezes, até ingênua
sobre a relação entre tecnologia e seres humanos, representada normalmente por suas características
inovadoras, gerando transformações capazes de criar um mundo melhor e mais justo. Já o ludismo vem de
Ned Ludd, supostamente, operário que liderou um movimento que pregava a destruição das máquinas nas
tecelagens inglesas porque elas reduziam os postos de trabalho. Alguns autores citam Ludd como um
personagem criado pelo movimento operário da época para facilitar a propagação da campanha contra a
automatização do processo fabril no início da Revolução Industrial.

94
representava também a cultura das coisas produzidas pelo homem, através das quais
este poderia causar danos a si mesmo.
As possibilidades de pensar as relações entre sociedade e tecnologia deram
origem a novos campos como o que hoje conhecemos como Science and Technology
Studies (STS). Nele, pensadores como Castells (1999) e Feenberg (2002) têm se
dedicado a formular um cenário compatível com os desafios de estudar uma relação
obviamente multifacetada e complexa.
Se no campo da Filosofia é amplo o debate, o cinema ao longo de décadas
tem traduzido esse imaginário de medo e fascínio em diversos filmes onde as soluções
tecnológicas são representadas por robôs, autômatos, máquinas e até sofisticados
programas de computador. Naves controladas por entidades automatizadas que se
rebelam contra os humanos, como o computador HALL 9000 em “2001 – Odisseia no
Espaço” de Kubrick (1968); que decretam sua extinção como em “Exterminador do
Futuro” de James Cameron (1984) ou ainda que os escravizam, em um mundo
digitalmente criado, a “Matrix”, para utilização da humanidade como simples fonte de
energia, dos irmãos Wachowski (1999), são apenas alguns dos inúmeros exemplos que
poderíamos citar.
Na série de TV Star Trek: The next generation, que também ganhou os
cinemas (Star Trek - First Contact, Jonathan Frakes, 1996), uma das piores ameaças
alienígenas já enfrentadas foi a dos Borgs, raça de seres híbridos, biológicos e
maquínicos, que rapidamente assumiam o controle das áreas que invadiam, a partir da
conversão dos seres que encontravam em sua própria espécie, através da inserção de
implantes que faziam as vítimas completamente integradas ao comando central, agindo
como uma colônia de insetos, em um exército cada vez maior.
Por outro lado, o fascínio pelas máquinas é muito anterior à quase inevitável
dependência contemporânea que estabelecemos com celulares, smartphones, tablets e
tantos outros gadgets tecnológicos dos quais não queremos mais nos separar.
Na Antiguidade e na Idade Média, os relatos sobre autômatos eram restritos,
sendo o século XVIII considerado sua época áurea. No trecho de Devaux (1964) é
descrita a apresentação de uma dessas peças que ainda hoje podem ser vistas em Paris, a
“Tocadora de Xilofone” de Roentgen, uma boneca musicista que, se supõe, tenha sido
inspirada na figura de Maria Antonieta48.

48A história da boneca pode ser conhecida no documentário “L'Androïde de Marie-Antoinette”,


disponível em: <http://www.youtube.com/watch?v=pSxWmJLAaEg>.

95
Numa sala do Palácio de Versalhes, entre as saias de balão e os vestidos da
corte, o exímio automatista Roentgen, apresenta a Luís XVI outra obra-
prima. Aquela Tocadora de xilofone, de corpete decotado e vestido de seda
bordada, provoca a curiosidade geral; fala-se do corpo da boneca
divinamente modelado debaixo do vestido, pasma-se com a precisão e a sua
altiva graciosidade. Uma pequena ária muito viva saltita desperta pela
saraivada dos martelos de marfim; todo um século se desprende dessa música
elegante e seca; e quando a jovem, debaixo dos anéis do seu penteado alto,
volta a cabeça para saudar, a semelhança levanta um sussurro em toda a
sala... Mais tocante e mais perfeita no mecanismo que o Escrivão ou a
Musicienne, dos Jaquet-Droz, ou o Pato, de Vaucanson, e os seus Flautistas,
a Tocadora de xilofone evoca fielmente, quanto a nós, a Primeira Idade do
Automatismo (DEVAUX, 1964, p. 7).

Figura 25: Tocadora de Xilofone de Roentgen, restaurada em 1864 por Robert Houdain. Fonte: Lutice
Créations ([200-]).

Jornalismo e Tecnologia

Hoje, na redação digital, as partículas de informação chegam em fluxo


contínuo e, a partir delas, construímos nossas histórias, iniciando, às vezes, apenas com
poucas palavras na área de “últimas notícias” e, quando merecem, chegando às grandes
reportagens contadas nos portais jornalísticos, como a premiada Snow Fall (BRANCH,
([200-])) do New York Times.
As mudanças tecnológicas e seus impactos, entretanto, não podem ser
avaliados de forma isolada já que fatores sociais e econômicos parecem constituir
também vetores imbricados no complexo cenário da mídia contemporânea.
Haak, Parks e Castells (2012) apresentam um panorama de tendências
pensando o futuro dentro de uma era digital interconectada. Para eles, as novas
possibilidades tecnológicas não geraram uma crise no jornalismo (que continua tendo
seu papel social fundamental) e sim o reconhecimento de que os modelos de negócio
sobre os quais se articulavam as grandes empresas de mídia precisavam ser revistos ou
atualizados.

96
As funções essenciais do jornalismo resumidas nas etapas de observar fatos
relevantes e fazer boas perguntas às pessoas certas, tentar compreender as observações e
respostas dentro de um determinado contexto e, por fim, explicar os resultados das
etapas anteriores aos outros são, pelos autores, sintetizadas em termos de coleta de
dados, interpretação e narração. Para eles, esse núcleo essencial do fazer jornalístico não
mudou e sim foi reconfigurado e expandido pelas novas possibilidades tecnológicas.
Tentando detalhar essas premissas, Haak, Parks e Castells (2012) listam
novas ferramentas e práticas que seriam as principais tendências do jornalismo do futuro
que se propõem a descrever. São elas: jornalismo em rede (networked journalism);
inteligência coletiva e conteúdo gerado por usuários (crowdsourcing and user-
generated content); mineração de dados, análise de dados, visualização de dados e
mapeamento (data mining, data analysis, data visualization and mapping); jornalismo
visual (visual journalism); jornalismo de ponto de vista (point of view journalism);
jornalismo automatizado (automated journalism) e jornalismo global (global
journalism).
Analisar todas elas está além do escopo deste texto. Nosso foco está na
penúltima, a do jornalismo automatizado – JA –, que pode ser resumido pelo fato de que
hoje parte do conteúdo jornalístico publicado já não é mais escrito por humanos e sim
por máquinas, via software, através de ferramentas e soluções que envolvem desde
simples listas de palavras (como o experimento que apresentamos à frente) até
complexos modelos de inteligência artificial.
Independente da modalidade escolhida para realizar tal tarefa, o fato de
desconectar texto e jornalista de forma tão radical parece-nos representar a tendência
tecnológica mais problemática e ao mesmo tempo interessante, justamente por ser
aquela que vai operar com todo o imaginário já descrito na introdução.
É preciso observarmos também que tal temática é bastante recente dentro
dos estudos do Jornalismo e, em nosso entendimento, não pode ser confundida com a do
Jornalismo Digital em Base de Dados – paradigma JDBD (BARBOSA, 2007, 2008,
2009, 2011; FIDALGO, 2004, 2007; MACHADO, 2006; RAMOS, 2011) – já bastante
explorado por vários autores e que organiza suas conclusões tendo como eixo principal
as funções das bases de dados “como definidoras da estrutura e da organização, bem
como da composição e da apresentação de conteúdos de natureza jornalística”
(BARBOSA; TORRES, 2013, p.154).

97
Mesmo dentro do amplo espectro de funcionalidades coberto pelo
paradigma JDBD a parte dedicada à automação (nele denominada automatização) é
descrita como abaixo.

Inerente ao uso de bases de dados nos processos de armazenamento,


estruturação, organização e apresentação das informações. Permite agilidade
nos processos de apuração, formatação de conteúdos a partir do que está
armazenado no arquivo e também as chamadas estatísticas dinâmicas ou
Sistemas de Recomendação de Notícias (SRN), entre outros. Há três tipos de
automatização: parcial, procedimental (nível intermediário) e total.
(BARBOSA; TORRES, 2013, p.154-155).

A primeira diferença a observar é que bases de dados, ponto central sobre o


qual se articula o JDBD, constituem um tipo de software específico, como também são
as planilhas eletrônicas, os processadores de texto e os softwares de apresentação e
autoria. Os algoritmos de inteligência artificial (IA), que suportam as narrativas
automatizadas, apesar de operarem eventualmente acoplados ou acessando bases de
dados, pertencem a uma categoria diferente e não devem ser confundidos com outras,
principalmente pela lógica de procedimentos específica sob a qual operam.
De forma simplista, se a essência do trabalho das BDs é estabelecer e
comutar relações entre dados, que podem ser reconfigurados de diversas formas para
oferecer, como saída, múltiplas combinações entre eles, como veremos abaixo, os
softwares da IA enfrentam basicamente o problema da representação de processos do
mundo real dentro do ambiente computacional. Softwares de IA aprendem e realizam
novas funções a partir do processamento que fazem sobre os conjuntos de dados que
recebem como entrada e, por isso, são logicamente mais complexos e ricos em termos
do que podem oferecer.
É essa complexidade que também se reflete no tipo de manipulação que
BDs e soluções de IA proporcionam. As funcionalidades das BDs no processo de
produção do jornalismo digital operam, poderíamos dizer, em nível macro, montando,
por exemplo, uma página dedicada a todo o material sobre um determinado time de
futebol, a partir dos conteúdos pré-existentes e dos metadados49 a eles acoplados. Já os
algoritmos de IA, no jornalismo automatizado, vão operar em nível micro, o da
constituição do próprio texto, quebrando, assim por dizer, uma barreira nova na inserção
dos recursos computacionais dentro das atividades do jornalismo.

49 Metadados são dados sobre outros dados. Informações como o autor do texto, a data em que foi escrito
ou os registros de todas as suas versões, bem como a classificação ou tags indicando a que editoria
pertencem, são exemplos de metadados que normalmente são adicionados às matérias jornalísticas a
partir dos softwares de gerenciamento e publicação de conteúdo hoje já comuns nas redações.

98
Definido, portanto, o recorte e as principais linhas de diferenciação entre
JDBD e o jornalismo automatizado, pretendemos, neste trabalho:

a) compreender como isso está sendo feito e por quem;

b) avaliar, mesmo que de forma exploratória, que tipos de impactos são


possíveis perceber a partir da análise dos primeiros trabalhos
acadêmicos já tratando desse objeto;

c) seguindo a linha experimental sob a qual operamos, aprofundar o


conhecimento sobre essa tendência, a partir do desenvolvimento de
uma prova de conceito que possa, ainda que de forma simplificada,
replicá-la.

Narrativas Automatizadas – narrative science e automated insigths

Morozov (2012), utilizando um sugestivo título: “Um robô roubou o meu


Pulitzer!”, relata os primeiros movimentos de empresas de inteligência artificial, entre
elas a Narrative Science50, no negócio de gerar notícias. O produto da empresa:
conteúdo jornalístico automatizado vendido como serviço para portais de notícias,
principalmente da área de esportes e finanças, onde uma boa parte da informação
utilizada advém de números e relações entre grandezas mensuráveis como a cotação do
dólar ou o resultado de uma partida de futebol.

Figura 26: Print de matéria sobre jornalismo automático. Fonte: Morozov (2012).

Narrative Science (NS) nasceu de um projeto de pesquisa chamado “Stats


Monkey” desenvolvido por alunos e professores de Ciência da Computação e

50<http://narrativescience.com/>.

99
Jornalismo da Northwestern University a partir do InfoLab e que basicamente escrevia
resumos sobre resultados de jogos do baseball americano. Em 2010, a empresa mudou
de nome e logo em seguida patenteou uma plataforma de autoria baseada em
inteligência artificial chamada Quill.

Figura 27: Portal Big Tem especializado em notícias do esporte e cliente da NS. Fonte: Big Ten Network
(2014).

Automated Insights (AI) é outra companhia que já fornece conteúdo


jornalístico automatizado para diversos clientes. Nascida com o nome de StatSheet, em
2008, a empresa recebeu financiamento de uma entidade de apoio à inovação no estado
da Carolina do Norte nos EUA e iniciou um percurso de desenvolvimento que em 2014
contabilizou, segundo seu site oficial (AUTOMATED INSIGHTS, 2013), mais de 300
milhões de textos escritos automaticamente, entre relatórios empresariais e notícias
jornalísticas.

Figura 28: Exemplos de conteúdo publicado por AI em plataformas móveis. Fonte: Automated Insights
(2013).

100
Arce (2009) já havia feito uma avaliação da possibilidade de automatização
dos discursos incluindo nela as ideias de Lage (1997) sobre o tema, ambos, entretanto,
em caráter teórico e não experimental.
Coppin (2010, p. 24) esclarece que, no campo da inteligência artificial, uma
das principais questões está relacionada à representação da realidade que será utilizada
pelo programa de computador, já que “para um computador poder solucionar um
problema relacionado ao mundo real, ele primeiro precisa de um meio para representar
o mundo real internamente. Ao lidar com aquela representação interna, o computador
torna-se capaz de solucionar problemas”.

Figura 29: Processo de transformação de dados brutos em narrativas da NS. Fonte: Narrative Science
(2010).

Na questão específica do conteúdo jornalístico, as empresas citadas


começaram a produzir leads basicamente por ser uma forma que apresenta uma
estrutura interna bastante definida e, por isso, traduzível de modo mais fácil para uma
sequência de instruções a serem realizadas por uma máquina.
Carlson (2014) considera o jornalismo automatizado, entre as novas práticas
jornalísticas centradas em dados, a com maior potencial disruptivo devido à limitada
intervenção humana no processo, restrita basicamente às escolhas durante o
desenvolvimento do código de programação. Devemos observar, inclusive, que tal
participação humana mínima pode estar acontecendo com pouca ou nenhuma
intervenção de jornalistas profissionais, uma vez que as principais soluções já
implementadas no mercado são oriundas de empresas privadas de inteligência artificial,
que protegem seus processos de desenvolvimento e as equipes envolvidas, inclusive via
registro de patentes, em um modelo de propriedade industrial fechado.

101
Para o autor, que em sua pesquisa avalia as reações publicadas por
jornalistas à utilização dos serviços da Narrative Science em redações, a emergência do
JA traz sérias questões sobre o futuro da prática jornalística enquanto atividade laboral,
sobre os padrões tradicionais de composição do conteúdo jornalístico e ainda sobre a
própria identidade e autoridade do jornalismo como função social, bem como suas
práticas de operação.
Já Clerwall (2014) aborda a questão do conteúdo gerado por software a
partir de uma abordagem experimental. Apresentando textos jornalísticos, escritos por
humanos e por máquinas, para um grupo de leitores, sem identificar sua origem, o autor
avalia a percepção dos receptores sobre o material, principalmente em termos de
qualidade, credibilidade e objetividade, observadas pelos participantes nessas narrativas.
Apesar de tratar-se de um estudo exploratório alguns resultados merecem
destaque. Os textos gerados por algoritmos foram definidos como descritivos e
entediantes, entretanto, destacaram-se no critério da objetividade. O estudo mostra
também que nos resultados não ficou muito clara a distinção, por parte dos que tinham
acesso ao material, entre o que era noticiário gerado por jornalistas e o que era
produzido por computadores.
Dalen (2012) foca sua análise nas habilidades requeridas para a execução do
trabalho jornalístico e no processo de comercialização de notícias. Partindo da
percepção dos profissionais diante das narrativas automatizadas o autor reúne um
quadro de pontos positivos e negativos levantados.
Os jornalistas ouvidos destacaram a capacidade de análise, a personalização
e a criatividade como pontos importantes diante de características como factualidade,
objetividade, simplificação e velocidade, essas últimas mais próximas do alcance do JA.
Mesmo diante das ressalvas feitas pelos profissionais, foi apontada a possibilidade
positiva de que a automatização de parte das narrativas propicia mais tempo para a
investigação e o aprofundamento em matérias de maior relevância.
Não tão focado no jornalismo automatizado, o trabalho de Lewis e Usher
(2014) propõe-se a avaliar as possibilidades do encontro entre profissionais do
jornalismo e desenvolvedores de software a partir do estudo de caso da iniciativa da
rede global Hacks/Hackers. Utilizando o conceito de zonas de troca, os pesquisadores
analisam as possibilidades de engajamento e cooperação entre os dois grupos,
discutindo as implicações, desafios e oportunidades que podem advir dessa combinação.

102
Mais próximo de uma postura negativa diante da automatização, Latar
(2015) descreve a nova lógica da extração de dados dos grandes repositórios digitais
como uma tendência disposta a traduzir a complexidade dos sistemas sociais a partir das
partículas de informação que geramos, através das interações e engajamento, via
plataformas de mídias sociais e dispositivos móveis, tendências emergentes no cenário
da comunicação digital.
A isso ele associa o nascimento de uma nova ciência que denomina de
social physics, em uma analogia com os átomos, partes microscópicas da matéria cujo
estudo permite inferir conclusões sobre o todo do qual fazem parte. Dentro desse
contexto, o autor avalia o surgimento do que chama de jornalismo robótico como um
subproduto dessa tendência, baseado na extração automatizada de informação dos
grandes silos de dados e na conversão desse conhecimento, via software, em narrativas
para leitura sem o envolvimento humano na etapa da produção.
Considerando os custos envolvidos nos procedimentos tradicionais de
geração de notícias, o autor alerta para um processo de obsolescência dos jornalistas em
detrimento da consolidação de engenheiros de software e gestores de bases de dados
como os empregados mais importantes dentro das empresas de mídia.

Em paralelo à emergência do novo campo da física social, a narração, arte de


contar histórias, também está se transformando num empreendimento
científico através de algoritmos de inteligência artificial (IA) que se
aproveitam do grande conhecimento desenvolvido pelos campos da
linguística e do estudo da linguagem natural. Os algoritmos de IA são
estruturados para converter fatos em histórias para leitura numa fração de
segundos51. (LATAR, 2015, p.65)

Modelagem de experimento com resultados do futebol

Para construir nosso experimento de narrativa automatizada propomo-nos a


desenvolver um código de programação capaz de escrever pequenos textos sobre os
resultados do Campeonato Brasileiro de Futebol de 2013. Utilizamos a linguagem de

51 “In parallel to the emergence of the new field of “social physics”, narration, the art of telling stories, is
also becoming a scientific endeavor employing artificial intelligence algorithms taking advantage of the
vast body of knowledge of the field of linguistics and the study of natural language. AI algorithms are
being composed that can convert facts into readable stories in a fraction of a second.” (Tradução do
autor). A biblioteca NLTK (Natural Language Toolkit) que utilizamos no experimento descrito nesse
artigo é um exemplo de software de linguagem natural.

103
programação Python52 por considerá-la de mais fácil aprendizagem para não
especialistas em programação como jornalistas e profissionais da comunicação53.
A linguagem Python permite a utilização de diversos módulos de
programação já desenvolvidos previamente e com finalidades específicas, facilitando a
construção das soluções a partir da combinação de funções cujo código já existe. A
biblioteca NLTK54 – Natural Language Toolkit – que utilizamos nesse projeto é um
desses exemplos e incorpora um grande número de recursos para o processamento de
textos.
A modelagem do problema foi feita a partir da seguinte sequência: obter
resultados dos jogos e informações complementares tais como local da partida e número
da rodada; registrar essas informações em alguma estrutura simples de arquivo que
pudesse posteriormente ser consultada para a construção do material; traduzir as
próprias regras do torneio em termos de variáveis e relações para que a sintaxe do
regulamento pudesse orientar a concatenação dos elementos do texto; gerar as frases a
partir dos resultados das operações realizadas com os dados coletados nas partidas.
Assim, partimos para uma solução que, a partir de um endereço específico
na internet onde esses dados fossem disponibilizados, conseguia ler todas as
informações iniciais de forma automática e mais rápida. Para os testes, selecionamos a
página do portal Terra dedicada à área de esportes que publicava a cada rodada os
resultados e a tabela atualizada do campeonato (PORTAL TERRA, 2014)55. A tabela foi
usada como instrumento de validação dos cálculos do software já que ela também
totalizava as métricas que as regras do torneio geravam, tais como número de jogos,
pontos ganhos, gols feitos, gols sofridos, saldo de gols e índice de aproveitamento.
Definida a estratégia de coleta dos dados fizemos a parte do código que
salvava esses elementos associando-os a cada time, em uma estrutura que na linguagem
Python é conhecida por “dicionário”, onde a cada elemento, chamado de chave, são
associados valores diversos, cada um representando alguma informação gerada a partir
dos resultados dos jogos.

52<www.python.org>.
53Projetos envolvendo programação e jornalismo têm sido desenvolvidos, com exemplos na área do
Jornalismo Investigativo, no intuito de extrair e processar dados em grandes quantidades e utilizar essas
informações para a construção de infográficos e narrativas no jornalismo digital. <http://gijn.org/>.
54<www.nltk.org>.
55Atualmente o endereço da tabela é <http://esportes.terra.com.br/futebol/brasileiro-serie-a/tabela>.

104
Figura 30: Parte do código que mostra o endereço de extração dos dados e os times na estrutura de chaves
do dicionário, inicialmente com todos os campos zerados. Fonte: Elaborado pelo autor.

Ao iniciar o código o usuário é demandado apenas a escolher o número da


rodada que deseja explorar. O software coleta os resultados de todas as rodadas até
chegar à selecionada e assim vai registrando os resultados e acumulando-os na estrutura
do dicionário. É interessante observarmos que o que é retirado do portal da internet são
apenas os resultados dos jogos. Com eles, o software aplica as regras do torneio para
calcular os outros valores associados ao time. Por exemplo, ao coletar o resultado de
determinada partida, o software compara o número de gols dos dois times envolvidos,
se um deles é maior do que o outro, o de valor maior ganhou a partida e, por isso, no
registro referente a pontos ganhos são acrescidas três unidades. O perdedor não soma
nada no registro, e no caso de saldo de gols iguais uma unidade é acrescentada a cada
um dos times, indicando os pontos por um empate.

105
Figura 31: Tela que compara a página do portal com os resultados e a tela gerada pelo programa onde
podem ser vistos primeiro os dados registrados e depois as sugestões de título baseadas nos resultados.
Fonte: Elaborado pelo autor.

À medida que o software registra os jogos das rodadas ele vai atualizando
todos os parâmetros adicionais já listados, que são representações definidas pelas
próprias regras do torneio, incluindo, na estrutura de dicionário que foi criada, um
conjunto de dados que será utilizado para inferir várias outras informações como a
própria posição do time na tabela, o número de pontos que cada um tem e seu
aproveitamento (calculado dividindo o total de pontos conseguidos pelo total de pontos
disputados). Esses números permitem ao software escrever textos com mais
informações.

106
Figura 32: Tela do software que demonstra a estrutura do dicionário atualizada e um pequeno texto de
resumo da situação do time no campeonato a partir dos elementos registrados. Fonte: Elaborado pelo
autor.

Em um nível com um pouco mais de complexidade é escrito então um lead


com informações gerais sobre a situação do campeonato naquela rodada. Basicamente a
partir do resumo que é inferido com a situação individual de cada time, o software faz o
texto indicando os líderes com seus números e os lanternas do torneio, aspectos que
normalmente são enfatizados em noticiário desse tipo. A construção do conteúdo,
apesar de um pouco mais complicada, também parte da ideia de concatenar unidades
menores de informação a partir de listas de palavras e expressões comuns nesse tipo de
texto.
A título de ilustração, seria como definir uma estrutura prévia onde alguns
elementos, no caso o nome dos times e suas métricas, podem ser imaginados como
lacunas a serem preenchidas por quem estiver naquelas posições em uma determinada
rodada. A ideia de arquivos dinâmicos, ou seja, que se alteram ao longo do tempo, pode
ser utilizada aqui.

107
Figura 33: Tela do software com o que seria o lead construído a partir das informações lidas sobre o
campeonato em determinada rodada. Fonte: Elaborado pelo autor.

Considerações sobre o futuro

Apesar de ter sido conduzido apenas em caráter exploratório, o experimento


indica a possibilidade real e não apenas teórica de produzir alguns tipos de estruturas
jornalísticas de forma automatizada.
Ficou claro que conteúdos baseados em informações numéricas e relações
que podem ser traduzidas mais facilmente em expressões matemáticas, em uma sintaxe
mais restrita como a que pode ser extraída das regras de um torneio esportivo, por
exemplo, são mais fáceis de reproduzir.
Da mesma forma que fizemos com os resultados do Campeonato Brasileiro,
não seria difícil construir algo semelhante para gerar pequenos textos informando as
variações do câmbio ou de ações das bolsas de valores, a previsão do tempo para
cidades ou regiões e outros conteúdos que, se observarmos, são construídos com uma
estrutura que se repete com pequenas variações.

108
A capacidade de coletar e processar informações em grande quantidade e
variedade parece indicar o potencial de uso desse tipo de solução, principalmente no
jornalismo online e nos grandes portais da internet que precisam atualizar seus
conteúdos com mais agilidade.
Em termos teóricos é importante ressaltar que Jornalismo em Base de Dados
(JBD) e Jornalismo Automatizado (JA) não devem ser confundidos e operam com
lógicas diferentes, apesar de estarem inseridos no processo maior de evolução das
rotinas de produção jornalística a partir da utilização de recursos tecnológicos.
O fato de sua implementação dar-se através da utilização de algoritmos de
categorias diferentes é uma das razões para isso. Enquanto o JBD utiliza-se das bases de
dados e de sua capacidade combinatória, resultando saídas que se estabelecem a partir
das relações previamente definidas na sua construção, o JA tem como principal suporte
os algoritmos de inteligência artificial que são capazes de inferir relações novas e
literalmente aprender à medida que são utilizados e processam os dados que lhes vão
sendo disponibilizados.
Outra diferença a observarmos é sobre o nível de granularidade de sua
atuação. Enquanto o JBD vai atuar em um nível macro, concatenando notícias inteiras a
partir dos metadados que foram associados a elas para criar, por exemplo, uma página
personalizada para torcedores de determinado time de futebol, o JA opera em nível
micro, interno, na esfera das palavras e da construção mais básica de sentido mediante
seu ordenamento e de suas relações sintáticas e semânticas.
Os desdobramentos desse tipo de tecnologia no mercado ainda não podem
ser avaliados. É importante ressaltarmos também que mesmo as soluções mais
complexas de inteligência artificial ainda estão distantes de replicar as sutilezas e
complexidades de um bom texto jornalístico, principalmente em uma língua como a
portuguesa, que até hoje apresenta dificuldades para outras categorias de software como
os de reconhecimento de voz e tradução, para conseguirem níveis altos de acerto.
Um dos mais recentes estudos sobre o tema avalia a situação atual do JA e
afirma que

Nos últimos anos o uso de algoritmos para gerar notícias automaticamente a


partir de dados estruturados abalou a indústria do jornalismo – especialmente
desde que a Associated Press, uma das maiores e mais conhecidas
companhias jornalísticas do mundo, começou a automatizar a produção dos
seus relatórios trimestrais de resultados. Uma vez desenvolvidos, os
algoritmos podem não apenas criar milhares de novas histórias sobre
determinado tópico mas também fazer isso mais rápido, mais barato e

109
potencialmente com menos erros do que qualquer jornalista humano.
Obviamente esse avanço tem aumentado o medo dos jornalistas de que o
conteúdo automatizado vá eliminar empregos nas redações apesar de
pesquisadores e profissionais observarem o potencial dessa tecnologia para
melhorar a qualidade das notícias56. (GRAEFE, 2016, p. 4)

Por outro lado, a precarização do trabalho e a replicação indiscriminada de


releases e conteúdos gerados por fontes, justificados de forma simplista pela pressão do
tempo e pela necessidade de atualização constante, são um risco aos profissionais já
que, como foi demonstrado, as operações simples e baseadas em estruturas comuns têm
muito mais chances de serem replicadas automaticamente.
O aprofundamento no trabalho de apuração, o jornalismo investigativo, a
extração de relações complexas a partir de dados inter-relacionados e a criação de
infográficos e formas alternativas de visualização de informações parecem-nos bons
exemplos de como a atividade humana pode continuar sendo essencial no que se
considera um jornalismo de qualidade. A melhoria dos currículos e dos programas de
formação na área também terá papel importante nos impactos dessas novas tecnologias.
Essas premissas com as quais temos trabalhado nos últimos três anos, de
forma geral, foram confirmadas pelo estudo do Tow Center (GRAEFE, 2016) que
alinha algumas das principais constatações e consequências ligadas ao crescimento do
jornalismo automatizado.
O trabalho, por exemplo, indica a adoção do JA por grandes companhias de
notícias, basicamente guiada pela crescente disponibilidade de dados estruturados,
condição importante para o trabalho dos algoritmos e pelo objetivo das empresas
jornalísticas de reduzir custos e aumentar a quantidade de conteúdo disponível. Como
já dissemos anteriormente, o estudo constata o potencial de crescimento do JA em
rotinas de produção ligadas a tópicos repetitivos que, via software, podem ser
executadas de forma mais rápida, em larga escala e “potencialmente com menos erros
do com jornalistas humanos” (GRAEFE, 2016, p. 5).
Outro aspecto interessante abordado é o potencial do JA para criar notícias
sob demanda, a partir das questões dos usuários sobre determinados temas permitindo

56 In recent years, the use of algorithms to automatically generate news from structured data has shaken
up the journalism industry—most especially since the Associated Press, one of the world’s largest and
most well-established news organizations, has started to automate the production of its quarterly
corporate earnings reports. Once developed, not only can algorithms create thousands of news stories for
a particular topic, they also do it more quickly, cheaply, and potentially with fewer errors than any human
journalist. Unsurprisingly, then, this development has fueled journalists’ fears that automated content
production will eventually eliminate newsroom jobs, while at the same time scholars and practitioners see
the technology’s potential to improve news quality. (Tradução do autor).

110
um maior nível de personalização, bem como gerar, a partir do mesmo conjunto de
dados, conteúdo em diferentes línguas e angulações.
Entre as limitações, Graefe (2016) ressalta o fato do software se basear em
dados e inferências que podem estar sujeitos a distorções e erros, comprometendo o
conteúdo e trazendo ainda questões adicionais como a da responsabilidade sobre o
mesmo, que continua caindo sobre o jornalista ou editor, e a da transparência do
processo, ou seja, a informação para o usuário de como o algoritmo opera. O autor
também lembra que as soluções automatizadas não conseguem realizar algumas tarefas
essenciais para o trabalho como explicar um fenômeno novo (sobre o qual não há dados
anteriores), fazer perguntas e estabelecer causalidade.
Em relação aos jornalistas o estudo aposta em um fortalecimento da relação
homem-máquina dentro das redações e sugere justamente que eles devem se focar em
tarefas que os algoritmos não realizam com facilidade, como a análise em profundidade,
as entrevistas e as reportagens investigativas. Para a sociedade em geral, o estuda aponta
que o excesso de conteúdo noticioso gerado pelo JA vai dificultar o trabalho das
pessoas para encontrar conteúdo que lhes seja mais relevante.
Se “resistir é inútil”57 parece ser uma afirmação intimamente ligada às
relações entre homens e técnica na história das sociedades, no campo do jornalismo, um
texto criativo e bem elaborado poderá nos garantir a convivência pacífica com as
soluções automatizadas que têm seu valor em processos repetitivos e de baixo nível de
execução.
As informações disponíveis ainda são inconclusivas também para que se
estabeleça um novo gênero jornalístico, apesar de termos como “jornalismo
automatizado” ou “robotizado” estarem já aparecendo com mais frequência na literatura
do campo. Evidencia-se, entretanto, um tipo específico de modo narrativo, baseado na
concatenação de dados estruturados, na possibilidade de geração de inferências e
relações semânticas a partir do uso intensivo sobre grandes quantidades de informação e
na ausência da ação humana no processo, resultando, segundo alguns como Clerwall
(2014) e Gaefer (2016), em textos mais objetivos e confiáveis.
É interessante observarmos que o software que desenvolvemos alimenta-se
das informações intrínsecas ao evento ou contexto para o qual é direcionado, bem como
das relações internas que ali se estabelecem; hoje, lidando apenas com questões simples

57“Resistance is futile”, frase repetida pelos Borgs da séria Star Trek para suas vítimas. (Tradução do
autor).

111
mas, no futuro, talvez, sendo apto a identificar situações mais complicadas a partir da
evolução de tecnologias como a geração de linguagem natural, a exemplo da solução
NLTK que usamos em nosso experimento.
Muito mais nociva do que a geração de textos jornalísticos via software
parece ser a automatização dos jornalistas que deixam de exercer a ação humana e
complexa ligada à sua atividade, no exercício das práticas da profissão. Esse parece ser
o grande problema que teremos que enfrentar, sejamos nós céticos, temerosos ou
fascinados por tecnologia.

112
CAPÍTULO 6

JORNALISMO E INTERNET DAS COISAS: o modelo de jornalismo de imersão

Os três vetores da mudança e o pensamento complexo

O processo de conversão de grande parte da produção de sentido humana


em arquivos digitais com estrutura binária e características próprias desencadeou uma
série de transformações que podem ser organizadas, por motivos pedagógicos, em três
vertentes ou vetores: tecnológico, cultural e econômico.

Figura 34: Representação do modelo de análise de transformações a partir de três vetores fundamentais.
Fonte: Elaborado pelo autor.

O termo pedagógico é aqui utilizado basicamente pelo fato de que tal


explicação constitui-se em um modelo simplificado da situação real, onde tais
categorias encontram-se imbricadas de forma complexa, sem que seja possível
determinar com regularidade uma ordem de importância ou prevalência em termos de
causa e efeito entre os aspectos citados.
Em cada caso particular possível de análise parece haver uma troca de
posições em termos de que fator iniciou o processo ou de quem teve mais relevância na
condução do mesmo, tornando, assim, posições teóricas clássicas como o determinismo
tecnológico, as correntes culturalistas e visões críticas ou neomarxistas58 sobre o
problema senão ultrapassadas, pelo menos incompletas, mais capazes de alimentar o
debate entre seus seguidores do que efetivamente representar uma resposta definitiva a
respeito da situação contemporânea que vivemos.

58 Para ver um panorama das possibilidades teóricas sobre a questão das relações entre tecnologia e
sociedade ver Rüdiger (2007) e Feenberg (2002; 2010).

113
O erro que aparentemente parece estar embutido em cada uma dessas
possibilidades parece ser justamente a opção por traduzir uma situação de mudança em
um tipo de explicação estática, à qual se atribui de forma generalista uma proeminência
questionável sempre do mesmo fator, isto é, dá-se à parte o status do todo.
Tomemos por exemplo a introdução de um novo aplicativo para dispositivos
móveis que permite que as pessoas possam transmitir o que estão fazendo, com vídeo
em tempo real (live-streaming), para sua rede social próxima, conectada a partir de uma
plataforma como Twitter; o caso de apps como Periscope e Meerkat. Que forças estão
envolvidas nesse processo? Que nível de adoção conseguirá entre as pessoas? E que
mudanças poderá gerar em áreas como o Jornalismo, entre outras, transformando
potencialmente cada usuário não apenas em um repórter ou produtor de conteúdo mas,
guardadas as devidas proporções, na própria emissora de TV?
A resposta de Van Dick (2013) para entender situações assim afirma que é
preciso considerar diversos aspectos em dois níveis, que ele chama de micro e macro.
No primeiro seria preciso avaliar questões como as características da própria tecnologia,
o tipo de conteúdo que permite criar, bem como os usos e apropriações que dela advém.
No segundo a análise incorporaria questões como a propriedade, ou seja, quem é o dono
do aplicativo e que interesses representa, a governança, traduzida por suas regras de
utilização e os modelos de negócio que o sustentariam ou permitiriam ao dono obter
retorno financeiro a partir do crescimento do processo de adoção.
Tal metodologia, originalmente pensada pelo autor para aplicar no estudo de
plataformas de mídias sociais, além de ter utilidade mais geral, pelo menos equaciona o
problema em termos de múltiplas variáveis que podem assumir níveis diferentes de
importância de acordo com o objeto da análise e de outros fatores como período
histórico e lugar onde acontece. Mesmo sem usar o termo, poderia ser caracterizada
como uma abordagem complexa ou que considera a situação de complexidade em
questões desse tipo.
O interesse pela dinâmica da propagação de ideias, comportamentos,
opiniões, produtos e tecnologias através de redes de relacionamentos sociais remonta a
uma área de pesquisa empírica da Sociologia conhecida por Difusão de Inovações.
Trabalhos como os de Ryan e Gross (1943) já se preocupavam com essa temática ainda
na primeira metade do século XX.
As perguntas que procuravam responder ainda são atuais: Que fatores
favorecem ou atrapalham a difusão de novos conceitos ou ideias? Em que parâmetros as

114
pessoas se baseiam para adotar um novo padrão de comportamento ou pelo menos
considerá-lo como possibilidade? Será possível encontrar regras ou leis que expliquem
esse processo? E havendo, podemos planejar a introdução de novidades para que se
propaguem de forma mais eficiente?
Em termos do campo da Comunicação, partindo da noção básica de uma
mensagem que se propaga de um emissor para um receptor, as questões acima ampliam
o quadro investigado considerando agora não um par de elementos, mas um conjunto
maior de indivíduos que de alguma forma trocam informação entre si, constituindo o
que poderíamos chamar de uma rede informacional.
Ainda pensando sobre a forma como as informações são difundidas através
dessa estrutura, é necessário observarmos um aspecto importante: o comportamento
individual dos elementos dessa rede faz surgir uma dinâmica que não pode ser
simplesmente definida como a soma das partes que a constituem. A conectividade
desses elementos e a emergência de padrões não tão simples assim de serem mapeados
indicam sinais de um sistema complexo, ou melhor, de complexidade, um tema que
também tem atraído atenção de áreas tão diversas como a Ecologia, a Física, a
Economia e a Genética.

Complexidade é outro termo da moda nas ciências sociais atualmente. Ele é


usado de duas formas. O primeiro, e menos controverso, uso é como
sinônimo de emergência. É o reconhecimento de que conjuntos de atores ou
unidades em interação podem apresentar propriedades não esperadas em um
nível macro (BONACICH; LU, 2012, p. 206)59.

A discussão sobre a complexidade de certa forma relaciona-se com o que


em ciência podemos chamar de reducionismo, ou seja, a abordagem segundo a qual
devemos enfrentar os problemas dividindo-os em partes menores, as mais simples
possíveis e, a partir delas, ir subindo para enfrentar quadros mais complexos. Tal forma
de pensar, que remonta ao século XVI, com René Descartes, passou incólume por
séculos de desenvolvimento do que hoje chamamos ciência, incluindo em seu percurso
o nome de personagens tão fundamentais como Isaac Newton e outros.
Contemporaneamente o avanço da ciência esbarrou em fenômenos onde tal
abordagem mostrou-se pouco produtiva. A previsão do tempo, as tendências do
mercado globalizado, o trânsito caótico das grandes cidades, as novas formas de

59 Complexity is another fashionable term in the social sciences today. It is used in two ways. The first,
and less controversial, use is synonymous to emergence. It is the recognition that sets of interacting actors
or units can have unexpected macro levels properties. (Tradução do autor).

115
comunicação suportadas pelas tecnologias digitais, espécies animais e sua adaptação às
mudanças em seus ambientes, o comportamento de colônias de insetos que, apesar de
sua simplicidade, conseguiam agir com padrões extremamente eficientes para sua
sobrevivência. Instaurava-se a complexidade que, de fato, sempre existiu, mas até então
não era visível pela ciência acostumada a dividir para conquistar.
A partir dos conceitos de complexidade e emergência, aqui considerados
como sinônimos, entendemos que tais processos de organização têm importância
fundamental para a difusão de tecnologias, principalmente se quisermos pensar em seu
potencial de adoção.
Mesmo nas Ciências Humanas e Sociais o conceito de complexidade nos
termos apresentados também começou a ganhar atenção; talvez trazido pelas influências
do pensamento pós-moderno e a desconfiguração das certezas lineares da modernidade
que este acarretou e, seguramente, pela velocidade e extensão das mudanças sociais
recentes. Trabalhos como de Morin (2005, p. 13) vão nesse sentido.

O que é complexidade? A um primeiro olhar, a complexidade é um tecido


(complexus: o que é tecido junto) de constituintes heterogêneas
inseparavelmente associadas: ela coloca o paradoxo do uno e do múltiplo.
Num segundo momento, a complexidade é efetivamente o tecido de
acontecimentos, ações, interações, retroações, determinações, acasos, que
constituem nosso mundo fenomênico. Mas então a complexidade se
apresenta com os traços inquietantes do emaranhado, do inextricável, da
desordem, da ambiguidade, da incerteza.

Talvez a grande dificuldade em analisar determinados processos


contemporâneos de mudança deva-se justamente ao fato do nível de complexidade
envolvido, fruto do número de variáveis que o impactam, bem como do grau elevado de
conectividade entre os atores participantes.
Neste trabalho, propomo-nos a mapear os possíveis desdobramentos da
interação entre a atividade jornalística e o que se convencionou chamar de Internet das
Coisas (IoT – Internet of Things), um conjunto de tecnologias não necessariamente tão
novas mas que, configuradas de modo a proporcionar interconectividade elevada e a
inserção de entes não humanos em um sistema comunicacional complexo, apresentam
as características do tipo de problema que descrevemos acima.
Como em uma atualização de um dos pontos básicos do pensamento de
McLuhan (2007), ou seja, o dos meios de comunicação como extensões do sistema
sensório humano, a IoT, através do exponencial crescimento do número de entes,
capazes de monitorar e transmitir informação por meio das redes digitais, e de sua

116
interoperabilidade, aponta também para a desconstrução de conceitos fundamentais
como o de presença, como demonstram pesquisas com as de Dublon e Paradiso (2014)
no desenvolvimento de um software de navegação (browser) específico para organizar e
permitir o acesso humano, através de visualizações tridimensionais e sons, à massa de
fluxos de informação produzida pela família de sensores e derivados que detalharemos
adiante. “Quando sensores e computadores tornam possível viajar virtualmente a
ambientes distantes e “estar” lá em tempo real, “aqui” e “agora” podem começar a ter
novos significados” (DUBLON; PARADISO, 2014, p. 26).60

Internet das coisas – IoT

Manovich (2001), ao discutir as dificuldades relacionadas ao termo new


media, propõe as características básicas dos objetos criados a partir dos processos de
digitalização, estabelecendo, mesmo sem usar o termo, uma espécie de ontologia dos
entes regidos pela lógica binária. Segundo o autor, descrição numérica, modularidade,
variabilidade, automação e transcodificação seriam traços distintivos.
A última característica atribui a eles uma existência constituída em duas
camadas: a cultural, que carrega o sentido, interpretada pelos humanos, e a da máquina,
que traz as informações em dados estruturados, entendidos pelos computadores e
organizados de modo a permitir o tráfego pelas redes.
O termo Internet das Coisas (IoT) representa um olhar sobre as
possibilidades de conexão e troca de informação entre objetos comuns que, quando se
conectam à internet, oferecem novas formas de utilização. Relógios, sensores,
eletrodomésticos e outros itens, quando conectados, potencialmente, podem nos
oferecer informação em tempo real sobre o que está acontecendo ao nosso redor, mesmo
quando estamos distantes deles. A IoT representa a versão empírica da transcodificação
proposta por Manovich já que traduz a integração entre o que é produzido por e para
humanos com o que é gerado pelas máquinas conectadas aos sistemas que tínhamos
antes.
Nessa linha, o presente texto pretende discutir tais questões e seus impactos
no jornalismo, partindo da premissa de que a consequência natural da IoT é levar a
situação de excesso de informação (que já temos hoje) a um nível inédito, capaz de

60 When sensors and computers make it possible to virtually travel to distant environments and “be”
there in real time, “here” and “now” may begin to take on new meanings. (Tradução do autor).

117
gerar modelos de consumo de notícias diferentes dos atuais, principalmente
considerando a imbricação de novas possibilidades tecnológicas, hábitos
comportamentais das gerações recentes e a busca, quase desesperada, das empresas
tradicionais de mídia por soluções para enfrentar a fragmentação das audiências e a
oferta de conteúdo por canais distintos dos que controlavam. Exemplos, portanto, dos
três vetores da mudança aos quais nos referimos inicialmente.
Para isso, entendemos ser necessário estabelecer uma base inicial de
conceitos teóricos capazes de dar sustentação a iniciativas posteriores, bem como propor
uma estrutura simplificada de combinação entre os diversos elementos e forças que
gravitam ao redor da relação jornalismo e novas tecnologias. Estas não como algo
definitivo e sim como uma configuração, cuja emergência torna-se viável a partir de um
espaço probabilístico onde gravitam comportamentos sociais, modelos de negócio e
soluções tecnológicas, que dependem da maior ou menor velocidade em seus processos
de difusão. Em síntese, pretendemos propor uma tipologia para os diversos itens
listados sob o termo genérico de IoT e ainda um modelo de consumo de notícias que
incorpore alguns fatores já disponíveis no cenário atual.
Descrevemos também, ainda que de forma exploratória, a utilização de
plataformas como Dweet.io e Freeboard.io na construção de novos aplicativos e
produtos com utilização jornalística, baseados na lógica de automatizar e organizar via
código a parte quantitativa e lógica da informação disponível, deixando aos
profissionais suas bases de categorização, bem como o planejamento e concepção de
novas modalidades narrativas e informativas capazes de incorporar essas mudanças.

Uma tipologia das things

Em nossa proposta estabelecemos quatro categorias básicas para os entes


que são listados como integrantes da IoT:
a) Sensores (sensors) – um sensor é um dispositivo capaz de captar e
eventualmente arquivar informações sobre determinada variável ou
métrica. Temos sensores de temperatura, de humidade, de presença,
de chuva e, ainda, sensores múltiplos que podem realizar mais de um
tipo de acompanhamento; em todos os casos, obtendo dados sobre
algo dinâmico, que varia ao longo do tempo (já que sendo estático não
precisaria ser monitorado), registrando os diversos estados ou
condições do objeto de sua atenção.

118
b) Sinalizadores (beacons) – quando adicionamos conectividade a um
sensor o transformamos em um sinalizador capaz de transmitir os
dados que está coletando de forma remota e integrar redes de
comunicação por onde as informações que está captando podem
trafegar. Uma câmera de monitoramento do trânsito conectada à
central de serviço público que a controla seria um exemplo.

c) Processadores (processors) – se um sensor ou mais facilmente um


sinalizador adquire capacidade computacional extra, além da
minimamente necessária à realização da sua função de monitoramento
original, ele passa a potencialmente poder realizar transformações ou
reconfigurações sobre os dados que tem ou recebe, gerando assim
outras informações ou inferências, relacionadas ao que controla, mas
de forma expandida e eventualmente possibilitando novas
funcionalidades. Um celular com a função de geolocalização (GPS61)
ativada pode além de identificar sua posição (objetivo original)
também alimentar diversos aplicativos que a partir dela vão gerar
outras funcionalidades, como localizar um hotel nas proximidades por
exemplo. De forma mais simples um sensor que conta passos pode
processar a partir deles outras grandezas como perda de calorias ou a
distância percorrida.

d) Intermediadores e Navegadores (middlewares e browsers) – Um


intermediador tem uma essência diferente das categorias anteriores.
Sua principal função é mixar e reconfigurar os fluxos de dados
oriundos de sinalizadores e processadores, normalmente trabalhando
com vários deles e em tempo real. São plataformas como Dweet.io62 e
Freeboard.io63, que operam com APIs próprias sobre as emissões da
internet das coisas e permitem que possamos dar a elas novas
funcionalidades, multiplicando cenários de utilização. Um navegador
seria uma subcategoria específica de intermediador, mais focada na
organização dos dados da máquina para a visualização/recepção
humana. O projeto Doppel Lab do Media Lab/MIT seria um exemplo
desse tipo de software, capaz de gerar visualizações em 3D e
incorporar texto e sons ao resultado final de forma a literalmente
transportar o observador para o ambiente virtualmente construído a
partir dos dados gerados por grupos de diversos sensores64.

Jornalismo de inserção

A partir da tipologia proposta pretendemos agora apresentar um modelo de


produção de notícias que incorpora aos elementos da IoT em um sistema onde o número

61 Global Positioning System.


62 <http://www.dweet.io/>.
63 <https://freeboard.io/>.
64 Ver Dublon e Paradiso (2014).

119
de emissores foi aumentado justamente devido aos fluxos de informação gerados por
esses novos agentes.
Essa evolução deu-se (Figura 35) a partir do ecossistema midiático
tradicional que era povoado basicamente pelas fontes oficiais e pelas grandes empresas
de comunicação. Uma primeira transição foi gerada pela popularização da internet, das
redes e das plataformas de mídias sociais (que muitos rotularam como fase 2.0 da web).
Um novo salto em termos de complexidade começa a acontecer à medida que, além dos
habitantes originais e dos recém-chegados usuários produtores de conteúdo via blogs,
sites e redes sociais da internet começaram também a injetar informação no sistema
relógios, sensores, eletrodomésticos e outros itens conectados.

Figura 35: Evolução dos emissores de conteúdo. Fonte: Elaborado pelo autor.

Como já dissemos antes, a transformação, entretanto, não pode ser avaliada


apenas pelo seu vetor tecnológico. Por isso, para justificar o modelo precisamos
também considerar fatores culturais e econômicos.
Em termos culturais, talvez, o fato mais importante a considerar seja que
diversos estudos já demonstram que o consumo de algumas mídias tradicionais, como
os jornais impressos e as revistas, vem caindo (STATISTA, 2014; IAB BRASIL, 2014),
ao mesmo tempo em que o uso de meios digitais tem crescido (COMSCORE, 2014;
INSTITUTO BRASILEIRO DE OPINIÃO PÚBLICA E ESTATÍSTICA, 2104). Além
disso, as gerações mais novas têm índices decrescentes de consumo de informação pelos
canais tradicionais (DIXON, 2014).
Se hoje ainda podemos tentar encontrar novos modelos de negócio que
ainda viabilizem os produtos midiáticos tradicionais (os jornalísticos entre eles) é claro
que no futuro serão as crianças e jovens que hoje têm entre 8 e 17 anos, que estarão

120
entrando na vida economicamente ativa e formalizando-se como consumidores. O que
terão as empresas de mídia do futuro para vender a essas gerações? E como farão isso?
A necessidade de consumo de informação a princípio não será extinta,
então, se não parece tão complicado responder a primeira pergunta, a segunda
permanece mais difícil de precisar.
No modelo ora proposto entendemos que essas gerações têm alguns traços
que devemos considerar. De forma resumida, o interesse crescente por games indica que
a gamificação do conteúdo que consomem parece ser algo de importância crítica
(LOFGREN, 2015; NEWZOO, 2013). O número de horas destinado a essa atividade
cresce fortemente e, por isso, consumir notícias em “modo” game pode acrescentar
atratividade para esse segmento que também tem sido estimulado de forma intensa a
produzir e compartilhar conteúdo, processo que Jenkins (2009) explica utilizando o
conceito de cultura de participação. Por fim, a gamificação e a participação têm
motivado a busca por interação em suas diversas formas: com outros usuários, com as
plataformas tecnológicas e com o próprio produto.
Como então enriquecer a experiência de consumo de notícias baseadas nos
fatores gamificação, participação e interação (vetor cultural), utilizando a IoT (vetor
tecnológico)? E como monetizar essa atividade (vetor econômico)?

Modelo de Produção e Consumo de Notícias

No modelo proposto os antigos veículos de comunicação transformam-se


em plataformas de interconexão de pessoas e coisas que trocam informação em fluxos
bidirecionais sempre que possível.
Por razões apenas didáticas desenhamos o diagrama abaixo estruturado
entre emissores e consumidores de conteúdo, lembrando que esses papéis não são mais
fixos ou estáticos e vão refletir apenas um momento, uma fotografia do sistema em
funcionamento.
No lado dos emissores, além de todos os agentes tradicionais de produção
de notícias do mundo analógico, acrescido do contingente de pessoas que agora com
recursos tecnológicos ubíquos geram conteúdo (UGC65), teremos ainda mais uma
camada de informações produzida por todos os tipos já detalhados anteriormente da

65 User Generated Content – Conteúdo gerado por usuários.

121
IoT. Esses últimos basicamente oferecendo uma capacidade maior de contextualização e
inserção do consumidor nos cenários onde se dão as notícias.
A plataforma em si, gerenciada pela empresa de mídia, operaria via APIs66
executando as seguintes funções (Figura 46):

• Monitoramento dos fluxos de dados;


• Identificação de tópicos ou padrões de interesse;
• Classificação do conteúdo, em editorias, com rótulos ou hashtags
(Ex:#WorldCup);
• Combinação de fluxos com elementos comuns baseados em
localização, temática ou rótulos (tags);
• Reconfiguração do conteúdo com adição de meta-dados e
empacotamento para distribuição;
• Distribuição multiplataforma do conteúdo para usuários, utilizando
mensagens push (avisando sobre disponibilidade de conteúdo novo) e
difusão direta para os receptores conectados.

Do lado dos que estão consumindo os fluxos de informação também temos


uma escala de possibilidades que vão, principalmente, impactar os níveis de interação e
imersão, já que o produto da plataforma poderá ser consumido via TV tradicional e
internet, dispositivos móveis (já possibilitando conteúdo em realidade aumentada) e
dispositivos de realidade virtual (tipo Cardboard67 ou dispositivos como Oculus Rift68 e
semelhantes) ou ambientes imersivos69, oferecendo o maior nível de contato e
interatividade, posicionando o consumidor de notícias literalmente dentro dos cenários
ligados aos fatos que está recebendo, como propõe, por exemplo, o projeto Syria de
jornalismo imersivo70.

66 API – Application Programming Interface (Interface de Programação de Aplicações) é o conjunto de


rotinas, padrões e instruções de programação que permite que os desenvolvedores criem aplicações que
possam acessar determinado serviço na internet.
67 Cardboard é um projeto do Google para um óculos de realidade virtual de baixo custo. Ver mais em
<https://www.google.com/get/cardboard/>.
68 <https://www.oculus.com/>.
69 Ver projetos como Virtusphere em: <http://www.virtusphere.com/>.
70 <http://www.immersivejournalism.com/>.

122
Figura 36: Modelo de Jornalismo de Inserção. Fonte: Elaborado pelo autor.

Na última configuração seria possível ver e ouvir diversos ângulos de uma


manifestação de rua, por exemplo, podendo escolher o ângulo de visão e a perspectiva
do enquadramento, a partir de várias câmeras de outros usuários conectados
transmitindo através de aplicativos de live-streaming71, dos veículos de mídia parceiros
da rede e do monitoramento de tráfego. Tal experiência ainda seria mais realística com a
utilização da nova geração de câmeras de 360 graus. O mesmo cenário poderia servir
para um jogo de futebol, uma sessão do Congresso Nacional, a visualização do tempo
em um determinado lugar, um show musical ou a saída dos veículos de uma grande
cidade em um feriado.
O conhecimento embutido nas plataformas, a partir da classificação e dos
perfis (cada vez mais acessados via ferramentas de inteligência artificial, aplicadas aos
hábitos de utilização) aumentaria as chances de conexão entre um conteúdo específico
dentro dos diversos fluxos e um determinado usuário, aumentando o nível de
customização oferecido pelo sistema e, consequentemente, reforçando a percepção de
valor da experiência informativa oferecida.
Considerando também o vetor econômico, o conjunto de modelos de
negócio viáveis seria expandido utilizando desde as formas tradicionais de publicidade e

71 Transmissão ao vivo.

123
assinatura, complementado com a venda direta de conteúdo premium, tipo pay-per-
view, até a comercialização de inteligência de mercado como já utilizado pelas
principais plataformas de mídias sociais.
Do lado dos usuários de conteúdo, uma mecânica de remuneração baseada
em número de visualizações estimularia ainda mais a presença de câmeras da
plataforma em lugares e situações onde as maiores estruturas jornalísticas teriam
dificuldade de tempo e custos para cobrir.
A construção das narrativas jornalísticas também teria um grande espectro
de possibilidades, indo da veiculação direta do material bruto em tempo real até os
pacotes tradicionais com textos e material para contextualizar e aprofundar a análise
sobre os eventos. A mão de obra jornalística ficaria restrita apenas às funções mais
complexas e especializadas, enquanto uma parte mais simples do conteúdo seria
construída por algoritmos capazes de gerar leads e pequenos textos informativos, como
já fazem de forma comercial Narrative Science72 e Automated Insights73.

Intermediadores Expandindo as Possibilidades do Sistema

Plataformas web dedicadas à IoT, que na nossa classificação pertencem à


categoria dos intermediadores, já existem em número razoável. Por isso, escolhemos
duas delas, Dweet.io e Freeboard.io, para exemplificar seu potencial de aplicabilidade,
bem como de expansão das possibilidades de sistemas, onde sensores, sinalizadores e
processadores já estão gerando fluxos de dados.
Definida pelos seus próprios criadores como uma espécie de Twitter para
máquinas sociais, a plataforma Dweet permite que objetos que pertençam à categoria da
IoT possam publicar em canais (Figura 37), assim como assinar canais de outros entes,
em uma comunicação do tipo M2M (máquina para máquina).
Dessa forma, por exemplo, um celular utilizando seu sensor GPS e sua
capacidade de conexão poderá criar um canal para transmissão dos dados de latitude e
longitude na plataforma, de modo que outra máquina, como um computador ou outro
celular, possa receber esses dados através de uma conexão de internet, como se
estivesse assinando um canal fechado de TV.

72 <http://www.narrativescience.com/>.
73 <http://automatedinsights.com/>.

124
A utilização da plataforma é livre e o usuário só tem custo se quiser proteger
o fluxo que está sendo transmitido, em uma espécie de canal privado com acesso
restrito.

Figura 37: Telas da plataforma Dweet com exemplos de um canal transmitindo dados sobre temperatura e
humidade em duas modalidades de visualização. Fonte: Elaborado pelo autor.

Já a plataforma Freeboard oferece a possibilidade de construir painéis de


controle para melhor visualização dos dados que são produzidos pelos sistemas
baseados na IoT (Figura 38), aproximando-se mais da subcategoria dos navegadores.

Figura 38: Tela de exemplo de painel de controle criado no Freeboard. Fonte: Elaborado pelo autor.

Combinados, intermediadores como Dweet e Freeboard oferecem meios de


expansão das potencialidades da IoT facilitando a interconexão dos fluxos de dados para
diversas utilizações, entre elas algumas com aplicações em cenários para o jornalismo
como o que avaliamos nesse livro.

E o futuro?

125
A utilização dos entes e tecnologias que compõem o que chamamos de IoT
está apenas começando a ser descoberta por vários setores da atividade humana, entre
eles o do Jornalismo.
Como a versão contemporânea da ideia de McLuhan (2007) dos meios
como extensões do homem, a IoT e os projetos que hoje já exploram suas possibilidades
começam a expandir ou flexibilizar conceitos básicos como o de presença, a partir da
capacidade de oferecer informações em tempo real de ambientes à distância.
A introdução de plataformas como Dweet, Freeboard e outras soluções que
permitem organizar uma representação dos fluxos antes estabelecidos apenas entre
máquinas, agora para a interpretação humana, aumenta o potencial de difusão dessas
tecnologias baseadas em fatores clássicos que otimizam tal processo como o da
capacidade de experimentação e a percepção de vantagens em sua utilização.
As quatro categorias dos entes integrantes da IoT que ora propomos
(sensores, sinalizadores, processadores e intermediadores) são partes da tentativa de
construção de uma ontologia sistêmica básica, capaz de dar sustentação a pesquisas
posteriores, bem como de propor cenários de interconexão e utilização de tais
elementos, nesse texto, especificamente dentro da atividade de produção jornalística.
O modelo de jornalismo de inserção que apresentamos propõe-se a integrar
alguns dos principais fatores de impacto do processo de expansão digital, a partir dos
vetores tecnológico, cultural e econômico que, em nossa visão, nos ajudam a organizar
um ambiente complexo e de aceleradas transformações.
A transposição do receptor ao centro do fluxo de informações hoje
expandido pela inclusão de diversos tipos de emissores, entre eles elementos não
humanos como os que constituem a IoT, integra um amplo leque de possibilidades, que
vão desde os formatos narrativos tradicionais das notícias até a inserção em ambientes
virtuais imersivos, pensado principalmente para dar conta da chegada das novas
gerações ao mercado, em uma tentativa de enfrentar a já observada fragmentação das
audiências e a busca por interação, participação e customização da experiência de
consumo de conteúdo informativo.
A incorporação da lógica dos games na nova geração de produtos midiáticos
parece-nos sustentada pelos números já apresentados hoje por essa indústria que
indicam, mais uma vez, a confluência de evoluções tecnológicas em termos de
resolução, processamento e usabilidade, aliada ao desenvolvimento de novos hábitos e

126
formas de entretenimento, integrados por uma forte cadeia de fornecedores (consoles,
jogos, acessórios) com faturamento crescente.
Mesmo assim, é importante ressaltarmos que, como um sistema complexo,
guiado pela dinâmica da interconexão entre um número cada vez maior de fatores, a
escala de difusão de determinada tendência tecnológica sempre deverá ser representada
apenas como um número probabilístico, uma possibilidade dentro de um espaço de
posições disponíveis, em um mecanismo onde o aleatório e o incerto fazem parte da
equação.

127
PARTE III
EXPERIMENTOS

128
CAPÍTULO 7

MODELAGEM DE EXPERIMENTO COM RESULTADOS DO FUTEBOL

Para construir nosso experimento de narrativa automatizada propomo-nos a


desenvolver um código de programação capaz de escrever pequenos textos sobre os
resultados do campeonato brasileiro de futebol de 2013. Utilizamos a linguagem de
programação Python74 por considerá-la de mais fácil aprendizagem para não
especialistas em programação, como jornalistas e profissionais da comunicação75.
A linguagem Python permite a utilização de diversos módulos de
programação já desenvolvidos previamente e com finalidades específicas, facilitando a
construção das soluções a partir da combinação de funções cujo código já existe. A
biblioteca NLTK76 – Natural Language Toolkit – que utilizamos no projeto é um desses
exemplos e incorpora um grande número de recursos para o processamento de textos.
A modelagem do problema foi feita a partir da seguinte sequência: obter
resultados dos jogos e informações complementares tais como local da partida e número
da rodada; registrar as informações em alguma estrutura simples de arquivo que pudesse
posteriormente ser consultada para a construção do material; traduzir as próprias regras
do torneio em termos de variáveis e relações para que a sintaxe do regulamento pudesse
orientar a concatenação dos elementos do texto; gerar as frases a partir dos resultados
das operações realizadas com os dados coletados nas partidas.
Assim, partimos para uma solução que, a partir de um endereço específico
na internet em que esses dados fossem disponibilizados, conseguia ler todas as
informações iniciais de forma automática e mais rápida. Para os testes, selecionamos a
página do portal Terra dedicada à área de esportes que publicava a cada rodada os
resultados e a tabela atualizada do campeonato (PORTAL TERRA, 2014)77. A tabela foi
usada como instrumento de validação dos cálculos do software já que ela também
totalizava as métricas que as regras do torneio geravam tais como número de jogos,
pontos ganhos, gols feitos, gols sofridos, saldo de gols e índice de aproveitamento.
Definida a estratégia de coleta dos dados fizemos a parte do código que
salvava esses elementos associando-os a cada time, em uma estrutura que na linguagem

74<www.python.org>.
75Projetos envolvendo programação e jornalismo têm sido desenvolvidos, com exemplos na área do
Jornalismo Investigativo, no intuito de extrair e processar dados em grandes quantidades e utilizar essas
informações para a construção de infográficos e narrativas no jornalismo digital. <http://gijn.org/>.
76<www.nltk.org>.
77Atualmente o endereço da tabela é <http://esportes.terra.com.br/futebol/brasileiro-serie-a/tabela>.

129
Python é conhecida por dicionário, onde a cada elemento, chamado de chave, são
associados valores diversos, cada um representando alguma informação gerada a partir
dos resultados dos jogos.

Figura 39: Parte do código que mostra o endereço de extração dos dados e os times na estrutura de chaves
do dicionário, inicialmente com todos os campos zerados. Fonte: Elaborado pelo autor.

Ao iniciar o código, o usuário é demandado apenas a escolher o número da


rodada que deseja explorar. O software coleta os resultados de todas as rodadas até
chegar à selecionada e assim vai registrando os resultados e acumulando-os na estrutura
do dicionário. É interessante observarmos que o que é retirado do portal da internet são
apenas os resultados dos jogos. Com eles o software aplica as regras do torneio para
calcular os outros valores associados ao time. Por exemplo, ao coletar o resultado de
determinada partida, o software compara o número de gols dos dois times envolvidos,
se um deles é maior do que o outro, o de valor maior ganhou a partida e, por isso, no
registro referente a pontos ganhos são acrescidas três unidades. O perdedor não soma
nada no registro e no caso de saldo de gols iguais, uma unidade é acrescentada a cada
um dos times indicando os pontos por um empate.

130
Figura 40: Tela que compara a página do portal com os resultados e a tela gerada pelo programa onde
podem ser vistos primeiro os dados registrados e depois as sugestões de título baseadas nos resultados.
Fonte: Elaborado pelo autor.

À medida que o software registra os jogos das rodadas ele vai atualizando
todos os parâmetros adicionais já listados, que são representações definidas pelas
próprias regras do torneio, incluindo na estrutura de dicionário que foi criada um
conjunto de dados que será utilizado para inferir várias outras informações como a
própria posição do time na tabela, o número de pontos que cada um tem e seu
aproveitamento (calculado dividindo o total de pontos conseguidos pelo total de pontos
disputados).
Esses números permitem ao software escrever textos com mais informações.

131
Figura 41: Tela do software que demonstra a estrutura do dicionário atualizada e um pequeno texto de
resumo da situação do time no campeonato a partir dos elementos registrados. Fonte: Elaborado pelo
autor.

Em um nível com um pouco mais de complexidade é escrito então um lead


com informações gerais sobre a situação do campeonato naquela rodada. Basicamente a
partir do resumo que é inferido com a situação individual de cada time, o software faz o
texto indicando os líderes com seus números e os lanternas do torneio, aspectos que
normalmente são enfatizados em noticiário desse tipo. A construção desse conteúdo,
apesar de um pouco mais complicada, também parte da ideia de concatenar unidades
menores de informação a partir de listas de palavras e expressões comuns nesse tipo de
texto.
A título de ilustração, seria como definir uma estrutura prévia onde alguns
elementos, no caso o nome dos times e suas métricas, podem ser imaginados como
lacunas a ser preenchidas por quem estiver naquelas posições em uma determinada
rodada. A ideia de arquivos dinâmicos, ou seja, que se alteram ao longo do tempo, pode
ser utilizada aqui.

132
Figura 42: Tela do software com o que seria o lead construído a partir das informações lidas sobre o
campeonato em determinada rodada. Fonte: Elaborado pelo autor.

133
CAPÍTULO 8

FERRAMENTA PARA CONSTRUÇÃO DE MAPAS POR ÁREA

Na produção de conteúdo jornalístico, a utilização de recursos de


visualização de dados tais como infográficos, mapas, timelines e outros formatos
semelhantes representa a convergência de alguns fatores que tem guiado as
transformações pelas quais passa o ambiente midiático contemporâneo.
Tal mudança pode ser organizada a partir de três vetores principais:
tecnológico, cultural e econômico. Dessa forma, o primeiro vetor, no caso da
visualização de dados, acontece a partir do surgimento de diversas ferramentas, hoje
disponíveis ao jornalista, que tem facilitado a conversão dos números de uma planilha
ou relatório, por exemplo, em gráficos e representações visuais que ajudam a contar as
histórias onde tais dados se inserem. Plataformas com Infogr.am, Many Eyes, Fusion
Tables, Piktochart, TimelineJs, Creately e Tableau Public são apenas algumas de uma
grande lista de soluções de autoria que podem ser utilizadas para a construção de
narrativas visualmente mais interessantes.
O vetor cultural pode ser representado pelas mudanças em termos das
expectativas dos consumidores de conteúdo que, atingidos por uma enorme variedade
de fluxos e oferta de material, são cada vez mais difíceis de manter78, sendo as
possibilidades de interação e participação uma das principais apostas no sentido de
conseguir enfrentar a fragmentação das audiências e a escassez de um dos bens mais
valiosos nos dias atuais: a atenção79.
Nesse caminho, o uso de recursos multimídia e a inserção de formas mais
efetivas de traduzir a eventual complexidade dos números que os jornalistas coletam em
seu trabalho tornaram-se tendências importantes nessa espécie de corrida pela
manutenção do interesse dos que consomem a informação produzida.
Por fim, o aspecto econômico desse cenário também gerou dentro das
organizações jornalísticas a busca por novos padrões e modelos de negócio, capazes de
oferecer algo que continuasse a ser atrativo para pessoas cujos hábitos têm sido
impactados pelo digital. As possibilidades tecnológicas e as mudanças culturais que

78 Sobre a questão do excesso de informação ver também Gleick (2013).


79 Em 1971, bem antes da difusão da internet, o economista e prêmio Nobel Herbert Simon escreveu que
um mundo com riqueza de informação provoca naturalmente a escassez daquilo que a informação
consome: atenção. Em termos resumidos, riqueza de informação, produz pobreza de atenção.

134
ajudaram a engendrar têm sido alvo de avaliação dos produtores de conteúdo que,
cientes de estarmos passando por uma fase de acelerada transição, precisam encontrar e
manter pontos de contato com seu público anterior, não apenas como um esforço de
inovação mas, principalmente, de sobrevivência.
O conceito de convergência parece-nos importante nesta discussão pois, de
certa forma, está ligado a essas tendências, mesmo apresentando ainda dificuldades de
conceituação. “Convergência tem tantas definições como o número de pessoas que a
tente definir ou praticar” (QUINN, 2005, p. 4).
Gordon (2003) e Quinn (2005) organizam um conjunto de possibilidades
para o significado do termo dentro das questões ligadas ao jornalismo digital e às
empresas de mídia.
Para esses autores a convergência pode dar-se de cinco formas diferentes:

a) convergência de propriedade (ownership convergence), quando


empresas do mesmo grupo de mídia sincronizam esforços para
valorizar e promover produtos ou compartilhar recursos;

b) convergência tática (tactical convergence), quando empresas diferentes


colaboram entre si para otimizarem ações em conjunto, como por
exemplo, dividir os custos da transmissão de um grande evento;

c) convergência estrutural (structural convergence), quando as redações


dos grupos de mídia são reconfiguradas a fim de otimizar a produção
de conteúdo para diversas plataformas;

d) convergência para coleta de informações (information-gathering


convergence), quando as funções de apuração e geração de notícias são
reorganizadas para refletir as transformações da categoria anterior,
normalmente exigindo dos repórteres habilidades múltiplas como
redigir textos, tirar fotos e gravar vídeos;

e) convergência narrativa ou de apresentação (storytelling or presentation


convergence) mais ligada às características comumente atribuídas ao
webjornalismo e à construção do conteúdo, com destaque para a
multimidialidade, pela utilização das diversas linguagens disponíveis
(visual e sonora principalmente) como reforço da ainda hegemônica
linguagem escrita, originária dos primórdios da mídia impressa. A
convergência narrativa ainda é um desafio aos profissionais que
precisam aprender a explorar melhor os recursos que a internet e as
redes passaram a oferecer aos jornalistas. Esse último aspecto, ligado à
concepção e à estruturação das narrativas, passa também pela
necessidade de formação das pessoas que vão trabalhar nesse ambiente
e que agora precisam desenvolver novas habilidades.

135
Na última categoria, a convergência narrativa de mídias, podemos inserir a
tendência do uso de recursos de visualização de dados no jornalismo digital e, como
uma de suas possibilidades, a utilização de mapas e gráficos com informações de
geolocalização. Kolodzy (2013) destaca o potencial dos recursos visuais como mapas,
gráficos e animações para traduzir números e ilustrar mudanças e relações, bem como
organizar as informações para enfatizar comparações e contrastes80.

Muitas vezes, palavras e textos são inadequados para oferecer explicação e


compreensão. Imagens, gráficos, vídeo e áudio podem ser mais claros para
descrever ou demonstrar. [...] Enquanto as palavras podem contar à audiência
o que está acontecendo; áudio, vídeo e imagens estáticas podem mostrar isso
de forma rápida e clara, adicionando imediatismo e credibilidade às notícias
(KOLODZY, 2013, p. 20)81.

É importante alertarmos, como veremos a seguir, que a infografia e o uso de


recursos de visualização no jornalismo não nasceram com a internet e têm séculos de
história, a partir de suas versões mais elementares exploradas há muito tempo pela
mídia impressa; entretanto, é através das transformações que descrevemos
anteriormente que tal utilização irá crescer e tornar-se mais complexa e diversa,
incorporando as possibilidades que as bases de dados e as ferramentas tecnológicas
oferecem, a ponto de criarem um domínio específico de conhecimento que nos dias de
hoje tem sido cada vez mais valorizado. Exemplos como as coletâneas do New York
Times (2015) e cursos como o de Design de Informação e Estratégia
(NORTHWESTERN UNIVERSITY, 2015) são bons exemplos de algumas implicações
da tendência da visualização de dados dentro do cenário do jornalismo contemporâneo.

Infografia, mapas e geolocalização

Haak, Parks e Castells (2012) listam novas ferramentas e práticas que


seriam as principais tendências de um jornalismo em transformação que se propõem a
descrever. São elas: jornalismo em rede (networked journalism); inteligência coletiva e
conteúdo gerado por usuários (crowdsourcing and user-generated content); mineração
de dados, análise de dados, visualização de dados e mapeamento (data mining, data

80 A utilização de gráficos e recursos de visualização também tem impactado áreas onde seu uso não é
comum, como no trabalho de Moretti (2007).
81 “Many times, words or text are inadequate in providing explanation or understanding. Pictures,
graphics, video and audio might be clearer for a description or demonstration. While words can tell
audiences about what is happening, audio, video and still pictures can show it faster and clearer, adding
immediacy and credibility to the news.” (Tradução do autor).

136
analysis, data visualization and mapping); jornalismo visual (visual journalism);
jornalismo de ponto de vista (point of view journalism); jornalismo automatizado
(automated journalism) e jornalismo global (global journalism).
A visualização de dados, em sua forma mais geral, tem sido estudada
através do conceito de infografia. Cordeiro (2013) ensina-nos que a infografia
jornalística é bem anterior à internet, apresentando exemplos rudimentares de utilização
de formas visuais para suporte narrativo e estruturação de dados já presentes em
publicações do século XVII na América e na Europa.
Entretanto, a partir de estudos de Rodrigues (2009) e Amaral (2010) fica
clara uma evolução desse uso em termos de complexidade e integração de informações
a partir das bases de dados e sua utilização para a produção de conteúdo jornalístico
(BARBOSA, 2007, 2008, 2009, 2011, 2013; FIDALGO, 2004, 2007; MACHADO,
2006; RAMOS, 2011).
Por outro lado, autores que têm estudos focados na inserção de recursos
tecnológicos nas redações também incluem a utilização de mapas entre as ferramentas
disponíveis para a narração no ambiente digital. Quinn e Lamble (2008) exploram as
novas possibilidades que a internet oferece aos profissionais e definem os diversos
níveis em que computadores e redes podem ser utilizados pelos jornalistas. A esse
campo eles e outros autores chamam de Computer-Asssisted Reporting (CAR)82 ou, em
português, Reportagem Assistida por Computador (RAC).
Para os autores, a complexidade do uso e a necessidade de tempo e
treinamento definem a CAR em básica, intermediária e avançada. Utilizamos o primeiro
nível ao enviar e-mails, fazer consultas de busca e gerenciar os nossos sites favoritos. A
situação intermediária é exercitada ao refinarmos nossas buscas utilizando as regras dos
operadores booleanos como e (and), ou (or), não (not), ou ainda fazendo combinações
de recursos em plataformas já existentes (mashups) ao utilizar um agregador de notícias
como Flipboard83, por exemplo. Por fim, ao nível avançado, Quinn e Lamble (2008)
afirmam que chegamos quando: criamos e analisamos planilhas a partir de dados brutos;
criamos e analisamos bases de dados a partir de dados brutos; combinamos bases de
dados relacionais; ou ainda utilizamos sistemas de informação geográfica e mapeamento
(Geographic Information Systems – GIS mapping).

82 O termo CAR também é usado no sentido de Computer-assisted Research como em Paul (1999).
83 Ver: <www.flipboard.com>.

137
Tal classificação permite-nos inferir que a utilização de sistemas de
geolocalização significa uma das formas complexas ou avançadas de integração de
recursos computacionais à atividade de produzir notícias, exigindo, portanto,
treinamento e experiência, na medida em que transporta o jornalista para outro campo
de conhecimento, o da Geografia, onde a integração com ferramentas como Google
Maps84 e Fusion Tables85 pode ser útil.
A ferramenta que apresentamos neste trabalho tem a finalidade de facilitar
parte desse processo. Se a criação de mapas com marcadores (Figura 43) é
relativamente fácil, o mapeamento de áreas específicas a partir das informações que
traduzem os limites geográficos de cidades, estados e municípios tem um grau de
dificuldade maior porque exige as informações de geolocalização, normalmente tratadas
apenas por softwares e bases de dados específicos para uso dos geógrafos. Assim, nossa
proposta é, através de um trabalho experimental, oferecer uma solução para a criação
desse tipo de mapas podendo ser utilizada tanto por profissionais como em cursos de
jornalismo digital ou jornalismo guiado por dados86.

Figura 43: Exemplo de mapa com marcadores criado no Google Maps. Fonte: Elaborado pelo autor.

Portal Labcom Data e ferramenta KML Brasil

O KMLBrasil é um aplicativo web integrante da plataforma LABCOM


DATA desenvolvido sob tecnologia HTML 5 e PHP 5. O aplicativo consiste em um

84 <https://www.google.com.br/maps>.
85 <https://support.google.com/fusiontables/?hl=en#topic=1652595>.
86 Para mais informações sobre Jornalismo Guiado por Dados ver Bradshaw (2014).

138
sistema de busca por informações geométricas geolocalizadas dos limites
administrativos dos municípios brasileiros individualmente (geocódigo), por estado,
mesorregião, microrregião ou região. É possível ainda fazer downloads das
representações dos limites estaduais e regionais não divididas por municípios, apenas
limites isolados (Figura 44). As coordenadas são baixadas e armazenadas em formato de
arquivo CSV e KML. O primeiro para visualização na plataforma Fusion Tables e o
segundo no Google Earth87.

Figura 44: Filtro (A) e o Campo de busca (B), na página inicial. Fonte: Labcom Data (2016).

Definições territoriais usadas no aplicativo

As definições territoriais são divisões constituídas legalmente sendo


algumas estabelecidas pelo IBGE para sistematização de seu trabalho institucional. Para
compreendermos sinteticamente as definições e o princípio conceitual de cada uma
destas categorias de análise e organização do território, o instituto leva em consideração
o processo social como determinante, o quadro natural como condicionante e a rede de
comunicação e de lugares como elemento da articulação espacial (INSTITUTO
BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA, 2010).
Em termos gerais, os Estados são as maiores Unidades da Federação, tendo
como processo inicial a flexibilização de suas fronteiras, arranjos territoriais e mudanças
de nomes ao longo do tempo. As Mesorregiões Geográficas são conjuntos de
municípios vizinhos pertencentes ao mesmo Estado. As Microrregiões Geográficas
são conjuntos de municípios contíguos, sendo unidades das mesorregiões que têm
características comuns no que diz respeito à organização do espaço. As microrregiões
são estruturas de produção diferenciadas que podem resultar da presença de elementos

87 Fusion Tables também recebe diretamente arquivos KML.

139
do quadro natural, das relações sociais e econômicas particulares desta região. (LIMA,
2012).
Os Municípios por sua vez são considerados as menores unidades
federativas, sendo sua criação feita por lei estadual, conforme critérios estabelecidos
pelos próprios Estados. Ao todo, o Brasil possui 5.561 municípios (LIMA, 2012).

As funções do aplicativo

As funções do aplicativo são estruturadas em etapas bem definidas.


Inicialmente, a primeira etapa é definida pela delimitação da busca no banco de dados,
sistema onde estão armazenadas as informações sobre os munícipios e os arquivos na
extensão KML. Sendo assim, é preciso que se defina a categoria a ser
pesquisada/delimitada. No processo de delimitação, seleciona-se a categoria no campo
denominado de filtro que dirá ao sistema a categoria territorial que organizará os
municípios.
Abaixo (Figura 45) mostramos um exemplo que usa o campo filtro para
buscar todos os municípios de um determinado Estado. As outras categorias como:
Região, Mesorregião e Microrregião são usadas para delimitar um grupo de municípios
pertencentes a esta forma de organização territorial e não delimitá-las isoladamente.
Mais abaixo (Figura 46 - à direita da figura) a Microrregião do Gurupi delimitada pelo
grupo de municípios que a compõe e (à esquerda da figura) o limite da microrregião
isolado.

Figura 45: A seta mostra a seleção da categoria Estado. Fonte: Fonte: Labcom Data (2016).

140
Figura 46: O mapa, à esquerda, mostra o conjunto de municípios que compõe a microrregião e, à direita,
o limite isolado da microrregião. Fonte: Elaborado pelo autor.

Optamos por usar a categoria Estado para ilustrar o restante do exemplo


descrito neste trabalho. Após a escolha da categoria no filtro, observamos (Figura 47)
que foi inserida a sigla do Estado e não o nome escrito por extenso, uma vez que o
sistema de busca retornaria resultados nulos caso fosse digitado Maranhão, não o
reconhecendo, já que no banco de dados estão armazenados os nomes de Estados
utilizando suas respectivas siglas.

Figura 47: A categoria Estado escolhida no filtro. Fonte: Fonte: Labcom Data (2016).

Estas são etapas simples e semelhantes aos sistemas de buscas em sites da


internet, pois concluída a primeira e segunda, ou seja, a escolha da categoria

141
delimitadora no filtro e inserindo o conteúdo da busca no campo, o próximo passo é
acionar o botão “OK” e verificar os resultados na próxima página. Abaixo (Figura 48)
mostramos os resultados obtidos na busca.

Figura 48: Captura de parte dos resultados obtidos na busca. Fonte: Labcom Data (2016).

A página de resultados (Figura 48) mostra todos os municípios pertencentes


ao Estado do Maranhão, organizados em suas divisões territoriais. O item Números de
Municípios (em destaque na imagem) mostra a quantidade de municípios pertencentes
ao Maranhão. Este número é variável de acordo com o Estado pesquisado pelo usuário.
O item Caixa de Exclusão/Inclusão é utilizado para excluir/incluir determinado
município ou um conjunto deste no arquivo de download ou ainda corrigir duplicações
geradas por categoriais territoriais com nome iguais, como por exemplo, o caso de
Maranhão e Tocantins que possuem uma microrregião com o mesmo nome, a
Microrregião do Gurupi.
O último item Botões de Exportação constituem as opções dos formatos
em que é possível fazer o download. Após a análise da página de resultados obtidos,
como a exclusão/inclusão de municípios (se necessário), aciona-se o botão Exporta em.
CSV ou Exporta em. KML para ser redirecionado para a página de exportação.

142
É na página de exportação (Figura 49) que o arquivo é criado pelo sistema e
feito o download ao acionar o botão Baixar arquivo.

Figura 49: Página de download. Fonte: Labcom Data (2016).

O arquivo, sendo baixado em formato KML, terá sua visualização direta


possível apenas se o programa Google Earth estiver instalado no computador. Para o
arquivo em formato CSV, o passo seguinte seria importá-lo na ferramenta Fusion
Tables. Lá, poderá ser combinado com outros que contenham dados relativos às áreas
geográficas selecionadas previamente, de forma a gerar um mapa onde os limites
escolhidos possam ser processados para representar os dados que se deseja relacionar
com os locais escolhidos. No exemplo abaixo (Figura 50), o arquivo KML contendo os
limites dos estados brasileiros foi mesclado (função Merge do Fusion Tables) com uma
planilha com os dados do PNAD 2013 que mostra os índices de conexão à internet feita
exclusivamente por dispositivos móveis. Com a visualização é possível percebermos
como em regiões menos densas, basicamente nos estados da Amazônia, os celulares são
a principal forma de conexão com a internet, apresentando os maiores índices em
vermelho.

143
Figura 50: Exemplo de mapa usando áreas geográficas em vez de marcadores, criado com os dados KML
da plataforma LABCOM DATA. Fonte: Elaborado pelo autor.

Considerações finais

A vertente aplicada do presente trabalho é um recorte de uma iniciativa mais


ampla voltada ao desenvolvimento de métodos específicos e de uma epistemologia
especializada para os estudos da Comunicação Digital. A automatização de processos
repetitivos e a análise e tratamento de grandes volumes de dados, a partir da utilização
de recursos computacionais, têm demonstrado um potencial de oportunidades, sendo o
desenvolvimento de ferramentas que ajudem o trabalho de pesquisadores, estudantes e
profissionais do jornalismo, como no experimento aqui apresentado, um exemplo desse
caminho.
No atual estágio de desenvolvimento, o código já consegue cumprir os
objetivos básicos inicialmente propostos oferecendo um caminho simplificado para a
geração de mapas com delimitações de região que podem ser posteriormente
incorporados em sites e aplicativos móveis a partir das próprias opções que soluções
como Google Earth e Fusion Tables permitem.

144
CAPÍTULO 9

COLETA DE DADOS EM PLATAFORMAS WEB

Explorando a memória digital

Pensar nos sites da internet como representantes contemporâneos dos


arquivos que antes apenas podíamos encontrar nas bibliotecas ou locais de memória
tradicional é um fato que deve ser considerado como caminho possível aos
pesquisadores das Ciências Sociais incluindo os da Comunicação e do Jornalismo.
Muitas pesquisas partem da necessidade de coletar dados sobre objetos que
hoje têm suas versões digitais à disposição do acesso via internet. Apesar da aparente
facilidade para acessar sites é preciso considerar três problemas que se apresentam: em
primeiro lugar, a constatação de que a memória digital, apesar de extensa e em
constante crescimento, não é eterna e pode ser apagada, a qualquer hora, por decisão do
administrador que gerencia o servidor de web onde está hospedada. A segunda diz
respeito justamente ao fato de que, mesmo tendo acesso a esse site, talvez não estejamos
coletando toda a informação disponível, olhando apenas para a camada cultural ou da
representação e, por isso, tendo uma visão parcial de um todo maior. Por fim, a própria
coleta pode tornar-se difícil considerando a quantidade de informação disponível e as
frequentes mudanças às quais os sites, principalmente os jornalísticos, estão sujeitos.
Nesse cenário, a possibilidade de automatização parcial ou completa da fase
de coleta de dados em pesquisas da nossa área pode tornar-se um caminho oportuno e
que poderá impactar principalmente as decisões sobre as estratégias de amostragem,
oferecendo uma relação otimizada entre universo pesquisado e quantidade de elementos
considerados na análise (BONACICH; LU, 2012).
A coleta automatizada de dados, também conhecida como raspagem
(scraping) ou mineração, é um recurso cada vez mais comum no jornalismo digital e
investigativo (BRADSHAW, 2014), podendo, no caso do trabalho acadêmico, ser
utilizada tanto para a execução de rotinas repetitivas, permitindo ao pesquisador mais
tempo para as tarefas de maior complexidade, como para identificar padrões e
tendências em grandes volumes de informação que, em algumas situações, podem
passar despercebidos no processo exclusivamente manual, como em Moretti (2007).
Nosso experimento inicial acessa o projeto da internet WayBackMachine –
WBM (Figura 51), também conhecido como Internet Archive, que se constitui de uma

145
biblioteca digital de sites de internet com mais de 430 bilhões de páginas arquivadas. A
iniciativa da WBM, que oficialmente não tem fins lucrativos, deu início aos trabalhos
em 1996 tendo, a partir de 1999, incluído novos formatos em seu acervo, tais como
vídeos, arquivos de som e de texto, software e outros, constituindo-se em uma base de
dados útil para certas pesquisas.
Para acessar o repositório, desenvolvemos a prova de conceito de um código
capaz de recuperar, listar e oferecer ferramentas básicas de análise sobre dados
coletados a partir das diversas versões de portais jornalísticos ao longo do tempo.
Utilizando o conteúdo arquivado das séries disponibilizadas é possível
avaliar métricas como o número de versões ou atualizações anuais, palavras mais
frequentes ao longo do tempo, alterações na organização de conteúdo e design entre
outras.

Figura 51: Tela da Home do site Internet Archive. Fonte: Internet Archive (2014).

Waybackmachine e a mémória dos sites jornalísticos

A WBM, na sua área de sites, a partir da indicação de determinado domínio,


permite visualizar todas as versões arquivadas do mesmo, incluindo sua página inicial
(home page) e links principais, em uma interface que mostra em formato de timeline
(Figura 52) e calendários as datas onde uma nova versão daquele site foi arquivada. Na
imagem abaixo é possível ver o resultado de um teste feito a partir do endereço da
Universidade Federal do Maranhão (www.ufma.br) que indica o número de versões
disponíveis, as datas da primeira e da última versão em destaque e todas as outras

146
marcadas nos calendários mensais com pontos azuis que a WBM chama de “spots”. A
plataforma mantém uma API que responde a consultas com uma sintaxe própria.
Segundo dados do projeto, as coletas são feitas diariamente de forma a
documentar novas versões que ao serem registradas podem ser acessadas pelos usuários
a qualquer tempo através das ferramentas oferecidas.

Figura 52: Tela do Internet Archive com a marcação das versões arquivadas (399 entre 1997 e 2014) do
site da UFMA em suas respectivas datas no ano de 2007 que podem ser extraídas via código. Fonte:
Internet Archive (2014).

O objetivo do experimento constituiu-se no desenvolvimento de um código


escrito utilizando a linguagem de programação Python, capaz de realizar as seguintes
funções:

a) A partir da indicação de um endereço na internet pelo usuário,


buscar no repositório da WBM informações básicas sobre o
número de versões, datas da primeira e última coletas e links para
as páginas de todas os registros documentados.

b) Extrair o número de atualizações por ano de forma a identificar


padrões relativos à intensidade da atualização do conteúdo do
mesmo. Como focamos nosso estudo em sites dos grandes portais
jornalísticos é possível associar essa métrica à característica da
atualização constante, que nos livros teóricos é comumente descrita
como traço distintivo do jornalismo digital, apesar de poucos
tratarem o assunto com dados empíricos.

c) Extrair elementos de interesse para pesquisa, como links e textos


das versões coletadas. Tal material presta-se, portanto, a estudos
onde, por exemplo, as transformações associadas a temáticas
específicas são alvo de investigação.

147
d) Gerar visualizações das métricas avaliadas como demonstraremos
abaixo em relação às atualizações por ano.

Uma das vantagens da linguagem Python é a grande quantidade de módulos


disponíveis para a execução das mais diversas funções, fato que facilita muito o
programador inexperiente ou oriundo de outras áreas de conhecimento. Neste
experimento, além das funções internas básicas da linguagem, utilizamos os módulos
Mathplotlib, Numpy e NLTK (BIRD; EDWARD; KLEIN, 2009) como ferramentas
para gerar as visualizações e analisar as métricas relacionadas aos textos extraídos.
O fato de utilizarmos em nosso experimento os sites de caráter jornalístico
não impede a utilização da ferramenta em outros cenários de pesquisa onde a série
histórica de versões de sites tenha algum interesse.
Para atingir nosso objetivo trabalhamos com a metodologia descrita a
seguir. Inicialmente, fizemos um estudo da própria plataforma avaliando a estruturação
do código HTML que a suporta e identificando os padrões de resposta da API para as
requisições das versões de um endereço específico.
A partir do conhecimento de como a WBM trabalha internamente, de início,
implementamos no algoritmo as funções de consulta, registro de informações básicas,
listagem dos endereços das páginas arquivas, estruturação da quantidade de versões por
ano e geração de gráfico com a evolução das atualizações ao longo do tempo.
O que nosso algoritmo permite é fazer uma consulta idêntica à que é feita
diretamente no site da WBM, entretanto, permitindo que de forma automática todos os
endereços das páginas registradas sejam listados para posterior acesso e análise.
Inicialmente, o código recupera as informações básicas oferecidas pela
plataforma que são o número de versões registradas e as datas do primeiro e do último
registro (Figura 53) que serão utilizados também como parâmetros para a coleta de
todas as outras atualizações arquivadas.
Depois dessa etapa, o programa vai processar e salvar em uma lista e em um
arquivo de texto todos os endereços das páginas (URLs) onde estão as versões
registradas na plataforma. O exemplo abaixo (Figura 63) contém todas as versões
arquivadas do site da UFMA. Essa lista, posteriormente, pode ser lida por outra função
do software que vai extrair de cada uma os links e textos associados, constituindo,
assim, um corpus empírico bem mais amplo ao pesquisador que terá ainda a
possiblidade de aplicar outras ferramentas específicas em sua análise.

148
Figura 53: Print da tela do código com as informações iniciais básicas (item a da lista de objetivos) do site
jornalístico www.ig.com.br. Fonte: Elaborado pelo autor.

Figura 54: Print do arquivo com a lista de links extraídos automaticamente que levam às páginas
arquivadas do site www.ufma.br (item a da lista de objetivos). Fonte: Elaborado pelo autor.

Depois de processar todas as versões coletadas, o código as conta e


classifica por ano a fim de que seja possível identificar o número de atualizações por
cada período (Figura 55). Tal métrica nos permitirá identificar a velocidade com que os

149
sites estudados têm se modificado ao longo do tempo, um fator que, no caso dos sites
jornalísticos, pode ser associado à característica da atualização constante,
frequentemente atribuída ao jornalismo de internet.
É importante ressaltarmos que o número de versões identificadas pela
plataforma WBM não representa o universo total de mudanças. Segundo dados da
própria WBM, os resultados são conseguidos através de um crawler88 próprio e de
dados do portal Alexa que também varre a internet diariamente. De qualquer forma,
pela quantidade de registros, é possível percebermos que a amostra oferecida pela
WBM é bastante significativa e, considerando que usa a mesma metodologia para a
coleta dos diferentes sites que arquiva, tal amostra pode ser utilizada em estudos
comparativos de métricas específicas, como neste estudo.

Figura 55: Print com destaque para a parte do código que conta por ano o número de atualizações
registradas (item b da lista de objetivos). Fonte: Elaborado pelo autor.

Com o número de versões contabilizadas é possível então gerar uma


primeira visualização que representa a série temporal de atualizações extraídas do
registro da WBM. A figura 56 traz essa métrica plotada a partir dos dados do site
www.ig.com.br.

88 Crawlers, também conhecidos como robôs, são programas que varrem a internet registrando endereços
de páginas e arquivando-os. Motores de busca como Google, plataformas de análise como Alexa
(www.alexa.com) e bibliotecas digitais como a WBM usam algoritmos assim para executar suas funções.

150
Para efeito deste estudo, apesar de coletados, os dados relativos ao ano de
2015 foram excluídos dos gráficos já que se referem a apenas alguns meses,
configurando uma unidade temporal diferente do restante.

Figura 56: Gráfico plotado com as atualizações registradas entre os anos de 2000 e 2014 do site
<www.ig.com.br> (item d da lista de objetivos). Fonte: Elaborado pelo autor.

Para seleção dos sites jornalísticos do nosso estudo, utilizamos a


classificação da plataforma Alexa89 que, entre outras ferramentas, ranqueia sites e
portais da internet em função do número de acessos. Entre os 50 sites com os maiores
números no Brasil, selecionamos os que pertencem à categoria jornalismo. Por esse
critério foram escolhidos os sites estadão.com.br; uol.com.br; globo.com; ig.com.br;
terra.com.br e abril.com.br.
As visualizações abaixo (Figura 57) foram conseguidas seguindo as etapas
já descritas e demonstram como a característica da atualização constante passou a ter
uma relevância entre os anos de 2010 (estadão) e 2011 (uol, globo, ig e terra),
impactando de forma maior ou menor, de acordo com cada caso, a quantidade de
atualizações registradas. Apenas o site abril.com.br parece ter aumentado o número de
atualizações tardiamente com um incremente significativo apenas em 2013. Tal fato
talvez se justifique pela periodicidade semanal e não diária da produção jornalística

89 <www.alexa.com>.

151
original gerada pelos veículos administrados pela empresa que, em 2013, passaria a ter
uma integração mais forte à internet como canal de distribuição desse conteúdo.

Figura 57: Gráficos mostrando o crescimento dos números de atualizações a partir dos anos 2010 e 2011
nos principais sites jornalísticos brasileiros. Fonte: Elaborado pelo autor.

152
Verificando o site abril.com em suas versões anteriores, observamos
também que, durante um bom período de tempo, a página inicial apenas era usada para
divulgar as diversas publicações semanais da editora e não para divulgação direta de
notícias, procedimento que só foi implementado nos últimos anos e ainda de forma
parcial. Tal situação explica as diferenças encontradas nos gráficos acima e permite-nos
também explorar outro aspecto dos arquivos que é a sua estrutura gráfica ou visual.
Uma função ainda em fase de teste permite que também salvemos prints, ou
seja, visualizações das versões arquivadas (Figura 58), facilitando a compreensão das
mudanças estéticas ou funcionais que os administradores do site foram definindo ao
longo da série histórica analisada.

Figura 58: Recorte de print salvo a partir do site www.abril.com.br demonstrando que, nesse caso, a
utilização da home é mais utilizada para divulgação das revistas do que das notícias. Fonte: Elaborado
pelo autor.

Por fim, a partir dos endereços que contêm as páginas arquivadas é possível
coletar os textos utilizados nos links da página principal que indicam os temas de
interesse e, no caso de sites jornalísticos, em grande parte, as chamadas para as matérias
que foram publicadas.
Apenas como teste, utilizamos a ferramenta no site do LABCOM
(www.labcomufma.com) que tem poucas versões arquivadas na WB para extrair os
testos dos links e verificar a frequência de utilização de cada termo (Figura 59).

153
Figura 59: Gráfico que mostra as 50 palavras ou expressões mais usadas nas versões arquivadas do site
www.labcomufma.com. Fonte: Elaborado pelo autor.

Pelo gráfico é possível identificar que o projeto Semente Digital, que


trabalha a preservação do patrimônio histórico da cidade de São Luís utilizando
tecnologia, teve mais atenção nas publicações do site, perdendo apenas para a palavra
“confira”, muito utilizada para indicar links e chamadas de matérias.
No atual estádio de desenvolvimento, o código já consegue cumprir os
objetivos básicos inicialmente propostos, oferecendo um caminho simplificado para a
extração dos endereços de todas as versões arquivadas na WBM e posterior utilização
dos mesmos para análise da frequência de mudanças ao longo do tempo, arquivamento
de imagens das páginas principais e coleta e análise das palavras e expressões mais
utilizadas na série histórica em estudo.

154
POR FIM ...

A vertente aplicada do presente trabalho é um recorte de uma iniciativa mais


ampla voltada ao desenvolvimento de métodos específicos e de uma epistemologia
especializada para os estudos da Comunicação Digital. A automatização de processos
repetitivos e a análise de grandes volumes de dados têm demonstrado um potencial de
oportunidades em termos de pesquisa na área de Comunicação e o acesso à memória
digital, como no experimento aqui apresentado é um exemplo desse caminho.
A escala de aplicação de tais ferramentas, que implica em um gradiente de
possibilidades de utilização, não obriga nenhum pesquisador a aprender a programar,
mas aponta para um caminho onde a formação de equipes multidisciplinares e a
compreensão técnica das características dos meios de comunicação, principalmente a
internet, pode trazer fundamental diferença nos horizontes a serem vislumbrados.
Tal fato reflete-se principalmente na estratégia de amostragem permitida
que, com o software e a coleta automatizada, passa a oferecer mais abrangência e,
consequentemente, potencial de inferência maior.
Esta e outras soluções de código, tais como as também desenvolvidas em
Santos (2013, 2014), constituem a parte aplicada da proposta dos métodos digitais em
pesquisas da área de Comunicação que serão em breve oferecidas à comunidade
científica através de um site específico, ainda em construção, que utilizará o domínio
www.labcomdados.com.br.
O pensamento em direção a uma teoria da Comunicação Digital
Interconectada (CDI), que aqui apresento apenas em forma de anotações, continua,
motivado pela certeza de que o digital, assim como em tantas áreas da atividade
humana, também acabará por impor suas transformações no arcabouço teórico da
Comunicação contemporânea. As iniciativas aplicadas de desenvolvimento também
continuarão a fazer parte das minhas atividades porque me permitem transpor a barreira
entre apenas olhar para o mundo e tocar nele com minhas próprias mãos. Na maioria das
vezes, não há glamour no trabalho do artífice, nem no do pesquisador, mas o produto de
seu esforço faz diferença. Passo meus dias acreditando nessa simples premissa.

155
REFERÊNCIAS

ABBAGNANO, Nicola. Dicionário de Filosofia. São Paulo: Martins Fontes, 2007.

AMARAL, Ricardo C. Gomes. Infográfico Jornalístico de Terceira Geração: análise


do uso da multimidialidade na infografia. 245f. Dissertação (Mestrado em Jornalismo) -
Universidade Federal de Santa Catarina, Florianópolis. 2010.

ARCE, Tacyana. O lead automatizado: uma possibilidade de tratamento da informação


para o jornalismo impresso diário. Revista Exacta, Belo Horizonte, v. 2, n. 3, 2009.

ARMINDA, K.; WOITOWICZ, K. Multimidialidadee acessibilidade para pessoas com


deficiência no webjornalismo da América do Sul. In: SIMPÓSIO INTERNACIONAL
DE CIBERJORNALISMO, 5. 2014, Campo Grande. Anais..., Campo Grande- MS,
Brasil. 2014.

AUTOMATED INSIGHTS. 2013. Site Internet. Disponível em:


<www.automatedinsights.com>. Acesso em: 10 jan. 2013.

AZUMA, R. A survey of augmented reality. Presence – Teleoperators and Virtual


Environments, vol. 6, n. 4, ago., p. 355-385. 1997.

AXN. Hannibal. 2014. Disponível em: <http://www.axn.com/>. Acesso em: 10 jan.


2015.

BARABÁSI, A. László. Linked (Conectado): a nova ciência dos networks. São Paulo:
Leopardo, 2009.

BARBOSA, Suzana; TORRES, Victor. O paradigma ‘Jornalismo Digital em Base de


Dados’: modos de narrar, formatos e visualização para conteúdos. Galaxia (São Paulo,
Online), n. 25, p. 152-164, jun. 2013.

BARBOSA. Suzana. Jornalismo digital e bases de dados: mapeando conceitos e


funcionalidades. In: CONGRESSO DA ASSOCIAÇÃO PORTUGUESA DE
CIÊNCIAS DA COMUNICAÇÃO, 4., Aveiro, 2005. Livro de Actas..., Universidade
de Aveiro, 2005. Disponível em: <http://bocc.uff.br/pag/barbosa-suzana-jornalismo-
digital-bases-dados.pdf>. Acesso em: 19 fev. 2012.

______. Jornalismo Digital em Base de Dados (JDBD): um paradigma para produtos


jornalísticos digitais dinâmicos. 2007. Tese (Doutorado) – Universidade Federal da
Bahia. Salvador. Disponível em: <http://migre.me/aTuYN>. Acesso em: 4 fev. 2012.

______. Modelo Jornalismo Digital em Base de Dados (JDBD) em Interação com a


Convergência Jornalística. In: Textual & Visual Media. Revista de la Sociedad
Española de Periodística. Madrid, v. 1, p. 87-106. 2008.

______. Modelo JDBD e o ciberjornalismo de quarta geração. In: FLORES VIVAR, J.


M.; RAMÍREZ, F. E. (Ed.). Periodismo Web 2.0. Madrid: Editorial Fragua, p. 271-
283. 2009.

156
______. Jornalismo em ambientes dinâmicos: perspectivas, tendências e desafios para a
criação de conteúdos em tempos de convergência. In: CONGRESO
INTERNACIONAL DE CIBERPERIODISMO Y WEB 2.0. BILBAO, 3. Espanha.
Actas... Espanha: Universidad del País Vasco, 2011.

BELARMINO, J. Jornalismo e acessibilidade: apontamentos sobre contratos de leitura


para efeitos de reconhecimento de leitores especiais de jornais online. In: SIMPÓSIO
INTERNACIONAL DE CIBERJORNALISMO, 5. 2014, Campo Grande. Anais...,
Campo Grande, MS, Brasil. 2014.

BENEDIKT, Michael. Introduction to Cyberspace: first steps. Mit Press, 1991.


Disponível em:
<http://services.exeter.ac.uk/cmit/media/texts/benedikt1991/introduction.pdf>. Acesso
em: 29 jan. 2011.

BENKLER, Yochai. The wealth of the networks: how social production transforms
markets and freedom. Londres: Yale University Press, 2006.

BIG TEN NETWORK. 2014. Portal Internet. Disponível em: <www.btn.com>.


Acesso em: 12 abr. 2014.

BIRD, Steven; LOPER, Edward; KLEIN, Ewan. Natural Language Processing with
Python: analyzing text with the Natural Language Toolkit. New York: O’Reilly Media
Inc., 2009.

BOLTER, Jay; GRUSIN, Richard. Remediation. Understanding New Media.


Cambridge: The MIT Press, 2000.

BONACICH, Phillip; LU, Phillip. Introduction to mathematical sociology. New


Jersey: Princeton University Press, 2012.

BRADSHAW, Paul. Scraping for Journalists. Leanpub, [E-book], 2014.

______.; ROHUMAA, Liisa. The online journalism handbook: skills to survive and
thrive in the digital age. Essex: Pearson Education, 2011.

BRANCH, John. Snow Fall: the avalanche at Tunnel Creeak. The New York Times,
New York, (200-]). Disponível em: <http://www.nytimes.com/projects/2012/snow-
fall/?forceredirect=yes#/?part=tunnel-creek>. Acesso em: 2 jun. 2014.

BRICKEN, Meredith. Virtual Worlds: no interface to design. In: CONFERENCE ON


CYBERSPACE, 5. University of Texas, Austin. Anais... Maio 4-5, Austin, 1990.
Disponível em: <http://www.hitl.washington.edu/publications/papers/interface.html>.
Acesso em: 26 fev. 2011.

BUNGE, Mario. Teoria e Realidade. São Paulo: Perspectiva, 2008.

CARLSON, Matt. The Robotic Reporter: automated journalism and the redefinicion of
labor, compositional forms and journalistic authority. In: LEWIS, Seth C. (Org.).
Digital Journalism. v. 3, n. 3. New York: Taylor&Francis Online, 2014.

157
CASTELLS, Manuel. A sociedade em rede. São Paulo: Paz e Terra, 1999.

CHWE, Michael S. Communication and coordination in social networks. Review of


Economic Studies, 67, p. 128-156, 2000.

CLERWALL, Christer. Enter the Robot Journalist: User’s perception of automated


content. Journalism Practice. Special Issue – Future of Journalism in an age of digital
media and economic uncertainty. v. 8, n. 5. New York: Taylor&Francis Online, 2014.

COHEN, Julie. Cyberspace as/and Space. Columbia Law Review. v. 107, n. 1, p. 201-
256, jan. 2007. Disponível em:
<http://www.columbialawreview.org/assets/pdfs/107/1/Cohen.pdf>. Acesso em: 26 fev.
2011.

CORDEIRO, William. Infografia interativa na redação: o exemplo do Diário do


Nordeste. Mossoró, RN: Sarau das Letras, 2013.

COMSCORE. Brazil Digital Future in Focus. 2014. Disponível:


<http://agenciamarketingdigital.net/blog/2014_Brazil_Digital_Future_in_Focus_PT.pd>
. Acesso em: 7 abr 2015.

COPPIN, Ben. Inteligência artificial. Rio de Janeiro: LTC, 2010.

CUNHA, Antonio G. Dicionário etmológico da lingua portuguesa. Rio de Janeiro:


Lexikon Editora Digital, 2007.

DALEN, Arjen. The Algorithms Behind the Headlines: How machine-written news
redefines the core skills of human journalists. Journalism Practice. v. 6, n. 5-6. New
York: Routledge, 2012.

DEVAUX, Pierre. Autómatos, automatismo e automatização. Tradução Luis Borges


Coelho. Lisboa: Editorial Gleba, Coleção Horizonte, n. 3, 1964.

DIXON, Colin. What millennials want from TV. NscreenMedia, 2014. Disponível em:
<http://www.nscreenmedia.com/wp-content/uploads/nScreenMedia-
millennials_final.pdf . Acesso em: 18 maio 2015.

DRESCH, Aline; LACERDA, Daniel Pacheco; ANTUNES JR, José Antonio Valle.
Design Science Research: método de pesquisa para avanço da ciência e tecnologia.
Porto Alegre: Bookman, 2015.

DUBLON, Gershon; PARADISO, Joseph. Extra Sensory Perception – How a world


filed with sensors will change the way we see, hear, think and live. In: Scientific
American, p. 23-27, jul., 2014.

DUNBAR, R. I. M. Coevolution of neocortical size, group size and language in


humans. Behavioral and Brain Sciences, v. 16, v. 4, p. 681-735. 1993. Disponível:
<http://www.uvm.edu/~pdodds/files/papers/others/1993/dunbar1993a.pdf>. Acesso em:
06 jul. 2016.

158
DUSEK, Val. Philosophy of technology: an introduction. Malden, MA: Blackwell
Publishing, [E-book], 2006. Disponível em: <http://www.amazon.com/Philosophy-
Technology-Introduction-Val-Dusekebook/dp/B000SBTX1I/ref=sr_1_2?s=digitaltext&
ie=UTF8&qid=1391985949&sr=1-2&kegaywords=dusek>. Acesso em: 21 abr.
2013.

EASLEY, David; KLEINBERG, Jon. Networks, Crowds and Markets: reasoning


about a highly connected world. Nova York: Cambridge University Press, 2010.

ECO, Humberto. Apocalípticos e integrados. São Paulo: Perspectiva, 2006.

ELLUL, Jacques. A técnica e o desafio do século. Rio de Janeiro: Paz e Terra, 1968.

EPSTEIN, Isaac. Teoria da Informação. São Paulo: Ática, 1986.

FEENBERG, Andrew. Transforming technology: a critical theory revisited. New


York: Oxford University Press, [E-book], 2002.

______. Between reason and experience: essays in technology and modernity.


Cambridge, MA: Mit Press, [E-book], 2010.

FIDALGO, Antônio. Sintaxe e semântica das notícias on-line. Para um jornalismo


assente em base de dados. In: Fidalgo, A. & Serra, P. (Orgs). Informação e
Comunicação Online. Jornalismo Online. Covilhã: Universidade da Beira
Interior/Portugal, v.1. 2003.

______. Do poliedro à esfera: os campos de classificação. A resolução semântica no


jornalismo online. In: ENCONTRO NACIONAL DA SBPJOR, 2., 2004. Anais...
Salvador-BA, 2004.

______. A resolução semântica no jornalismo online. In: BARBOSA, S. (Org.).


Jornalismo digital de terceira geração. Covilhã, PT: LivrosLabCOM, p. 93-102.
2007.

GIBBONS, M. et al. The new production of knowledge: the dynamics of science and
research in contemporary societies. London: Sage, 1994.

GILBERT, Nigel. Agent-Based Models. Department of Sociology, University of


Surrey, UK. v. 153, 2008.

GORDON, Rich. The meanings and implications of convergence. In: Digital


Journalism- Emerging Media and the Changing Horizons of Journalism. New Yourk:
Rowman & Littlefield Publishers, 2003.

GLEICK, James. A informação: uma história, uma teoria, uma enxurrada. São Paulo,
Companhia das Letras, 2013.

GRAEFE, Andreas. Guide to Automated Journalism: tow center for digital


journalism. jan., 2016. Disponível em:

159
<https://www.gitbook.com/book/towcenter/guide-to-automated-journalism/details>.
Acesso em: 20 jan. 2016.

GUMBRECHT, Hans U. O tempo não hermenêutico na materialidade da comunicação.


In: ROCHA, João de Castro (Org.). Corpo e forma. Rio de Janeiro: Ed: UERJ, 1998.

______. The production of presence: what meaning cannot convey. Stanford, CA,
2004.

HAAK, Bregtje; PARKS, Michael; CASTELLS, Manuel. The Future of Journalism:


Networked Journalism. Internacional Journal of Communication. v. 6, 2012.

HANSEN, Dereck L.; SHNEIDERMAN, Ben; SMITH, Marc A. Analyzing Social


Media Networks with NodeXL: Insights from a Connected World. 1.ed. USA: MK,
2011.

HOROWITZ, A.; EVANS, B. Mobile is eating the world. 2014. Disponível em:
<http://www.slideshare.net/a16z/mobile-is-eating-the-world-40841467>. Acesso em: 11
jul. 2015.

IAB BRASIL. Brasil Conectado: hábitos de consume de mídia. Relatório 2014.


Disponível em <http://pt.slideshare.net/skrol/pesquisa-brasil-conectado>. Acesso em:
18 maio 2015.

IDHE, Don. Foreword. In: OLSEN, Jan; SELINGER, Evan; RIIS, Soren (Orgs.). New
waves in philosophy of technology. Hampshire, UK: Palgrave Macmillan, 2009.

INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA. IBGE. 2010.


Disponível em: <http://www.ibge.gov.br/home/>. Acesso em: 07 jul. 2016.

INSTITUTO BRASILEIRO DE OPINIÃO PÚBLICA E ESTATÍSTICA. Consumo da


internet pelos jovens brasileiros cresce 50% em dez anos, aponta IBOPE Media.
Acesso em: 28 jun. 2014. Disponível em: <http://www.ibope.com.br/pt-
br/noticias/Paginas/Consumo-da-internet-pelos-jovens-brasileiros-cresce-50-em-dez-
anos-aponta-IBOPE-Media.aspx>. Acesso em: 18 maio 2015.

INTERNET ARCHIVE. Digital library of millions of free books, movies, software,


music, websites, and more. 2014. Disnível em: <https://archive.org/index.php>. Acesso
em: 7 maio 2015.

JENKINS, Henry. Confronting the challenges of participatory culture: media


education for de 21st century. Massachusetts: MIT Press, [E-book], 2009. Disponível
em: <http://www.amazon.com/Confronting-Challenges-Participatory-Culture-
Foundation-
ebook/dp/B0030DFWZM/ref=sr_1_6?s=digitaltext&ie=UTF8&qid=1391986053&sr=1
-6&keywords=henry+jenkins>. Acesso em: 23 abr. 2014

KIPPER, G.; RAMPOLLA, J. Augmented reality: an emerging technologies guide do


AR. Waltham: Elsevier. [E-book], 2013.

160
KNIGHT, Megan; COOK, Clare. Social media for journalists: principles e practice.
Londres: Sage, 2013.

KNOKE, David; YANG, Song. Social Network Analysis. 2.ed. Londres: Sage, 2008.

KOLODZY, Janet. Practing Convergence Journalism: an introduction to cross-media


storytelling. New York: Routledge, 2013.

KUHN, Thomas. A estrutura das revoluções científicas. 9.ed. São Paulo: Perspectiva,
2009.

LABCOM DATA. Produção do laboratório de convergência de mídias. São Luís, 2016.


Disnpoível em: >http://www.labcomdata.com.br/>. Acesso em: 16 jun. 2014.

LAGE, Nilson. O lead clássico como base para a automação do discurso informativo.
In: CONGRESSO BRASILEIRO DE PESQUISADORES DA COMUNICAÇÃO
INTERCOM, 20., 1997, Santos. Anais... Santos, SP. 1997.

LATAR, Noam Lemelshtrich. The Robot Journalism in the Age of Social Physics: The
end of human journalism? In: The New World of Transitioned Media. Springer, 2015.

LEÃO, Lúcia. O Labirinto e a Arquitetura do Ciberespaço. In: NOJOSA, Urbano;


GARCIA, Wilton (Org.). Comunicação e Tecnologia. São Paulo: Nojosa, 2003, p.
153-167.

LEMOS, André. Cibercultura: tecnologia e vida social na cultura contemporânea. 4.


ed. Porto Alegre: Sulina, 2002.

LE MOIGNE, J. Le Constructivisme: fondements. Paris: ESF, 1994.

LEWIS, Seth; USHER, Nikki. Code, Collaboration and The Future of Journalism: a
case study of the Hacks/Hackers global network. Digital Journalism. Routledge
Online, 2014.

LOFGREN, Krista. Video Game Statistics & Trends: Who’s Playing What & Why?.
The big fish games. 2015. Disponível em: <http://www.bigfishgames.com/blog/2015-
global-video-game-stats-whos-playing-what-and-why/>. Acesso em: 20 maio 2015.

LIMA, Maria (Org.). Divisão Territorial Brasileira. IBGE: Rio de Janeiro, 2012.
LUTICE CRÉATIONS. Site Internet, Paris, [200-]. Disponível em:
<http://www.automates-boites-musique.com/>. Acesso em: 7 abr. 2014.

MACHADO, Elias. O ciberespaço como fonte para os jornalistas. São Paulo,


Editora Abril. p. 22, 2001.

______. O ciberespaço como fonte para os jornalistas. Salvador: Calandra, 2003.

______. O Jornalismo Digital em Base de Dados. Florianópolis: Calandra, 2006.

161
______. As limitações metodológicas nas pesquisas em Jornalismo: um estudo dos
trabalhos apresentados no GT de Jornalismo da Associação Nacional de Pós Graduação
em Comunicação. In: ENCONTRO NACIONAL DE PESQUISADORES EM
JORNALISMO, 10. 2012. Anais... Curitiba, 2012. Disponível em
<http://soac.unb.br/index.php/ENPJor/XENPJOR/paper/view/2146>. Acesso em: 26
jan. 2015.

_____.; ROHDEN, J. Metodologias de Pesquisa Aplicadas ao Jornalismo: Um estudo


dos trabalhos apresentados na SBPJor (2003-2007). Brazilian Journalism Research. v.
12, n. 1, p. 228-245. 2016.

______.; SANT’ANNA, J. Limitações metodológicas na pesquisa em Jornalismo: Um


estudo dos trabalhos apresentados no GT de Jornalismo da COMPÓS (2000-2010).
Revista Brasileira de Jornalismo, v.1, n. 1, p. 29-45. 2014.

MACEY, D. Dictionary of critical theory. Londres: Penguin Books, 2000.

MAHAJAN, Vijay; PETERSON, Robert. Models for Innovation Diffusion. Newbury-


CA: Sage, 1985.

MANOVICH, L. The language of new media. Massachusetts: Mit Press. 2001.

MARCH, S.; SMITH, G. Design and natural science research on information


technology. Decision Support Systems, v. 15, p. 251-266, 1995.

MARLOW, Cameron. Maintained Relationships on Facebook. Overstated. 2009.


Disponível em: <http://overstated.net/2009/03/09/maintained-relationships-on-
facebook>. Acesso em: 15 abr. 2012.

MAYFIELD, Ross. Social Network Dynamics and Participatory Politics. In:


LEBKOWSKY, John; RATCKIFFE, Mich (Orgs.). Extreme Democracy. Lulu Press,
[E-book], 2005. Disponível em: <http://akgul.bilkent.edu.tr/extreme-
democracy/Chapter%20Ten-Mayfield.pdf>. Acesso em: 19 abr. 2012.

MCLUHAN, Marshall. Os meios de comunicação como extensões do homem. Trad.


Décio Pignatari. São Paulo: Cultrix, 2007.

MCLUHAN, M.; MCLUHAN, E. Laws of Media. Toronto: University of Toronto.


1988.

MIELNICZUK, Luciana. Características e implicações do jornalismo na web. 2001.


Disponível em: <http://200.18.45.42/professores/chmoraes/comunicacao-digital/13-
2001_mielniczuk_caracteristicasimplicacoes.pdf>. Acesso em: 8 set. 2010.

MILGRAN, P. et al. Augmented Reality: a class of displays on the reality-virtuality


continuum. SPIE - Telemanipulator and Telepresence, v. 2351. 1994.
MITCHELL, Melanie. Complexity: a guided tour. Nova York: Oxford University
Press, 2009.

162
MIT MEDIA LAB. The Cognitive Limit of Organizations. 2011. Disponível em:
<http://blog.media.mit.edu/2011/10/cognitive-limit-of-organizations.html>. Acesso em:
13 abr. 2012.

MORETTI, Franco. Graphs, maps, trees: abstract models for literary history. New
York, Verso, 2007.

MORIN, Edgar. Introdução ao pensamento complexo. 4.ed. Porto Alegre: Sulina,


2005.

MOROZOV, Evgeny. A robot stoled my Pulitzer!: future tense. 2012. Disponível em:
<http://www.slate.com/articles/technology/future_tense/2012/03/narrative_science_rob
ot_journalists_customized_news_and_the_danger_to_civil_discourse_.html>. Acesso
em: 11 abr. 2014.

MURRAY, Janet. Hamlet no holodeck: o futuro da narrativa no ciberespaço. São


Paulo: Unesp, 2003.

NARRATIVE SCIENCE. 2010. Disponível em: <www.narrativescience.com>. Acesso


em: 10 jan. 2013.

NEWMAN, M. E. Networks: an introduction. Nova York: Oxford University Press,


2010.

NORTHWESTERN UNIVERSITY. Online Master of Science in Information Design


and Strategy. 2015. Disponível em: <http://sps.northwestern.edu/info/information-
design.php?utm_source=NYTimes&utm_medium=banner728x90design&utm_term=ap
rmay&utm_content=IDS&utm_campaign=IDS_NYTimes15&src=NYTimes_728x90de
sign> . Acesso em: 11 de abr. 2015.

NEWZOO. Global Games Market Report. 2013. Disponível em:


<http://www.newzoo.com/infographics/global-games-market-report-infographics/>.
Acesso em: 18 maio 2015.

OVERSTATED. Maintained Relationships on Facebook. 2009. Disponível em:


<http://overstated.net/2009/03/09/maintained-relationships-on-facebook>. Acesso em:
15 abr. 2012.

PALÁCIOS, M. Ferramentas para Análise de Qualidade no Ciberjornalismo.


Modelos. Covilhã, Portugal:UBI/Labcom books. [E-book], 2011.

PAUL, Nora M. Computer-assisted Research – a guide to tapping online information.


Chicago: Bonus Books, 1999.

PAVLIK, J.; BRIDGES, F. The emergence of augmented reality (AR) as a storytelling


medium in journalism. Journalism & Communication Monographs, v. 15, n. 1.
2013.

PORTAL TERRA. Esporte. 2014. Portal Internet. Disponível em:


<http://esportes.terra.com.br/futebol/brasileiro-serie-a>. Acesso em: 31 maio 2014.

163
PRELL, Christina. Social Network Analysis: history, theory and methodology. Los
Angeles: Sage, 2012.

PRIMO, Alex Fernando Teixeira; TRASEL, Marcelo. Webjornalismo participativo e a


produção aberta de notícias. Razon e Palabra, n. 52, n. 11, 2006. Disponível em:
<http://www.razonypalabra.org.mx/anteriores/n52/13PrimoyTrasel.pdf>. Acesso em: 19
abr. 2012.

PUNDAY, Daniel. The Narrative Construction of Cyberspace: reading Neuromancer,


reading cyberspace debates. College English, v. 63, n. 2, nov. 2000. Disponível em
<http://staff.washington.edu/schenold/engl111/resources/article_neuromancer_punday.p
df>. Acesso em: 28 jan. 2011.

QUINN, Stephen. Convergent Journalism: the fundamentals of Multimedia Reporting.


New York: Peter Lang, 2005.

QUINN, Stephen; LAMBLE, Stephen. Online Newsgathering: reasearch and reporting


for journalism. Burlington: Elsevier, 2008.

RAMOS, Daniela. Formato: condição para a escrita do Jornalismo Digital em Bases de


Dados. Uma contribuição da semiótica da cultura. Tese (Doutorado em Comunicação) –
Universidade de São Paulo, 2011. Disponível em: <http://migre.me/aTvzX>. Acesso
em: 30 abril 2015.

RECUERO, Raquel. Redes Sociais no Ciberespaço: uma proposta de estudo. In:


INTERCOM, 28., Universidade Estadual do Rio de Janeiro, 2005. Anais...,
Universidade Estadual do Rio de Janeiro, 2005. Disponível em:
<http://galaxy.intercom.org.br:8180/dspace/bitstream/1904/17859/1/R0096-1.pdf>.
Acesso em: 19 abr 2012.

RODRIGUES, Adriana Alves. Infografia Interativa em Base de Dados no


Jornalismo Digital. 130f. Dissertação (Mestrado em Comunicação) – Universidade
Federal da Bahia, Salvador. 2009.

ROGERS, Richard. Digital Methods. Cambridge: Mit Press. [E-book], 2013.

ROGERS, Everett. Diffusion of innovations. Nova York: Free Press. [E-book], 2003.
Disponível em: <http://www.amazon.com/Diffusion-Innovations-5th-Everett-Rogers-
ebook/dp/B000FC0NH8/ref=sr_1_1?s=digitaltext&ie=UTF8&qid=1391986181&sr=1-
1&keywords=everett+rogers>. Acesso em: 24 abr. 2013.

ROMME, A. Making a difference: organization as design. Organization Science, v. 14,


n. 5, p. 558-573, 2003.

RÜDIGER, Francisco. Introdução às teorias da cibercultura: tecnocracia,


humanismo e crítica no pensamento contemporâneo. 2. ed. Porto Alegre: Sulina, 2007.

RYAN, B; GROSS, C. The diffusion of hybrid seed corn in two Iowa communities.
Rural Sociology, v. 8, n. 1, p. 15-24. 1943.

164
SÁNDOR, S. Introduction to augmented reality. Karmamedia. [E-book], 2012.

SANTAELLA, Lúcia. Culturas e artes do pós-humano: da cultura das mídias à


cibercultura. São Paulo: Paulus, 2003.

______. Navegar no ciberespaço: o perfil cognitivo do leitor imersivo. São Paulo:


Paulus, 2004.

SANTOS, Márcio. Conversando com uma API: um estudo exploratório sobre TV social
a partir da relação entre o twitter e a programação da televisão. Revista Geminis, v. 4,
n. 1, p. 89-107, São Carlos. 2013. Disponível em:
<www.revistageminis.ufscar.br/index.php/geminis/article/view/129/101>. Acesso em:
20 abr. 2013.

SANTOS, Márcio. Textos gerados por software. Surge um novo gênero jornalístico. In:
CONGRESSO BRASILEIRO DE CIÊNCIAS DA COMUNICAÇÃO, 37. 2014.
Anais..., Foz do Iguaçu, 2014. Disponível em:
<http://www.labcomufma.com/biblioteca-digital>. Acesso em 26 jan. 2014.

SCOLARI, Carlos. Hipermediaciones: elementos para una Teoría da Comunicación


Digital Interactiva. Barcelona: Gedisa Editorial, 2008.

SENNETT, R. O artífice. Rio de Janeiro: Record, 2009.

SIMON, Herbert A. The architecture of complexity. In: Proceedings of the American


Philosophical Society. v. 106, n. 6. dez, 1962.

_____. The sciences of the artificial. 3ed. Cambridge: Mit Press, 1996.

SORIA, Carlos. Convergência de mídias. 2014. Palestra apresentada ao Seminário


sobre Integração Multimídia, São Luís, 2014.

STATISTA. Average daily media use in the United States from 2010 to 2014 (in
minutes). 2014. Disponível em: <http://www.statista.com/statistics/270781/average-
daily-media-use-in-the-us/>. Acesso em: 18 maio 2015.

STOCKINGER, Gottfried. A Interação em Ciberambientes e Sistemas Sociais. In:


LEMOS André; PALACIOS, Marcos (Org.). Janel@s do Ciberespaço: Comunicação e
Cibercultura. 2.ed. Porto Alegre: Sulina, 2001, p. 106-127.

UCHOA, Diego. Real e virtual: o potencial da realidade aumentada para meios


impressos. 2013. Monografia (Graduação em Jornalismo) – Universidade Federal do
Maranhão, São Luís.

UYEMOV, A. Problem of direction of time and the laws of system’s development. In.
KUBÁT, L; ZEMAN, J. (Org.). Entropy and information in science an philosophy.
Praga: Elsevier Sci. Publ. Co., 1975.

165
VAN AKEN, J. E. The research design for design science research in management.
Eindhoven: [s.n.], 2011.

VAN DICK, José. The culture of connectivity: a critical history of social media. [E-
book]. New York: Oxford Press, 2013.

VARGAS, M. Para uma filosofia da tecnologia. São Paulo: Alfa e Omega. 1994.

VIEIRA, Jorge de A. Ontologia. Formas de Conhecimento: Arte e Ciência. Uma visão


a partir da complexidade. Fortaleza: Expressão Gráfica e Editora, 2008.

VILCHES, Lorenzo. A migração digital. São Paulo: Loyola, 2003.

WALLS, J.; WYIDMEYER, G.; SAWY, O. Building an information system design


theory for vigilant EIS.Information Systems Research, v. 3, n. 1, p. 36-60, 1992.

W3C. World Wide Web Consortium – Escritório Brasil. Diretrizes de Acessibilidade


para o Conteúdo da Web 2.0. 2008. Disponível em:
<http://www.acesso.umic.pt/w3/TR/2008/REC-WCAG20-20081211/>. Acesso em: 25
maio 2013.

YOUNG, H. Peyton. Innovation Diffusion in Heterogeneous Populations: Contagion,


Social Influence, and Social Learning. The American Economic Review. v. 99, n. 5,
dez. p. 1899-1924. 2009. Disponível em: <http://www.fdewb.unimaas.nl/meteor-
seminar-et/spring-2008/papers-and-abstracts/Young-InnDiff21Sept07.pdf>. Acesso em:
17 abr. 2012.

YouTube. (2013, Janeiro 16). The Tokyo Shimbun "Share the Newspaper with
Children". [Arquivo de vídeo]. Disponível em:
<http://www.youtube.com/watch?feature=player_embedded&v=2ouW5W_tMbg>.
Acesso em: 06 jun. 2016.

166
APÊNDICE A

OS IMPACTOS DA TECNOLOGIA E O PROCESSO DE PRODUÇÃO


JORNALÍSTICA NAS REDAÇÕES E ASSESSORIAS DA CIDADE DE SÃO
LUÍS

O foco da investigação desta pesquisa é o espaço midiático em face da


segmentação digital, tendo-se como lugar de observação o ambiente jornalístico em
torno do qual está ocorrendo uma série de modificações no processo de construção da
informação.
Necessita-se, consequentemente, observar o modo pelo qual as
transformações ocorrem nas empresas de comunicação, o impacto que geraram e,
sobretudo, como se pode, no ambiente universitário, formar recursos humanos que
acompanhem essas mudanças e, quando se fizer preciso, antecipar demandas sobre as
quais ainda não haja interesse mercadológico explícito.
A matriz conceitual de onde emana a investigação, aqui empreendida,
destaca o marco divisório da expressão digital. Entende-se como produção digital toda a
possibilidade tecnológica de converter materiais distintos como textos, números, fotos,
vídeos e áudio em uma espécie de denominador comum, isto é, arquivos digitais que
partilham o mesmo ‘DNA eletrônico’ (sequências binárias de zeros e uns) é a chave do
que hoje se conhece por convergência.
Tal fato, unido à capacidade de fazer trafegar esses arquivos digitais entre
pontos interligados por uma estrutura de rede, amplia ainda mais o novo cenário
gerando todos os outros termos com os quais atualmente se convive: web 2.0, redes
sociais, blogs, wikis, gestão do conhecimento, comunicação um para muitos,
interatividade, participação.
Dois objetos de discussão, no caso do jornalismo, colocam-se (MACHADO,
2003, p. 19) no debate acerca das tecnologias digitais. Elas são ferramentas para
alimentar as redações com informações complementares àquelas obtidas pelos meios
tradicionais e também criam um ambiente diferenciado, alvorecendo uma modalidade
distinta de jornalismo pela qual todas as etapas do sistema de produção ficam
localizadas no ciberespaço. Para que tais vocações se consolidem, é indispensável à
aquisição de hardwares e de softwares, além da capacitação adequada de recursos
humanos para o trabalho com estas ferramentas operacionais.
Evidencia-se, com efeito, a mudança no perfil do profissional de mídia,
entrando em cena uma heterogeneidade pluritemporal (SANTAELLA, 2003, p. 59),
deslocando-se o modus operandi no interior das redações, assim como a estrutura
simuladora de redação nos laboratórios universitários que também terão,
obrigatoriamente, de estar interligados em redes digitais, garantindo-se a estocagem de
conteúdo para as diversas atividades disciplinares e para a experimentação de novos
produtos e de novos serviços midiáticos.
Para tanto, a hipótese de trabalho desta investigação é que tanto a prática
profissional quanto a condução didática do ensino de Jornalismo podem permanecer
vinculadas aos modelos tradicionais do fazer jornalístico, anteriores aos processos
digitais, embora utilizando as novas ferramentas tecnológicas, razão pela qual se
desenvolve uma assimetria entre as possibilidades geradas pelo universo digital e o real
aproveitamento dessas potencialidades, contra a qual somente uma inserção na cultura
das mídias pode proporcionar um novo habitus profissional concernente a estes
ambientes digitais.

167
A investigação em ambiente laboratorial universitário sobre as
possibilidades, limites e inovações experimentais pode ter como farol sinalizador o fato
de o poder contido nas redes de mídia estar posicionado “em segundo lugar em relação
ao poder dos fluxos incorporados na estrutura e na linguagem das redes” (CASTELLS,
2007, p. 572). Trocando em miúdos, o que está em questão não é propriamente o
conteúdo de que é portadora a mensagem, mas o processo e a maneira pelas quais se
constrói essa expressão midiática.
Adentra-se ao universo conceitual das linguagens líquidas, às quais Lúcia
Santaella lança um olhar histórico e reflexivo:
Dos anos 1980 para cá os acelerados desenvolvimentos e apuros
tecnológicos, especialmente dos programas computacionais, como, por
exemplo, aqueles fazem uso de algoritmos genéticos, provocaram crescente
evolução das imagens geradas computacionalmente, que culmina hoje na
vida artificial, na realidade virtual e na realidade aumentada e mista.
(SANTAELLA, 2007, p. 391).

Quem vivenciou, mesmo que somente de modo empírico, as etapas que


precederam o momento atual, pode se dar conta da mudança paradigmática às quais a
autora se reporta.

1 OBJETIVOS

Mapear o impacto ou alterações que o uso de Tecnologias de Informação e


Comunicação (TICs), tais como computadores, redes, equipamentos digitais de captação
e produção de conteúdo, acesso à internet e outros, tem gerado nas principais redações
jornalísticas e assessorias da cidade de São Luís.
Delinear o atual perfil que o mercado das redações jornalísticas de São Luís
espera ou deseja de um jornalista recém-formado que é integrado aos seus quadros. Que
tipos de habilidades são desejáveis? Quais seriam consideradas diferenciais? Que
tecnologias ou técnicas são consideradas importantes a um jovem profissional que
procura uma vaga nesse mercado?

2 REFERÊNCIAS TEÓRICAS

Além da literatura e autores elencados nas referências bibliográficas, o


estudo partiu de uma pesquisa anterior, realizada a nível global, da qual participaram
várias universidades do mundo, feita em 2006 pela Rede Iberoamericana de
Comunicação Digital – Rede ICOD – chamada ‘Comunicação Digital: Competências
Profissionais e Desafios Acadêmicos’ (2006), na qual foram apontadas uma série de
indicações sobre o que os profissionais deveriam saber e saber fazer (teoria e prática)
para participarem das mudanças nas novas redações digitais. Resolvemos, então, usar as
conclusões da pesquisa como ponto de partida e ver se aquelas habilidades valiam e
eram valorizadas em São Luís.
O trabalho foi dividido em quatro etapas:

Fase 1: coleta das informações gerais sobre o tema e revisão do


material bibliográfico levantado. Treinamento da equipe de
campo, formatação de pedidos de encaminhamento para solicitar
o apoio das empresas e instituições participantes e autorizações
relacionadas. Levantamento de mailing e lista de contatos dos
responsáveis pelas redações e assessorias.

168
Fase 2: formatação dos questionários e aplicação dos mesmos
em redações e assessorias jornalísticas na cidade de São Luís.
Fase 3: tabulação de dados.
Fase 4: análise, geração de relatórios e infográfico com o
resumo da pesquisa e divulgação dos resultados em evento
público.

3 QUESTÕES E MÉTODOS

As questões principais envolvidas na pesquisa são: como as novas


tecnologias estão mudando as nossas redações jornalísticas? Que tipos de habilidades os
profissionais devem ter para participar desse processo? Onde isso está acontecendo com
mais ênfase e em que setores – rádio, TV, internet, comunicação organizacional? Que
tecnologias estão sendo aplicadas e com que objetivos? Qual a visão de futuro que as
pessoas que trabalham nas redações têm da sua própria profissão?
A partir da pesquisa feita em 2006 pela Rede Iberoamericana de
Comunicação Digital – Rede ICOD – Comunicação Digital: Competências Profissionais
e Desafios Acadêmicos (2006) foram selecionadas as habilidades que seriam
apresentadas aos profissionais das redações e assessorias para que apontassem, no
questionário principal, que habilidades achavam mais importante, em uma escala padrão
variando de sem importância até muito importante.
Para tanto, foram elaborados três tipos de questionário: um fechado para
jornalistas nas redações, que basicamente pede a eles que, em uma escala, estabeleçam a
importância das várias habilidades listadas. Esse questionário subdivide-se em uma
parte geral comum a todas as redações e uma parte específica que contempla as
diferentes questões envolvendo redações ligadas ao jornal impresso, ao rádio, aos
portais jornalísticos, à TV e às assessorias ligadas à comunicação organizacional.
Outro tipo de questionário aberto é a base das entrevistas que fizemos com
um gestor de cada redação, ou seja, alguém que tenha a visão do processo jornalístico,
mas também do contexto administrativo ou do negócio. Por fim, o terceiro tipo de
questionário foi elaborado para os profissionais de TI – Tecnologia da Informação –
para entender também o lado técnico da mudança.
No questionário principal, foi estabelecida uma métrica que aplicava pesos
distintos às diversas possibilidades de resposta. Tal procedimento facilitou o desempate
para a seleção das habilidades mais importantes considerando que muitos dos
entrevistados definiram a maior parte das habilidades dentro das categorias que
valorizam a importância da mesma.

4 RESULTADOS

De forma geral, pode-se apontar como resumo do levantamento feito as


seguintes constatações: a pesquisa ouviu profissionais das redações e assessorias,
profissionais de TI que dão suporte às atividades dos profissionais de comunicação e
gestores ou responsáveis por essas redações ou assessorias.

4.1 Pesquisa com os profissionais

Na pesquisa com os profissionais, os entrevistados avaliaram em termos de


importância várias habilidades sugeridas. Abaixo as habilidades que tiveram os maiores
índices de indicação como ‘muito importante’.

169
5.1.1 Área geral – conhecimento (teoria)
5.1.1.1 Competências digitais

1. Conhecer as potencialidades e funcionamento das REDES SOCIAIS


– 68%.
2. Conhecer a LEGISLAÇÃO relativa a direitos autorais, delitos e
privacidade na comunicação digital – 58%.

5.1.1.2 Competências não digitais

1. Conhecer os processos de produção em todas as suas fases – 86%.


2. Saber línguas estrangeiras – 58%.

5.1.2 Área geral – capacidades (prática)


5.1.2.1 Competências digitais

1. Atualização profissional no uso de novas tecnologias de


informação e comunicação – 86%.
2. Saber procurar informação proveniente dos meios digitais e fontes
tradicionais – 82%.

5.1.2.2 Competências não digitais

1. Aplicar os fundamentos éticos da prática profissional – 90%.


2. Dominar as técnicas de retórica e redação – 84%.

5.1.3 Setoriais
Nos questionários setoriais destaca-se aqui apenas o item com maior índice
de interesse e importância entre as competências digitais.

• INTERNET – CONHECIMENTO – saber desenhar e produzir dentre os novos


formatos de comunicação (fóruns, blogs, wikis, p2p, softwares de trabalho
colaborativo).
• INTERNET – CAPACIDADES – dominar as técnicas de redação digital.
• ORGANIZACIONAL – CONHECIMENTO – conhecer as principais
potencialidades das Tecnologias da Informação para usar em Comunicação
Interna e Externa.
• ORGANIZACIONAL – CAPACIDADES – desenhar, produzir e avaliar
boletins informativos digitais.
• RÁDIO – CONHECIMENTO – conhecer as novas formas de transmissão digital
– rádio online, podcasting.
• RÁDIO – CAPACIDADES – desenhar e produzir conteúdo para as novas
modalidades digitais.
• TV – CONHECIMENTO – conhecer formatos dos arquivos digitais e técnicas
de compressão.
• TV – CAPACIDADES – adaptar-se a trabalhar em diferentes funções dentro do
meio.

170
4.2 Pesquisa com o pessoal de TI – Tecnologia da Informação

Todas as empresas têm setor próprio específico para cuidar de tecnologia,


sem usar terceiros.
1) Em média há oito funcionários nestes setores.
2) Todas as redações estão interligadas por redes.
3) Windows é o sistema operacional usado por todos.
4) Todas usam algum tipo de software para fazer o trabalho de produção
jornalística em suas várias etapas.
5) Os jornalistas publicam diretamente seus conteúdos em sites e portais
sem a intervenção direta do pessoal de TI e através de soluções de
CMS (gerenciamento de conteúdo).
6) Todas as redações têm políticas ou regras para o uso da internet e, em
todas, essa política é a mesma para os outros setores.
7) A banda do link de internet varia de dois a 50 megas.
8) 2/3 dos entrevistados estão trabalhando em planos de mudança ou
expansão.
9) Os técnicos acham que a tecnologia possibilita disponibilizar conteúdo
de forma mais rápida para um número também maior de pessoas.
10) Acham também que o processo de gerenciamento do fluxo de
informações foi melhorado.

4.3 Pesquisa com os gestores

O novo perfil do profissional identificado pelos gestores trouxe várias


observações sobre a questão. Os itens mais recorrentes foram: o novo profissional de
comunicação deve ter conhecimento e capacidade de atuar no ambiente das mídias
sociais; deve conseguir trabalhar com as diversas modalidades midiáticas – texto, som e
imagem; precisa escrever melhor, com maior domínio sobre a língua portuguesa e
também conhecer outras línguas.

5 DISCUSSÃO E CONCLUSÕES

O item 2.5 do projeto inicial delineava os contornos da ação e do foco da


pesquisa, ressaltando a importância do fato de se estar em pleno momento da
convergência e da operação em rede. Entende-se que a fusão de redações é somente um
dos aspectos práticos da convergência de mídia. Trata-se de um processo
multidimensional que, no mínimo, compreende aspectos relacionados com as
tecnologias de produção e de consumo da informação, com a organização interna das
empresas, com o perfil das mídias e, por consequência, com os próprios conteúdos que
se comunicam (SALAVERRÍA; NEGREDO, 2008). Portanto, capturar a percepção dos
gestores e dos operadores das redações é um elemento-chave para que se entenda a
transição pela qual passam as redações dos veículos tradicionais de mídia de São Luís
do Maranhão.
É interessante (e até certo ponto inusitado) que os gestores tenham
reclamado, nas respostas ao questionário, de uma pouca familiaridade dos jovens
profissionais com o idioma, sobretudo no que tange à redação sob o ponto de vista
jornalístico, estendendo-se as queixas à escassez de prática laboratorial.
Tais demandas sinalizam vir ao encontro do que determina o relatório final
da comissão que formulou, durante o ano de 2009, as Diretrizes Curriculares Nacionais

171
para os Cursos de Jornalismo, tendo à frente o professor José Marques de Melo:
redimensionar o ensino da profissão de jornalista. O texto foi recentemente aprovado
pelo Conselho Nacional de Educação, cabendo sua implementação aos cursos já
existentes (e os que vierem a ser criados), doravante denominados de Curso de
Bacharelado em Jornalismo; e, não mais, Curso de Comunicação Social – Habilitação
em Jornalismo. A ênfase estará colocada no desenvolvimento dos eixos fundamentais
de formação do jornalista: fundamentação humanística, fundamentação específica,
formação profissional, aplicação processual e prática laboratorial.
Ao pleno domínio da língua portuguesa (demanda cara aos gestores), serão
agregados os repertórios de conhecimento, por exemplo, em história, filosofia,
sociologia, disciplinas também lembradas pelos diretores de redação como desejáveis
aos profissionais, paralelamente a conhecimentos específicos em computação gráfica,
vídeos fotografia etc., razão pela qual já se admite, sem maiores ressalvas, que será
necessária uma reforma curricular nos cursos de Jornalismo, mesmo naqueles em que
houve mudanças curriculares há pouco tempo.
A preocupação com uso eficaz da rede mundial de computadores foi outro
ponto das observações levantadas pelos gestores de redação. Para alguns, a graduação
universitária deveria capacitar o futuro profissional para ir, preferencialmente, a fontes
de cuja credibilidade não haja contestação. Se, indubitavelmente, existem ganhos no
quesito tempo de apuração com a internet, necessita-se de fontes com credibilidade, da
qual possam brotar pautas inovadoras, no sentido de mudar o foco da abordagem
convencional e, mais ainda, exercer um papel fundamental na fiscalização dos poderes,
elevando-se, com isso, a participação da mídia na tarefa de construção da cidadania.
Trata-se, portanto, de um tema candente ao debate acerca da credibilidade
do material encontrado, por exemplo, na chamada blogosfera. O diferencial do
jornalista para o blogueiro opinativo tende a ser a capacidade de o primeiro orientar-se
por pesquisa documental extraída dos arquivos disponibilizados pela própria internet.
O trabalho de reinvenção dos cursos de Jornalismo passa pelas demandas do
mercado, assim como pelas soluções pedagógicas, no âmbito acadêmico, cujos
dimensionamento e impacto esta pesquisa, pioneiramente, mapeou, sendo este somente
um começo para um diálogo entre a universidade e as empresas de comunicação,
imbuído do propósito de reposicionar as práticas de treinamento, de procedimento e de
gestão em ambientes jornalísticos.

172
Figura 1: Infográfico gerado com os principais resultados. Fonte: Elaborado pelo autor.

173
REFERÊNCIAS

CASTELLS, Manuel. A sociedade em rede. São Paulo: Paz e Terra, 2007.

MACHADO, Elias. O ciberespaço como fonte para os jornalistas. Salvador:


Calandra, 2003.

SALAVERRÍA, Ramón; NEGREDO, Samuel. Periodismo integrado. Barcelona:


Editorial Sol 90, 2008.

SANTAELLA, Lúcia. Culturas e artes do pós-humano: da cultura das mídias à


cibercultura. São Paulo: Paulus, 2003.

______. Linguagens líquidas na era da mobilidade. São Paulo: Paulus, 2007.

174
APÊNDICE B

COMO AVALIAR AS CHANCES DE ADOÇÃO DE UMA NOVA


TECNOLOGIA?

1 DIFUSÃO DE INOVAÇÕES
O campo acadêmico da Difusão de Inovações – DI (Diffusion of
Innovations) – traz importantes contribuições para nossa análise e, por isso, faremos
uma pequena revisão de alguns dos seus principais conceitos para que possam ser
operacionalizados dentro do nosso estudo.
Os estudos de DI têm suas origens segundo Rogers (2003) em três fontes
básicas:

a) o trabalho do francês Gabriel Tarde que a partir das suas “leis da


imitação” iniciou a discussão sobre como determinadas ideias ou
comportamentos são replicados entre as pessoas. O que Tarde
chamava de imitação, hoje poderíamos considerar como o que
identificamos como adoção;

b) os estudos do alemão Georg Simmel, contemporâneo de Tarde e um


dos primeiros pesquisadores a ser considerado como cientista social,
que indicaram a necessidade do estudo das redes de comunicação
pela sua aplicabilidade como ferramenta para a compreensão dos
processos de difusão em um sistema;

c) os grupos conhecidos como difusionistas ingleses e alemães ligados à


antropologia que a partir da análise de outras culturas observavam
como determinadas práticas eram adotadas ou não por grupos sociais
distintos. O difusionismo é o ponto de vista que defende que as
mudanças sociais são o resultado da introdução de inovações que se
espalham a partir de uma origem em determinado sistema social.

Apesar das contribuições anteriores, é o estudo de Ryan e Gross (1943)


sobre a adoção de um novo tipo de semente de milho em duas comunidades rurais de
Iowa – EUA que inaugura o período dos estudos clássicos sobre a temática, que depois
terá em Rogers (2003) e Valente (1995) dois de seus principais autores.
Para Valente (1995, p. 2), “difusão de inovações é a propagação de novas
ideias, opiniões ou produtos através de uma sociedade”90.
Segundo Rogers, “difusão é o processo pelo qual uma inovação é
comunicada através de certos canais ao longo do tempo entre membros de um sistema
social. É um tipo especial de comunicação no qual as mensagens são concebidas como
novas ideias”91 (ROGERS, 2003, p. 2).
Os principais elementos relacionados à ideia de difusão são inovação, canais
de comunicação, tempo e sistema social. Inovação é “uma ideia, prática ou objeto que é

90 “Diffusion is the spread of new ideas, opinions, or products throughout a society.”(Tradução do autor).
91 “Diffusion is the process by which an innovation is communicated through certain channels over time
among the members of a social system. It is a special type of communication, in that the messages are
concerned with new ideas.” (Tradução do autor).

175
percebido como novo por um indivíduo ou outra unidade de adoção” (ROGERS, 2003,
p. 11).
É importante ressaltarmos o termo “percebido” porque se a inovação é
realmente nova ou não, em termos do tempo que transcorreu entre o seu primeiro uso ou
descoberta, segundo Rogers, não tem tanta relevância como a percepção que o indivíduo
tem sobre o fato. Se a ideia parece nova, para quem toma ciência dela, será uma
inovação.
Se pensarmos a implementação de uma nova tecnologia como uma
novidade que flui pela rede de atores sociais envolvidos no processo, uma espécie de
inovação que as pessoas escolhem ou não adotar, talvez possamos aplicar certos
modelos de difusão ao nosso objeto.
Desde o já citado trabalho de Ryan e Gross (1943), os adotantes de uma
inovação foram divididos em categorias que refletem a dinâmica de propagação da
mesma na rede social. Rogers os define como inovadores, adotantes imediatos, maioria
imediata, maioria posterior e retardatários. O autor propõe que a maioria das inovações
tem sua velocidade de adoção representada por uma curva com formato de S como
abaixo.

Figura 1: Gráfico S. Fonte: Ryan e Gross (1943).

Esse tipo de categorização tem sido amplamente utilizado em diversas áreas,


entre elas o Marketing que o utiliza no planejamento para o lançamento de novos
produtos.
Em cada área de produtos há pioneiros de consumo e adotantes imediatos.
Algumas pessoas são as primeiras a adotar novas modas de roupas ou novos
utensílios; alguns médicos são os primeiros a prescrever novos
medicamentos, e alguns fazendeiros são os primeiros a adotar novos métodos
de cultivo. Outros indivíduos adotam novos produtos bem mais tarde
(KOTLER, 2000, p. 378).

Rogers afirma que a difusão de inovações está relacionada ao nível de


incerteza que os atores apresentam em relação a ela e a busca de informações que
realizam para minimizar essa incerteza.
O processo inovação-decisão é essencialmente uma atividade de procura de
informações e processamento de informações no qual um indivíduo é

176
motivado a reduzir a incerteza sobre as vantagens ou desvantagens da
inovação (ROGERS, 2003)92.

As etapas envolvidas no processo de adoção de determinada inovação,


segundo Rogers (2003), envolvem cinco etapas:

a) Conhecimento – que acontece quando o indivíduo ou a unidade de


adoção (uma empresa, por exemplo) fica sabendo da existência de
determinada inovação e também como ela funciona em termos gerais.

b) Persuasão – que é a fase onde a unidade de adoção estabelece uma


atitude favorável ou desfavorável em relação à inovação.

c) Decisão – acontece quando o indivíduo ou unidade de adoção


começam a desenvolver atividades ou realizar ações práticas no
sentido de adotar ou não a inovação.

d) Implementação – é estabelecida quando a inovação é efetivamente


colocada em uso. Nessa fase um processo interessante pode também
ser observado que é o da reinvenção ou apropriação customizada, ou
seja, quando o adotante altera ou utiliza a inovação de uma forma
diferente da concebida pelos seus criadores ou agentes interessados
na sua difusão.

e) Confirmação – é a busca por reforço ou reversão após a


implementação de uma determinada inovação. Se a percepção de
benefícios é validada, a adoção se sustentará e permanecerá em
utilização; se essa percepção for confusa ou não condizente com as
expectativas iniciais, poderá haver alterações no processo ou até
mesmo a desistência em usar aquela novidade.

Nesse processo, a influência daqueles com quem mantemos contato, ou seja,


dos que pertencem a nossa rede de relacionamentos é fundamental.
Assim, mesmo que um esforço de comunicação utilizando veículos de
massa seja feito para divulgar determinado produto ou campanha pública como, por
exemplo, a campanha do “Se beber não dirija”, efetiva também será a opinião ou adoção
daquele produto ou comportamento por pessoas que estejam próximas a nós e que, no
geral, irão nos influenciar talvez até de forma mais eficiente.
Para efeito deste trabalho, entenderemos a velocidade de adoção ou razão de
adoção (rate of adoption) como sendo a medida do tempo necessário para que
determinado percentual dos membros de um sistema social adote uma inovação.
São elas: vantagem relativa, compatibilidade, complexidade, testabilidade e
observabilidade. Como veremos abaixo, em todos os critérios, a introdução da
característica da interatividade no ambiente dos núcleos de produção audiovisual das
emissoras de TV segue o percurso contrário ao que poderíamos chamar de ideal no
sentido de estimular sua adoção.

92 “The innovation-decision process is essentially an information-seeking an information-processing


activity in which an individual is motivated to reduce uncertainty about the advantages and disadvantages
of the innovation.” (Tradução do autor).

177
2 VANTAGEM RELATIVA (RELATIVE ADVANTAGE)

Definida como o grau com que uma inovação é percebida como melhor que
a ideia que ela substitui.
Basicamente, a maioria das inovações está relacionada a algum tipo de
vantagem que deve ser percebida pelo potencial adotante em relação à situação que ele
tem sem ela. Por exemplo, no estudo clássico de Ryan e Gross (1943) o que eles
mapearam foi a adoção de um novo tipo de semente de milho, que oferecia um nível de
produtividade maior do que o nível conseguido até então pelas sementes tradicionais,
selecionadas a partir da própria produção que o fazendeiro obtinha na colheita anterior.
As sementes híbridas (hybrid seeds) representavam, naquela época na
América, o início de uma forte intervenção que a indústria de implementos, defensivos e
produtos industrializados para a agricultura trazia aos produtores agrícolas, impactando
muitas práticas tradicionais que eram conhecidas e replicadas há décadas entre esses
atores sociais.
As sementes híbridas tinham que ser compradas a cada ciclo de plantio e,
por isso, representavam uma mudança na forma como os fazendeiros organizavam os
custos da sua produção. Desse modo, um esforço inicial de divulgação da adoção foi
iniciado, mas o processo durou cerca de 10 anos nas comunidades de Iowa estudadas
pelos pesquisadores, que constataram também a influência das relações interpessoais
entre os membros da comunidade.
Valente (1995) cita um estudo semelhante que também monitorou a adoção
de novas sementes de milho no Brasil em 1970. Aqui, um processo parecido durou 20
anos para que se alcançasse um nível alto de prevalência93, ou seja, de adoção pelo
grupo estudado.
Nas duas situações, uma das forças que guiou o processo de adoção foi
justamente a percepção pelos agricultores da vantagem em termos de produtividade que
a nova semente oferecia. Tal vantagem foi sendo cada vez mais reforçada à medida que
novos adotantes passavam a trabalhar com a nova modalidade, multiplicando também
os exemplos de sucesso e motivando outros fazendeiros a replicarem a utilização da
inovação.

3 COMPATIBILIDADE (COMPATIBILITY)

É o grau com que uma inovação é percebida como consistente com valores,
experiências passadas e necessidades pré-existentes de potenciais adotantes.
Um conceito ligado à ideia de compatibilidade é o de agrupamentos
tecnológicos (ROGERS, 2003), que consistem em “um ou mais elementos distinguíveis
de uma tecnologia que são percebidos como sendo fortemente relacionados”.
É interessante observarmos que entre as características ligadas ao SBTVD-
T, é a interatividade que menos apresenta esse grau de inter-relação com as demais
possibilidades técnicas.
A melhor resolução da imagem, o áudio superior, a redução dos ruídos ou
distorções na tela e até a possibilidade de visualização em um celular parecem compor
um grupo que poderia ser chamado de agrupamento tecnológico (technology cluster),
nos termos de Rogers, por basicamente representarem melhorias incrementais na
transmissão tradicional dos fluxos de áudio e vídeo; no máximo, propondo novas
plataformas de recepção, mais ainda assim do conteúdo audiovisual tradicional. Já a

93 No caso dessa pesquisa, Valente (1995) aponta que depois de 20 anos as sementes hibridas de milho
foram adotadas por 98% dos agricultores pesquisados, 692 respondentes em 11 comunidades rurais.

178
interatividade acrescenta efetivamente possibilidades que vão além do que estamos
acostumados a receber, como um conteúdo normal da programação televisiva.
A literatura de DI é rica em exemplos sobre como o desconhecimento de
padrões ou rotinas já consolidadas, tradições culturais ou comportamentos arraigados
nas práticas diárias de determinada comunidade ou grupo foi responsável por insucesso
na adoção de inovações que foram percebidas como incompatíveis ou estranhas diante
do que se conhecia como usual ou tradicional.
Lansing (1991) demonstrou como o fracasso da introdução de novas
modalidades de arroz e técnicas do seu plantio na ilha de Bali94 estava relacionado ao
desconhecimento do governo que as incentivou sobre as formas tradicionais de irrigação
das plantações de arroz, um produto da maior importância na cultura balinesa.
O complexo ecossistema da ilha e seus vínculos com aspectos da religião
local não foram considerados quando o governo decidiu incrementar a produção de
arroz do país através da adoção de técnicas intensivas de plantio, inclusive com a
introdução do uso de pesticidas e defensivos agrícolas, na campanha de difusão que
ficou conhecida como “revolução verde”.
Os resultados foram muito negativos porque, com o abandono das formas
tradicionais do controle do fluxo de água para irrigação dos campos realizados pelos
antigos responsáveis, uma série de problemas de contaminação e aumento das
populações de ratos e insetos aconteceu, levando a campanha de difusão a um grande
fracasso.
Posteriormente, Lansing com a ajuda de uma equipe especializada modelou
uma simulação computadorizada que demonstrou que o sistema tradicional de irrigação
era o que permitia, dadas as condições do ecossistema local, a forma mais efetiva de
plantio, algo que os nativos vinham fazendo da mesma forma há pelo menos 800 anos.
O desconhecimento da tradição local, que ainda era reforçada por vários
aspectos ligados à religiosidade do povo, levou ao insucesso das inovações que
aparentemente eram boas, mas que, na percepção dos potenciais adotantes, eram
totalmente incompatíveis com tudo que tinham aprendido e em que acreditavam.
Mesmo os benefícios das novas técnicas nunca foram verificados de forma efetiva
justamente pelos problemas de desequilíbrio ecológico criados pelos métodos da
revolução verde. Lansing, um antropólogo, chamou a simulação criada de “a deusa e o
computador” e depois de um tempo retornou a Bali para apresentá-la aos líderes
religiosos das comunidades locais.

4 COMPLEXIDADE (COMPLEXITY)

É o grau com que uma inovação é percebida como relativamente difícil de


compreender e usar.
A dificuldade encontrada por um grupo de possíveis adotantes para avaliar
as vantagens de determinada inovação devido à percepção de que ela é complexa ou
complicada de usar pode inviabilizar qualquer esforço de difusão.
No caso da interatividade em TV digital no Brasil, esse é um dos itens que
mais compromete a difusão, considerando que a inovação precisa ser adotada por
profissionais de TV e que, basicamente, implica em lidar com códigos de programação
em linguagens como a NCL (vide exemplo abaixo), o que em tese desmotiva a
experimentação e a capacidade de observar os benefícios envolvidos na adoção, fatores
que detalharemos também adiante.

94 Bali é uma ilha da Polinésia no Pacífico Sul.

179
Figura 2: Exemplo de Código NCL. Fonte: Elaborado pelo autor.

Rogers (2003) comenta o processo de adoção dos primeiros computadores


pessoais nos Estados Unidos na década de 80. Apesar dos primeiros adotantes terem
sido amantes de tecnologia, muitos deles das áreas de engenharia e ciência da
computação, para a maioria das pessoas a experiência com os primeiros computadores
não foi fácil. Havia dificuldade de conseguir programas e de instalá-los, pouca
assistência dos revendedores e mesmo o que estava disponível nos manuais desses
equipamentos não ajudava muito.
Nesse período, foi identificada uma frustação entre os adotantes que
consideravam a novidade muito difícil de ser usada, gerando um descompasso entre o
valor despendido na aquisição e os benefícios que efetivamente eram percebidos depois
que ela acontecia. Dessa forma, a complexidade foi um dos fatores identificados como
força negativa que minimizou a velocidade de adoção dos computadores pessoais na
América dos anos 80.
Posteriormente, a situação mudou. A indústria começou a sintonizar seus
lançamentos orientando-se pelo objetivo de minimizar o problema. Os próprios usuários
também encontraram soluções próprias para superá-lo. Uma delas foi uma espécie de
prévia do que aconteceria depois em larga escala: a união em grupos e clubes de pessoas
que compartilhavam suas dúvidas e também o conhecimento adquirido na superação
dos problemas. Com o advento da internet, as listas e grupos de discussão portaram tais
grupos ao ambiente virtual, e em 2002, gradualmente, a taxa de adoção de
computadores pessoais chegou a cerca de 50% dos lares americanos.

5 TESTABILIDADE (TRIALABILITY)

É o grau com que uma inovação pode ser experimentada dentro de


determinados limites.
Muito ligada a outras características já citadas aqui, a possibilidade de testar
determinada inovação tem vínculo significativo em muitos casos avaliados pela
literatura de DI.

180
Se considerarmos que o processo de adoção de uma inovação é um processo
de busca de informações e redução da incerteza, fica claro que a testabilidade pode fazer
a diferença nesse processo, dando ao possível adotante uma chance de se colocar na
situação de uso sem o peso da escolha definitiva que pode trazer ônus financeiros e de
outras ordens.
No clássico estudo de Ryan e Gross (1943), a maioria dos fazendeiros que
participou da pesquisa declarou não ter adotado a nova semente de milho de forma
imediata, pelo contrário, fizeram isso de forma gradual, inicialmente em áreas pequenas
onde puderam testar os resultados e inclusive comprovar as vantagens atribuídas à
inovação.
No caso da interatividade em TV digital junto aos profissionais de produção
audiovisual nas emissoras de TV, a questão da testabilidade também pode ser
considerada como um fator negativo à velocidade de adoção.
Claro que, com a presença do programador ou através de uma empresa
terceirizada ou mesmo através de um setor interno ligado à engenharia ou à informática,
a interatividade tem sido testada nas emissoras, entretanto, a participação dos
profissionais de TV no processo, na maioria dos casos, é periférica e com pouca
importância, o que compromete, ao nosso modo de ver, não só a sua capacidade de
experimentação como, principalmente, a percepção de benefícios ou vantagens quando
tal característica da TV digital é implementada.

6 OBSERVABILIDADE (OBSERVABILITY)

É o grau com que os resultados de uma inovação são visíveis aos outros.
Ligada aos fatores anteriormente listados, a capacidade de observar
benefícios (e através dessa observação receber uma motivação adicional para a adoção)
normalmente fica comprometida em processos de difusão onde é difícil fazer testes e
utilizar tal inovação se ela é considerada complexa.
A visibilidade dada a resultados positivos em termos de adoção estimula a
discussão entre pares e a circulação de informações através das redes de contatos dos
possíveis adotantes.
Apesar de na literatura de DI esse último fator não ser considerado tão
fortemente ligado à taxa de adoção em relação aos anteriores, sua presença, ou melhor,
sua ausência, pode sim agregar dificuldades à avaliação geral que cada unidade de
adoção acaba fazendo quando considera começar ou não a utilizar uma novidade.
Quando pensamos, por exemplo, nos conteúdos que se propagam com
grande velocidade nas redes sociais, fica claro que é a possibilidade de observar que
outros estão replicando, ou pelo menos falando sobre aquele determinado assunto, que
nos incentiva a também fazer o mesmo.
Independentemente da própria avaliação pessoal que fazemos nesses casos,
a observação dos outros tem impacto sobre nossas decisões obviamente com variações
para mais ou para menos, chegando a situações que a literatura chama de efeitos em
cascata, onde passamos a replicar ideias ou comportamentos baseando nosso julgamento
mais no que os outros fazem e menos nas informações que nós mesmos temos sobre
aquele tópico.
No caso da interatividade em TV digital junto aos profissionais de produção
audiovisual, a percepção de complexidade, a falta de oportunidades de conduzir testes e
experimentações de forma mais independente, as diferenças no processo de produção
que a interatividade impõe, reduzem a observação dos benefícios e a percepção geral de
que uma vantagem relativa existe nessa situação.

181
Rice e Schneider (2007) enfatizam que novas tecnologias de informação e
comunicação podem gerar mudanças nos processos individuais, nas práticas de trabalho
e nos processos organizacionais, criando às vezes conflitos e desalinhamentos entre as
práticas consolidadas de trabalho.
A partir dessa linha de pensamento, que vincula a velocidade de adoção a
essas cinco características, é que propomos a necessidade de ferramentas de autoria e
processos mais simplificados na utilização da interatividade pelos profissionais do
audiovisual, como forma de minimizar as dificuldades de adoção que listamos acima.

REFERÊNCIAS

EASLEY, David; KLEINBERG, Jon. Networks, Crowds and Markets: reasoning


about a highly connected world. Nova York: Cambridge University Press, 2010.

LANSING, Stephen. Priests and programmers: engineering the knowledge of bali.


New Jersey: Princeton University Press, 1991.

KOTLER, Philip. Administração de marketing. São Paulo: Prentice Hall, 2000.

RICE, Ronald; SCHNEIDER, Sara. Information technology: analyzing paper and


electronic desktop artifacts. In: LIN, Carolyn; ATKIN, David (Orgs.). Communication
technology and social change: theory and implications. New Jersey: Lawrence
Erlbaum Associates, 2007.

ROGERS, Everett. Diffusion of innovations. Nova York: Free Press. 2003 [E-book].
Disponível em: <http://www.amazon.com/Diffusion-Innovations-5th-Everett-Rogers-
ebook/dp/B000FC0NH8/ref=sr_1_1?s=digitaltext&ie=UTF8&qid=1391986181&sr=1-
1&keywords=everett+rogers>. Acesso em: 24 abr. 2013.

RYAN, B; GROSS, C. The diffusion of hybrid seed corn in two iowa communities. In:
Rural Sociology, v. 8, n. 1, p. 15-24. 1943.

VALENTE, Thomas W. Network models of the diffusion of innovations. New Jersey:


Hampton Press, 1995.

182
APÊNDICE C

O CIBERESPAÇO COMO MUNDO DIEGÉTICO

Resumo: O ciberespaço pode ser analisado de muitas formas. Um metameio onde todos
os outros anteriores são remixados em variáveis taxas de densidade informacional; uma
síntese de recursos materiais, pessoas e relações que se interconectam criando espaços
sociais, políticos e culturais; uma criação coletiva que narra a história da experiência
humana em seu estágio atual. Nos termos de Foucault, uma heterotopia que altera a
ordem social comum, materializando elementos em um ambiente virtualizado.

1 INTRODUÇÃO

Sendo a cultura uma instância em permanente atividade, é possível supor


que, em sua função de produção de sentido, estejam regularmente surgindo novos
elementos, ou signos, representando ou traduzindo as situações inéditas que os
desdobramentos da atividade humana vão criando.
Em alguns casos, essa “novidade” gera, entre outras consequências, a
existência de significantes cujos significados e referentes ainda se encontram em um
estado que poderíamos denominar de líquido, utilizando a abordagem de Santaella
(2007) ao analisar o trabalho de Zigmund Bauman.
“Ciberespaço” seria um exemplo dessa situação que, entre a liquidez e a
polissemia, oferece condições à exploração e à análise a partir de diferentes abordagens
e referenciais.
O presente trabalho, longe de propor resolver a liquidez ou solidificá-la em
termos de definições precisas, busca, pelo contrário, explorar o caráter fluido do termo,
navegando através das possibilidades que enseja.
É óbvio que, mesmo “a passeio”, será necessário definir algum tipo de
sistema de referenciamento, de geolocalização acadêmica para o trajeto. Em nosso caso,
a escolha recai sobre a Teoria da Narrativa e o conceito de diegese ou mundo diegético,
ampliado de um cenário das narrativas audiovisuais, para um uso mais amplo que inclui
a produção para as novas mídias ou mídias digitais, como preferem alguns.
De novo é importante ressaltarmos que o presente texto está longe de
qualquer pretensão ortodoxa focada na causalidade positivista. De fato, é uma proposta
exploratória, portanto, finalizando seu percurso muito mais com “impressões” da
jornada do que através de conclusões cuja organicidade deva ser medida.

1.1 A metáfora digital

O ciberespaço é uma criação coletiva. Além da estrutura material que lhe dá


suporte, formada por redes interligadas, computadores, roteadores e cabos de fibra ótica,
existe também a utilização social que se dá a ele.
Entre usos pessoais, econômicos e institucionais, o ciberespaço aglutina
também a função de possibilitar autoria, oferecendo ferramentas, canais e formatos para
que os usuários se expressem, seja postando uma mensagem em blog pessoal,
comentando uma matéria publicada em grande portal de notícias ou ainda avaliando um
hotel para que outros possam saber como ele é.

183
Nesse ambiente, estabelece-se uma relação ambígua em termos de memória
e armazenamento já que à medida em que o ciberespaço permite a inclusão de
quantidades cada vez maiores de informação, através de uma capacidade de
armazenamento crescente; justamente por isso, o sentido comum de “algo especial” que
normalmente associamos às coisas que decidimos preservar vai se diluindo.
O simples ato de fazer o upload95 de um conteúdo qualquer para um
servidor de web, ou seja, publicar esse conteúdo, supõe a ideia de autoria e também a de
criação de uma narrativa particular que pode ser então compartilhada. Ao fazer isso,
cada um torna-se, de certa forma, cocriador de uma grande obra coletiva.
E mesmo quando simplesmente navega por páginas da internet, tendo
contato com o que outros ali deixaram, cada usuário move-se em espécie de mundo com
regras próprias de tempo e espaço, podendo assumir papéis diversos em uma história
sempre aberta e em andamento.
O presente artigo propõe pensar o ciberespaço a partir da abordagem que
Leão (2003) chama de modelagem cognitiva, explicando: “Dado um campo de saber
novo ou do qual pouco ainda se sabe, denominado A, busca-se estabelecer relações
entre A e o campo de conhecimento B – um saber antigo, anterior, do qual se tem mais
informações”. (LEÃO, 2003, p.154).
Assim, dentre as múltiplas formas de conceber o ciberespaço, aqui se usará
a Teoria da Narrativa para vê-lo como um mundo diegético (conceito que detalharemos
a seguir), recriado todas as vezes em que nos (inter)ligamos através da internet.

2 ALINHANDO CONCEITOS

Segundo Stubblefield (2000, p.1) em sua análise sobre as estruturas


narrativas em ambientes de colaboração virtuais:
A habilidade de compreender o mundo numa forma narrativa é uma das
características centrais da inteligência humana. Nós somos únicos, tanto na
nossa capacidade de formatar narrativas, como no nível em que nos apoiamos
em narrativas para organizar nosso conhecimento do mundo.96[...]Desde que
seres humanos começaram a gravar histórias de caça nas paredes das
cavernas, até as histórias de Homero e a Biblia e até os dias de hoje,
narrativas compartilhadas tem representado um papel central na definição de
quem pertence a uma comunidade e dos padrões de como essas pessoas se
comportam e interagem97 (STUBBLEFIELD , 2000, p. 1).

Sendo as narrativas tão importantes na construção que fazemos do mundo, é


possível pensar que, na sociedade em que vivemos tão centrada em tecnologias e meios
de comunicação, a forma de vê-lo e organizá-lo como uma narrativa vai acabar se

95 Transferência de arquivo da máquina cliente, do usuário final, para um computador conectado na


internet, normalmente um servidor, ou seja, uma máquina que é acessada por outros computadores que
nela vão buscar arquivos ou serviços. Um download, bastante comum entre os usuários finais, representa
o movimento de um arquivo no sentido inverso ao upload, ou seja, do servidor para a máquina cliente.
96 The ability to conceptualize the world in a narrative form is one of the central characteristics of human
intelligence. We are unique, both in our ability to form narratives, and in the degree with which we rely
upon narratives to organize our knowledge of the world. (Tradução do autor).
97 Since human beings began carving stories of the hunt on cave walls, through the stories of Homer and
the Bible, to the present day, shared narratives have played a central role in determining who belongs in a
community, and in setting the patterns according to which those people behave and interact. More
recently, we have evidence that narrative structure informs the interactions of people in virtual
environments. (Tradução do autor).

184
refletindo também em como nos relacionamos com as próprias soluções tecnológicas de
que dispomos e os espaços sociais que elas criam.
Entretanto, utilizar isso em termos do ciberespaço implica em algumas
observações. A primeira questão é o próprio conceito de ciberespaço que pode variar
bastante em função do contexto em que se analisa o termo.
A maioria das referências históricas aponta o autor Willian Gibson como
seu criador, que o utilizou em uma série de quatro livros de ficção científica.
Neuromancer, o primeiro deles, foi publicado em 198498. Na versão Gibsoniana,
cyberspace é definido como uma “alucinação consensual”, uma espécie de
representação gráfica dos dados contidos em todos os bancos dos sistemas humanos.
Baseado em uma entrevista dada por William Gibson a Larry McCaffery, Daniel
Punday afirma: “de acordo com Gibson, o conceito de "cyberspace" foi desenvolvido
como uma forma de manipular elementos narrativos tradicionais para produzir novos
efeitos99.” (PUNDAY, 2000, p. 195).
Entretanto, após sua criação, o termo ciberespaço começou a assumir várias
outras interpretações. Mesmo assim, as possibilidades de conexão com as teorias da
narrativa estão presentes na maior parte delas.
Analisando o termo, Benedikt (1991, p.3) lista pelo menos onze leituras
possíveis, dedicando-se com mais detalhes a uma décima segunda, capaz de aglutinar
muitas formas diferentes de pensar o ciberespaço e baseada na teoria dos três mundos
proposta pelo filósofo da ciência Karl Popper. Benedikt explica a proposta de Popper:
O Mundo 1 ele identificou com o mundo objetivo das coisas materiais,
naturais e suas propriedades físicas - com sua energia, peso, movimento e
repouso; o Mundo 2 ele identificou com o mundo subjetivo da consciência -
com intenções, cálculos, sentimentos, pensamentos, sonhos, memórias e tudo
o mais nas mentes dos indivíduos. O Mundo 3, ele diz, é o mundo das
estruturas objetivas, reais e públicas criadas pelas mentes dos seres vivos, não
necessariamente de forma intencional, interagindo entre si e com o Mundo
natural 1100 (BENEDIKT, 1991 , p. 3).

Exemplos do mundo 3 seriam a linguagem, a matemática, as artes, as


religiões, a filosofia e as instituições. Tais “objetos” do Mundo 3 teriam uma espécie de
parte material. Um livro, um quadro, uma igreja seriam exemplos dessa relação, como
reflexos materiais desses itens. O ciberespaço, para Popper e Benedikt, seria então o
estágio mais evoluído do Mundo 3, onde esses vínculos de “materialidade” aos poucos
vão se diluindo.
A definição de Leão (2003, p.158), que também percorre o mesmo trajeto,
resume três instâncias que se interconectam em uma relação de interdependência:

O ciberespaço engloba: as redes de computadores interligadas no planeta


(incluindo seus documentos, programas e dados); as pessoas, grupos e

98 Os outros livros de Gibson são Count Zero (1986), Burning Chrome (1986), Mona Lisa Overdrive
(1988).
99 According to Gibson, the concept of cyberspace developed as a way of manipulating tradicional
narrative elements to produce new effects. (Tradução do autor).
100 World 1, he identified with the objective world of material, natural things and their physical
properties—with their energy and weight and motion and rest; World 2 he identified with the subjective
world of consciousness—with intentions,calculations, feelings, thoughts, dreams, memories, and so on, in
individual minds. World 3, he said, is the world of objective, real, and public structures which are the not-
necessarily-intentional products of the minds of living creatures, interactingwith each other and with the
natural World 1. (Tradução do autor).

185
instituições que participam dessa interconectividade e, finalmente, o espaço
(virtual, social, informacional, cultural e comunitário) que se desdobra das
inter-relações homem-máquina (LEÃO, 2003, p.158).

É importante não confundir o termo ciberespaço com a ideia de realidade


virtual, um tipo de simulação do mundo real construída normalmente para servir a
propósitos de estudo ou entretenimento, onde se podem explorar mudanças de atitudes
ou comportamento.
No resumo que fez sobre os trabalhos apresentados durante a “First
Conference on Cyberspace”, realizada em maio de 1990, pela Universidade do Texas,
Sharp (1990, p. 2) sugere três visões para o ciberespaço: a de um ambiente
informacional, a de um meio de comunicação e a de uma nova interface.
A primeira visão considera a informação como o elemento principal do
ciberespaço, seja para uso direto ou para servir de fundo para outras atividades. Nela
também se destaca o conceito de “agentes” que seriam mecanismos que transformam os
dados em elementos que os humanos podem utilizar. De certa forma, no ciberespaço
coisas invisíveis tornam-se visíveis ou identificáveis. Para Sharp, “o ciberespaço como
um meio informacional é algo que permite representação, manipulação e navegação, de
dados e conhecimento, real ou imaginado.” (SHARP, 1990, p. 3)
A segunda visão pressupõe a existência das pessoas. O ciberespaço seria um
meio multiusuário e, para tanto, a informação precisa fluir, precisa haver comunicação.
Essa poderia ser da pessoa consigo mesma, através das representações que estabelece no
ambiente do ciberespaço; da pessoa com outras pessoas e, por fim, o que ele chama de
comunicação com o Templo, uma forma que engloba todas as questões ou buscas por
respostas fundamentais sobre a existência humana. É bom lembrar que nessa época não
existia o Google e as questões que os membros da conferência indicaram não seriam
cotidianas. A comunicação com o Templo também foi denominada de comunicação
com o Divino.
Como uma nova interface, segundo Bricken (1990), o ciberespaço possui
quatro características importantes: ser multimodal, oferecer inclusão e virtualidade e ser
intuitivo.
Da primeira conferência sobre o ciberespaço no Texas, Sharp relaciona os
principais pontos de consenso entre os participantes do evento:
Primeiro ele é um meio de comunicação entre participantes. Essa
comunicação pode ser de informação e conceitos, arte e imaginação. O meio
é acessado através de uma interface que permite ao participante cruzar a
barreira da tela e tornar-se parte do ambiente. [...] É um lugar onde indivíduos
podem encontrar o real, o imaginário e grandes questões como o ser e a
morte. É um lugar onde o repositório do conhecimento humano pode crescer
e ser mais acessível para mais pessoas101 (SHARP, 1990, p. 13).

3 DIEGESE E MUNDOS DIEGÉTICOS

101 First it is primarily a medium of communication between participants. This communication may be
of information and concepts, or art and imagination. The medium is accessed through an interface that
allows the participant to cross the screen barrier and become a part of the environment. […]It is a place
where individuals can encounter the real, the imaginary, and greater questions such as self and death. It is
a place where the storehouse of human knowledge can grow and be more accessible to more people.
(Tradução do autor).

186
Diegese vem do grego diègèsis e em termos simples indica a história, a
narrativa e o mundo particular que ela cria. No terceiro volume da República de Platão
há um detalhamento mais preciso do significado original do termo, intrinsecamente,
ligado em como o narrador conta a sua história e estabelecendo uma diferença entre a
diègèsis e a mimesis explicadas por Aumont e Marie (2007, p. 78) em seu Dicionário
Teórico e Crítico de Cinema:
[...] para Platão o campo da lexis (maneira de dizer; oposta a logos: o que é
dito) se divide em imitação propriamente dita (mimesis) e simples narrativa
(diègèsis). Essa “simples narrativa” designa tudo o que o poeta conta
”falando em seu próprio nome, sem tentar nos fazer acreditar que é outro que
fala”(o que é o caso da mimesis) (AUMONT; MARIE, 2007, p. 78).

Apesar da diferença entre mimesis e diègèsis ter sido revista por


Aristóteles102 e muito discutida pelos teóricos da narrativa aplicada à literatura, para os
gregos o que se discutia eram as narrativas orais, nas quais por gestos e entonação de
voz o poeta-narrador podia representar (e falar) através de seus personagens ou por si
mesmo respectivamente.
DIEGESE - Palavra de origem grega (diègèsis: narrativa) oposta, de modo
aliás diferente, por Platão e Aristóteles, à mimesis (imitação); caída em
desuso, depois ressuscitada por Étienne Souriau (1951) [...]. Para Souriau, os
“fatos diegéticos” são aqueles relativos à história representada na tela,
relativos à apresentação em projeção diante dos espectadores. É diegético
tudo o que supostamente se passa conforme a ficção que o filme apresenta,
tudo o que essa ficção implicaria se fosse supostamente verdadeira
(AUMONT, p.77).

Gardies (2008, p.79) esclarece, entretanto, como o termo, vindo do


pensamento dos filósofos gregos que analisavam as narrativas orais, reposicionado para
o cinema por Souriau e depois por Christian Metz na Filmologia, teve sua aplicação
estendida por Gérard Genette e outros autores para utilização na Teoria da Narrativa de
forma geral.
O caráter específico da diegese é constituir-se num mundo singular, com as
suas próprias leis e povoado de objetos (humanos, animais e objetos
propriamente ditos), na maioria dos casos à imagem do mundo real, mas não
necessariamente. Trata-se de um mundo que o espectador constrói
imaginariamente a partir das sugestões do filme. Assim definida, a diegese
não é específica do cinema (toda a narrativa, seja qual for a sua linguagem,
elabora um universo diegético), mas a maneira como implica o espectador
tem características específicas e conseqüentes (GARDIES, 2008, p.79).

Pelo que foi dito, ao estruturar sua narrativa, o autor ou narrador estabelece
também um conjunto único de lugares, personagens, relações, acontecimentos; um
conjunto com uma lógica própria, de espaço e tempo singulares; um mundo que vai
compartilhar com aqueles que de algum modo entram em contato com sua narração,
seja ela de forma oral, com imagens dentro de um cinema, nas páginas de um livro ou
em tela de computador. Um mundo que a diegese constitui, aglutina e que surge do
encontro daquele que narra com aquele que frui da narrativa, um mundo diegético,
conceito hoje não apenas ligado às narrativas cinematográficas, mas também aplicável,
com as devidas especificidades, aos meios digitais.

102 Aristóteles trata os dois termos como duas formas diferentes de imitação.

187
Para entender melhor a ideia do que seria um elemento desse mundo, criado
a partir de uma narrativa, podemos utilizar a classificação proposta por Gerárd Genette
que estabelece dois níveis de inserção de um elemento na diegese.
O primeiro nível seria o que Genette chama de extradiegético. Um exemplo
clássico seria uma música ou tema incidental que ouvimos em um trecho de um filme e
que é colocada ali para criar um determinado “clima”, que pode ser de tensão, horror ou
descontração. O tema musical do filme Tubarão (Jaws, de Steven Spilberg, 1975), que
começa lentamente e vai acelerando seu ritmo enquanto o monstro se aproxima de suas
vítimas, seria um exemplo clássico. Apesar de diretamente ligada às aparições do
tubarão, a música não faz parte do mundo da narrativa. Ela é um elemento externo,
extradiegético, colocado ali para buscar um determinado efeito ou reação do espectador.
Diferente é a situação de um músico que no filme toca seu instrumento para
a câmera e para o espectador. O som da sua performance faz parte da diegese e,
portanto, na classificação de Genette, é intradiegético, ou seja, é um elemento do mundo
diegético particular criado pela narrativa.

4 CONSTRUINDO MUNDOS DIGITAIS

Postos os conceitos essenciais, tentaremos estabelecer algumas das


possíveis conexões entre a ideia de ciberespaço e o conceito de mundo diegético da
Teoria da Narrativa, sem, entretanto, tentar esgotar as possibilidades desse caminho ou
defini-lo como único, trabalhando apenas em termos exploratórios.
A questão inicial desse relacionamento parece ser: o ciberespaço pode ser
considerado produto de uma grande narrativa ou pelo menos o resultado de múltiplas
narrativas que de algum modo tem algo em comum?
Parece estranho imaginar algo assim, principalmente se pensarmos no nível
mais material do ciberespaço, formado pelas redes e hardware dedicado à interconexão
dos computadores ao redor do mundo. Nesse nível, regido pela teoria dos sistemas de
informação, parece haver pouco espaço para histórias reais ou imaginárias.
Entretanto, mesmo nesses termos, as “forças” essenciais que regem sistemas
informacionais e narrativos parecem convergir.
No trabalho de Stockinger (2001, p.113), ao analisar sistemas de informação
e, mais especificamente, as redes de computadores que formam a internet, é possível
identificar as flutuações ou desequilíbrios de um sistema como causa essencial para o
movimento dos fluxos de informação e a consequente comunicação entre os elementos
interconectados.
Sistemas que se encontram em equilíbrio, sem flutuação ou perturbação
significativa, não possuem informação e também não precisam dela.
Informação pode, portanto, aparecer e ser funcionalizada apenas enquanto o
sistema está fora de equilíbrio. Do ponto de vista sociodinâmico, o processo
de informação mais simples consiste numa perturbação exterior e na reação a
ela, causando uma flutuação. Não havendo flutuações - como é o caso de
estados equilibrados - não haverá, portanto, informação em atividade. [...]
Flutuações formam, portanto, a causa primária da gênese de estruturas de
informação, tal qual encontramos de maneira exemplar também no ambiente
de rede (STOCKINGER, 2001, p. 113).

Se são os desequilíbrios de um sistema que o fazem tornar-se um meio para


o fluxo das informações, ou seja, especificamente no caso das redes informacionais
como a internet, ser o ambiente que permite que as conexões possam interagir com o
todo; também na essência das narrativas é o desequilíbrio de uma situação inicial que

188
permite o desenvolvimento dos eventos que a constituem e a consequente criação do seu
mundo diegético particular.
Face à proliferação e diversidade indefinida das narrativas do mundo, uma
questão se levantou muito cedo: seria possível descobrir as características do
que fosse uma narrativa, uma narrativa mínima, espécie de célula na base de
toda a vida narrativa? Ou, para a formular de outro modo: haverá uma
operação mínima de narratividade que, atualizada num texto, me permita
reconhecê-lo como uma narrativa e que seria como que o seu núcleo?
Concorda-se que essa narrativa mínima corresponderia à figura nuclear
seguinte: equilíbrio desequilíbrio reequilíbrio. O que se poderia
parafrasear assim: na sequencia de um acontecimento, um mundo, até então
estável, fica desequilibrado. Depois, tenta recuperar a estabilidade, quer pela
instauração de um novo equilíbrio, quer pelo regresso ao primeiro equilíbrio.
É neste princípio da tríade estrutural que se baseia em grande medida a
abordagem de Claude Brémond, que retoma e desenvolve as idéias de
Vladimir Propp (GUARDIES, 2008, p.76).

É possível, portanto, conceber que, mesmo nas suas formas mais básicas, o
ciberespaço e as narrativas têm uma essência em comum: o binômio equilíbrio-
desequilíbrio, condição fundamental para sua dinâmica de existência e
desenvolvimento.
Pensar o ciberespaço como um mundo diegético implica também em
encontrar nele as formas que operacionalizam as narrativas de modo geral, tais como
tempo, espaço, personagens e ação, esta última já, de certa forma, encontrada na gênese
de ambos os conceitos como se mostrou acima.
Uma questão levantada por Cohen (2007, p.212) é que tipo de espaço o
ciberespaço seria. Especialista em direito, o autor resume as posições relativas à
questão:
Teóricos que estudam lugar e espaço reconhecem três categorias gerais de
lugares socialmente construidos, cada um deles para expressar e servir a
funções muito diferentes. Utopia são lugares imaginários através dos quais
seus arquitetos articulam visões de uma ordem social ideal. Isotopia são
lugares construidos, ou deliberadamente ou pela força do hábito, sob a forma
de lugares existentes. A relação entre o ideal e o real e entre o ideal e seu
oposto, a dystopia, são tópicos muito explorados. O ideal e o análogo,
entretanto, não esgotam nossas narrativas sobre lugares. Em uma instigante
palestra em 1967, Michel Foucault ofereceu o termo "heterotopia" para
descrever um terceiro tipo de lugar que ele analisou como peculiar na
constituição de diferentes sociedades humanas103 (COHEN, 2007, p.214).

O próprio Foucault exemplifica o conceito:


A heterotopia tem o poder de justapor, em um único lugar real, diferentes
espaços e locações que são incompatíveis uns com os outros.[...] No
retângulo do seu palco o teatro alterna uma série de lugares que são diferentes
uns dos outros; o cinema se apresenta como um salão retangular muito

103 Social theorists who study place and space recognize three general categories of constructed places,
each of which serves and expresses very different functions. Utopia are imaginary places through which
their designers articulate visions of ideal social ordering. Isotopia are constructed, whether deliberately or
by force of habit, after the pattern of existing places. The interplay between the ideal and the real, and
between the ideal and its opposite, the dystopia, are much explored topics.The ideal and the analogous,
however, do not exhaust our narratives of place. In a provocative lecture in 1967, Michel Foucault offered
the term “heterotopia” to describe a third type of place that he viewed as peculiarly constitutive of distinct
human societies. (Tradução do autor).

189
curioso, nos fundos um espaço tridimensional é projetado sobre uma tela em
duas dimensões104 ( FOUCAULT; MISKOWIEC, 1986, p.26).

No texto de Cohen (2007, p.214), desenvolvendo o conceito de Foucault,


outros exemplos são citados, como o museu, que procura se constituir como um lugar
onde vários tempos estão presentes, estando ele mesmo fora deles, ou ainda os jardins,
que procuram recriar um microcosmo idealizado do mundo natural.
Cohen resume sua descrição concluindo que as heterotopias são espaços
onde uma ordem social alternativa é criada.
Quando falamos sobre o ciberespaço, uma característica comumente
observada é justamente a de que lá, uma outra ordem social pode ser estabelecida, com
a descentralização do controle, o aumento da participação nos processos e no tráfego de
informações, além da possibilidade de autoria, agora, aberta a todos ali presentes. O
ciberespaço heterotópico, nos termos de Foucault, pode ser visto como a materialização
de características utópicas em um ambiente virtualizado.

5 CONSIDERAÇÕES FINAIS

A ideia de Marshall MacLuhan de que normalmente olhamos os novos


meios de comunicação (em sua época, o rádio e, principalmente, a TV) como se os
víssemos através de um espelho retrovisor era um alerta para o fato de que, vivendo as
mudanças que as tecnologias trazem às nossas vidas e ao nosso mundo, as julgamos
com base no que conhecemos de outras tecnologias mais antigas e, assim, normalmente,
não conseguimos observar ou pressentir as transformações mais significativas que a
nova presença cria em todo o conjunto.
É instrutivo acompanhar as fases embrionárias de qualquer desenvolvimento,
pois em geral elas são muito mal compreendidas- quer se refiram à imprensa,
ao automóvel ou à TV. Justamente porque as pessoas, no início, não se dão
conta da natureza de novo meio, a nova forma vibra alguns golpes
reveladores nos espectadores de olhos mortos-vivos. A primeira linha
telegráfica entre Baltimore e Washington incentivou jogos de xadrez entre os
peritos das duas cidades. Outras linhas eram utilizadas para loterias e para
jogos em geral, assim como o rádio se desenvolveu sem qualquer
compromisso comercial, graças, em verdade, à atuação dos radioamadores-
até que os grandes interesses o empolgaram (MACLUHAN, 2007, p.281).

A narratividade intrínseca ao ciberespaço enquanto ambiente multiusuário e


de autoria coletiva traduz uma das principais características de qualquer tecnologia
utilizada para a comunicação. “Todos os meios são metáforas ativas em seu poder de
traduzir a experiência em novas formas”. (MACLUHAN, 2007, p.76).
Desde as culturas orais da antiguidade, através da fala e das palavras,
processamos nossa experiência sensorial para compreender o mundo e organizá-lo,
reconstruindo-o em um formato que traduz nele nossa própria presença e sinalizando a
transformação que impomos ao fluxo das coisas pelo simples fato de existirmos.

As palavras são sistemas complexos de metáforas e símbolos que traduzem a


experiência para os nossos sentidos manifestos ou exteriorizados. Elas

104 The heterotopia has the power of juxtaposing in a single real place different spaces and locations that
are incompatible with each other. Thus on the rectangle of its stage, the theater alternates as a series of
places that are alien to each other; thus the cinema appears as a very curious rectangular hall, at the back
of which a three-dimensional space is projected onto a two-dimensional screen. (Tradução do autor). O
texto da palestra de 1967 só foi publicado primeiramente em francês em 1984 e em inglês em 1986.

190
constituem uma tecnologia da explicitação. Através da tradução da
experiência sensória imediata em símbolos vocais, a totalidade do mundo
pode se evocada e recuperada, a qualquer momento (MACLUHAN, 2007, p.
77).

De certa forma a história humana pode ser contada como a sequência de


usos que fizemos (e fazemos) das mais diversas tecnologias para, a partir do
desequilíbrio imposto pelo mundo exterior, restaurarmos um equilíbrio dinâmico que
nos permite prosseguir em nossa jornada pessoal e social.
Há mais de 20 anos começamos a escrever uma obra coletiva que mistura
dados reais e imaginários, em uma narrativa que engloba o registro do que sabemos e
produzimos.
Um mundo onde o ritmo do tempo parece poder ser acelerado ou reduzido,
seja quando rapidamente recebemos a resposta sobre determinado assunto por e-mail ou
quando percebemos que temos tantos e-mails para responder que o tempo disponível
tornou-se insuficiente.
Um lugar de muitos lugares, onde as distâncias podem se desmaterializar ao
falarmos usando imagem e voz com alguém que está em outro continente ou onde é
possível mapear com precisão milimétrica cada espaço conhecido com fotos de satélite
e ambientes tridimensionais.
Um mundo de ficção e verdade cheio de personagens que podemos compor
e customizar: entre eles, nós mesmos.

REFERÊNCIAS
AUMONT, Jacques; MARIE, Michel. Dicionário teórico e crítico de cinema. 3.ed.
tradução Eloisa Araújo Ribeiro. Campinas: Papirus, 2007.

BENEDIKT, Michael. Introduction to cyberspace: first steps. Mit Press, 1991.


Disponível em
<http://services.exeter.ac.uk/cmit/media/texts/benedikt1991/introduction.pdf> Acesso
em: 29 jan. 2011.

BRICKEN, Meredith. Virtual Worlds: No Interface to Design. In: CONFERENCE ON


CYBERSPACE, 5., 1990. Anais…, University of Texas, Austin, maio 4-5, 1990.
Disponível em <http://www.hitl.washington.edu/publications/papers/interface.html>
Acesso em: 26 fev. 2011.

COHEN, Julie. Cyberspace as/and Space. Columbia Law Review. v. 107, n. 1, p. 201-
256, jan. 2007. Disponível em
<http://www.columbialawreview.org/assets/pdfs/107/1/Cohen.pdf> Acesso em: 26 fev.
2011.

FOUCAULT, Michel; MISKOWIEC, Jay. Of Others Space. Diacritis. v. 16, n. 1, p. 22-


27, spring, 1986. Disponível em: <http://www.colorado.edu/envd/courses/envd4114-001/Spring
06/Theory/Foucault.pdf>. Acesso em: 26 fev. 2011.

GARDIES, René (Org.). Compreender o cinema e as imagens. Tradução Pedro Elói


Duarte. Lisboa: Texto & Grafia, 2008.

191
LEÃO, Lúcia. O Labirinto e a Arquitetura do Ciberespaço. In: NOJOSA, Urbano ;
GARCIA, Wilton ( Org.). Comunicação e Tecnologia. São Paulo: Nojosa, 2003 , p.
153-167.

MACLUHAN, Marshall. Os meios de comunicação como extensões do homem. Trad.


Décio Pignatari. São Paulo: Cultrix, 2007.

PUNDAY, Daniel. The Narrative Construction of Cyberspace: reading Neuromancer,


reading cyberspace debates. College English, v. 63, n. 2, nov. 2000. Disponível em
<http://staff.washington.edu/schenold/engl111/resources/article_neuromancer_punday.p
df>. Acesso em: 28 jan. 2011.

SANTAELLA, Lucia. Linguagens líquida na era da mobilidade. São Paulo: Paulus,


2007.

SHARP, Maurice. A summary of the presentations from the first conference on


cyberspace. University of Calgary. jun. 1990. Disponível em:
<http://dspace.ucalgary.ca/jspui/bitstream/1880/46520/2/1990-392-16.pdf>. Acesso em:
07 jun. 2016.

STOCKINGER, Gottfried. A Interação em Ciberambientes e Sistemas Sociais. In:


LEMOS André; PALACIOS, Marcos (Org.) Janel@s do Ciberespaço: Comunicação e
Cibercultura. 2.ed. Porto Alegre: Sulina, 2001, p. 106-127.

STUBBLEFIELD, William A. Narrative structure in virtual collaborative


environments. Albuquerque, 2000. Disponível em
<http://wmstubblefield.com/professional/publications/NarrativeInCVEs.pdf>. Acesso
em: 28 jan. 2011.

192

Você também pode gostar