Artigo
Ativismo Preguiçoso
Quando as redes sociais favorecem um “ativismo preguiçoso”
São meios eficientes quando não se requer mais do que o compromisso dos usuários
Imagem do quarto aniversário do 15-M em Madri. / CORDON PRESS
Conto uma experiência que suspeito não ser unicamente minha. Há uns cinco anos, e principalmente por causa da depressão econômica e do Movimento 15-M, os indignados espanhóis, uma parte do meu círculo social se “politizou” de maneira bastante repentina. O fenômeno se tornou especialmente exagerado nas redes sociais. Hoje em dia, para muita gente, entrar no Facebook ou no Twitter significa mergulhar em um grande protesto, onde as pessoas comentam sem parar artigos das edições digitais da imprensa e notícias dos onipresentes casos de corrupção entre políticos e empresários, convocam atos políticos ou simplesmente desabafam contra aqueles que consideram como os responsáveis pelo desastre de nosso país. No meu caso (e sou alguém que nunca teve muito envolvimento na vida política), esse círculo social digital se encheu de um ativismo regeneracionista, de um radicalismo típico do século XIX. O paradoxo é que o Facebook me mostra um entorno social e a rua, outro. As redes sociais fervem de agitação política. No mundo “real”, nada muda. Eu poderia procurar diversas explicações para isso. Afinal, trabalho no mundo da cultura e vivo no centro de uma grande cidade. Relaciono-me principalmente com pessoas da minha geração. É possível que isso crie uma bolha ideológica ao meu redor. A bolha deve existir, em todo caso, porque para além da infância praticamente não conheci ninguém na minha vida que se defina como conservador ou de direita. As urnas, no entanto, demonstram que pelo menos metade da população comunga com a ideologia conservadora. A realidade, aparentemente, é que as redes sociais criam bolhas ideológicas. Duas pesquisas divulgadas nos últimos meses ratificam essa ideia. Segundo um estudo do Pew Research Center, as pessoas de direita tendem, predominantemente, a ter amigos que concordam com suas ideias políticas e a fazer parte de grupos com ideias parecidas, enquanto os esquerdistas têm uma tendência maior a apagar ou bloquear amigos por causa de divergências políticas. Outro estudo, do na revistaScience, confirma que as pessoas constroem uma espécie de “sala de espelhos” digital de suas próprias opiniões, e que o usuário médio das redes tem apenas cerca de 23% de amigos com ideias políticas diferentes das suas. Além disso, os especialistas no assunto descobriram que o Facebook e o Twitter amplificam aquilo que, em ciência política, se chama “espiral do silêncio”: os usuários têm medo de r opiniões políticas quando pensam que elas podem ser lidas por outros com ideias diferentes. O resultado de tudo isso se parece inquietantemente com o maravilhoso romance A Cidade e a cidade, de China Miéville (Boitempo Editorial), no qual duas cidades coexistem no mesmo espaço físico mas sem se comunicarem para nada, desenvolvendo métodos engenhosos para não se verem uma à outra. Na esteira do otimismo digital resultado da primavera árabesurgiram muitas vozes céticas em relação ao poder mobilizador das redes sociais. Ano após ano, as pesquisas do Centro de Pesquisas Sociológicas (CIS, na sigla em espanhol), em Madri, mostram que não mais do que 25% dos usuários espanhóis navegam na Internet com alguma finalidade política, nem que seja para se informarem esporadicamente. Além disso, os internautas não passam de 51% da população espanhola, e representam um setor completamente apoiado nos cidadãos com alto grau de instrução. As redes sociais, segundo esses céticos, favorecem um “ativismo preguiçoso” ou “superficial”, que produz muito barulho mas mal se traduz nas urnas ou na rua. São meios eficientes quando não se requer mais do que o compromisso dos usuários. Parece que novamente a Internet está “ficando independente” da realidade. *Javier Calvo é escritor. Sua mais recente obra é El jardín colgante (ainda sem edição no Brasil). TODOS OS DIREITOS RESERVADOS AO SITE:Fonte: http://brasil.elpais.com/brasil/2015/05/31/internacional/1433106323_876086.html
Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas
Algoritmo ajuda a reduzir a diversidade ideológica das páginas, mas não é maior culpado
Usuários se fecham em suas próprias ideias, aponta estudo com 10 milhões de pessoas
Facebook mostra pouco conteúdo contrário à ideologia de seus usuários. / EFE
Embora ainda muita gente não saiba, o Facebook seleciona o que os usuários veem em seu mural. Um algoritmo filtra o que é mostrado para, em princípio, dar ao usuário apenas o que mais lhe agrada ver e não enchê-lo com informações que não lhe interessem tanto. A dúvida é se esse algoritmo que nos conhece tão bem está nos alimentando apenas com o que gostamos, criando uma bolha a nosso redor na qual não entra nada que desafie nosso modo de pensar. Para dissipar dúvidas, os cientistas sociais do Facebook ram na quinta-feira na revista Science o primeiro estudo que analisa a influência dessa fórmula que manipula os murais: a bolha ideológica existe, mas é mais culpa dos próprios usuários do que da programação de Mark Zuckerberg.
Sem a intervenção do algoritmo, os progressistas teriam visto 24% de notícias incômodas e, os conservadores, 35%. Ou seja, essa fórmula idealizada nos computadores do Facebook ajuda a reduzir a diversidade ideológica do mural dos usuários, mas não é a principal culpada. De acordo com o estudo, os usuários são os responsáveis por se fechar em suas próprias ideias: se não escolhessem suas amizades como o fazem, mas de forma aleatória, os progressistas veriam cerca de 45% de notícias contrárias às suas ideias, em comparação a 40% pelos conservadores. Logicamente, o ambiente off line, as pessoas com as quais os usuários se relacionam fisicamente, tampouco é aleatório. Mas é muito mais difícil medir essa bolha ideológica na ruas do que nas redes sociais. A vasta quantidade de informação que uma empresa como o Facebook pode compilar sobre seus usuários (e os que não são) lhe permite medir a tendência dos que se fecham em grupos de pensamento mais ou menos isolados. Por exemplo, a probabilidade de clicar no mural em uma notícia favorável às próprias ideias —um eleitor do conservador Partido Reno dos Estados Unidos ler uma notícia da Fox News— em relação a uma contrária é esmagadora.
Um dos pontos fracos do estudo é que são analisados apenas os usuários dos EUA que definiram sua posição ideológica em uma seção do Facebook —mais fácil de ser mostrada em lados opostos—, o que gera um viés significativo e deixa dúvidas sobre o comportamento dos usuários que têm ideologia, mas não a selecionaram em seu perfil. Para Pablo Barberá, que estuda a polarização das redes na Universidade de Nova York, os usuários estudados provavelmente têm uma rede de contatos mais homogênea no Facebook: “Se o estudo tivesse incluído todos os usuários, certamente observaríamos níveis ainda mais altos de exposição à diversidade de opiniões e um efeito maior dos algoritmos”.
Vivemos na era dos algoritmos. O que nos é mostrado nos resultados do Google, no mural do Facebook ou em outras plataformas é decido por uma fórmula cada vez mais complexa que seleciona o melhor para satisfazer os interesses do usuário e da empresa. No entanto, ainda há muitos os que pensam que veem o que existe e não o que o algoritmo acredita que devem ver. Mas não é assim: em função da interação dos usuários com os amigos e atividade, o Facebook define seus interesses e mostra o que provocará mais interação, para que permaneçam mais tempo na rede e, deste modo, gerem mais receita para a empresa. Este ciclo de retroalimentação despertou o interesse do ativista Eli Pariser, que u em 2012 um livro chamado Filter Bubble (A Bolha dos Filtros), referindo-se ao efeito do algoritmo em nossas vidas: ao buscar “Egito” no Google, alguns usuários recebem informações sobre revoltas e, outros, apenas sobre férias nas pirâmides, tudo em função de seu comportamento prévio. Em meados de 2014, o Facebook divulgou outro de seus estudos —dos regularmente sobre o comportamento na rede— que gerou uma polêmica inusitada, porque revelou que manipulava emocionalmente seus usuários, mostrando-lhes mais mensagens negativas ou positivas de seus contatos, para verificar se havia certo contágio na forma de expressão. Em grande parte, a polêmica surgiu porque o público descobriu que o Facebook manipula os murais e, portanto, o comportamento das pessoas.
Não é algo que faça questão de esconder, muito pelo contrário: o Facebook gaba-se de influenciar de forma notável a participação eleitoral em todo mundo, depois de arrastar às urnas cerca de 340.000 pessoas que não tinham intenção de votar nas legislativas dos EUA. Nesse cenário, os cientistas da empresa comandada por Zuckerberg mostram que o contágio social ou abolha ideológica que se forma em sua rede social é semelhante ou mais moderada à que se produz off line. De fato, já em 2012, havia do um estudo que negava que a bolha fosse tão grave, mas naquela ocasião o importante era diminuir a culpa do algoritmo. A pesquisa preliminar de Barberá e este estudo destacam que as redes sociais poderiam ser um mecanismo para receber informação diferente da habitual. “Por exemplo, um eleitor de direita que apenas vê Antena 3 e lê La Razón [jornal ultraconservador da Espanha] poderia ser exposto pela primeira vez a um conteúdo com um viés de esquerda compartilhado por seus contatos no Facebook”, explica Barberá. No entanto, esse é outro ponto fraco deste último estudo da equipe do Facebook, como lamenta Moro, da Carlos III. “O problema é que não compara com nada. Não podemos saber se o que ocorre é pior ou melhor fora do Facebook.”
- Depois de estudar mais de 10 milhões de usuários e sua interação com os links de notícias políticas, os cientistas do Facebook descobriram que a rede social é uma caixa de ressonância para nossas próprias ideias, com poucas janelas para o exterior. Assim, de todos os links vistos pelas pessoas que se consideram progressistas, apenas 22% desafiam sua forma de pensar. Os conservadores veem cerca de 33% de notícias que não correspondem com sua ideologia.
É um estudo na defensiva. O Facebook tem um problema de imagem e queria demonstrar que o filtro algorítmico não tem tanta influência como o filtro socialEsteban Moro, pesquisador
A era dos algoritmos
“É um estudo na defensiva”, explica Esteban Moro, especialista em redes sociais da Universidade Carlos III. “O Facebook tem um problema de imagem, por causa dos algoritmos que filtram a informação que vemos e queria demonstrar que o filtro algorítmico não tem tanta influência como o filtro social”, resume o pesquisador.Não é fácil saber se a bolha ideológica é maior ou menor fora do Facebook, mas alguns estudos indicam que as redes ajudam a diminuí-la
Dados do estudo
O estudo foi realizado com usuários que informaram sua posição ideológica nos EUA. Estudaram 10,1 milhões dos quase um bilhão de usuários ativos diários registrados atualmente. Apenas 13% dos links de notícias estudadas correspondiam a informações factuais, notícias políticas válidas para o estudo. Dos 903 milhões de notícias vistas pelos usuários estudados, foram clicadas apenas 59 milhões de vezes. Apenas 20% das notícias que os progressistas clicaram eram contrarias às suas ideias, comparadas aos 29% dos conservadores. Os pesquisadores explicam que essa diferença entre progressistas e conservadores é devido ao fato de que os usuários de esquerda são mais propensos a compartilhar links com notícias de sua ideologia.
Tags