Londres – A notícia foi surpreendente para quem responsabiliza as redes sociais pela polarização política na sociedade, sobretudo na semana em que o ex-presidente Donald Trump foi indiciado pela terceira vez: três estudos publicados na Science e um na Nature não confirmaram o suposto efeito polarizador do conteúdo selecionado pelos algoritmos do Facebook e do Instagram sobre os usuários.
Outra conclusão que destoa do senso comum é a de que postagens com conteúdo compartilhado, vistas por alguns como prejudiciais por disseminarem viralizações nem sempre verdadeiras, na verdade expuseram os usuários a mais fontes confiáveis do que não confiáveis, com potencial de reduzir a desinformação.
Os experimentos do US 2020 Facebook and Instagram Election Study, cujos resultados foram publicados na semana passada, foram feitos por pesquisadores de várias universidades americanas, em cooperação com a Meta. Os autores dos estudos tiveram acesso aos dados de milhões de pessoas que concordaram em participar do estudo durante a campanha eleitoral de 2020 nos EUA.
Polarização medida em apenas duas redes sociais
Apesar da abrangência dos trabalhos e da seriedade das universidades envolvidas, há muitas limitações, como o fato de se restringirem a apenas um país e não incluirem o WhatsApp, que em nações como Brasil e Índia tem penetração enorme e é apontado como grande fonte de incentivo ao extremismo.
Tecnicamente, o WhatsApp não é uma rede e sim um serviço de mensagens. Mas a percepção inicial sobre esses estudos pode induzir o público a pensar que nenhuma plataforma é capaz de influenciar a polarização − entretanto, estamos falando apenas de duas delas, num momento específico há três anos, em um ambiente segregado e em um país com população com bom nível educacional.
O indiciamento de Donald Trump a quatro crimes de conspiração contra o país é em parte baseado no uso das mídias sociais para desacreditar as eleições e promover desordem pública.
Embora o presidente da Meta para assuntos internacionais, o ex-político britânico Nick Clegg, tenha comemorado o fato de que os resultados revelaram poucas evidências de que as plataformas causem “polarização afetiva prejudicial ou tenham qualquer impacto significativo nas principais atitudes, crenças ou comportamentos políticos”, outros foram mais cautelosos.
Michael W.Wagner, professor de jornalismo da Universidade de Wisconsin, que atuou como observador independente do projeto, disse ao Washington Post que as conclusões “são apenas uma evidência científica de que não há apenas um problema fácil de resolver”.
Leia também | Musk move ação contra ONG que denunciou discurso de ódio no Twitter por ‘afastar anunciantes’
Como foram feitos os experimentos
Um dos trabalhos investigou os efeitos dos algoritmos em 23 mil usuários do Facebook e 21 mil do Instagram durante a campanha politica.
Uma parte deles continuou tendo o conteúdo de seus feeds regido pelos algoritmos, enquanto o restante passou a ver postagens em ordem cronológica.
Uma das conclusões corroborou a tese do poder viciante dos algoritmos. Os que não receberam conteúdo selecionado por eles passaram menos tempo no Facebook e no Instagram − mas migraram para redes concorrentes, demonstrando que nessa guerra, vence o algoritmo mais eficaz.
A exposição a informações classificadas como “políticas e não confiáveis” aumentou nas duas redes. O conteúdo “antisocial e de ódio” diminuiu no Facebook, enquanto “conteúdo de amigos moderados e públicos ideologicamente mistos” aumentou.
Mas não houve evidência de impacto sobre mudanças de atitude fora das plataformas, nem sobre o conhecimento político, segundo Andrew Guess, pesquisador de Princeton e autor principal desse experimento.
Leia também | Brasileiros estão evitando menos as notícias do que o público de outros países, mostra relatório
Informações confiáveis nas redes sociais
Outra pesquisa liderada por Guess examinou os efeitos da exposição a conteúdo compartilhado no Facebook. Um grupo de 23 mil usuários deixou de ver posts que continham compartilhamento de conteúdo de outras fontes por três meses.
O resultado foi que eles acabaram menos expostos a qualquer tipo de notícia política, confiável ou não. Viralizar não é sinônimo de desinformar ou enganar.
Guess disse:
“Pode parecer contraditório, pois acredita-se que o conteúdo potencialmente viral promova desinformação – e, de fato, isso acontece até certo ponto.
Mas nos experimentos, mais conteúdo compartilhado veio de fontes confiáveis do que de não confiáveis − portanto, nessas duas redes os participantes do estudo ficaram mais bem informados com eles do que sem eles.”
Um terceiro estudo da série revelou que o consumo de notícias falsas ou imprecisas sobre política mostrou-se maior entre simpatizantes do partido Republicano: 97% das fontes identificadas como associadas à desinformação eram mais populares entre eles do que entre os democratas.
Os resultados podem ter decepcionado os que acreditavam em uma virada de chave no Facebook e no Instagram como forma de resolver em um passe de mágica a polarização atribuída de forma simplista às duas redes. Seria uma ótima notícia.
Mas é prematuro acreditar que os estudos absolvam totalmente a mídia digital da responsabilidade pelas divisões, por não levarem em conta o poder do WhatsApp, ou a realidade de outros países, cujas populações têm menos acesso a outras fontes de notícias e poderiam reagir de forma diferente aos experimentos feitos nos EUA há quase três anos.
Leia também | Trump: apenas 5% dos que se informam pela Fox News acham que ex-presidente cometeu crimes