O caso do ex-presidente Donald Trump, excluído das plataformas de mídia social depois dos conflitos no Capitólio que resultaram na morte de cinco pessoas, é um dos mais emblemáticos exemplos de uma questão que divide a sociedade: o tipo de conteúdo que as plataformas digitais e também sites de notícias que têm seções de comentários podem – e devem – remover. Para entender as impressões sobre o assunto, o Centro para Engajamento de Mídia da Universidade do Texas fez um estudo com usuários de redes sociais em Portugal, na Holanda e nos Estados Unidos.
As principais conclusões foram de que nos três países, os usuários consideraram a remoção de discurso de ódio mais justa, legítima e necessária do que a retirada de mensagens contendo palavrões. E aceitaram melhor quando o conteúdo é removido com uma boa explicação, de preferência assinada por um moderador humano e não por uma mensagem automática remetendo às políticas da comunidade, pois em um dos três países a prática se revelou fundamental para a confiança.
O trabalho envovleu pesquisadores da Universidade Erasmus na Holanda e da Universidade NOVA em Portugal, além da equipe da Universidade do Texas que coordenou o trabalho.
Um total de 902 pessoas participaram nos Estados Unidos, 975 na Holanda e 993 em Portugal. Todos os materiais foram traduzidos para holandês e português para participantes na Holanda e Portugal por membros da equipe de pesquisa fluentes nas três línguas.
Os participantes foram expostos a postagens em redes sociais que continhm discurso de ódio contra grupos étnicos ou palavrões. Em seguida, viram mensagens de um moderador – um humano ou um algoritmo – informando que excluira a postagem inicial porque era ofensiva.
Foram testados três tipos de mensagens. Algumas explicavam especificamente porque a postagem fora excluída e eram assinadas por um moderador humano. Outras davam uma ideia geral do motivo da exclusão, com um link clicável para as diretrizes da comunidade no site. Outras não ofereciam qualquer explicação.
Posteriormente, os participantes responderam a perguntas sobre quão justa ou legítima foi a exclusão e quão transparente ou confiável o moderador foi em sua comunicação.
Nos Estados Unidos e na Holanda, as pessoas perceberam a exclusão de comentários de forma igual em todos os casos, independentemente de um ser humano ou um algoritmo ser o moderador. Já em Portugal, os participantes consideraram a eliminação de comentários mais justa e legítima quando era assinada por um ser humano em vez de por um algoritmo.
Nos três países, os participantes acharam a exclusão de discurso de ódio, atacando grupos vulneráveis com declarações discriminatórias, mais justa e legítima do que a exclusão de palavrões.
Em seguida, os pesquisadores avaliaram como as pessoas percebiam o moderador. Nos três países, as pessoas consideraram o moderador mais transparente e confiável nos casos de conteúdo de incitação ao ódio do que em postagens com palavrões.
E a explicação mais detalhada demonstrou-se capaz de aumentar a percepção de transparência nos três países.
O estudo foi conduzido pelos pesquisadores Gina Masullo, João Gonçalvez, Ina Weber, Aquina Laban, Marisa Torres e Joep Hofuis. Com base nos resultados, eles acham que as plataformas devem se concentrar mais em agir sobre discurso de ódio do que sobre palavrões. E que devem adotar a prática de informar especificamente o motivo da remoção de um conteúdo.
Quanto ao uso de moderadoes humanos e algoritmos, eles alertaram que em geral não há diferenças marcantes, mas observaram que conextos culturais específicos devem ser levados em conta, porque o comportamento varia conforme o país.