MediaTalks em UOL

Revelação de que “vips” escapam da moderação faz Conselho externo cobrar transparência do Facebook

Imagem: Gerd Altmann/Pixabay

Após uma reportagem mostrando que o Facebook “alivia a barra” de pessoas poderosas e influentes no que diz respeito à moderação de posts, o Conselho de Supervisão, comitê de avaliação da rede social formado por representantes da sociedade, determinou que a empresa torne transparente o sistema de checagem cruzada utilizado para definir quais posts serão excluídos da plataforma.

O pedido foi feito em reação a uma investigação do Wall Street Journal (WSJ) revelando que as avaliações de postagens de usuários famosos, como celebridades, políticos e jornalistas, são direcionadas para um sistema separado. 

Figuras como o ex-presidente Donald Trump, o jogador Neymar, a senadora americana Elizabeth Warren e até mesmo o cachorro-celebridade Doug the Pug são cobertos pelo sistema paralelo, apelidado de “XCheck”, criado em resposta às deficiências dos processos duplos de moderação humana e de inteligência artificial da rede social. 

De acordo com o WSJ, alguns usuários estão na “lista de permissões” e imunes à ação de fiscalização, enquanto outros têm autorização para postar material que viole as regras do Facebook, com revisões de conteúdo pendentes que muitas vezes acabam não acontecendo. 

Segundo o conselho, a moderação da rede social estaria fazendo vista grossa para excessos de famosos na plataforma.

“É crucial continuarmos a fazer perguntas sobre a verificação cruzada e publicar as respostas para que as pessoas vejam. A transparência é essencial para plataformas de rede social”, afirma o conselho em comunicado publicado nesta terça-feira (21/9). 

O que é o Conselho de Supervisão 

O Conselho de Supervisão do Facebook é um órgão independente, criado pela própria rede social em 2020, com o objetivo de analisar decisões de moderação, podendo até recomendar que elas sejam revertidas. 

O órgão é integrado por jornalistas, acadêmicos e representantes da sociedade civil que não integram o quadro de funcionários da empresa.

Ainda assim, muitos não o veem como uma entidade isenta, por ser financiado pelo próprio Facebook. Uma das decisões mais notórias e controvertidas foi a que determinou à plataforma um prazo de seis meses para uma decisão final sobre o banimento do ex-presidente Donald Trump. 

Leia mais 

Por que o Conselho do Facebook não baniu Donald Trump de vez?

Relatórios trimestrais  

Na decisão publicada no dia 21/9, o Conselho de Supervisão anunciou que passará a divulgar um relatório de transparência a partir de outubro. E procurou demonstrar sua independência, enumerando as recomendações e questionamentos já feitos à empresa e a ausência de resposta em alguns casos. 

O comunicado emitido pelo Conselho elogia a reportagem do Wall Street Journal. O texto afirma que “chamou novamente atenção para a maneira aparentemente inconsistente como a empresa toma decisões, mostrando porque uma maior transparência e supervisão independente são tão importantes para os usuários”. 

O conselho diz ter entrado em contato com o Facebook para solicitar mais esclarecimentos sobre as informações já fornecidas, que serão incluídas no primeiro relatório trimestral. 

Também informou que está analisando em profundidade as questões políticas relacionadas à verificação cruzada, o que pode levar a outras recomendações. O tema havia sido abordado na deliberação relativa ao banimento de Donald Trump:

“Em nossa decisão sobre o caso do ex-presidente Donald Trump, alertamos para o fato de que a falta de informações públicas claras sobre a verificação cruzada e a ‘exceção de noticiário’ do Facebook poderia contribuir para a percepção de que a plataforma é indevidamente influenciada por considerações políticas e comerciais.

Para resolver isso, pedimos ao Facebook para explicar como funciona seu sistema de verificação cruzada e instamos a empresa a compartilhar os critérios para adicionar páginas e contas para verificação cruzada, bem como a relatar as taxas de erro relativas de determinações feitas por meio dela em comparação com os seus procedimentos normais.”

Leia também

Consequências para a liberdade de expressão 

Segundo o Conselho, a resposta do Facebook não detalhou os critérios para adicionar páginas e contas ao sistema, nem informou sobre taxas de erro, o que o grupo considera essencial para as plataformas de mídia social: 

“As escolhas feitas por empresas como o Facebook têm consequências reais para a liberdade de expressão e os direitos humanos de bilhões de pessoas em todo o mundo. Por ter regras claras e aplicá-las de forma consistente, as plataformas podem dar aos usuários a confiança de que serão tratados com justiça. Em última análise, isso beneficia a todos.”

No comunicado, o Conselho de Supervisão afirma que desde a publicação de suas primeiras decisões, em janeiro, têm sido destacadas “as regras opacas do Facebook”, com a intenção de conduzir a empresa em direção a uma maior transparência.

“Em menos de um ano, recebemos mais de 500 mil solicitações de usuários para examinar as decisões de moderação de conteúdo do Facebook. Atendemos a 20 casos importantes até agora, cobrindo questões de incitação ao ódio e à desinformação sobre a Covid-19.  E emitimos 15 decisões, revogando decisões do Facebook 11 vezes.”

A mais recente foi na semana passada, quando o órgão reverteu a remoção de  uma postagem de um usuário do Egito que compartilhara notícias de uma página verificada da Al Jazeera sobre a violência em Israel e nos territórios palestinos ocupados. 

Leia mais

Investigação interna do Facebook recupera post excluído e recomenda revisão na qualidade da moderação

Segundo o Conselho, o Facebook só percebeu seu erro depois que o caso foi selecionado e a restauração do post foi solicitada. Em muitos outros casos, segundo o comunicado, o Facebook reverteu sua decisão original ao saber que o Conselho estava considerando uma revisão.

Informações aos usuários 

O comunicado mostra preocupação “com o impacto [dessas decisões] sobre os usuários e as implicações para a liberdade de expressão”: 

“É por isso que, em três de nossas cinco primeiras decisões, fizemos a mesma recomendação ao Facebook: a de dizer aos usuários que tiveram conteúdo removido não apenas quais ‘padrões da comunidade mais amplos’ eles violaram, mas a regra específica que supostamente violaram.

Tratar os usuários de maneira justa também significa tornar suas regras prontamente disponíveis para usuários em todo o mundo. Em outra recomendação, pedimos ao Facebook que traduzisse seus Padrões da Comunidade para o punjabi, um idioma falado por cerca de 130 milhões de pessoas. O Facebook concordou em fazê-lo até o final deste ano.”

Pedidos de governos 

O comunicado informa ainda que  o Facebook concordou em fornecer informações sobre conteúdo removido por violar padrões após pedido formal de um governo. 

“Isso aumentará a transparência sobre como os governos pressionam o Facebook e como o Facebook responde a essa pressão. Na decisão da semana passada, fomos além e pedimos ao Facebook que formalizasse um processo transparente sobre como ele recebe e responde a todas as solicitações governamentais de remoção de conteúdo.”

O Conselho afirma reconhecer que  o poder das recomendações não está nas respostas iniciais do Facebook, mas nas ações que a empresa realiza. E que para medir isso, montou uma equipe para avaliar como a rede social  implementa as recomendações, “com o objetivo de garantir que o Facebook cumpra seus compromissos ao longo do tempo”. 

Porta-voz afirma que esquema de moderação já foi explicado: “Não há dois sistemas de justiça”

Em uma série de tweets, o diretor de comunicação do Facebook, Andy Stone, enfatizou como a empresa tornou público seu sistema de “verificação cruzada” em 2018, após o Channel 4 News fazer perguntas sobre a prática de moderação.

“Como dissemos em 2018: ‘verificação cruzada’ significa simplesmente que algum conteúdo de certas páginas ou perfis recebe uma segunda camada de revisão para garantir que aplicamos nossas políticas corretamente. Não existem dois sistemas de justiça; é uma tentativa de proteção contra erros.”

“Isso normalmente se aplica a páginas de alto perfil visitadas regularmente ou a partes de conteúdo no Facebook, para que não sejam removidos ou deixados online por engano. As páginas de muitas organizações de mídia são verificadas”, postou o porta-voz, sempre baseado em afirmações anteriores da empresa.

O caso Neymar

Quando os usuários, geralmente famosos, são adicionados a esse sistema, é mais difícil para os moderadores tomar medidas contra eles.

Isso aconteceu no caso de Neymar, que postou em suas contas no Facebook e Instagram sua comunicação no WhatsApp com uma mulher que o acusou de estupro. As imagens mostraram o nome e fotos nuas dela.

O compartilhamento de “imagens íntimas não consensuais” de Neymar teria levado o Facebook a excluir o post, mas como Neymar foi coberto pelo XCheck, segundo o Wall Street Journal, moderadores foram impedidos de remover o conteúdo, que foi visto por 56 milhões de usuários online.

O jogador foi acusado de estupro em 2019 pela modelo Najila Trindade, que após um encontro com Neymar em Paris afirmou ter sido agredida sexualmente. A investigação acabou arquivada e a modelo processada por fraude processual, acusação da qual foi absolvida em 2020.

O atleta brasileiro mantém os seus publiposts entre os mais caros das celebridades brasileiras no Instagram.

Leia mais

 

Sair da versão mobile