Um investigação interna do Facebook revisou a exclusão de um post e recomendou que a rede social recorra a uma avaliação externa e independente sobre sua moderação de conteúdo no conflito Israel-Palestina, abrindo uma discussão sobre a parcialidade que pode ocorrer na moderação humana de conteúdo na internet. 

O conselho de supervisão do Facebook afirmou que a empresa falhou em responder a todas as suas perguntas sobre a suposta censura de ativistas palestinos, num possível favorecimento à causa israelense.

O caso girou em torno de um usuário que compartilhou uma notícia da rede Al Jazeera, em idioma árabe, sobre um grupo militante considerado braço armado do Hamas. A notícia relata a ação violenta do grupo, e o usuário do Facebook compartilhou a notícia acompanhada apenas do comentário “oooh”.

O post foi excluído pela rede social, e após o usuário apelar ao conselho de supervisão, a rede social acabou recuperando o conteúdo, que voltou ao ar.

Leia também

Nada se cria, tudo se copia: hits do Facebook são na verdade exemplos da arte do disfarce

Usuários árabes se queixam de moderação tendenciosa do Facebook

Como parte de sua investigação, o conselho perguntou ao Facebook se havia recebido solicitações oficiais ou não oficiais do governo israelense para remover conteúdo relacionado à disputa territorial e política em abril e maio, período de mais um conflito entre Israel e Gaza.

Embora o Facebook afirme não ter recebido nenhum pedido oficial, não respondeu se recebeu algum não oficial.

Queixas de usuários, relatadas no caso, incluem alegações de que o Facebook removeu ou rebaixou desproporcionalmente conteúdo de usuários palestinos e conteúdo em árabe durante o conflito. 

Há também críticas de que a moderação da rede social não fez o suficiente para remover conteúdo violento contra civis israelenses.

Um grupo palestino de direitos digitais afirma que, entre 6 e 19 de maio, cerca de 500 postagens relacionadas ao conflito de Gaza foram removidas.

O vice-presidente do Facebook para assuntos globais, Nick Clegg, se desculpou com o primeiro-ministro palestino, Mohammad Shtayyeh, por rotular erroneamente algumas postagens como incitação à violência.

Leia também

Post mais visto no Facebook no 1º trimestre turbinou movimento antivacina; empresa omitiu relatório

Instagram passou por problemas de moderação contra o racismo

No caso de ataques racistas online após a final da Eurocopa, em que jogadores da seleção da Inglaterra foram vítimas de ofensas, o Instagram precisou se retratar publicamente por erros de moderação.

No caso, emojis de bananas e macacos passaram despercebidos pela inteligência artifical da plataforma, o que foi identificado em reportagem da BBC e motivou um posicionamento público do diretor mundial do Instagram, admitindo o erro.

O próprio Facebook passou aperto recentemente em outro episódio de racismo provocado por erro de tecnologia, quando seu sistema de recomendação de vídeos sugeria “mais vídeos de primatas” logo após a exibição de um vídeo que noticia um flagrante de racismo nos Estados Unidos.

Leia também

Recomendação de vídeos do Facebook chama homens negros de primatas e rede social desativa recurso

Conselho recomenda que Facebook recorra a consultoria independente para examinar moderação

Como resultado da investigação na questão Israel-Palestina, o conselho de supervisão recomenda que o Facebook recorra a uma entidade independente não associada a nenhum dos lados do conflito para conduzir um exame completo e determinar se a moderação de conteúdo em árabe e hebraico, incluindo o uso de automação, foi aplicada sem preconceitos.

Os examinadores recomendam ainda que o Facebook torne transparente a maneira como a rede social recebe e responde a todas as solicitações de governo para remoção de conteúdo.

A rede social afirmou apenas que as recomendações eram bem recebidas, e que a empresa iria examinar os apontamentos do conselho.

Leia também

Comissão Europeia e Reino Unido abrem investigações sobre conduta do Facebook em anúncios classificados