Um investigação interna do Facebook revisou a exclusão de um post e recomendou que a rede social recorra a uma avaliação externa e independente sobre sua moderação de conteúdo no conflito Israel-Palestina, abrindo uma discussão sobre a parcialidade que pode ocorrer na moderação humana de conteúdo na internet.
O conselho de supervisão do Facebook afirmou que a empresa falhou em responder a todas as suas perguntas sobre a suposta censura de ativistas palestinos, num possível favorecimento à causa israelense.
O caso girou em torno de um usuário que compartilhou uma notícia da rede Al Jazeera, em idioma árabe, sobre um grupo militante considerado braço armado do Hamas. A notícia relata a ação violenta do grupo, e o usuário do Facebook compartilhou a notícia acompanhada apenas do comentário “oooh”.
O post foi excluído pela rede social, e após o usuário apelar ao conselho de supervisão, a rede social acabou recuperando o conteúdo, que voltou ao ar.
Leia também
Nada se cria, tudo se copia: hits do Facebook são na verdade exemplos da arte do disfarce
Usuários árabes se queixam de moderação tendenciosa do Facebook
Como parte de sua investigação, o conselho perguntou ao Facebook se havia recebido solicitações oficiais ou não oficiais do governo israelense para remover conteúdo relacionado à disputa territorial e política em abril e maio, período de mais um conflito entre Israel e Gaza.
Embora o Facebook afirme não ter recebido nenhum pedido oficial, não respondeu se recebeu algum não oficial.
Queixas de usuários, relatadas no caso, incluem alegações de que o Facebook removeu ou rebaixou desproporcionalmente conteúdo de usuários palestinos e conteúdo em árabe durante o conflito.
Há também críticas de que a moderação da rede social não fez o suficiente para remover conteúdo violento contra civis israelenses.
Um grupo palestino de direitos digitais afirma que, entre 6 e 19 de maio, cerca de 500 postagens relacionadas ao conflito de Gaza foram removidas.
O vice-presidente do Facebook para assuntos globais, Nick Clegg, se desculpou com o primeiro-ministro palestino, Mohammad Shtayyeh, por rotular erroneamente algumas postagens como incitação à violência.
Leia também
Post mais visto no Facebook no 1º trimestre turbinou movimento antivacina; empresa omitiu relatório
Instagram passou por problemas de moderação contra o racismo
No caso de ataques racistas online após a final da Eurocopa, em que jogadores da seleção da Inglaterra foram vítimas de ofensas, o Instagram precisou se retratar publicamente por erros de moderação.
No caso, emojis de bananas e macacos passaram despercebidos pela inteligência artifical da plataforma, o que foi identificado em reportagem da BBC e motivou um posicionamento público do diretor mundial do Instagram, admitindo o erro.
O próprio Facebook passou aperto recentemente em outro episódio de racismo provocado por erro de tecnologia, quando seu sistema de recomendação de vídeos sugeria “mais vídeos de primatas” logo após a exibição de um vídeo que noticia um flagrante de racismo nos Estados Unidos.
Leia também
Recomendação de vídeos do Facebook chama homens negros de primatas e rede social desativa recurso
Conselho recomenda que Facebook recorra a consultoria independente para examinar moderação
Como resultado da investigação na questão Israel-Palestina, o conselho de supervisão recomenda que o Facebook recorra a uma entidade independente não associada a nenhum dos lados do conflito para conduzir um exame completo e determinar se a moderação de conteúdo em árabe e hebraico, incluindo o uso de automação, foi aplicada sem preconceitos.
Os examinadores recomendam ainda que o Facebook torne transparente a maneira como a rede social recebe e responde a todas as solicitações de governo para remoção de conteúdo.
A rede social afirmou apenas que as recomendações eram bem recebidas, e que a empresa iria examinar os apontamentos do conselho.