O que começou como uma notícia denunciando um episódio de racismo nos Estados Unidos (EUA) acabou como um caso de falha escandalosa no algoritmo de recomendação de vídeos do Facebook, que, ao exibir a notícia, perguntava aos usuários se eles gostariam de ver mais conteúdos com “primatas”.

Após a repercussão de diversas reportagens na mídia americana, na sexta-feira (3/9) a empresa pediu desculpas e afirmou que o sistema de recomendação foi desativado para que a falha seja investigada.

O vídeo, divulgado pelo jornal britânico Daily Mail em junho de 2020, documentou um encontro entre um homem branco não identificado e um grupo de homens negros que estavam comemorando um aniversário. O episódio aconteceu em uma marina de Stamford, no estado de Connecticut (EUA). 

O clipe captura o homem branco supostamente ligando para o 911 para relatar que ele está “sendo ameaçado por um bando de homens negros”, e em seguida os ataca com spray de pimenta.

Leia também

China não quer celebridades “afeminadas” na TV e recomenda que emissoras evitem artistas “imorais”

“Inteligência artificial não é perfeita”, diz Facebook sobre racismo involuntário

Ao assistir ao vídeo no Facebook, a rede social perguntava se o usuário gostaria de ver mais cenas com primatas.

“Como dissemos, embora tenhamos feito melhorias em nossa I.A. [inteligência artificial], sabemos que não é perfeita e temos mais progressos a fazer. Pedimos desculpas a qualquer pessoa que possa ter visto essas recomendações ofensivas”, afirmou Dani Lever, porta-voz da empresa, em comunicado.

A ex-funcionária do Facebook Darci Groves tuitou sobre o erro na quinta-feira (2/9). Ela compartilhou uma captura de tela que capturou a frase do Facebook que gera o viés de racismo: “Continuar vendo vídeos sobre primatas?”.

“Este prompt “continue vendo” é inaceitável, @Facebook. E apesar de o vídeo ter mais de um ano, um amigo recebeu essa mensagem ontem. Amigos do FB, por favor, escalem [enviem a superiores]”, escreveu a ex-funcionária.

Esta não é a primeira vez que o Facebook tem  que lidar com erros técnicos desta magnitude. No ano passado, o nome do presidente chinês Xi Jinping apareceu como um palavrão quando traduzido do birmanês para o inglês. 

Leia também

Boicote às redes: o “basta” do futebol britânico contra o racismo online

Tecnologias de reconhecimento são acusadas por gerar episódios de racismo

Google, Amazon e outras empresas de tecnologia também já foram criticadas por vieses em seus sistemas de inteligência artificial, particularmente em torno de questões raciais. 

Estudos demonstraram que a tecnologia de reconhecimento facial é tendenciosa contra pessoas não brancas e tem problemas para identificá-las, levando a incidentes em que negros foram discriminados ou presos por causa de erros de computador.

Em 2015, o Google passou por uma situação similar, quando o software de reconhecimento de imagem da plataforma classificou fotos de negros como sendo “gorilas”. O Google se desculpou e removeu as classificações.

Leia também

Racismo nas redes sociais gerou repercussão na Inglaterra após final da Eurocopa

No episódio de racismo online que marcou a final da Eurocopa deste ano, quando jogadores da Inglaterra sofreram injúrias nas redes sociais, o Instagram teve de vir a público se desculpar por não detectar que emojis de macacos estavam sendo usados com conotação racista.

Diante da pressão da sociedade, do mundo esportivo e do governo do Reino Unido, Facebook e Twitter cederam e entregaram à polícia britânica dados das contas de onde partiram os ataques , o que raramente fazem voluntariamente.

No início de agosto, quase quatro semanas após os ataques racistas de torcedores contra três jogadores ingleses na final da Euro 2020 , a polícia britânica prendeu 11 pessoas acusadas de envolvimento no episódio que mobilizou autoridades, celebridades e a monarquia no Reino Unido.

Leia também

Polícia britânica prende 11 acusados de ataques racistas a jogadores após final da Euro 2020