MediaTalks em UOL

Inteligência artificial do Facebook tem efeito mínimo na moderação de discurso de ódio, mostram documentos internos

Foto: Pete Linforth/Pixabay

Falhas no sistema de inteligência artificial responsável pela remoção do conteúdo de ódio do Facebook são o mais novo alvo da série de reportagens que vem sendo publicada há um mês pelo Wall Street Journal. As revelações são baseadas em documentos confidenciais internos fornecidos por uma ex-executiva da plataforma digital. 

Neste domingo (17/10), o jornal revelou que o software de aprendizado utilizado pela gigante da mídia social para detectar e retirar conteúdo de ódio em substituição a moderadores humanos não consegue captar nem 2% do que circula pela plataforma.

A ineficácia é tanta, aponta o jornal, que chega ao ponto de confundir brigas de galo com acidentes de automóvel. 

Quando os algoritmos não têm certeza de que o conteúdo viola as regras para excluí-lo, a plataforma diminui a frequência de sua exposição aos usuários, mas as contas responsáveis pelas postagens permanecem impunes.

O problema é que pela escala de usuários do Facebook, mesmo com uma frequência menor, o conteúdo acaba sendo exibido para uma quantidade significativa de pessoas. 

O que diz o Facebook 

O porta-voz do Facebook, Andy Stone, disse em um post no blog que as informações retiradas de algumas apresentações a que se o jornal se referiu na reportagem, datadas de 2018 e 2019, estariam desatualizadas. 

Mas em março de 2021, outra equipe de funcionários relatou que os sistemas de inteligência artificial (IA) do Facebook estavam removendo entre 3% e 5%  das visualizações de discurso de ódio e apenas 0,6% de todo o conteúdo que viola as políticas da plataforma contra violência e incitação.

Leia também |Facebook passa a barrar anúncios de venda de terras protegidas da Amazônia em suas redes sociais

Em uma postagem após a nova reportagem deste domingo, o vice-presidente de integridade da rede, Guy Rosen, contestou as conclusões. Ele argumentou que o que vale é a redução geral do discurso de ódio no Facebook, que segundo ele teria sido de 50% nos últimos três trimestres. 

As revelações do Wall Street Journal 

A série de reportagens do Wall Street Journal, que ganhou o apelido de Facebook Papers, começou no dia 14 de setembro. Documentos passados ao jornal anonimamente mostravam que a empresa tinha conhecimento de problemas emocionais causados a jovens pelo Instagram. 

Leia mais | Facebook sabe que Instagram é tóxico para meninas, mostram documentos internos

Duas semanas depois, a informante mostrou o rosto em uma entrevista à rede CBS. Frances Haugen disse que fez as revelações porque se irritou com o fato de o Facebook priorizar os lucros em relação à segurança. No dia 5 de outubro, ela prestou depoimento ao Senado norte-americano. 

Leia mais | Ex-funcionária que expôs relatórios do Facebook mostra o rosto em entrevista à CBS nos EUA

Desde então, outras revelações vêm sendo feitas, sempre baseadas em apresentações internas a que Haugen teve acesso quando trabalhava na empresa, abrindo uma crise sem precedentes na história da rede social. 

Narrativa do Facebook em público

A última reportagem afirma que documentos internos comprovam que, há dois anos, o Facebook reduziu o tempo que os revisores humanos dedicavam às reclamações de discurso de ódio e fez outros ajustes que reduziram o número de notificações.

Isso ajudou a criar a impressão de que a inteligência artificial da plataforma teria tido mais sucesso em fazer cumprir as regras da empresa do que acontece na realidade, denuncia o WSJ.

Ao noticiar as falhas na remoção do conteúdo de ódio, o jornal comparou as conversas internas a que teve acesso com as afirmações públicas feitas pelos executivos da empresa.

Leia também | Facebook pausa projetos para revisar riscos de mais danos à reputação, que rumam a “caminho sem volta”

Em julho de 2020, o CEO do Facebook, Mark Zuckerberg, disse ao Congresso americano: ‘Em termos de luta contra o ódio, construímos sistemas realmente sofisticados.’

Essa afirmação foi dada dois anos depois da promessa que fizera a um comitê do Senado de que num período de cinco a dez anos o Facebook disporia das ferramentas de inteligência artificial necessárias para detectar a maior parte do discurso de ódio.

“A longo prazo, construir ferramentas de IA será a maneira escalonável de identificar e erradicar a maior parte desse conteúdo prejudicial”, disse ele.

O que dizem engenheiros sobre as falhas no Facebook

Nem todos da empresa concordam com essa visão. Em um dos documentos vistos pelo Wall Street Journal, de 2019, um engenheiro sênior afirmou ser improvável que a inteligência artificial algum dia se mostre eficaz para reduzir o discurso de ódio no Facebook.

“O problema é que não temos e possivelmente nunca teremos um modelo que capture a maioria dos danos à integridade, especialmente em áreas sensíveis”, escreveu ele.

O engenheiro em questão estimou que os sistemas automatizados da empresa removeram postagens que geraram apenas 2% das visualizações de discurso de ódio na plataforma.

“Estimativas recentes sugerem que, a menos que haja uma grande mudança na estratégia, será muito difícil melhorar isso além de 10-20% no curto e médio prazo”, escreveu ele à época. 

Leia também |Nos EUA, cidadão comum é preso por fake news sobre a Covid, mas grandes disseminadores ficam impunes

Brigas de galo confundidas com acidentes

Outro documento, de 2018, revelou uma preocupação dos engenheiros que demonstra a escala da confusão feita pela máquina. Brigas de galo foram identificadas pelo sistema como acidentes de carro.

Segundo o Wall Street Journal, o software foi ajustado para identificar cenas mostrando pássaros gravemente feridos. Mas a inteligência artificial não percebeu a diferença, apesar de ter sido abastecida com clipes de vários graus de abuso de animais, para tentar ensiná-la a identificar o que infringia as regras. 

Falha permitiu transmissão ao vivo de tiroteio

Os documentos também detalham como, em março de 2019, o software falhou em detectar a transmissão ao vivo de um atentado que resultou na morte de 51 pessoas, vítimas de um atirador em uma mesquita em Christchurch, na Nova Zelândia.

A filmagem permaneceu online por horas após o ataque. Isso ocorreu porque a inteligência artificial do Facebook apresentava dificuldades para capturar vídeos de tiro gravados pela pessoa por trás da arma.  

Critérios  para medir sucesso da remoção do discurso de ódio

O vice-presidente de integridade, Guy Rosen, defende o critério de prevalência, medida usada para medir a disseminação do discurso de ódio no Facebook, que seria de 0,05%. 

Isso significa que 5 usuários a cada 10 mil encontram uma postagem relacionada a discurso de ódio. No entanto, devido ao gigantismo do Facebook, isso ainda quer dizer que muitas pessoas encontram essas postagens.

Leia também | Retratado como “acomodado” no combate às fake news, YouTube diz que foco em remoção de conteúdo não basta

Rosen disse que os dados de documentos vazados estão erroneamente tentando pintar um quadro de que a IA do Facebook é ineficaz para remover discurso de ódio:

“Dados extraídos de documentos que vazaram estão sendo usados ​​para criar uma narrativa de que a tecnologia que usamos para combater o discurso de ódio é inadequada e que apresentamos falsamente nossa evolução. 

Isso não é verdade. Não queremos ver ódio em nossa plataforma, nem nossos usuários ou anunciantes, e somos transparentes sobre nosso trabalho para removê-lo.”

O porta-voz do Facebook, Andy Stone, disse ao jornal americano que a IA é apenas uma das ferramentas da empresa para combater o discurso de ódio. 

Algoritmo do Facebook confundiu negros com primatas 

Mas embora a empresa afirme que sua IA melhorou muito, os problemas continuam.  Em setembro, uma falha no algoritmo levou o Facebook a desativar seu sistema de recomendação de vídeos.

Na ocasião, os usuários que assistiam a um vídeo com um homem negro eram perguntados se gostariam de ver mais conteúdos com “primatas”.

Leia mais |Recomendação de vídeos do Facebook chama homens negros de primatas e rede social desativa recurso

Empresa fala em 98% das postagens ofensivas removidas

O Facebook afirma que quase 98% das postagens contendo discurso de ódio foram removidas antes mesmo que fossem sinalizadas pelos usuários como ofensivas.

O vice-presidente de integridade Rosen afirma que a empresa trabalha com várias métricas em seus relatórios trimestrais sobre remoção de conteúdo, com a ajuda de especialistas internacionais. 

Segundo ele, embora esses consultores concordem amplamente com a abordagem adotada, também fornecem recomendações sobre como a empresa pode melhorar. 

Ele lembrou ainda que em 2020 a empresa se comprometeu a passar por uma uma auditoria independente, feita pela EY, para garantir que está medindo e divulgando as métricas com precisão. 

Críticos questionam as métricas do Facebook

No entanto, os críticos dizem que o Facebook não é transparente sobre os índices que apresenta.

‘Eles nunca vão mostrar seu trabalho’, disse Rashad Robinson, presidente do grupo de direitos civis Color of Change, que ajudou a organizar um boicote de anunciantes ao Facebook em 2020 devido ao que chamou de falha da empresa em controlar o discurso de ódio.

Na entrevista ao Wall Street Journal, Robinson rebateu o índice alardeado pelo Facebook com algumas perguntas:

“Perguntamos, qual é o numerador? Qual é o denominador? Como a empresa chegou a esse número?”

Leia também 

Nos EUA, cidadão comum é preso por fake news sobre a Covid, mas grandes disseminadores ficam impunes

 

Sair da versão mobile