MediaTalks em UOL

Facebook lista Brasil entre os 3 países com prioridade máxima para moderação de conteúdo político

Foto: Pete Linforth/Pixabay

Londres – No dia em que o vídeo do presidente Jair Bolsonaro foi derrubado das redes sociais por conter afirmações falsas sobre a ligação da Covid-19 com a Aids, o site americano de tecnologia The Verge revelou que o Facebook considera o Brasil um dos três países com prioridade absoluta para a moderação de conteúdo político e eleitoral. 

A matéria, que repercutiu na grande imprensa global, afirma que Índia e Estados Unidos também figuram como “prioridade zero” em uma lista elaborada no fim de 2019. 

Nesses três países, o Facebook estabeleceu “salas de guerra” para vigiar regularmente as comunidades. E criou painéis para investigar o que circula na plataforma e alertar autoridades sobre problemas, revelou o site. 

O jornalista que assina a reportagem, Casey Newton, é um dos mais bem informados sobre a mídia digital. Recentemente ele tinha  conversado com Mark Zuckerberg, que raramente dá entrevistas individuais. 

Naquela entrevista, em julho, antes de a crise eclodir, o CEO do Facebook falou pela primeira vez publicamente sobre os planos de se tornar uma empresa “metaversa”. Essa intenção tinha sido apresentada pouco antes a funcionários. 

“Imagem falsa da empresa”

Nesta segunda-feira, Zuckerberg falou a investidores sobre os problemas de imagem enfrentados pela empresa desde que documentos confidenciais foram vazados há quatro semanas pela ex-funcionária Frances Haugen. 

O CEO do Facebook condenou o que classifica como “tentativa de pintar uma imagem falsa da empresa”.

A onda de notícias negativas que começou em outubro não impactou os resultados do trimestre encerrado em setembro. No período foi registrado um aumento de 17% no lucro líquido, para US$ 9,19 bilhões, impulsionado por fortes receitas de publicidade .

No entanto, anunciantes podem começar a se preocupar em se verem associados a tantos problemas, como ocorreu no boicote de grandes marcas globais devido ao avanço da desinformação em 2020. 

Países agrupados conforme o risco 

O The Verge baseou a reportagem em documentos internos do Facebook. Eles dividem os países do mundo em “camadas”, conforme os riscos, de acordo com a avaliação feita em 2019 por um time de executivos encarregado de combater danos à comunidade.

No que chamou de “Cúpula Cívica” os líderes da empresa de mídia digital definiram locais onde deveriam fazer investimentos adicionais para aumentar a proteção contra conteúdo indevido ou ilegal em períodos que antecedem eleições locais. 

Depois de Brasil, Índia e Estados Unidos, posicionados no “nível 0”,  aparecem no nível 1 a Alemanha, Indonésia, Irã, Israel e Itália. No nível 2 figuram outras 22 nações. Em todas elas há esforços adicionais de moderação, utilizando as salas de guerra. 

O restante dos países ficou no nível 3.  Neles, o Facebook avalia temas eleitorais apenas quando encaminhados por moderadores de conteúdo. 

Leia também | Análise | Assassinato de parlamentar britânico eleva pressão contra discurso de ódio nas redes e no Parlamento

Para as nações consideradas sob ameaça excessiva de violência política ou instabilidade social, o Facebook desenvolveu um conjunto de serviços e de produtos projetados para oferecer proteção ao discurso do público.

Fazem parte desse pacote ferramentas de inteligência artificial para capturar discurso de ódio e informações incorretas no idioma local. O esforço engloba equipes para investigar conteúdo viral e responder temporariamente a boatos e incitação à violência, que operam 24 horas por dia, nos sete dias da semana.

Mas num outro vazamento mais recente de documentos, a precisão da inteligência artificial usada pela empresa foi questionada, incluindo casos em que brigas de galo foram confundidas com colisões de automóvel. 

Leia mais | Inteligência artificial do Facebook tem efeito mínimo na moderação de discurso de ódio, mostram documentos internos

A  matéria do The Verge aponta também países em situação de crise política que não contam com classificadores de informações incorretas. Cita o caso de Mianmar, Paquistão e Etiópia, onde não existem classificadores de discurso de ódio, embora o país viva uma sangrenta guerra civil.

O The Verge afirma ainda que conforme os documentos a que teve acesso em dezembro de 2020, um esforço para adicionar mais profissionais fluentes nos idiomas locais foi bem-sucedido em apenas seis das dez nações classificadas como prioridade 1, e não teve sucesso em países do nível 2.  

As dificuldades podem aparecer até no idioma inglês falado e escrito de formas diferentes em vários países. Em depoimento a parlamentares britânicos nesta segunda-feira (25), a ex-funcionária Haugen, que vazou documentos confidenciais para a imprensa,  chamou a atenção para o risco de o inglês do país não estar sendo corretamente entendido pelas ferrmentas automatizadas. 

Facebook explicou sistema

Dois dias antes da publicação da reportagem, na segunda-feira (25/10), uma postagem no blog do Facebook assinada por Miranda Sissons, Diretora de Políticas de Direitos Humanos, e Nicole Isaac, Diretor de Resposta Estratégica Internacional, explicou o mecanismo de priorização revelado pelos documentos. 

O comunicado não se refere à reportagem. 

Segundo o Facebook, a prioridade conferida a determinados países é definida com base em uma série de fatores. Eles incluem a importância que os aplicativos assumiram junto à sociedade local, de que maneira os produtos são usados, se houve aumento nos danos offline e onde a adoção de mídia social mais cresceu.

Os critérios justificariam a inclusão do Brasil como um dos três onde a atenção é maior. Dados da empresa de pesquisas Statista mostram o país em quarto lugar em número de usuários do Facebook, com Índia, Estados Unidos e Indonésia em primeiro. 

Mas a escolha pode estar mais ligada ao WhatsApp, que também pertence ao Facebook. Coincidência ou não, Índia, Brasil e Estados Unidos são os líderes no uso do aplicativo, com audiência combinada de 573,6 milhões de usuários. No Brasil 108,4 milhões utilizam a ferramenta. Os dados são da consultoria e-Marketer. 

Covid-19, eleições e violência

Mas a questão não se limita à audiência. O Facebook explicou no blog que também leva em conta eventos que podem aumentar os problemas sociais, como risco local ou ocorrência de crimes atrozes, eleições, episódios de violência e até taxas de vacinação e de transmissão da Covid-19. 

Isso também explicaria a prioridade para o Brasil, ao lado da Índia e dos Estados Unidos, países onde a crise da Covid foi mais severa.

Leia também |Resposta falha à Covid faz Brasil perder US$ 93 bilhões no valor da marca nacional, estima consultoria global

Os Estados Unidos têm ainda o agravante das eleições de 2020, marcadas por extrema polarização que culminou com o ataque ao Capitólio, deixando cinco mortos. O Facebook foi responsabilizado por permitir o compartilhamento de conteúdo que ajudou a incitar os apoiadores de Donald Trump. 

O ex-presidente foi banido do Facebook e também do Twitter. Mas na semana passada, anunciou a criação de uma rede social própria, prometendo liberdade total de expressão aos insatisfeitos com a moderação das grandes plataformas.

Leia também | Donald Trump anuncia criação da rede social Truth para combater ‘tirania das Big Techs’ sem cancelamento

Segundo as diretoras do Facebook Sisson e Isaac, usando tal processo de priorização, a empresa desenvolve estratégias de longo prazo para preparar, responder e mitigar os impactos de eventos off-line prejudiciais nos países de maior risco. 

“Isso nos permite agir rapidamente para remover conteúdo que viola nossas políticas e tomar outras medidas de proteção, ao mesmo tempo em que se protege a liberdade de expressão e outros princípios de direitos humanos.

Exemplos recentes incluem nossos preparativos para as eleições em Mianmar, Etiópia, Índia e México.”

A Austrália não é mencionada, mas lá o Facebook acabou de se associar à agência de notícias Associated Press para uma campanha contra desinformação voltada para o período pré-eleitoral. 

Leia mais |Facebook lança campanha para combater a desinformação na Austrália, de olho nas eleições 2022

A postagem no blog do Facebook diz ainda que em 2018 foram criadas equipes com experiência em questões como direitos humanos, discurso de ódio, desinformação e polarização. E que a classificação dos países da lista é revisada a cada seis meses. 

As duas diretoras da empresa abordaram o conflito entre a liberdade de expressão na plataforma e o conteúdo que oferece risco à sociedade: 

“A liberdade de expressão é um direito humano fundamental e possibilita muitos outros direitos. 

Mas sabemos que as tecnologias de liberdade de expressão, informação e opinião também podem ser utilizadas de forma abusiva para espalhar o ódio e a desinformação – um desafio que se torna ainda maior em lugares onde existe um risco elevado de conflito e violência. 

Isso requer o desenvolvimento de soluções de curto prazo que possamos implementar quando surgem crises, além de uma estratégia de longo prazo para manter as pessoas seguras.”

O Facebook diz que nos últimos dois anos contratou mais pessoas com experiência em diferentes línguas, países e assuntos. Idiomas como amárico, oromo, tigrínia, somali, birmanês, crioulo haitiano, kirundi, tswana e kinyarwanda passaram a ser acompanhados diretamente por moderadores fluentes.

Onda de notícias negativas 

A tempestade que se abateu sobre o Facebook não dá sinais de arrefecer. A cada semana, novos ângulos dos documentos revelados por Frances Haugen aparecem para assombrar a plataforma. Embora todo-poderoso, o Facebook demonstra sinais de preocupação, e a declaração de Mark Zuckerberg a investidores é um exemplo disso. 

Outro movimento seria um possível “rebranding” da empresa, com a adoção de um novo nome para se referir à holding que é dona também de outros serviços como o Instagram e o WhatsApp, deixando a denominação Facebook apenas para a rede social. 

Enquanto isso, Frances Haugen segue fazendo estragos. Depois de um depoimento no Congresso americano na semana passada, ontem (25/10) ela cruzou o Atlântico para falar a parlamentares do Reino Unido.

Uma regulamentação para as mídias sociais está em tramitação no país, e ganhou mais impulso depois do assassinato do parlamentar David Ameispor um jovem que teria se radicalizado por influência do conteúdo das redes. 

Leia também | Análise | Assassinato de parlamentar britânico eleva pressão contra discurso de ódio nas redes e no Parlamento

No parlamento britânico, Haugen reiterou que o Facebook está “inquestionavelmente piorando o ódio”, e que “não está disposto a aceitar que pequenas partes de seu lucro sejam sacrificadas pela segurança”.

Ela apontou o Instagram como o pior inimigo, por incentivar a comparação entre aparência e estilo de vida, “o que acaba sendo pior para as crianças”.

Haugen elogiou a iniciativa do Reino Unido de legislar sobre as redes, e acha que Mark Zuckerberg está atento ao que se passa no Parlamento do país. 

A ex-funcionária também alertou que o Facebook não é capaz de policiar o conteúdo em vários idiomas ao redor do mundo – algo que deveria preocupar as autoridades britânicas, disse ela.

“O inglês do Reino Unido é tão diferente, que eu não ficaria surpresa se os sistemas de segurança que eles desenvolveram primordialmente para o inglês americano estivessem sendo mal executados para o inglês britânico”, observou. 

Leia também 

“Brecha” no Twitter permite links da rede social Gab com desinformação sobre eleições e Covid

 

Sair da versão mobile