A Meta, controladora do Facebook, Instagram e WhatsApp, anunciou a formação de uma força-tarefa interna para combater a distribuição de pornografia infantil em suas redes sociais.
O anúncio é uma resposta a uma investigação conjunta do The Wall Street Journal e das universidades de Stanford e Massachusetts Amherst, que revela a operação de redes de compra e venda de pedofilia no Instagram.
O trabalho aponta como determinadas hashtags explicitamente relacionadas a abuso sexual infantil e algoritmos de recomendação eram usados livremente para conectar pedófilos a vendedores destes materiais.
Perfis no Instagram vendiam material sob demanda
Segundo a pesquisa, perfis encontrados por uma conta de teste no Instagram anunciavam “menus” de conteúdos de pedofilia sob hashtags explícitas como “#pedobait”, “#pedowhore” e “#preteensex”.
As contas que publicavam sob estas hashtags anunciavam venda e comissão (produção sob demanda) de diversos materiais, incluindo vídeos de automutilação e bestialidade.
Uma vez que a conta teste foi exposta a publicações do tipo, os algoritmos das redes sociais da Meta exibiam e recomendavam outros perfis de pornografia infantil.
O Wall Street Journal descreveu o mecanismo:
“Seguindo apenas um punhado destas recomendações foi suficiente para inundar uma conta teste com conteúdos que sexualizam crianças.”
Além das recomendações, a pesquisa constatou que estes conteúdos denunciados eram frequentemente ignorados pela moderação, sob uma mensagem automática que alegava “excesso de demanda.”
Em nota, a Meta informou que a equipe interna lidaria com as questões apontadas pelo relatório. “Exploração infantil é um crime horrível. Nós estamos continuamente investigando formas de se proteger ativamente contra este comportamento.”
A empresa anunciou que só em janeiro deste ano, removeu 490 mil contas que feriam seus termos de proteção a crianças, e que nos últimos dois anos derrubou 27 redes de pedofilia, além de bloquear “milhares de hashtags” sobre o tema.
Leia também | Em relatório, maior autoridade de saúde dos EUA alerta para ‘risco profundo’ de redes sociais para jovens
Instagram não possui proteções suficientes
Embora a investigação tenha analisado a distribuição de pornografia infantil em diversas redes sociais, foi no Instagram que a pesquisa encontrou a situação mais crítica.
Segundo o Wall Street Journal, os investigadores de Stanford encontraram 128 contas que ofereciam material de abuso no Twitter — número que representa “menos de um terço do que encontraram no Instagram”.
Em outras redes, como TikTok e Snapchat, não foi encontrada proliferação deste tipo de material. Fontes ouvidas pelo Wall Street Journal apontam que a controladora do Instagram pode e deve fazer mais para lidar com a questão.
Para Alex Stamos, líder do Observatório da Internet de Stanford e ex-chefe de segurança da Meta, a situação é crítica:
“Uma equipe de três acadêmicos com acesso limitado encontrar uma rede tão grande deveria disparar alarmes na Meta. Eu espero que a empresa volte a investir em investigadores humanos.”
David Thiel, chefe de tecnologia do Observatório da Internet de Stanford, conta que o Instagram não estava encontrando um equilíbrio entre recomendação de conteúdo — voltado para engajamento — e recursos de segurança:
“É preciso colocar proteções para algo que é tão voltado para o crescimento permanecer nominalmente seguro, e o Instagram não fez isso.”
Leia também | Algoritmo do YouTube recomenda vídeos de armas e tiroteios em escolas a meninos ‘gamers’, diz pesquisa
Pornografia infantil é mais uma das crises da Meta
A investigação sobre distribuição de pornografia infantil no Instagram é mais um ponto na crise de imagem da Meta, que vive sob escrutínio pelos malefícios causados aos usuários.
Em 2021, a ex-gerente do Instagram Frances Haugen tornou públicas pesquisas internas da empresa demonstrando efeitos negativos sobre o estado emocional de jovens usuários em questões como imagem corporal e autoestima.
Leia também | Redes sociais afetam autoimagem corporal? Pesquisa nos EUA mostra que sim
Em seguida aos vazamentos, reportagens apontaram Estados Unidos, Brasil e Índia como países com “prioridade máxima” para moderação de conteúdo político — indicando proliferação excessiva de notícias falsas com alto potencial de impacto nestas democracias.
Além disso, em 2022 a rede social das selfies foi alvo de multas e sanções na Europa, condenada a pagar €405 milhões (R$ 2,1 bilhões) pela Comissão Irlandesa de Proteção de Dados (DPC) por exibir de telefones e emails de usuários entre 13 e 17 anos em contas comerciais.
Leia também | Sem jornalismo no Facebook? Meta ameaça bloquear notícias na Califórnia e Canadá para não pagar por conteúdo