Londres – Um dia depois de anunciar a saída de seu fundador e CEO, Jack Dorsey, o Twitter voltou a atrair atenção ao publicar alterações em sua política de compartilhamento de moderação de conteúdo, recebidas com entusiasmo por alguns e questionamento por muitos pela ausência de regras claras. 

A partir de agora, usuários não podem mais compartilhar imagens de outras pessoas sem consentimento, valendo no mundo inteiro. Caso isso ocorra, a pessoa pode solicitar a remoção à plataforma.

Não é o primeiro movimento da empresa na direção da privacidade. Enquanto o Facebook sofre uma avalanche de críticas depois das revelações feitas por uma ex-funcionária no caso chamado de “Facebook Papers”, o Twitter já tinha avançado em outras iniciativas para limitar conteúdo ofensivo,  como o recurso Safety Mode, destinado a bloquear mensagens de assédio virtual (lançado em setembro em modo teste nos EUA).

Moderação de conteúdo no centro do debate 

A questão principal é como a política será aplicada. Segundo o comunicado do Twitter, ela não se aplica a “figuras públicas ou indivíduos quando a mídia e o texto do tuíte que o acompanha são compartilhados em nome do interesse público ou agregam valor ao discurso público”.

O grau de subjetividade pode dar margem a críticas à plataforma, que terá que decidir sozinha o que é interesse público e quem é figura pública, como o próprio Twitter explicou: 

“Tentaremos sempre avaliar o contexto em que o conteúdo é compartilhado e, nesses casos, podemos permitir que as imagens ou vídeos permaneçam no serviço”.

A definição de pessoa pública pelas plataformas digitais não é linear. Para o Facebook, por exemplo, qualquer pessoa com muitos seguidores nas redes sociais ou que tenha aparecido na mídia com determinada frequência nos dois anos anteriores é classificada desta forma. 

O critério faz parte de um documento interno da rede social revelado pelo jornal The Guardian em março, com instruções para os moderadores de conteúdo. Jornalistas também são consideradas figuras públicas. E para o Facebook, segundo o documento, elas podem ser atacadas livremente, com permissão até para mensagens pedindo a sua morte. 

Leia mais 

Jornalistas entre figuras públicas que política de moderação do Facebook permite atacar ou ter morte pedida

Estado americano processa Facebook por enganar investidores sobre conteúdo prejudicial e fake news

Censura nas mídias sociais

A nova política do Twitter será útil para resolver casos de pessoas indiscutivelmente pouco conhecidas. Mas alimentará o debate sobre o poder excessivo das plataformas digitais sobre o que é ou não admitido em seus serviços, sem se submeterem a leis ou regulamentos externos. Para os críticos, trata-se muitas vezes de censura. 

O caso mais recente ocorreu com a cantora Madonna, que na semana passada investiu contra o Instagram por ter removido fotos em que aparecia com parte do seio à mostra.  

A artista republicou a imagem com um emoji cobrindo o seio, acompanhada de uma mensagem questionando os critérios de moderação, que a seu ver permitem sexualizar certas partes do corpo feminino e não outras. 

Leia mais

Madonna ataca censura no Instagram por remoção de foto com seio à mostra

Instagram Madonna

“Ameaças a mulheres, ativistas, dissidentes e minorias”

A despeito dos riscos, o Twitter resolveu encarar a possibilidade de críticas. O comunicado refere-se a “preocupações crescentes sobre o uso indevido de mídias (imagens)  e informações que não estão disponíveis em nenhum outro lugar online como ferramenta para assediar, intimidar e revelar a identidade de indivíduos.”

E admite que “o compartilhamento de mídia pessoal, como imagens ou vídeos, pode violar potencialmente a privacidade de uma pessoa e causar danos emocionais ou físicos2. O Twitter destacou que esse uso indevido “pode ter um efeito desproporcional nas mulheres, ativistas, dissidentes e membros de minorias”. 

2Embora nossas políticas existentes e as regras do Twitter cubram casos explícitos de comportamento abusivo, esta atualização nos permitirá tomar medidas sobre mídias que são compartilhadas sem qualquer conteúdo abusivo explícito, desde que sejam postadas sem o consentimento da pessoa retratada.2

A empresa salientou que já proíbe a publicação de informações privadas, como número de telefone, endereço, dados financeiros, documentos de identidade, dados biométricos e registros médicos de uma pessoa. Mas resolveu ir além, impedindo também a postagem de imagens não autorizadas. 

Remoção de conteúdo no Twitter 

O processo anunciado é simples. Segundo o Twitter, quando informações ou imagens são compartilhadas na plataforma, a pessoa atingida (ou seu representante autorizado) deve fazer uma denúncia, informando que a postagem foi feita sem permissão. E a empresa o removerá. 

Exceto nos casos em que o conteúdo for considerado de interesse público, ou se a pessoa for pública. Mas o comunicado faz ressalvas:

“Se o objetivo da divulgação de imagens privadas de figuras públicas ou indivíduos que participam de conversas públicas for assediar, intimidar ou usar o medo para silenciá-los, podemos remover o conteúdo de acordo com nossa política contra comportamento abusivo. 

Da mesma forma, imagens privadas de nudez de indivíduos públicos continuarão a ser objeto de ação de acordo com nossa política de nudez não consensual.”

E admite a possibilidade de casos em que os titulares de contas “podem compartilhar imagens ou vídeos de pessoas privadas em um esforço para ajudar alguém envolvido em uma situação de crise, como após um evento violento ou como parte de um evento de interesse público, e isso pode superar os riscos de segurança para uma pessoa”. 

Um dos critérios para o julgamento será, segundo o Twitter, se a imagem está disponível publicamente, ou está sendo transmitida pela mídia convencional. Nesses casos, o pedido de remoção poderia ser negado.

Entre as muitas críticas que circulam no Twitter após a notícia da alteração na política está a de que imagens de uma pessoa desconhecida cometendo um ato ilegal ou racista poderiam ser removidas a pedido dela. 

Se o Twitter aplicar a um caso assim o critério de interesse público, ele estaria assumindo o ônus de decidir se aquele ato foi realmente ilegal ou racista, o que em teoria é papel de autoridades e não de empresas privadas. 

O debate da moderação de conteúdo

A moderação de conteúdo nas plataformas é um debate sem fim, e não é ciência exata em um universo formado por países com diferentes realidades.

Em locais onde não há censura governamental, muitas remoções são tratadas como censura arbitrária, associada a costumes ou preconceitos.

Ou a infrações legais, como incentivo a crimes ou afronta a políticas governamentais, situação que se tornou comum na crise da Covid. Posts com mensagens negacionistas ou contra as vacinas foram removidos sem que isso tivesse mobilizado entidades de defesa da liberdade de expressão para condenar as plataformas. 

No entanto, em países onde a censura impera, informar sobre a Covid em redes sociais, ainda que os fatos sejam verdadeiros, virou crime. A jornalista -cidadã chinesa Zhang Zhan foi condenada a quatro anos de prisão por noticiar a crise do coronavírus em Wuhan e corre risco de morte, segundo familiares.

A nova política do Twitter  não se enquadra nesse caso, pois trata de indivíduos não considerados pessoas públicas. Mas a subjetividade será um desafio para a sua execução na prática. 

Conselho de Supervisão do Facebook 

Para se proteger de críticas, o Facebook criou em 2020 um órgão externo, chamado Conselho de Supervisão. Formado por representantes da sociedade, ele tem independência para julgar casos de moderação, podendo recomendar (embora não impor) à plataforma a volta de uma postagem retirada pelos moderadores da empresa. 

A iniciativa foi vista por críticos do Facebook como inócua, com dúvidas sobre sua real independência. Mas o Conselho tem tentado demostrar o contrário, recriminando formalmente práticas da rede social, como no caso da suspensão de Donald Trump e da política que flexibiliza a moderação para pessoas consideradas “vips”. 

Leia mais 

Revelação de que “vips” escapam da moderação faz Conselho externo cobrar transparência do Facebook