Por Luciana Gurgel | MediaTalks, Londres 

Parece a tempestade perfeita. No momento em que elevam-se preocupações com o impacto da desinformação sobre o controle da Covid-19, sobretudo por conta do avanço de fake news espalhadas pos grupos antivacina, saiu do forno um relatório do Fórum para Informação e Democracia com propostas inovadoras para regular as redes sociais.

Lançado em 2019 por 11 organizações e centros de pesquisa, o Fórum criou em junho um grupo de trabalho focado em infodemias para formular um “marco regulatório” para as plataformas e redes sociais.  
Depois de 5 meses de trabalho, o grupo, cujo comitê diretor é co-presidido pelas jornalista filipina Maria Ressa e por Marietje Schaake, holandesa que foi eurodeputada, publicou um extenso relatório com  250 recomendações para governos e plataformas digitais. 

Ele identifica quatro áreas de atenção e sugere medidas para cada um delas: 

  • transparência das plataformas
  • moderação dos conteúdos
  • promoção de notícias e informações confiáveis
  • serviços de mensagens privadas

O trabalho é detalhado, descrevendo os desafios tecnológicos envolvidos e propondo as ações. Mais de 100 especialistas contribuíram para o documento. Do Brasil, participou o professor Nicolo Zingales, da Fundação Getúlio Vargas. 

Uma dos destaques é a inclusão de propostas para os serviços de mensagem, geralmente à margem de recomendações voltadas para as redes sociais por serem mais difíceis de monitorar e interferir.  Na abertura do capítulo que trata deles, a desinformação no período eleitoral brasileiro é citada como exemplo da necessidade de ação. 

As propostas serão analisadas pelos 38 países que integram o Fórum, entre eles Austrália, Canadá, França, Alemanha, Itália, Holanda, Suíça, Índia, Coréia do Sul e Reino Unido, que decidirão de forma independente se incluirão as sugestões em suas regulamentações nacionais. O Brasil não faz parte do grupo. 

A Austrália já vem caminhando de forma acelerada para impor controles, considerando até a idéia de uma rede social estatal – o chamado Tech-xit – para substituir as redes globais, caso não haja acordo. 

Uma cópia do estudo também foi enviada para Facebook, Twitter e YouTube na última quarta-feira (11/11), para o caso de decidirem adotar voluntariamente alguma das medidas.

As recomendações 

A organização Repórteres Sem Fronteiras, que faz parte do Forum, resumiu as principais recomendações: 

Transparência 

  • Os requisitos de transparência devem ter como alvo as funções principais de todas as plataformas do ecossistema de informações públicas: moderação de conteúdo, classificação de conteúdo, segmentação de conteúdo e construção de influência social.
  • Os reguladores responsáveis por fazer cumprir os requisitos de transparência devem dispor de processos de supervisão e de auditoria robustos e democráticos.
  • Sanções pelo não cumprimento por parte das plataformas podem incluir multas expressivas, publicidade obrigatória na forma de banners, responsabilização do CEO e penalidades administrativas, como o fechamento do acesso ao mercado de um país.

Moderação de conteúdo 

  • As plataformas devem seguir um conjunto de Princípios de Direitos Humanos para a Moderação de Conteúdo, baseado no Direito Internacional dos Direitos Humanos: legalidade, necessidade e proporcionalidade, legitimidade, igualdade e não discriminação.
  • As plataformas devem assumir os mesmos tipos de obrigações em termos de pluralismo que se aplicam às emissoras de rádio e televisão nas diferentes jurisdições em que operam. Um exemplo seria a Voluntary Fairness Doctrine.
  • As plataformas devem aumentar o número de moderadores e gastar uma porcentagem mínima de sua receita para melhorar a qualidade da revisão de conteúdo, sobretudo, em países em situação de risco.

Design de plataformas 

  • Normas de segurança e qualidade para arquitetura digital e engenharia de software devem ser aplicadas por uma agência de fiscalização de normas digitais. O Fórum sobre Informação e Democracia poderia lançar um estudo de viabilidade sobre o funcionamento de tal agência.
  • Conflitos de interesse de plataformas devem ser proibidos, a fim de evitar que o espaço de informação e comunicação seja regido ou influenciado por interesses comerciais, políticos ou quaisquer outros interesses.
  • Deve ser definido um arcabouço de corregulação para a promoção de conteúdos jornalísticos de interesse público, com base em normas de autorregulação, como a Journalism Trust Initiative. A esse movimento, devem se somar restrições para desacelerar a propagação de conteúdo viral potencialmente perigoso.

Serviços de mensagem 

  • Medidas que limitam a viralidade de conteúdo enganoso devem ser implementadas através de restrições a certas funcionalidades como recursos de opt-in, ou de adesão, para receber mensagens de grupos; e medidas para combater envio de mensagens em massa e comportamentos automatizados.
  • Deve-se exigir que provedores de serviços online informem melhor os usuários sobre a origem das mensagens recebidas, especialmente rotulando aquelas que foram encaminhadas.
  • Mecanismos de notificação de conteúdo ilegal de usuários e mecanismos de apelação para usuários que foram banidos dos serviços devem ser reforçados.

 

Conciliando liberdade de expressão e propagação de fake news 

Os autores esclarecem que respeitaram, de um lado, a liberdade de expressão dos usuários, e de outro, buscaram limitar a capacidade das plataformas de amplificar artificialmente informações falsas em larga escala, considerando que a própria liberdade de expressão tem suas limitações definidas por lei, como no caso dos discursos de ódio e difamação.

A organização reúne especialistas de peso. Um dos autores do estudo é Christopher Wylie, que ficou famoso depois de denunciar como a Cambridge Analytica usou milhões de dados de usuários do Facebook em campanhas políticas.

Ele é o de cabelos cor-de-rosa que aparece no documentário The Great Hack, da Netflix. Em 2019, lançou o livro Mindf*uck, contando a histíoria do escândalo. 

Circuit-breaker acionado pela plataforma ou pelo usuário 

Uma das sugestões é a de que, assim como os circuit-breakers que paralisam as operações das Bolsas de Valores para interromper quedas vertiginosas das ações quando o medo se dissemina, as plataformas passem a usar o instrumento para paralisar o compartilhamento de uma informação suspeita que esteja se disseminando muito rapidamente.

Nesse caso, o circuit-breaker daria o tempo necessário para que a informação pudesse ser checada e, em caso de ser falsa, ser banida sem causar maiores danos. 

O instrumento também poderia ser utilizado pelo usuário, para determinar que os algoritmos da plataforma parem por um tempo de recomendar determinado tipo de conteúdo. Atualmente, quando os algoritmos percebem o engajamento do usuário com um tema, passam a mostrar mais e mais disso.

O usuário teria então a opção de paralisar temporariamente esse tipo de recomendação, recorrendo ao circuit-breaker para ter um “período de reflexão”, como chamaram os autores da proposta.

Obrigação de avisar sempre que checadores verificarem que informação é falsa

O relatório sugere que as redes sociais tenham a obrigação de corrigir cada informação falsa transmitida a cada usuário a partir do momento em que os checadores provarem objetivamente que a notícia em questão não tem embasamento na realidade.

Em entrevista à BBC, Wylie argumentou que se as pessoas devessem ter o direito legal de serem enganadas, não existiriam leis para punir a fraude. 

Ele explica que, assim, mesmo que tenham o direito de acreditar no que quiserem e de ser enganadas pelas fake news, do ponto de vista das plataformas as pessoas não podem ter o direito legal de disseminar informações fraudulentas que possam prejudicar o combate à pandemia, por exemplo. 

Wylie esclarece que o fato de as redes sociais não lucrarem com a desinformação não as exime da responsabilidade:

“Uma empresa de petróleo também pode dizer que não lucra com a poluição, embora ela seja um subproduto prejudicial da sua atividade. Da mesma forma, a desinformação é um subproduto prejudicial do design atual das redes e há danos sociais decorrentes desse modelo de negócio”. 

“Mais testes de segurança para criar uma torradeira do que o Facebook”

Uma das principais recomendações do relatório é a de que as redes sociais sejam obrigadas a pesar todos os danos potenciais que podem ser causados por suas decisões de design e engenharia.  

“Se eu fosse produzir um eletrodoméstico, teria que fazer mais testes de segurança e passar por mais procedimentos de conformidade para criar uma torradeira do que para criar o Facebook”, disse Wylie à BBC.

Segundo a proposta, as redes seriam obrigadas a divulgar detalhes de seus algoritmos e funções essenciais para pesquisadores independentes averiguarem sua adequação a um “código de construção legal” composto pelos requisitos obrigatórios de segurança e qualidade para plataformas digitais.

As plataformas que monetizam o engajamento do usuário têm o dever de evitar danos claramente identificados. Veja a atuação do Facebook nas eleições americanas, com grupos que estão borbulhando todos os dias, espalhando desinformação sobre trapaça.

“Este era um resultado previsível, mas não houve planejamento. A maneira como o Facebook aborda esses problemas é: vamos esperar para ver e descobrir uma solução quando o problema surgir. Todos os outros setores devem ter padrões mínimos de segurança para se antecipar aos riscos que podem prejudicar as pessoas, por meio da mitigação e prevenção de riscos”, ressaltou Willie na entrevista à BBC.

Ocultar conteúdo com base em raça ou religião passaria a ser ilegal

O estudo sugere a formulação de leis para tornar ilegal a exclusão de usuários a determinados conteúdos com base na sua raça ou religião, como por exemplo a ocultação de anúncios de vagas de quartos para pessoas negras ou muçulmanas.

Ainda sobre a questão do conteúdo, as redes sociais passariam a ser obrigadas a divulgar no feed de notícias os motivos das recomendações feitas ao usuário.

Pela proposta, as redes também seriam proibidas de usar interfaces projetadas para confundir ou frustrar o usuário, usadas para dificular a exclusão da conta, por exemplo. 

Algumas sugestões já vêm sendo usadas voluntariamente pelas redes, como as de rotular as contas de organizações de notícias estatais ou a de limitar o compartilhamento de mensagens encaminhadas para grandes grupos, como o Facebook faz no WhatsApp.

Entidades envolvidas

O relatório contou com a contribuição de estudiosos e de instituições como a Artigo19, de defesa da liberdade de expressão, e da Electronic Frontier Foundation, de defesa de direitos digitais.

Perguntado pela BBC se a regulamentação das grandes redes sociais não empurraria os usuários para outras redes marginais de liberdade de expressão, Wylie foi taxativo: 

“Se você tem uma rede que use como argumento de venda o de ’permitiremos que você promova o discurso de ódio ou permitiremos que você engane e manipule as pessoas’, não acho que esse modelo de negócios deva ser permitido”.

 Veja a proposta completa aqui


Luciana Gurgel, Coordenadora editorial do MediaTalks byJ&Cia, é jornalista brasileira radicada em Londres. Iniciou a carreira no jornal o Globo, seguindo depois para a comunicação corporativa. Em 1988 fundou a agência Publicom, junto com Aldo De Luca, que se tornou uma das maiores empresas do setor no Brasil e em 2016 foi adquirida pela WeberShandwick (IPG Group). Mudou-se para o Reino Unido e passou a colaborar com veículos brasileiros, atuando como correspondente do canal MyNews e colunista semanal do Jornalistas&Cia/Portal do Jornalistas, no qual assina uma coluna semanal sobre tendências no mundo do jornalismo e da comunicação. É membro da FPA (Foreign Press Association). 

luciana@jornalistasecia.com | @lcnqgur