Por Luciana Gurgel | MediaTalks, Londres
Parece a tempestade perfeita. No momento em que elevam-se preocupações com o impacto da desinformação sobre o controle da Covid-19, sobretudo por conta do avanço de fake news espalhadas pos grupos antivacina, saiu do forno um relatório do Fórum para Informação e Democracia com propostas inovadoras para regular as redes sociais.
Ele identifica quatro áreas de atenção e sugere medidas para cada um delas:
- transparência das plataformas
- moderação dos conteúdos
- promoção de notícias e informações confiáveis
- serviços de mensagens privadas
O trabalho é detalhado, descrevendo os desafios tecnológicos envolvidos e propondo as ações. Mais de 100 especialistas contribuíram para o documento. Do Brasil, participou o professor Nicolo Zingales, da Fundação Getúlio Vargas.
Uma dos destaques é a inclusão de propostas para os serviços de mensagem, geralmente à margem de recomendações voltadas para as redes sociais por serem mais difíceis de monitorar e interferir. Na abertura do capítulo que trata deles, a desinformação no período eleitoral brasileiro é citada como exemplo da necessidade de ação.
As propostas serão analisadas pelos 38 países que integram o Fórum, entre eles Austrália, Canadá, França, Alemanha, Itália, Holanda, Suíça, Índia, Coréia do Sul e Reino Unido, que decidirão de forma independente se incluirão as sugestões em suas regulamentações nacionais. O Brasil não faz parte do grupo.
A Austrália já vem caminhando de forma acelerada para impor controles, considerando até a idéia de uma rede social estatal – o chamado Tech-xit – para substituir as redes globais, caso não haja acordo.
Uma cópia do estudo também foi enviada para Facebook, Twitter e YouTube na última quarta-feira (11/11), para o caso de decidirem adotar voluntariamente alguma das medidas.
As recomendações
A organização Repórteres Sem Fronteiras, que faz parte do Forum, resumiu as principais recomendações:
Transparência
- Os requisitos de transparência devem ter como alvo as funções principais de todas as plataformas do ecossistema de informações públicas: moderação de conteúdo, classificação de conteúdo, segmentação de conteúdo e construção de influência social.
- Os reguladores responsáveis por fazer cumprir os requisitos de transparência devem dispor de processos de supervisão e de auditoria robustos e democráticos.
- Sanções pelo não cumprimento por parte das plataformas podem incluir multas expressivas, publicidade obrigatória na forma de banners, responsabilização do CEO e penalidades administrativas, como o fechamento do acesso ao mercado de um país.
Moderação de conteúdo
- As plataformas devem seguir um conjunto de Princípios de Direitos Humanos para a Moderação de Conteúdo, baseado no Direito Internacional dos Direitos Humanos: legalidade, necessidade e proporcionalidade, legitimidade, igualdade e não discriminação.
- As plataformas devem assumir os mesmos tipos de obrigações em termos de pluralismo que se aplicam às emissoras de rádio e televisão nas diferentes jurisdições em que operam. Um exemplo seria a Voluntary Fairness Doctrine.
- As plataformas devem aumentar o número de moderadores e gastar uma porcentagem mínima de sua receita para melhorar a qualidade da revisão de conteúdo, sobretudo, em países em situação de risco.
Design de plataformas
- Normas de segurança e qualidade para arquitetura digital e engenharia de software devem ser aplicadas por uma agência de fiscalização de normas digitais. O Fórum sobre Informação e Democracia poderia lançar um estudo de viabilidade sobre o funcionamento de tal agência.
- Conflitos de interesse de plataformas devem ser proibidos, a fim de evitar que o espaço de informação e comunicação seja regido ou influenciado por interesses comerciais, políticos ou quaisquer outros interesses.
- Deve ser definido um arcabouço de corregulação para a promoção de conteúdos jornalísticos de interesse público, com base em normas de autorregulação, como a Journalism Trust Initiative. A esse movimento, devem se somar restrições para desacelerar a propagação de conteúdo viral potencialmente perigoso.
Serviços de mensagem
- Medidas que limitam a viralidade de conteúdo enganoso devem ser implementadas através de restrições a certas funcionalidades como recursos de opt-in, ou de adesão, para receber mensagens de grupos; e medidas para combater envio de mensagens em massa e comportamentos automatizados.
- Deve-se exigir que provedores de serviços online informem melhor os usuários sobre a origem das mensagens recebidas, especialmente rotulando aquelas que foram encaminhadas.
- Mecanismos de notificação de conteúdo ilegal de usuários e mecanismos de apelação para usuários que foram banidos dos serviços devem ser reforçados.
Conciliando liberdade de expressão e propagação de fake news
Os autores esclarecem que respeitaram, de um lado, a liberdade de expressão dos usuários, e de outro, buscaram limitar a capacidade das plataformas de amplificar artificialmente informações falsas em larga escala, considerando que a própria liberdade de expressão tem suas limitações definidas por lei, como no caso dos discursos de ódio e difamação.
A organização reúne especialistas de peso. Um dos autores do estudo é Christopher Wylie, que ficou famoso depois de denunciar como a Cambridge Analytica usou milhões de dados de usuários do Facebook em campanhas políticas.
Ele é o de cabelos cor-de-rosa que aparece no documentário The Great Hack, da Netflix. Em 2019, lançou o livro Mindf*uck, contando a histíoria do escândalo.
Circuit-breaker acionado pela plataforma ou pelo usuário
Uma das sugestões é a de que, assim como os circuit-breakers que paralisam as operações das Bolsas de Valores para interromper quedas vertiginosas das ações quando o medo se dissemina, as plataformas passem a usar o instrumento para paralisar o compartilhamento de uma informação suspeita que esteja se disseminando muito rapidamente.
Nesse caso, o circuit-breaker daria o tempo necessário para que a informação pudesse ser checada e, em caso de ser falsa, ser banida sem causar maiores danos.
O instrumento também poderia ser utilizado pelo usuário, para determinar que os algoritmos da plataforma parem por um tempo de recomendar determinado tipo de conteúdo. Atualmente, quando os algoritmos percebem o engajamento do usuário com um tema, passam a mostrar mais e mais disso.
O usuário teria então a opção de paralisar temporariamente esse tipo de recomendação, recorrendo ao circuit-breaker para ter um “período de reflexão”, como chamaram os autores da proposta.
Obrigação de avisar sempre que checadores verificarem que informação é falsa
O relatório sugere que as redes sociais tenham a obrigação de corrigir cada informação falsa transmitida a cada usuário a partir do momento em que os checadores provarem objetivamente que a notícia em questão não tem embasamento na realidade.
Em entrevista à BBC, Wylie argumentou que se as pessoas devessem ter o direito legal de serem enganadas, não existiriam leis para punir a fraude.
Ele explica que, assim, mesmo que tenham o direito de acreditar no que quiserem e de ser enganadas pelas fake news, do ponto de vista das plataformas as pessoas não podem ter o direito legal de disseminar informações fraudulentas que possam prejudicar o combate à pandemia, por exemplo.
Wylie esclarece que o fato de as redes sociais não lucrarem com a desinformação não as exime da responsabilidade:
“Uma empresa de petróleo também pode dizer que não lucra com a poluição, embora ela seja um subproduto prejudicial da sua atividade. Da mesma forma, a desinformação é um subproduto prejudicial do design atual das redes e há danos sociais decorrentes desse modelo de negócio”.
“Mais testes de segurança para criar uma torradeira do que o Facebook”
Uma das principais recomendações do relatório é a de que as redes sociais sejam obrigadas a pesar todos os danos potenciais que podem ser causados por suas decisões de design e engenharia.
“Se eu fosse produzir um eletrodoméstico, teria que fazer mais testes de segurança e passar por mais procedimentos de conformidade para criar uma torradeira do que para criar o Facebook”, disse Wylie à BBC.
Segundo a proposta, as redes seriam obrigadas a divulgar detalhes de seus algoritmos e funções essenciais para pesquisadores independentes averiguarem sua adequação a um “código de construção legal” composto pelos requisitos obrigatórios de segurança e qualidade para plataformas digitais.
“As plataformas que monetizam o engajamento do usuário têm o dever de evitar danos claramente identificados. Veja a atuação do Facebook nas eleições americanas, com grupos que estão borbulhando todos os dias, espalhando desinformação sobre trapaça.
“Este era um resultado previsível, mas não houve planejamento. A maneira como o Facebook aborda esses problemas é: vamos esperar para ver e descobrir uma solução quando o problema surgir. Todos os outros setores devem ter padrões mínimos de segurança para se antecipar aos riscos que podem prejudicar as pessoas, por meio da mitigação e prevenção de riscos”, ressaltou Willie na entrevista à BBC.
Ocultar conteúdo com base em raça ou religião passaria a ser ilegal
O estudo sugere a formulação de leis para tornar ilegal a exclusão de usuários a determinados conteúdos com base na sua raça ou religião, como por exemplo a ocultação de anúncios de vagas de quartos para pessoas negras ou muçulmanas.
Ainda sobre a questão do conteúdo, as redes sociais passariam a ser obrigadas a divulgar no feed de notícias os motivos das recomendações feitas ao usuário.
Pela proposta, as redes também seriam proibidas de usar interfaces projetadas para confundir ou frustrar o usuário, usadas para dificular a exclusão da conta, por exemplo.
Algumas sugestões já vêm sendo usadas voluntariamente pelas redes, como as de rotular as contas de organizações de notícias estatais ou a de limitar o compartilhamento de mensagens encaminhadas para grandes grupos, como o Facebook faz no WhatsApp.
Entidades envolvidas
O relatório contou com a contribuição de estudiosos e de instituições como a Artigo19, de defesa da liberdade de expressão, e da Electronic Frontier Foundation, de defesa de direitos digitais.
Perguntado pela BBC se a regulamentação das grandes redes sociais não empurraria os usuários para outras redes marginais de liberdade de expressão, Wylie foi taxativo:
“Se você tem uma rede que use como argumento de venda o de ’permitiremos que você promova o discurso de ódio ou permitiremos que você engane e manipule as pessoas’, não acho que esse modelo de negócios deva ser permitido”.
Veja a proposta completa aqui
Luciana Gurgel, Coordenadora editorial do MediaTalks byJ&Cia, é jornalista brasileira radicada em Londres. Iniciou a carreira no jornal o Globo, seguindo depois para a comunicação corporativa. Em 1988 fundou a agência Publicom, junto com Aldo De Luca, que se tornou uma das maiores empresas do setor no Brasil e em 2016 foi adquirida pela WeberShandwick (IPG Group). Mudou-se para o Reino Unido e passou a colaborar com veículos brasileiros, atuando como correspondente do canal MyNews e colunista semanal do Jornalistas&Cia/Portal do Jornalistas, no qual assina uma coluna semanal sobre tendências no mundo do jornalismo e da comunicação. É membro da FPA (Foreign Press Association).
luciana@jornalistasecia.com | @lcnqgur