Tornar o país um ambiente seguro online, salvaguardando ao mesmo tempo a liberdade de expressão. Será possível? É o que o Reino Unido vai tentar fazer.
O primeiro passo foi dado nessa terça-feira (15/12/20), com a publicação da Online Harm Bill, uma lei a que estarão sujeitas todas as plataformas que hospedem conteúdo gerado pelo usuário ou permitam que as pessoas falem com outras online, divididas em duas categorias, por tamanho e abrangência. As gigantes – no press release foram citados Facebook, TikTok, Instagram e Twitter – sofrerão exigências maiores.
A lei ainda será votada no Parlamento, e deve entrar em vigor até o fim de 2021. As chances de que não venha a ser aprovada são reduzidas.
A administração de Boris Jonhson conta com maioria folgada na casa. Parlamentares de oposição têm sido até mais rigorosos na cobrança de ação por parte do governo para regular as mídias sociais. O Partido Trabalhista reclamou de a proposta não incluir a criminalização dos gestores. A grande imprensa mostra-se favorável a medidas capazes de estancar desinformação online.
Argumentos não faltam para justificar a regulamentação. As fake news sobre a Covid-19 ajudaram a encher ainda mais a cesta. Ao mesmo tempo, há o debate sobre se o controle pode servir para calar vozes dissonantes e limitar a pluralidade de opiniões nas redes sociais.
O texto de apresentação ressalta que adultos continuarão a ter direito de ver e postar “conteúdo que alguns possam considerar ofensivo e perturbador”, desde que não seja ilegal. E deixou de fora conteúdo jornalístico e as mensagens postadas por leitores em sites e blogs de notícias:
“As partes interessadas levantaram preocupações durante a consulta sobre como a legislação impactará o conteúdo jornalístico online e a importância de defender a liberdade da mídia. O conteúdo publicado por um editor de notícias em seu próprio site (por exemplo, em um jornal ou site de emissora) não estará no escopo da estrutura regulatória e os comentários do usuário sobre esse conteúdo serão isentos.
A fim de proteger a liberdade da mídia, a legislação incluirá proteções robustas para conteúdo jornalístico compartilhado. O governo está empenhado em defender o papel inestimável de uma mídia livre e está claro que as medidas de segurança online devem fazer isso.”
Alguns tipos de publicidade, incluindo anúncios orgânicos e influenciadores que aparecem em plataformas de mídia social, estarão igualmente sujeitos à nova lei. O texto diz:
“A definição de conteúdo gerado pelo usuário abrangerá os anúncios orgânicos e influenciadores que aparecem nos serviços no âmbito da legislação. Isso inclui imagens ou texto postado de contas de usuários para promover um produto, serviço ou marca, e pode ou não ser pago. Como esses são indistinguíveis de outras formas de conteúdo gerado pelo usuário, é portanto importante, para maior clareza e consistência, que os sistemas e processos de segurança on-line se apliquem a essas postagens de publicidade.”
Ao escolher a causa da proteção a jovens e crianças para embasar a regulamentação, o governo britânico adotou um argumento popular e praticamente inquestionável. Sucedem-se pesquisas mostrando efeitos maiores da desinformação e de conteúdo nocivo e ilegal sobre crianças. Efeitos que vão de distúrbios alimentares a aliciamento pelo terrorismo e suicídio.
O projeto foi apresentado sob a ótica do duty of care, ou “dever de cuidar”, um instituto jurídico que infere a responsabilidade do governo de proteger as pessoas contra perigos ou danos. A ideia da lei é justamente esta: defender as crianças do que elas acessam online, sobretudo envolvendo violência, suicídio, pornografia, abuso sexual, terrorismo e bullying.
Ao noticiar a regulamentação, o jornal The Times observou que, embora a maioria das redes sociais diga que seus serviços são destinados a pessoas acima de 13 anos e que as leis americanas e britânicas proíbam a coleta de dados delas sem consentimento dos pais, 60% de crianças até oito anos e 90% até 12 anos usam serviços de mensagem na Grã-Bretanha.
67% dos britânicos aprovam punição
Não serão apenas as crianças a se beneficiarem. A desinformação e mitos propagados pelas redes sociais afetam pessoas de todas as idades e níveis de escolaridade. As fake news sobre a vacina da Covid-19 são o exemplo mais flagrante. Mas é em crianças e jovens que reside o maior perigo, já que se informam sobretudo online.
Uma pesquisa do King’s College London e do Instituto Ipsos MORI publicada em 13/12 indicou 34% dos britânicos foram expostos a algum tipo de desinformação sobre a vacina da Covid-19, percentual que sobe para 46% na faixa de 16 a 34 anos.
Os pesquisadores quantificaram a parcela do público que acredita em teorias da conspiração sobre a vacina, demonstrando que são mais aceitas por jovens e pelos que obtêm muitas informações sobre a pandemia pelas mídias sociais.
Um exemplo é a crença de que o verdadeiro propósito da vacinação em massa contra o coronavírus é o de rastrear e controlar a população. Uma em cada sete pessoas (14%) acredita nisso. O percentual sobe para mais de um quarto (27%) na faixa etária de 16 a 24 anos. O Facebook foi identificado como principal fonte de boatos.
A pesquisa apurou que dois terços da população britânica (67%) querem que as plataformas digitais tornem mais fácil a exibição de conteúdo baseado em evidências científicas, como artigos de médicos. E a mesma proporção acha que o governo deve multar as que não removerem conteúdo falso sobre a imunização.
Multas de até £18 milhões
Ao deixar de fora a criminalização dos gestores, o projeto do governo britânico optou por fazer doer primeiro no bolso. As multas para empresas que não cumprirem as regras serão pesadas, podendo chegar a £18 milhões ou 10% do faturamento global – o que for mais alto.
Caberá ao Ofcom, órgão regulador das telecomunicações, implantar códigos de conduta e fiscalizá-los, com o poder de aplicar as multas ou tirar serviços do ar. O órgão tem grande experiência, pois já faz o mesmo para as emissoras de TV e rádio. A opção do governo britânico de acrescentar as mídias sociais às responsabilidades do Ofcom em vez de criar uma nova entidade pode assegurar mais velocidade e integração de esforços.
Responsabilidades perante crianças e adultos
Para as crianças
-
- Todas as empresas sujeitas à nova lei devem tomar medidas para combater as atividades ilegais que ameaçam a segurança das crianças.
- As plataformas que podem ser acessadas por crianças deverão: impedir o acesso a material impróprio para crianças, como pornografia; certificar-se de que haja proteções contra conteúdo prejudicial às crianças, como bullying.
Para os adultos
-
- As empresas devem assegurar a redução de conteúdo ilegal online, tornar mais fácil o reporte dos que forem encontrados e retirá-los rapidamente.
- Usuários deverão ter clareza sobre qual conteúdo é legalmente aceitável por parte dos principais provedores e sobre como reclamar quando um conteúdo for considerado ilegal. Adultos poderão acessar e postar conteúdo legal que alguns podem considerar ofensivo ou perturbador, mas precisarão contar com informações claras para tomar decisões sobre os serviços online que usam e confiar que as plataformas cumprirão as promessas que fazem em seus termos e condições.
Regulamentação abrange ampla gama de empresas e serviços
As leis se aplicam a empresas que hospedam conteúdo gerado pelo usuário, como imagens, vídeos e comentários, ou permitem que usuários do Reino Unido conversem com outras pessoas online por meio de mensagens, comentários e fóruns.
Também será aplicada a buscadores, porque desempenham um papel significativo em permitir que indivíduos acessem conteúdo nocivo online. Isso inclui as maiores e mais populares plataformas de mídia social, como Facebook, Instagram e Twitter. Inclui igualmente uma ampla variedade de sites, como sites de jogos, fóruns e aplicativos de mensagens e sites comerciais de pornografia.
A legislação incluirá salvaguardas à liberdade de expressão e pluralismo online, protegendo o direito de as pessoas participarem da sociedade e de engajarem-se em debates. As leis não afetarão as seções de artigos e comentários em sites de notícias.
Projeto contempla conteúdos prejudiciais de várias naturezas
As novas leis serão aplicadas a conteúdos que dêem origem a um risco razoavelmente previsível de impacto físico ou psicológico adverso significativo nos indivíduos. A legislação estabelecerá categorias prioritárias de conteúdo prejudicial e, em particular, deixará claro de que conteúdo as crianças devem ser protegidas.
Algumas categorias de conteúdo prejudicial serão explicitamente excluídas para evitar a duplicidade de leis. Isso proporcionará segurança jurídica para empresas e usuários e priorizará ações sobre as maiores ameaças de danos.
Aumenta a responsabilidade das empresas de tecnologia
Todas as empresas sujeitas à lei precisarão combater o conteúdo ilegal em seus serviços e proteger as crianças de conteúdo prejudicial e impróprio, como pornografia ou violência. O regulador terá poderes adicionais para garantir que as empresas tomem medidas severas para combater a atividade terrorista e o abuso sexual infantil e a exploração online.
Um pequeno número de empresas maiores também precisará definir quais tipos de conteúdo legal são aceitáveis para adultos acessarem em seus sites em seus termos e condições. As novas leis garantirão que seus termos e condições sejam abrangentes, claros e acessíveis a todos os usuários. Essas empresas precisarão fazer cumprir seus termos e condições de forma transparente, consistente e eficaz. Essa abordagem garantirá uma ação mais eficaz para lidar com o conteúdo proibido por empresas e garantir que as empresas não removam arbitrariamente pontos de vista controversos.
Os requisitos serão proporcionais, refletindo os diferentes tamanhos, recursos e perfis de risco das empresas em escopo. Nossas novas leis irão elevar o nível de como as empresas respondem às reclamações, definindo as expectativas que esses mecanismos devem atender. Todas as empresas precisarão ter mecanismos claros e acessíveis para os usuários, incluindo crianças, denunciarem conteúdo prejudicial ou contestarem a remoção indevida.
Diferença para o que as plataformas já fazem
Muitas empresas já têm medidas para combater o conteúdo ilegal e proteger as crianças em seus serviços. Algumas empresas também têm seus próprios termos e condições ou “diretrizes da comunidade” para o tipo de conteúdo e comportamento que eliminarão em seus serviços.
No entanto, há uma incompatibilidade entre essas políticas e as experiências dos usuários com conteúdo nocivo online. As empresas precisarão considerar os riscos apresentados por seus serviços e garantir que estão tomando medidas sensatas para proteger seus usuários. As empresas também precisarão garantir que tenham bons sistemas em funcionamento para responder às reclamações dos usuários.
O órgão regulador implantará códigos de conduta
O Ofcom ajudará as empresas a cumprir as novas leis, publicando códigos de conduta. Eles definirão as medidas que uma empresa deve tomar para cumprir a lei. O Ofcom também aplicará as regras com fortes poderes para tomar medidas contra empresas que não cumpram as regras. Poderá aplicar multas de até £18 milhões ou 10% do faturamento anual global, o que for mais alto, ou interromper a operação dos serviços.
A legislação também imporá sanções criminais aos gestores que não cumpram os pedidos de informação do regulador. No entanto, o governo só utilizará esses poderes se as empresas não levarem a sério as novas regras.
Nem todos os serviços online estarão sujeitos à nova lei
A proporcionalidade é uma parte fundamental de nossa estrutura regulatória e, portanto, isentaremos vários serviços. Isso inclui as empresas que avaliamos como de “baixo risco”, como avaliações e comentários sobre produtos e serviços fornecidos diretamente por uma empresa, bem como comentários em artigos e blogs. Também ficam isentos:
-
- Serviços de e-mail, chamadas de voz e mensagens de texto SMS / MMS.
- Serviços online geridos por instituições de ensino, uma vez que já estão sujeitos a regulamentação separada.
- Serviços usados por organizações para negócios internos, como armazenamento corporativo e plataformas de colaboração de equipe.
Desinformação sobre vacinas não foi esquecida
O dever de cuidar exigirá que as empresas atuem sobre a desinformação a respeito de vacinas que circula em suas plataformas.
As novas leis terão medidas para lidar com a desinformação que pode causar danos físicos ou psicológicos significativos a um indivíduo. Os serviços acessados por crianças precisarão proteger os usuários menores de desinformação prejudicial. Os serviços com o maior público e uma gama de recursos de alto risco serão necessários para estabelecer políticas claras sobre desinformação prejudicial acessada por adultos.
Essas empresas precisarão definir qual conteúdo, incluindo muitos tipos de desinformação em plataformas de mídia social, como conteúdo antivacinação e mentiras sobre a Covid-19, é ou não aceitável em seus termos e condições.
As empresas precisarão aplicar isso de forma eficaz. Se o que está aparecendo em suas plataformas não corresponder às promessas feitas aos usuários, o Ofcom poderá tomar medidas coercitivas. Espera-se que as empresas removam a desinformação ilegal, por exemplo, quando contiver incitamento direto à violência.
A estrutura regulatória também incluirá medidas adicionais para lidar com a desinformação, incluindo um grupo de trabalho de especialistas, requisitos de relatórios de transparência, disposições para aumentar a resiliência do público por meio da alfabetização midiática e apoio a pesquisas sobre desinformação.
Texto valoriza proteção da liberdade de expressão online
Nossa abordagem salvaguardará a liberdade de expressão e o pluralismo online, protegendo os direitos das pessoas de participarem da sociedade e do debate online. Essa lei não se destina a impor regulamentação excessiva ou permitir remoção estatal de conteúdo, mas a garantir que as empresas tenham os sistemas e processos em vigor para garantir a segurança dos usuários.
Protegeremos a liberdade de expressão online garantindo que a estrutura seja baseada em riscos e focada em sistemas e processos. Reconhecemos que os adultos têm o direito de acessar conteúdo que alguns possam considerar ofensivo e perturbador e, como tal, este regulamento não impedirá que os adultos acessem ou postem conteúdo legal, nem exigirá que as empresas removam peças específicas de conteúdo legal.
Foco nos serviços de mensagem e grupos fechados
Uma proporção significativa da mais abominável exploração e abuso sexual ilegal de crianças acontece em canais privados, como mensagens diretas e grupos fechados de mídia social. Mesmo os serviços destinados a crianças pequenas oferecem recursos de mensagens diretas.
As plataformas também precisarão tomar medidas para tornar seus canais privados mais seguros. Essas medidas serão decididas pelo regulador Ofcom, mas podem incluir tornar esses canais mais seguros desde o início, como limitar a capacidade de adultos anônimos contatarem crianças.
Como medida extrema, o Ofcom poderá exigir de uma plataforma a adoção de tecnologia altamente precisa para fazer a varredura de canais públicos e privados em busca de material de abuso sexual infantil. Esse poder é necessário para combater a exploração e o abuso sexual infantil online, mas estará sujeito a salvaguardas estritas para proteger a privacidade dos usuários.
O uso de ferramentas altamente precisas garantirá que o conteúdo jurídico não seja afetado. Para usar esse poder, o Ofcom deve ter certeza de que nenhuma outra medida seria igualmente eficaz e que há evidências de um problema generalizado em um serviço.
A teoria na prática
Ainda há muitas dúvidas quanto à forma de aplicação da lei, a começar pela mais recorrente: como tirar do ar serviços globais, acessíveis por muitos via VPNs.
Outra questão é a da privacidade. No próprio press release o governo aponta que “ainda será definido como a regulamentação será aplicada aos canais e serviços de comunicação que proporcionam aos usuários maior grau de privacidade – por exemplo, serviços de mensagens instantâneas online e grupos fechados de mídia social”.
Não vai ser fácil tratar os serviços de mensagem como WhatsApp e grupos fechados de mídia social, devido ao uso de criptografia de ponta a ponta, o que poderia ensejar seu banimento, tornando a comunicação menos segura.
O press release que anunciou o projeto observa que, embora a legislação dê poderes ao Ofcom para exigir que as empresas usem tecnologia para monitorar, identificar e remover categorias estritamente definidas de material ilegal relacionado à exploração e abuso sexual infantil, reconhece o potencial de impacto na privacidade do usuário. Por isso, assegura que isso será utilizado apenas como último recurso, “quando medidas alternativas não funcionarem”.
Alguns comentaristas manifestaram preocupação com penas excessivas para empresas menores. O governo antecipou-se em sinalizar atenção a esse ponto, avisando que “quando apropriado, empresas que oferecem serviços de menor risco estarão isentas das determinações na nova lei, evitando impor a elas demandas desproporcionais”.
Mas acima de todas as dificuldades está a de definir o que é prejudicial. Há as situações óbvias e previstas em lei, como violência e abuso de crianças. Mas o escopo de prejudicial é amplo e subjetivo, dificultando a adoção de sistemas automatizados para identificá-los com precisão. Além disso, eles não são capazes de entender plenamente contextos ou ironias, podendo levar a bloqueios generalizados.
Saindo das fronteiras do Reino Unido, um país democrático, o modelo adotado aqui pode não ser o melhor para outros países, por dar margem a governos autoritários para exercer censura online.
Bem ao estilo britânico, a nova lei não entra em vigor imediatamente. Haverá tempo para equacionar muitas dessas questões e chegar a um modelo que pode não ser perfeito, nem adequado a todos os países. Mas será um passo adiante em uma situação de descontrole que poucos acham tolerável.
Trata-se do passo inicial de uma longa jornada, pois restará ainda encontrar soluções para outros espaços virtuais onde o conteúdo de risco navega com tranquilidade, como as redes alternativas Parler e Gab, que ganham adeptos entre os que não querem submeter-se aos controles já existentes das redes maiores.