Londres – Um inquérito judicial que terminou na sexta-feira (30) em Londres responsabilizou diretamente as redes sociais pelo suicídio de Molly Russel de 14 anos, após uma luta de mais de cinco anos pelo pai da menina, Ian Russel, para comprovar que o conteúdo visto por ela influenciou na decisão.
Molly tirou a própria vida em 2017, tornando-se um símbolo dos riscos oferecidos pelas redes sociais a crianças e jovens e uma referência para os que defendem regulamentação mais severa para punir as plataformas que deixam circular conteúdos nocivos.
Até o príncipe William, que segue o protocolo da monarquia e não costuma se manifestar sobre temas controversos, pediu ontem mais segurança online para crianças. Pelo Twitter, ele disse:
“Nenhum pai deveria ter que suportar o que Ian Russell e sua família passaram. Eles foram incrivelmente corajosos. A segurança online para nossas crianças e jovens precisa ser um pré-requisito, não uma reflexão tardia”.
No parent should ever have to endure what Ian Russell and his family have been through. They have been so incredibly brave. Online safety for our children and young people needs to be a prerequisite, not an afterthought. W
— The Prince and Princess of Wales (@KensingtonRoyal) September 30, 2022
A mensagem foi assinada com ‘W’, usada para sinalizar uma postagem escrita pessoalmente por William e não por assessores. Ele tem três filhos pequenos e já deu apoio à causa de Ian Russel no passado.
Redes sociais contribuíram para o suicídio, diz perito
Molly foi encontrada morta em seu quarto em novembro de 2017. Embora aparentemente saudável e equilibrada, a menina acompanhava temas como suicídio e automutilação nas redes sociais.
O pai embarcou em uma jornada corajosa para desafiar o poder das plataformas digitais, criando uma fundação com o nome da filha para promover o alerta sobre o risco de suicídio entre jovens e o perigo oferecido pelo conteúdo disseminado livremente nas redes para pessoas de qualquer idade.
Durante as duas semanas do inquérito judicial, em que provas são apresentadas e testemunhas prestam depoimento, os advogados da família comprovaram que das 16,3 mil postagens que a menina salvou, compartilhou ou curtiu no Instagram nos seis meses antes da morte, 2,1 mil eram sobre depressão, automutilação ou suicídio.
O perito Andrew Walker, que chefiou o inquérito, optou por dar como causa da morte a automutilação.
No relatório final, ele escreveu que a menina foi “exposta a material que pode tê-la influenciado de forma negativa e, além disso, o que começou como uma depressão tornou-se uma doença depressiva mais grave”.
Walker também disse que o conteúdo “particularmente gráfico” que ela viu “romantizou atos de automutilação”, “normalizou sua condição” e se concentrou em uma “visão limitada e irracional sem qualquer contrapeso de normalidade”.
O que dizem as plataformas digitais
Representantes da Meta, dona do Instagram, e do Pinterest estavam entre os depoentes no inquérito e adotaram posições diferentes sobre o caso de Molly Russel.
O chefe de operações do Pinterest, Judson Hoffman, disse “lamentar profundamente” as postagens vistas por Molly, afirmando que não as mostraria aos filhos. E se desculpou ao admitir que a plataforma “não era segura” quando a jovem a usou.
A Meta seguiu por outro caminho. A chefe de Saúde e Bem-Estar da empresa, Elizabeth Lagone, voou dos EUA para participar do inquérito, embora o presidente de assuntos corporativos da Meta seja o ex-político britânico Nick Clegg, que vive no Reino Unido.
Depois de passar uma hora na segunda-feira (25) vendo posts acessados por Molly sobre suicídio, drogas, álcool, depressão e automutilação, a executiva da holding do Instagram disse achar seguro que as pessoas pudessem se expressar, justificando assim os posts vistos pela menina.
Ela considerou os posts “em geral admissíveis”, mas reconheceu que duas das postagem violaram as políticas da plataforma. No entanto, defendeu a tese de que é “importante dar voz a pessoas” com pensamentos suicidas.
O chefe do inquérito questionou durante o depoimento o direito de a Meta tomar decisões sobre qual material é seguro para crianças verem. A executiva disse que as decisões são tomadas em colaboração com especialistas.
E apresentou as diretrizes do Instagram na época da morte de Molly, que autorizavam conteúdo sobre suicídio e automutilação para “facilitar a união para apoiar” outros usuários, mas não se isso “incentivasse ou promovesse” o ato.
Bem preparada, Lagone foi evasiva quando perguntada se o conteúdo poderia ter levado Molly ao ato extremo. E evitou separar jovens ou adultos, sob o argumento de que todos os usuários do Instagram têm mais de 13 anos.
O teor dos depoimentos ilustra as diferentes visões sobre o tema, mesmo entre as plataformas. A Meta equipara adultos e jovens em formação, sem levar em conta as inseguranças naturais da adolescência que podem tornar mais difícil discernir entre o que é “união para apoiar” ou “incentivo” ao suicídio.
O entendimento do inquérito foi claro. O legista Andrew Walker disse que o conteúdo online visto pela estudante Molly Russell “não era seguro” e “não deveria estar disponível para uma criança ver”.
Leia também | TikTok anuncia recursos para prevenção de suicídio e amplia conteúdo sobre transtornos alimentares
Pai da menina que cometeu suicídio não perdoa redes sociais
Como vem fazendo desde que iniciou sua cruzada contra as redes sociais após o suicídio da filha, Ian Russell criticou duramente a posição da Meta:
“Ouvimos um executivo sênior da empresa descrever esse fluxo mortal de conteúdo que os algoritmos da plataforma enviaram para Molly como ‘seguro’ e não violando as políticas da plataforma.
“Se esse rastro demente de conteúdo sugador de vida fosse seguro, minha filha Molly provavelmente ainda estaria viva e, em vez de sermos uma família de quatro pessoas enlutadas, haveria cinco de nós ansiosos por uma vida cheia de propósito e promessa de futuro para a nossa adorável Molly.
“É hora de mudar a cultura corporativa tóxica no coração da maior plataforma de mídia social do mundo.”
Russell acusou as plataformas de “monetizar o sofrimento”. E pediu a Mark Zuckerberg, CEO da Meta, que “ouça as pessoas que usam sua plataforma, ouça as conclusões que o legista deu e depois faça algo a respeito”.
O inquérito não é uma condenação, mas tem efeito em decisões judiciais futuras e provocou um grande impacto no Reino Unido. A mídia local acompanhou o caso diariamente, com ampla cobertura sobre cada depoimento.
Em entrevista à Sky News, Rachel de Souza, comissária infantil da Inglaterra, que os gigantes da mídia social deveriam remover esse conteúdo prejudicial de suas plataformas após as descobertas do inquérito, afirmando ser “desprezível” que as empresas coloquem “os lucros à frente da segurança das crianças”.
Embora a legislação em tramitação no Parlamento para regulamentar as redes sociais tenha previsão de multas e até prisão para executivos, de Souza questionou a necessidade de esperar por punições:
“Por que essas empresas não podem derrubar essas coisas logo?
Ela disse que em encontros semestrais com líderes das plataformas costuma perguntar: “quantos filhos você tem online? Você está baixando este material?”, mas lamentou que eles evitem as perguntas e acha que “não fazem o suficiente”.
“Eles precisam ter uma bússola moral e resolver isso agora, eles podem fazer isso.”
No fundo, trata-se de segurança online
No dia em que o resultado do inquérito foi anunciado, a Molly Rose Foundation divulgou um comunicado ressaltando a questão da segurança online e a necessidade de regulamentação:
“O inquérito demonstrou muito claramente os perigos significativos que plataformas de mídia social como Instagram, Twitter e Pinterest apresentam na ausência de qualquer regulamentação efetiva.
[…) Se o governo e as plataformas de tecnologia agirem sobre as questões levantadas no inquérito, isso terá um efeito positivo no bem-estar mental dos jovens, que é o principal objetivo da Molly Rose Foundation.
As plataformas devem parar de criar perfis de crianças para fornecer conteúdo prejudicial – mesmo que tenham o direito de hospedar esse conteúdo para usuários adultos, que também podem ser vulneráveis.
As coisas precisam mudar. As plataformas de mídia social provaram que não estão dispostas a se proteger sem ação legislativa, portanto, é vital que a Lei de Segurança Online seja aprovada sem demora e que uma era de responsabilidade seja iniciada. Para as mídias sociais, a era do Velho Oeste acabou.”
Lei de redes sociais parada no Parlamento
As redes sociais são objeto de críticas por motivos diversos. No Reino Unido, a questão principal tem sido o risco a crianças, agravada pelo caso de Molly Russel.
A imprensa acompanha atentamente uma sinalização do novo governo da primeira ministra Liz Truss sobre mudanças no projeto de lei da Online Harm Bill.
O projeto foi apresentado em 2020 como iniciativa ousada para tornar o país o mais seguro do mundo para crianças na Internet, e chegou ao Parlamento em 2021. Mas está empacado.
A possível alteração no texto inicial é um relaxamento que não agradou a entidades que defendem mais rigor em relação a assédio infantil e acesso das crianças a conteúdo nocivo: não obrigar as plataformas a removerem conteúdo de risco, porém legal.
Os que querem a alteração alegam que dar às plataformas a responsabilidade de remover conteúdo representa poder excessivo a elas.
Para a ONG Open Rights, o projeto de lei britânico em sua forma atual “efetivamente terceiriza o policiamento da internet, passando-o da polícia, tribunais e Parlamento para o Vale do Silício”.
Os que são a favor dizem que cabe a elas retirar em nome do interesse maior da sociedade sem depender os poderes constituídos, como defende Rachel de Souza e a fundação Molly Rose, que em seu comunicado sobre o resultado do inquérito disse:
“Já se passaram quase cinco anos desde a morte de Molly e ainda estamos aguardando a prometida legislação governamental. Não podemos esperar mais; não se deve almejar a perfeição, muitas vidas estão em risco.
A estrutura regulatória pode ser aperfeiçoada nos próximos meses e anos.”
O partido Trabalhista, de oposição ao Conservador que está no poder, também faz pressão para uma aprovação rápida da lei. Após o fim do inquérito, a secretária de cultura e mídia digital do partido, Lucy Powell, defendeu a necessidade de aprovar a lei o mais rápido possível.
Labour's shadow digital and culture Secretary Lucy Powell, said: "Enough is enough. Children must be kept safe online. The government should bring forward the full Online Safety Bill at the earliest opportunity." https://t.co/HRbjaF4mTo pic.twitter.com/qePGz7i8KK
— Molly Rose Foundation (@mollyroseorg) September 30, 2022
Nem todos estão com paciência para esperar. Há duas semanas, o Ofcom, órgão regulador de mídia, notificou o TikTok por violação da lei e proteção de dados ao não garantir a privacidade de crianças que usam a plataforma, antecipando que vem aí uma multa de £ 27 milhões.
Leia também | Setembro Amarelo: Uma análise sobre como cobrir suicídio infantil de forma responsável