© Conteúdo protegido por direitos autorais

Crianças nas redes

Reino Unido aperta o cerco a redes sociais e cobra medidas para impedir acesso de crianças

Regulador britânico deu prazo até 30 de abril para que plataformas como TikTok, YouTube, Instagram e Roblox expliquem como vão reforçar idade mínima e proteção infantil

Menino sentado em escada olhando tela de smartphone

Foto: Marcel Gaelle/Unsplash




O órgão regulador britânico de comunicações, o Ofcom apertou o cerco sobre as big techs e deu um prazo até 30 de abril para as principais redes sociais e plataformas de vídeo – Facebook, Instagram, Roblox, Snapchat, TikTok e YouTube – informarem sobre as ações adotadas para garantir a segurança de menores em seus serviços.

No comunicado emitido nesta quinta-feira (12), o regulador informa que notificou cada plataforma exigindo que “demonstrem aos pais um compromisso real com a proteção infantil no ambiente digital”, com destaque para a aplicação eficaz de regras de verificação de idade mínima e bloqueio do acesso por crianças abaixo da faixa etária permitida.

O Ofcom informou que divulgará em maio como as empresas responderam à cobrança e anunciará próximos passos regulatórios.

Em outra frente, o governo abriu na semana passada uma consulta pública de três meses para coletar opiniões e evidências que embasarão uma nova legislação para a proteção de menores nas redes, que poderá envolver a proibição de acesso abaixo de uma certa idade.

Proteção de crianças nas redes sociais: quatro exigências

O comunicado afirma que, desde que as leis britânicas de segurança online entraram em vigor no ano passado, as plataformas foram instadas a adotar medidas mais eficazes, e que grandes grandes plataformas, como X, Telegram, Discord e Reddit, introduziram controles de idade para impedir que crianças acessem conteúdo adulto ou nocivo.

No entanto, para o órgão regulador, a indústria não fez o suficiente e os pais ” perderam a confiança nas empresas tecnológicas para garantirem a segurança de seus filhos”.

O Ofcom fez quatro exigências às plataformas:

A primeira é a adoção de políticas efetivas de idade mínima. O Ofcom afirma que as regras amplamente usadas pelas plataformas, em geral de 13 anos, ainda não estão sendo devidamente aplicadas.

Como base para essa avaliação, cita pesquisa segundo a qual 72% das crianças de 8 a 12 anos acessam sites e aplicativos dessas empresas. Embora o Online Safety Act não exija explicitamente esse tipo de verificação, o regulador diz que está pedindo às plataformas que façam esse controle com mecanismos altamente eficazes de garantia de idade.

Proteção contra grooming e feeds mais seguros

A segunda exigência trata da proteção contra grooming. O Ofcom afirma que as empresas devem adotar controles rígidos para impedir que desconhecidos consigam contatar crianças que não conhecem em suas plataformas. Para isso, volta a defender o uso de mecanismos altamente eficazes de verificação etária.

A terceira cobrança mira os feeds oferecidos a crianças. No comunicado, o regulador afirma que os algoritmos são a principal via de exposição infantil a danos online e informa que está enviando pedidos de informação juridicamente vinculantes às grandes plataformas para avaliar esses sistemas.

O órgão acrescenta que esse trabalho deve levar tempo por causa da complexidade técnica, mas afirma que poderá agir se identificar falhas na forma como as empresas promovem conteúdo a usuários menores de idade.

Ofcom quer fim de testes de produtos em crianças

A quarta exigência é o fim do uso de crianças como campo de testes para produtos. O Ofcom afirma que novas ferramentas de inteligência artificial vêm sendo lançadas com frequência e amplamente usadas por menores sem que pais saibam se esses recursos foram devidamente avaliados quanto à segurança.

Por isso, diz esperar que as plataformas notifiquem o órgão de que, como exige a lei, avaliaram os riscos de atualizações significativas antes de colocá-las em operação.

Seguraça de crianças negligenciada na prática

Ao anunciar a cobrança, a diretora-executiva do Ofcom, Melanie Dawes, afirmou que as redes sociais não colocam a segurança das crianças como preocupação central.

Segundo ela, existe uma distância entre o que as empresas prometem de forma privada e o que fazem publicamente para proteger menores em suas plataformas.

Dawes também disse que, sem proteções adequadas, como verificações etárias efetivas, crianças têm sido rotineiramente expostas a riscos que não escolheram, em serviços que não podem realisticamente evitar, e que isso precisa mudar rapidamente ou o Ofcom agirá.

Pressão do regulador britânico sobre as big techs

A NSPCC, organização britânica de proteção à infância, concorda com as pressões sobre as redes sociais.

O CEO da entidade, Chris Sherwood, afirmou que, por tempo demais, gigantes de mídia social ignoraram a circulação de conteúdo nocivo e viciante nos feeds das crianças, afetando sua segurança e bem-estar.

Para ele, a exigência de maior transparência sobre os riscos que menores enfrentam online e sobre os planos das plataformas para protegê-los é essencial.

Sherwood também disse que a aplicação real de limites mínimos de idade nas redes sociais é uma prioridade e defendeu que o governo dê ao Ofcom mais poderes para impor checagens etárias eficazes, controlar algoritmos perigosos e responsabilizar empresas que falhem em manter crianças seguras.


error: O conteúdo é protegido.