Os planos da Apple de incorporar ferramentas para detectar imagens de abuso infantil nas fotos armazenadas no iCloud, anunciados na quinta-feira (5/8) não agradaram a todos.

O ataque mais direto veio do líder global do WhatsApp, Will Cathcart, que no dia seguinte usou o Twitter para classificar a ideia de um  “sistema de vigilância desenvolvido e operado pela Apple que pode facilmente ser usado para escanear conteúdo privado em busca de qualquer coisa que ela ou um governo decidam que deseja controlar”. 

Ele também levantou questões sobre como esse sistema pode ser explorado na China ou em outros países, ou empregado por empresas de spyware.

 Os países onde os iPhones são vendidos têm definições diferentes sobre o que é aceitável.

Um porta-voz da Apple contestou a caracterização do software por Cathcart, observando que os usuários podem optar por desabilitar o Fotos do iCloud. 

A empresa destacou que o sistema, que será adotado primeiro nos Estados Unidos, será treinado apenas em um banco de dados de  imagens de abuso “conhecidas”, fornecidas pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) do país, e que não seria possível fazê-lo funcionar de forma regional.

Wlll Cathcart, líder global do WhatsApp (foto: Twitter)

Chathart questionou ainda o risco de erros e de permitir invasão de privacidade: 

Privacidade x proteção a crianças contra abuso sexual online

Não é a primeira vez que Apple e WhatsApp discordam sobre privacidade. O embate mais recente foi quando atualizações nas preferências de privacidade adotadas nos Iphones desagradaram o Facebook, dono do WhatsApp, por dificultar o rastreamento de usuários com fins de direcionar a publicidade.