Anthony Rotondo, um homem de 43 anos, está sendo processado pela eSafety — a agência reguladora de segurança eletrônica do país — por criar e divulgar imagens deepfake de mulheres australianas. Ele pode enfrentar uma multa de até US$ 450 mil.
A audiência do processo foi realizada nesta segunda-feira (26), e o veredito deve ser anunciado nos próximos dias.
O processo, o primeiro do tipo na Austrália, destaca os desafios jurídicos trazidos pelo avanço da tecnologia de inteligência artificial. Um porta-voz da eSafety afirmou que a penalidade proposta reflete “a gravidade das violações e os impactos significativos nas mulheres visadas”.
Entenda o o processo por criação de deepfakes com IA
As imagens produzidas por Rotondo foram publicadas no site MrDeepFakes, atualmente fora do ar. A identidade das mulheres envolvidas foi preservada.
Apesar de ordens judiciais para remover o conteúdo, Rotondo inicialmente se recusou a cumprir as determinações, o que levou à abertura do processo pela eSafety, que pode servir de exemplo para desestimular a produção de deepfakes com uso da IA, segundo o órgão.
Em dezembro de 2023, ele foi multado por desacato ao tribunal após admitir que desobedeceu a ordens judiciais. Posteriormente, forneceu suas credenciais para que o conteúdo fosse removido.
Leia também | Designer do iPhone se une à OpenAI para criar geração de dispositivos pensados para inteligência artificial
Avanço de deepfakes na mira da Austrália
Deepfakes são imagens ou vídeos falsos gerados por inteligência artificial, capazes de reproduzir rostos e vozes de forma extremamente realista.
Embora tenham aplicações legítimas, seu uso em pornografia não consensual tem se tornado uma ameaça crescente à privacidade e à integridade de vítimas — majoritariamente mulheres.
De acordo com a comissária de segurança online da Austrália, Julie Inman Grant, 99% dos conteúdos pornográficos deepfake têm como alvo mulheres e meninas. O impacto psicológico dessas exposições pode ser devastador.
Em resposta à proliferação desse tipo de material, o governo australiano aprovou leis federais em 2024 que criminalizam expressamente o uso de deepfakes para fins sexuais sem consentimento.
A eSafety informou que, apenas entre 2023 e 2024, recebeu mais de 7.270 denúncias de abusos relacionados a imagens manipuladas, incluindo deepfakes. A agência também emitiu solicitações para remoção de conteúdo em 947 locais, abrangendo 191 plataformas e serviços diferentes.
Leia também | Justiça autoriza mãe a processar Google e empresa de IA por morte do filho de 14 anos nos EUA