© Conteúdo protegido por direitos autorais

Inteligência artificial

Imagens de abuso sexual infantil online geradas por IA avançam e 97% retratam meninas; diz relatório

Organização britânica identificou mais de 8 mil fotos e vídeos sintéticos realistas em 2025, com aumento de 14% e maior presença de conteúdo extremo.

Homem de costas olhando para tela de computador

Foto: Stock Snap via Pixabay




Um relatório publicado nesta terça-feira (24) pela organização britânica Internet Watch Foundation revelou dados alarmantes sobre a proliferação de imagens de abuso sexual infantil geradas por IA (inteligência artificial) disponíveis online.

Os pesquisadores encontraram ao longo de 2025 um total de 8.029 fotos e vídeos criados ou manipulados com recursos de IA generativa mostrando crianças sendo abusadas sexualmente de forma realista, um aumento de 14% nesse tipo de conteúdo criminoso em relação ao ano anterior.

A análise mostra que meninas são objeto de 97% das imagens, produzidas a partir de ferramentas que permitem ações como adicionar áudio a um vídeo ou  manipular imagens de uma criança real conhecida por um infrator.

Para a organização, além do impacto direto a crianças afetadas, as imagens de abuso sexual infantil feitas por IA alimentam o interesse sexual em crianças, normalizam a violência extrema e aumentam o risco de crimes com contato físico.

CSAM, conteúdo de abuso infantil

Esse tipo de conteúdo é reconhecido em inglês pela sigla AI CSAM (child sexual abuse material), compreendendo textos, fotos, vídeos e áudios que retratam abuso sexual de crianças.

“Embora a proporção de material gerado por IA permaneça comparativamente pequena entre a enorme quantidade de CSAM que nossos analistas identificam todos os anos, o volume e a gravidade das imagens de IA aumentaram exponencialmente, devido à disponibilidade e facilidade de uso dessas ferramentas. Agora enfrentamos um cenário tecnológico que pode gerar infinitas violações com facilidade sem precedentes”, diz o relatório.

Abuso sexual infantil gerado por IA avança em volume

Foram identificados também pelos pesquisadores 82 conteúdos classificados como proibidos pela legislação britânica, embora não fossem realistas. Eles incluem desenhos animados e ilustrações.

Dos 3.443 vídeos de abuso sexual infantil gerados por IA listados pela IWF, 65% foram classificados como Categoria A, que abrange ofensas como estupro, tortura sexual e atos sexuais envolvendo animais.

Em comparação, 43% dos vídeos ilegais não feitos com ferramentas de IA em 2025 eram da Categoria A — demonstrando que a IA está sendo usada para criar conteúdo mais violento, diz o estudo.

O conteúdo de abuso sexual infantil gerado por IA com um componente de áudio também emergiu como uma nova preocupação.

Um exemplo identificado por analistas foi o de um vídeo totalmente sintético mostrando uma criança que parecia ter entre três e seis anos falando para a câmera e realizando um ato sexual em um homem adulto. Tanto o vídeo quanto o áudio foram gerados por IA.

Conteúdo ofensivo IA circula além da dark web

Os pesquisadores encontraram imagens de menores de idade geradas por IA não apenas na dark web, mas também em plataformas convencionais acessíveis na internet aberta.

O relatório mapeou ainda conversas entre infratores que discutem abertamente a produção desses conteúdos, “competindo entre si para criar cenários cada vez mais realistas e extremos de abuso sexual infantil”.

Eles discutem até o uso de câmeras ocultas para obter imagens de crianças reais, que podem transformar em conteúdo de vídeo de abuso sexual usando os recursos de IA generativa.

E falam sobre a previsão de que, em alguns anos, ferramentas de IA agentes poderão criar “filmes” completos de abuso sexual infantil, alimentando um prompt para um agente de IA sem censura e dispensando habilidades de edição ou tecnologia.

Um infrator citado no relatório comenta um vídeo de abuso sexual infantil de IA, dizendo que é “uma obra-prima absoluta”, destacando como “qualquer coisa que você deseja é possível com extremo realismo”.

ONG cobra reação

A CEO da Internet Watch Foundation, Kerry Smith, salientou que os avanços na tecnologia nunca devem vir à custa da segurança e do bem-estar de uma criança.

“Embora a IA possa oferecer muito em um sentido positivo, é horrível considerar que seu poder pode ser usado para devastar a vida de uma criança. Este material é perigoso”.

Smith afirma que as constatações do relatório sobre os riscos da IA generativa para crianças servem para destacar a necessidade de as empresas adotarem uma abordagem de segurança por design que garanta que a proteção infantil seja incorporada ao desenvolvimento de produtos.

“Este padrão não negociável no desenvolvimento da IA deve ser exigido por uma estrutura governamental clara”, cobra ela.

“Crianças, vítimas e sobreviventes não podem se dar ao luxo de sermos complacentes. A nova tecnologia deve ser mantida no mais alto padrão. Em alguns casos, vidas estão em jogo.”

O relatório completo pode ser visto aqui.


error: O conteúdo é protegido.