MediaTalks em UOL

Estudo de Oxford mostra explosão de deepfakes pornô de mulheres feitos com imagens de repositórios de IA

Mulher sexy deepfake IA

Imagem: Igor Rand / Unsplash

Um novo estudo da Universidade de Oxford aponta que ferramentas de Inteligência Artificial generativa estão sendo treinadas em larga escala para criar deepfakes pornô, envolvendo imagens íntimas não consensuais (NCII, na sigla em inglês) de mulheres.

Estas imagens são geradas a partir de modelos de criação — conjuntos de parâmetros para programas de IA que geram imagens — disponíveis em bibliotecas digitais gratuitas na internet.

Inicialmente destinados a aprimorar geradores de imagens, esses repositórios passaram a abrigar ferramentas que recriam rostos de mulheres em pornografia artificial e não consensual. Os alvos variam de celebridades e influencers até a usuárias anônimas do Instagram com menos de dez mil seguidores.

Avanço da IA generativa, uso político e pornô digital deepfake

Deepfakes são imagens e vídeos manipulados digitalmente, produzidos principalmente por machine learning (aprendizado de máquina).

Com o avanço da IA generativa, a técnica se sofisticou e já foi empregada em campanhas de desinformação nas eleições dos EUA e na guerra da Ucrânia.

Apesar do uso político, a origem e o principal foco dos deepfakes ainda estão ligados à criação de pornografia digital — prática que antecede o boom dos algoritmos generativos.

Ferramentas para deepfakes de mulheres proliferam na web

Realizado pelo Oxford Internet Institute da Universidade de Oxford, no Reino Unido, o estudo analisou metadados de plataformas como Civit.ai e Hugging Face — dois dos maiores repositórios públicos de modelos de IA para gerar imagens a partir de texto (T2I, ou Text to Image).

A pesquisa buscou estimar a popularidade das ferramentas de deepfake para pornografia a partir de dados como número de modelos, categorias e downloads.

Juntas, essas plataformas oferecem gratuitamente quase 35.000 modelos deepfakes para criação de imagens íntimas — 96% deles voltados exclusivamente para mulheres.

Tags revelam intenção de uso sexual

Outro dado que reforça as intenções ilícitas é a presença de tags como “sexy”, “porn” e “NSFW” (not safe for work, algo como “não seguro para ver no trabalho”). Segundo o estudo, essas tags indicam a destinação clara para a geração de conteúdo sexual ou imagens íntimas não consensuais.

Entre as tags mais populares, destacam-se países como Estados Unidos, Reino Unido, China, Japão e Coreia do Sul. Isso evidencia a abrangência global da prática.

Além disso, embora 97 dos 100 modelos de IA para celebridades foquem em mulheres famosas, outras tags como “TikTok”, “Twitch” ou “YouTube” revelam que influencers e usuárias anônimas também são alvos. Algumas tags até mesmo incluem nomes de contas reais com menos de dez mil seguidores.

Popularidade dos modelos e facilidade de uso

Segundo o estudo, a maior parte dos arquivos está disponível no Civit.ai. Desde seu lançamento, em novembro de 2022, os modelos deepfake já foram baixados quase 15 milhões de vezes.

Os pesquisadores alertam que esse número é apenas a “ponta do iceberg”, já que não é possível mensurar quantas imagens foram geradas a partir de cada download.

A popularidade desses modelos está ligada, em parte, à expansão de técnicas como Low Rank Adaptation (LoRA), que permitem treinar modelos rapidamente usando apenas 20 imagens diferentes.

Com isso, o tempo e o hardware necessários caíram drasticamente. Hoje, um computador com 24 GB de RAM pode gerar deepfakes convincentes em apenas 15 minutos. Isso facilitou a produção doméstica dessas imagens.

Falhas nas plataformas favorecendo criação de deepfakes pornô de mulheres

Apesar de algumas tentativas de regulamentação, os pesquisadores apontam que as políticas de uso das plataformas são contraditórias. No Civit.ai, por exemplo, é proibido o conteúdo explícito de pessoas reais em qualquer contexto adulto ou sugestivo — exceto com consentimento explícito.

No entanto, a mesma política não proíbe de forma clara os modelos de IA que geram imagens de pessoas reais e identificáveis sem autorização.

“Há uma necessidade urgente por salvaguardas mais claras e técnicas, por mais políticas de plataformas aplicadas proativamente e por novos modelos legais para adereçar a criação e distribuição destes modelos de IA perigosos”, alerta Will Hawkins, pesquisador líder do estudo.

Sair da versão mobile