© Conteúdo protegido por direitos autorais

Deepfakes

Análise | Os deepfakes atingiram um novo patamar em 2025 – e a situação deve piorar em 2026

por Siwei Lyu | Professor de Ciência da Computação e Engenharia; Diretor do Laboratório de Análise Forense de Mídia da UB, Universidade de Buffalo

Mulher criada por IA olha para imagem de robô em tela de computador

Imagem: Andres Simon /Unsplash



Superando previsões de muitos especialistas, a perfeição atingida em 2025 pelos deepfakes - imagens e áudios criados com ferramentas de inteligência artificial generativa - indica que em 2026 eles podem se tornar mais perigosos, enganando pessoas e até empresas.


Ao longo de 2025, a qualidade dos deepfakes feitos com inteligência artificial melhorou significativamente. Rostos, vozes e performances corporais completas geradas por IA imitando pessoas reais foram aprimorados em uma escala muito superior à que muitos especialistas previam há poucos anos.

Eles também passaram a ser usados ​​cada vez mais para enganar as pessoas.

Em muitas situações do dia a dia — especialmente em videochamadas de baixa resolução e em conteúdos compartilhados em redes sociais — o realismo das mídias sintéticas atingiu um nível suficiente para enganar facilmente espectadores leigos.

Na prática, esses conteúdos se tornaram impossíveis de serem percebidos como não não sendo criações autênticas por pessoas comuns e, em alguns casos, até mesmo por instituições especializadas. 

Quantidade de deepfakes criados com inteligência artificial cresceu 900%

E esse aumento não se limita à qualidade. O volume de deepfakes cresceu exponencialmente: a empresa de cibersegurança DeepStrike estima um aumento de aproximadamente 500.000 deepfakes online em 2023 para cerca de 8 milhões em 2025, com um crescimento anual próximo a 900%.

Como cientista da computação e pesquisador de deepfakes e outras mídias sintéticas, acredito que a situação provavelmente se agravará em 2026, à medida que os deepfakes se tornem artistas artificiais capazes de interagir com as pessoas em tempo real.

Melhorias drásticas nos deepfakes

Diversas mudanças técnicas fundamentam essa escalada dramática. Primeiro, o realismo em vídeo deu um salto significativo graças a modelos de geração de vídeo projetados especificamente para manter a consistência temporal .

Esses modelos produzem vídeos com movimento coerente, identidades consistentes das pessoas retratadas e conteúdo que faz sentido de um quadro para o outro.

Os modelos separam as informações relacionadas à representação da identidade de uma pessoa das informações sobre o movimento, de modo que o mesmo movimento possa ser mapeado para diferentes identidades , ou a mesma identidade possa ter múltiplos tipos de movimento.

Eles produzem rostos estáveis ​​e coerentes, sem a oscilação, distorção ou deformações estruturais ao redor dos olhos e da mandíbula que antes serviam como evidência forense confiável de deepfakes.

Em segundo lugar, a clonagem de voz ultrapassou o que pode ser chamado de “limiar da indistinguibilidade”. Alguns segundos de áudio agora são suficientes para gerar um clone convincente – completo com entonação natural, ritmo, ênfase, emoção, pausas e ruído de respiração.

Essa capacidade já está alimentando fraudes em larga escala. Algumas grandes redes varejistas relatam receber mais de 1.000 ligações fraudulentas geradas por IA por dia. Os sinais perceptivos que antes denunciavam vozes sintéticas praticamente desapareceram.

Em terceiro lugar, as ferramentas de consumo praticamente eliminaram a barreira técnica. As atualizações do Sora 2 da OpenAI e do Veo 3 do Google , juntamente com uma onda de startups, permitem que qualquer pessoa descreva uma ideia, deixe um modelo de linguagem robusto, como o ChatGPT da OpenAI ou o Gemini do Google, elaborar um roteiro e gerar conteúdo audiovisual refinado em minutos .

Agentes de inteligência artificial facilitaram a criação

Agentes de IA podem automatizar todo o processo. A capacidade de gerar deepfakes coerentes e com narrativa em larga escala foi efetivamente democratizada.

Essa combinação de quantidade crescente e personas quase indistinguíveis de pessoas reais cria sérios desafios para a detecção de deepfakes , especialmente em um ambiente midiático onde a atenção das pessoas é fragmentada e o conteúdo se espalha mais rápido do que pode ser verificado.

Já houve danos reais — desde desinformação até assédio direcionado e golpes financeiros — causados ​​por deepfakes que se espalham antes que as pessoas tenham a chance de perceber o que está acontecendo.

O futuro é deepfake em tempo real

Olhando para o futuro, a trajetória para 2026 é clara: os deepfakes estão caminhando para a síntese em tempo real, capaz de produzir vídeos que reproduzem com fidelidade as nuances da aparência humana, facilitando a evasão dos sistemas de detecção.

A fronteira está se deslocando do realismo visual estático para a coerência temporal e comportamental: modelos que geram conteúdo ao vivo ou quase ao vivo, em vez de clipes pré-renderizados.

A modelagem de identidade está convergindo para sistemas unificados que capturam não apenas a aparência de uma pessoa, mas também como ela se move, soa e fala em diferentes contextos .

O resultado vai além de “isso se parece com a pessoa X” para “isso se comporta como a pessoa X ao longo do tempo”.

É realista prever que participantes inteiros de videochamadas serão sintetizados em tempo real; atores interativos controlados por IA terão seus rostos, vozes e gestos adaptados instantaneamente ao toque de um comando; e golpistas usarão avatares interativos em vez de vídeos estáticos.

À medida que essas capacidades amadurecem, a diferença de percepção entre mídias sintéticas e autênticas criadas por humanos continuará a diminuir.

A principal linha de defesa deixará de depender do julgamento humano e passará a depender de proteções em nível de infraestrutura.

Isso inclui procedência segura, como mídias assinadas criptograficamente, e ferramentas de IA para conteúdo que utilizam as especificações da Coalizão para Procedência e Autenticidade de Conteúdo (CCPA). Também dependerá de ferramentas forenses multimodais, como o Deepfake-o-Meter do nosso laboratório .

Analisar os pixels com mais atenção já não será suficiente.


Este artigo foi publicado originalmente no portal acadêmico The Conversation e é republicado aqui sob licença Creative Commons.


error: O conteúdo é protegido.