A guerra no Irã deu origem a uma inversão no padrão habitual das fake news, tradicionalmente baseado na falsificação da realidade: imagens verdadeiras passaram a ser rotuladas como deepfakes, confundindo ainda mais o público sobre em que — e em quem — acreditar.
O alerta foi feito pela organização de combate à desinformação NewsGuard, em uma análise intitulada “Real, o novo falso”.
Isso não significa que o conteúdo falso tenha deixado de existir. Pelo contrário: a análise aponta um volume “sem precedentes” de vídeos hiper-realistas falsos que retratam cenas da guerra desde que os EUA e Israel atacaram o Irã, em fevereiro.
A novidade, neste momento, é o avanço em outra direção: o questionamento de imagens verdadeiras, aproveitando-se inclusive de falhas em ferramentas consagradas de detecção de deepfakes.
Guerra no Irã tem mais conteúdo falso do que em qualquer outro período pesquisado
A NewsGuard afirma que, desde o início da guerra no Irã, sua equipe de pesquisadores rastreou mais conteúdo gerado por IA do que em qualquer período comparável nos oito anos de história do projeto.
Os temas são variados: vídeos fabricados de ataques com mísseis, imagens sintéticas de destruição em cidades do Oriente Médio e vídeos falsos de jornalistas sendo mortos.
Ao lado dessa enxurrada de falsificações, os pesquisadores também identificaram a ação de maus atores que tentam descartar evidências inconvenientes, levando pessoas comuns condicionadas a desconfiar de tudo o que veem a propagar desinformação.
O caminho é simples: rotular como deepfake e semear a dúvida pelas redes sociais — e até pela imprensa — em um processo que se retroalimenta, segundo a análise.
“A ascensão de deepfakes de IA e a rejeição de imagens reais são dois lados da mesma moeda: a torrente de deepfakes é precisamente o que torna tão eficazes as falsas acusações que lançam dúvidas sobre imagens e vídeos autênticos.”
Ida de Netanyahu a café causou caos digital
O exemplo mais marcante desde movimento, segundo a análise do NewsGuard, foi uma postagem feita pelo primeiro-ministro de Israel.
Após rumores de que teria sido morto em um ataque aéreo, Benjamin Netanyahu, publicou em sua conta no X um vídeo “despretensioso” em uma cafeteria, brincando com o caso.
Nas imagens, ele aparece pedindo uma bebida e dizendo que estava “morrendo por um café”.
אומרים שאני מה? צפו >> pic.twitter.com/ijHPkM3ZHZ
— Benjamin Netanyahu – בנימין נתניהו (@netanyahu) March 15, 2026
Em pouco tempo, usuários começaram a rotular as imagens como tendo sido geradas com inteligência artificial, apesar de a Reuters ter confirmado que o premiê esteve no local, e o própria cafeteria ter divulgado imagens da visita do chefe de governo em sua conta no Facebook.
Mas o argumento para colocar a verdade em dúvida foi justamente um recurso largamente utilizada para verificação de conteúdo, que desta vez falhou.
A ferramenta Hive erradamente apontou 96,9% de chance das imagens serem falsas. E isso foi aproveitado por partidários do Irã, desde indivíduos a contas ligadas ao país.
Um usuário pro-MAGA, que postou no X um clipe em câmera lenta do vídeo questionando se “um sistema de IA altamente avançado” havia sido usado para criar o vídeo.
Ele apontou para o que ele descreveu como uma “falha” no bolso do casaco de Netanyahu, “a física do café” e outros detalhes. O post obteve 1,6 milhão de visualizações e 5.500 curtidas em um dia.
Canais pró-Irã também questionaram veracidade do post
Na mesma linha, a agência de notícias estatal iraniana Tasnim publicou um artigo em 16 de março intitulado “Novo Vídeo de Netanyahu Falso” que afirmava:
“Embora o vídeo mais recente do primeiro-ministro israelense Benjamin Netanyahu deveria dissipar rumores sobre sua morte ou ferimento, provou ser gerado por IA”.
A conta Pro-Iran X @SprinterPress postou o vídeo junto com uma captura de tela da AI Hive, que a classificou como “96,9% Gerada por IA”. O post recebeu 1,2 milhão de visualizações e 18.000 curtidas em um dia, de acordo com a NewsGuard.

Brincadeiras alimentam dúvidas
A alegada manipulação do vídeo também abriu espaço para brincadeiras nas redes, que acabam aumentando a confusão sobre o que é ou não verdadeiro.
Mostrando como seria fácil manipular uma imagem do tipo, um usuário publicou o vídeo de Netanyahu junto a um vídeo de Kim Jong-un, da Coreia do Norte, e Mojtaba Khamenei, do Irã, no mesmo café.
Em poucos dias, a imagem foi vista mais de 4,5 milhões de vezes.
Netanyahu, Mojtaba Khamenei and Kim Jong-un meet at Sataf Café in Jerusalem pic.twitter.com/JOo6VGNJbr
— Jeff Nascimento (@jnascim) March 16, 2026
Netanyahu em coletiva: outro deepfake?
Antes da postagem na cafeteria, a NewsGuard já havia detectado alegações falsas de que um vídeo de Netanyahu falando em uma coletiva de imprensa em 12 de março teria sido gerado por IA, mas era real.
E alguns dias antes, usuários de mídia social anti-regime alegaram falsamente que o The New York Times publicou uma imagem gerada por IA de uma grande multidão celebrando a nomeação do novo líder supremo iraniano, Mojtaba Khamenei, em Teerã em 9 de março. Na verdade, a foto era autêntica.
Vídeo real de míssil também gerou debate
Outro caso recente de um vídeo real rotulado como feito com IA é o da queda de um míssil israelense a poucos metros de uma equipe de jornalistas da rede russa RT no Líbano.
As imagens, divulgadas pela RT, precisaram passar por uma análise do jornal BBC. Ao validar a veracidade do vídeo, o canal britânico citou uma fonte oficial: as Forças de Defesa de Israel.
A imprensa questionou sobre o ataque e o órgão oficial respondeu que ordenou a evacuação da área.
Nesse e em outros casos, o canal também trabalha com serviço de geolocalização. Ele verifica se o fundo da imagem bate com um lugar que existe. No caso do Líbano, as imagens foram linkadas a uma ponte próxima ao rio Litane, na região sul do país.
Leia também | Israel é acusado de ataque deliberado após míssil quase atingir equipe de TV russa no Líbano; veja o vídeo
Ferramenta para reconhecer IA falhou
A NewsGuard expressou preocupação com os erros gerados por ferramentas de detecção de IA como a Hive, largamente utilizada pela imprensa e pelo público, como ela própria recomenda.
Os pesquisadores da iniciativa não utilizam apenas a Hive. A NewsGuard informou que no caso do vídeo do premiê israelense, houve uma verificação adicional com o GetReal Security, que determinou com precisão que o vídeo era autêntico.
“Mas para uma pessoa comum usuária de mídias sociais, é difícil argumentar contra um resultado sugerindo que o vídeo foi provavelmente gerado por IA.”
A análise cobrou mais responsabilidade das ferramentas de verificação no caso de erros, já que muito do que se vê nas mídias sociais é desenhado para confundir em contextos de conflitos ou temas polarizadores.
Como verificar deepfakes gerados com IA: pesquisa em fontes
Indo além, a NewsGuard recomenda atenção quando um vídeo for rotulado como deepfake gerado por IA.
“Além de examinar o próprio vídeo em busca de evidências, como texto confuso ou características faciais distorcidas, verifique as fontes confiáveis sobre a alegação.
Se o primeiro-ministro de Israel tivesse sido morto ou ferido em um ataque com mísseis, certamente isso seria uma grande notícia em todo o mundo.”
Como a Reuters confirmou a visita e a cafeteria a registrou em sua conta de mídia social, evidências não eram difíceis de encontrar – mas em outros lugares que não fossem o próprio vídeo.
“Em um mundo em que não se pode mais confiar apenas nos próprios olhos, esse cuidado — verificar o contexto, não apenas o visual — torna-se a ferramenta de checagem mais importante que temos.”
Leia também | Novo guia do governo britânico condena IA e vídeos acelerados para crianças pequenas; veja as diretrizes
Leia também | Prefeitura de Baltimore processa Grok, IA de Musk, por ‘propaganda enganosa’ ao omitir riscos ao consumidor
Leia também | Redes, IA e mais: estudo do Instituto Reuters mostra como jovens se informam






