É #FAKE que foto mostre helicóptero militar americano abatido em deserto no Irã; imagem foi criada com inteligência artificial
Conteúdo falso começou a circular após Forças iranianas atingirem dois helicópteros dos EUA que atuavam em resgate de pilotos. Ferramenta de detecção do Google aponta uso de IA da própria empresa para criar a imagem.
É #FAKE que foto mostre helicóptero militar americano abatido no deserto do Irã; imagem foi criada com IA do Google — Foto: Reprodução
Circula nas redes sociais a foto de um helicóptero militar dos Estados Unidos abatido em um deserto no Irã. É #FAKE.
Selo Fake (Horizontal) — Foto: g1
🛑 Como é a foto falsa?
- Compartilhada em posts do X, Facebook, Threads e Instagram desde domingo (5), a imagem exibe um helicóptero abatido em um deserto, com destroços ao redor e fumaça branca saindo de uma das hélices. Ao lado esquerdo do rotor da cauda, um grupo de 10 militares segura duas bandeiras do Irã e aponta armas para cima.
- Veja três legendas, em inglês, que acompanham o material: “Uma imagem em grande escala do helicóptero Black Hawk acidentado no deserto, com soldados iranianos ao fundo“; “Este é o helicóptero da superpotência americana deitado”; e “BLACK HAWK CAIU NO DESERTO IRANIANO 🚁💥. Revés histórico para as Forças Armadas dos EUA!“.
Mas isso não é verdade. A foto foi totalmente produzida com uma ferramenta inteligência artifical (IA) do Google (leia detalhes mais abaixo).
⚠️ Por que é #FAKE?
O Fato ou Fake submeteu a imagem a duas ferramentas de detecção de IA, que indicaram o uso de inteligência artificial (veja infográficos ao final desta checagem).
- Hive Moderation — “O arquivo provavelmente contém conteúdo gerado por IA ou deepfake”. A ferramenta também indicou 99,9% de probabilidade de o conteúdo ser sintético.
- SynthID Detector — “Feito com a IA do Google. SynthID detectado em todo ou em parte do conteúdo carregado. Confiança do SynthID: Muito Alta”. Essa plataforma do Google verifica conteúdos criados com a ferramenta de IA da própria companhia. A tecnologia insere uma marca d’água para identificar esse tipo de material. Embora imperceptível para humanos, o “selo” é detectável pelo sistema. Diferentemente de outros modelos que geram deepfakes a partir de vídeos reais, a IA do Google produz cenas hiper-realistas do zero, ou seja, sem a referência de algo verdadeiro publicado anteriormente.
Além disso o material também tem imprecisões comuns em imagens produzidas com IA. A sombra da arma de um dos homens, por exemplo, é completamente diferente do modelo que ele parece segurar (veja abaixo).
Foto de IA tem sombra diferente da arma que homem está segurando. — Foto: Reprodução
HiveModeration aponta uso de IA em vídeo. — Foto: Reprodução
SynthID detectou nos pontos azuis a presença da marca d’água de IAs do Google. — Foto: Reprodução
É #FAKE que foto mostre helicóptero militar americano abatido no deserto do Irã; imagem foi criada com IA do Google — Foto: Reprodução
Veja também

É #FATO: Vídeo mostra canguru recebendo carinho de visitantes em zoológico na China
VÍDEOS: Os mais vistos agora no g1

Veja os vídeos que estão em alta no g1


