Um vídeo de 19 minutos e 34 segundos, descrito como gravação explícita de um casal em um quarto de hotel, ganhou tração nas redes sociais indianas nesta semana. O conteúdo surgiu em contas anônimas no Telegram e no YouTube, espalhando-se rapidamente por Instagram, Facebook e X, o que levou a uma onda de especulações sobre sua origem. Autoridades e especialistas alertam para possíveis manipulações por inteligência artificial, sem confirmação oficial da autenticidade.
A repercussão começou em 27 de novembro de 2025, com postagens iniciais às 22h05 IST, e continua a influenciar buscas em estados como Gujarat e Bihar.
- Principais plataformas afetadas: Instagram (maior volume de comentários), X (memes em alta) e Telegram (distribuição inicial).
- Duração exata: 19 minutos e 34 segundos, com cenas em posições íntimas.
Diversas influenciadoras relataram assédio após serem erroneamente associadas ao material.

Detalhes da gravação que intrigam usuários
O vídeo mostra um casal jovem em um ambiente de hotel, com diálogos em hindi e cenas que sugerem privacidade violada. Usuários relataram capturas de tela circulando desde 28 de novembro, mas sem identificação clara dos envolvidos.
Especialistas em cibersegurança apontam indícios de edição digital, como inconsistências na iluminação e movimentos faciais. A ausência de metadados originais reforça a suspeita de que o arquivo foi alterado.
Versões rotuladas como “Temporada 2” e “Temporada 3” apareceram em 30 de novembro, alimentando teorias de conteúdo fabricado para engajamento.
Identificações erradas afetam influenciadoras
Zannat, conhecida como sweet_zannat_12374 no Instagram, publicou um vídeo de esclarecimento em 29 de novembro às 18h44 IST, após receber milhares de comentários sobre os “19 minutos”. Ela destacou diferenças físicas evidentes e questionou o motivo das acusações infundadas.
O post dela acumulou 16 milhões de visualizações em poucas horas, transformando o incidente em outro viral. Outras criadoras de conteúdo relataram situações semelhantes, com mensagens obscenas em perfis aleatórios.
- Exemplos de erros comuns: Comparações baseadas em roupas ou penteados semelhantes.
- Impacto imediato: Queda temporária em seguidores para algumas perfis, seguida de recuperação por curiosidade.
- Respostas coletivas: Pelo menos cinco influenciadoras indianas compartilharam negações públicas nos últimos dias.
Essa onda de misidentificação destaca vulnerabilidades em redes sociais.
Riscos legais de compartilhar o conteúdo
A disseminação do vídeo viola o Artigo 67 da Lei de Tecnologia da Informação da Índia, que prevê até três anos de prisão e multa de 5 lakh de rúpias para distribuição de material obsceno. Infrações repetidas sob o Artigo 67A elevam a pena para cinco anos e 10 lakh de rúpias.
O Código Penal Indiano, nos Artigos 292 e 293, criminaliza a venda ou exibição de conteúdo indecente, com punições semelhantes. Casos de voyeurismo caem sob o Artigo 354C, com foco em gravações não consentidas.
Autoridades registraram pelo menos duas queixas formais em Mumbai e Delhi até 2 de dezembro, envolvendo chantagem ligada ao arquivo.
Conexão com escândalos de deepfake recentes
O caso remete ao incidente da conta Babydoll Archi no Instagram, revelado em maio de 2025 pela polícia de Assam como inteiramente gerado por IA, com 1,4 milhão de seguidores falsos. A investigações mostraram uso de uma imagem roubada de uma mulher real para criar os vídeos.
Relatórios de 2025 indicam que 40% dos vazamentos de mídia íntima envolvem influenciadores, muitos manipulados digitalmente. Ferramentas de IA acessíveis facilitam a produção de conteúdo falso em minutos.
Plataformas como Instagram implementaram filtros de detecção de deepfakes em novembro, mas a velocidade de compartilhamento ainda supera os mecanismos.
Esclarecimentos de influenciadores negam envolvimento
Sofik SK, influenciador regional, divulgou áudios de chantagem em 28 de novembro, negando qualquer ligação com o vídeo e apresentando capturas de tela como prova. Seu parceiro, Sonali, compartilhou stories sobre o estresse emocional causado pelas acusações.
A dupla, focada em entretenimento local, viu um aumento paradoxal em visualizações após o incidente, com memes misturando apoio e críticas.
Outros perfis, como o de uma criadora de moda em Uttar Pradesh, optaram por pausar postagens temporariamente para evitar mais confusão.
Prevenção contra deepfakes em alta demanda
Usuários buscam aplicativos de verificação de IA, com downloads de ferramentas como o Deepfake Detector subindo 25% desde o viral. Especialistas recomendam checar metadados e inconsistências visuais antes de compartilhar.
Campanhas de conscientização da polícia cibernética de Delhi, lançadas em 1º de dezembro, enfatizam a importância de reportar conteúdo suspeito diretamente às plataformas.
- Dicas básicas para identificação:
- Olhos e expressões faciais desalinhadas.
- Áudio dessincronizado com movimentos labiais.
- Fundos com artefatos digitais visíveis.
Essas medidas visam reduzir o dano causado por rumores infundados.
Evolução da tendência nas últimas 48 horas
Desde 2 de dezembro, buscas pelo termo “19 minutos viral” ultrapassaram 5 milhões no Google Trends na Índia, concentradas em horários noturnos IST. Grupos fechados no Telegram oferecem o arquivo por 500 a 5.000 rúpias, ignorando alertas legais.
Relatos de uma suposta suicídio ligada ao escândalo circularam em 2 de dezembro, mas foram desmentidos por falta de conexão confirmada. Imagens morphadas de casais adolescentes agravaram o caos, com AI usada para criar “partes” adicionais.
A tendência se espalha para além da Índia, com menções em fóruns internacionais, mas o epicentro permanece em Mumbai e Delhi.
Medidas de plataformas contra o viral
Instagram removeu mais de 200 postagens relacionadas ao vídeo em 3 de dezembro, aplicando políticas contra conteúdo não consentido. O X suspendeu contas que promoviam links pagos, enquanto o YouTube bloqueou uploads com títulos sugestivos.
Essas ações seguem atualizações de algoritmos em novembro de 2025, priorizando detecção proativa de violações de privacidade.
O episódio reforça a necessidade de regulamentações mais rigorosas para IA generativa na Ásia.

