IA gerada O vídeo está mais popular do que nunca. Esses vídeos invadiram as redes sociais, desde vídeos fofos de animais até conteúdo de outro mundo, e estão se tornando mais reais a cada dia. Pode ter sido fácil detectar vídeos “falsos” há um ano, mas estas ferramentas de IA tornaram-se muito mais sofisticadas e estão a enganar milhões de pessoas.
Inclui novas ferramentas de IA OpenAI Sora, “Eu vejo 3” do Google e banana nanoa linha entre a realidade e a fantasia gerada pela IA desapareceu. Agora estamos nadando no oceano IA gerada De falsos endossos de celebridades a vídeos e deepfakes. falso desastre transmissão.
Se tiver dificuldade em distinguir entre realidade e IA, você não está sozinho. Aqui estão algumas dicas para ajudá-lo a eliminar o ruído e descobrir a verdade sobre cada peça inspirada em IA. Para mais informações, visite. o problema por trás Demandas de energia de vídeo de IA e o que precisamos fazer em 2026 Evite mais falhas de IA.
Não perca nosso conteúdo técnico imparcial e análises baseadas em laboratório. Adicionar CNET Como fonte preferencial no Google.
Por que os vídeos Sora AI são difíceis de encontrar
Do ponto de vista técnico, Sora Video é superior em comparação com concorrentes como: Meio da jornada V1 e Google eu vejo 3. Apresentando alta resolução, áudio sincronizado e criatividade incrível. O recurso mais popular de Sora é chamado “Cameo”, que permite usar a imagem de outra pessoa e inseri-la em quase qualquer cena gerada por IA. Esta é uma ótima ferramenta para criar vídeos terrivelmente realistas.
Sora se junta a produtos como o Veo 3 do Google, um gerador de vídeo de IA tecnologicamente superior. Estas são as duas ferramentas mais populares, mas é claro que não são as únicas. A mídia generativa será uma área de foco para muitas empresas líderes de tecnologia em 2025, e os modelos de imagem e vídeo estão preparados para dar às empresas a vantagem que desejam na corrida para desenvolver IA de ponta em todas as modalidades. Google e OpenAI A empresa lançou seus principais modelos de imagem e vídeo este ano, mas seu objetivo é claramente podemos vencer um ao outro.
É por isso que muitos especialistas estão preocupados com o Sora e outros geradores de vídeo de IA. O aplicativo Sora torna mais fácil para qualquer pessoa criar vídeos realistas apresentando usuários. Figuras públicas e celebridades são especialmente vulneráveis a esses deepfakes, e sindicatos como o SAG-AFTRA estão pressionando para fortalecer o OpenAI. aquele guarda-corpo. Outros geradores de vídeo de IA apresentam riscos semelhantes, bem como preocupações de que possam encher a Internet com disparates sem sentido sobre IA e tornar-se ferramentas perigosas para espalhar desinformação.
Identificar conteúdo de IA é um desafio constante para empresas de tecnologia, plataformas de mídia social e todos os demais. Mas não é completamente desesperador. Há algumas coisas que você deve ter em mente para determinar se o seu vídeo foi criado usando Sora.
Procure a marca d’água Sora
Todos os vídeos criados com o aplicativo Sora iOS incluirão uma marca d’água quando baixados. Rebatendo na borda do vídeo está um logotipo branco da Sora (ícone de nuvem). É semelhante a como você pode marcar vídeos do TikTok com marca d’água. Marcar conteúdo com marca d’água é uma das principais maneiras pelas quais as empresas de IA podem ajudar a descobrir visualmente o conteúdo gerado por IA. google gêmeos banana nano O modelo marca automaticamente as imagens com marcas d’água. As marcas d’água são ótimas porque indicam claramente que o conteúdo foi criado com IA.
No entanto, as marcas d’água não são perfeitas. Uma delas é que, se a marca d’água estiver parada (sem movimento), ela poderá ser facilmente cortada. Mesmo marcas d’água móveis como Sora não são totalmente confiáveis porque existem aplicativos projetados especificamente para removê-las. CEO da OpenAI, Sam Altman perguntou sobre issoEle disse que a sociedade precisa se adaptar a um mundo onde qualquer pessoa pode criar vídeos falsos. É claro que, antes de Sora, não existia uma maneira popular, facilmente acessível e sem habilidades de criar esses vídeos. No entanto, o seu argumento levanta uma questão válida sobre a necessidade de confiar em outros métodos para verificar a fiabilidade.
Verifique os metadados
Você provavelmente está pensando que não há como verificar os metadados de um vídeo para determinar se ele é real ou não. Eu entendo de onde você vem. Esta é uma etapa adicional, então você pode não saber por onde começar. Mas é uma ótima maneira de saber se um vídeo foi criado com Sora e é mais fácil do que você imagina.
Metadados são uma coleção de informações que são adicionadas automaticamente ao conteúdo quando ele é criado. Saiba mais sobre como as imagens e vídeos foram criados. Isso inclui o tipo de câmera usada para tirar a foto, local, data e hora em que o vídeo foi capturado e nome do arquivo. Todas as fotos e vídeos, sejam eles criados por humanos ou por IA, possuem metadados. E grande parte do conteúdo criado pela IA também incluirá credenciais de conteúdo que indicam suas origens de IA.
OpenAI faz parte da Coalition for Content Provenance and Trust. Isso significa Sora. O vídeo inclui: Metadados C2PA. pode ser usado ferramenta de validação Verifique os metadados de vídeos, imagens ou documentos da Content Authenticity Initiative. Veja como: (A Iniciativa de Autenticidade de Conteúdo faz parte do C2PA.)
Como verificar os metadados de fotos, vídeos e documentos
1. Navegue até o seguinte URL: https://verify.contentauthenticity.org/
2. Carregue o arquivo que deseja verificar. Em seguida, clique em Abrir.
4. Revise as informações no painel direito. Se foi gerado por IA, você deve incluí-lo na seção de resumo do conteúdo.
Ao executar um vídeo Sora por meio desta ferramenta, ele exibirá o vídeo como “Publicado por OpenAI”, indicando o fato de que foi gerado por IA. Todos os vídeos Sora devem incluir essas credenciais para garantir que foram criados com Sora.
Como todos os detectores de IA, esta ferramenta não é perfeita. Há muitas maneiras de evitar a detecção de vídeo por IA. Se você tiver um vídeo que não seja Sora, os metadados podem não conter os sinais que a ferramenta precisa para determinar se ele foi criado por IA. Como descobri em meus testes, os vídeos de IA criados com Midjourney, por exemplo, não são sinalizados. Mesmo que um vídeo tenha sido criado por Sora e baixado novamente por meio de um aplicativo de terceiros (como um aplicativo de remoção de marca d’água), é menos provável que a ferramenta o sinalize como IA.
A ferramenta de verificação da Content Authenticity Initiative sinalizou corretamente os vídeos criados com Sora como gerados por IA, juntamente com a data e hora de criação.
Explore outros rótulos de IA e inclua o seu próprio
Se você usa as plataformas de mídia social da Meta, como Instagram ou Facebook, pode ajudá-lo um pouco a determinar se algo é IA. Meta é Sistema interno Ele é colocado para ajudar a sinalizar o conteúdo de IA e rotulá-lo como tal. Esses sistemas não são perfeitos, mas você pode ver claramente os rótulos das postagens sinalizadas. TikTok e YouTube Temos políticas semelhantes para rotular conteúdo de IA.
A única maneira verdadeiramente confiável de saber se algo foi gerado por uma IA é se o criador o divulgar. Muitas plataformas de mídia social agora oferecem configurações que permitem aos usuários rotular suas postagens com rótulos gerados por IA. Mesmo um simples crédito ou divulgação em uma legenda pode ajudar muito a ajudar todos a entender como algo foi criado.
Ao percorrer Sora, você percebe que nada é real. No entanto, depois de sair do aplicativo e compartilhar um vídeo gerado por IA, será nossa responsabilidade coletiva divulgar como o vídeo foi criado. À medida que modelos de IA como Sora continuam a confundir a linha entre a realidade e a IA, cabe a todos nós sermos o mais claros possível quando algo é real ou IA.
O mais importante é permanecer vigilante
Não há uma maneira confiável de saber com precisão se um vídeo é real ou IA. A melhor coisa que você pode fazer para evitar ser enganado é não acreditar automática e inquestionavelmente em tudo que vê online. Siga sua intuição e se algo parecer irreal, provavelmente é. Nesta era sem precedentes de perturbação da IA, a sua melhor defesa é observar mais de perto os vídeos que está a ver. Não basta olhar para ele ou rolar sem pensar. Verifique se há texto confuso, objetos faltando e comportamento não físico. Não se culpe se for enganado de vez em quando. Até os especialistas erram.
(Divulgação: a controladora da CNET, Ziff Davis, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringia os direitos autorais de Ziff Davis no treinamento e operação de sistemas de IA.)


















