Já se foi o tempo em que era fácil identificar fotos “falsas”, muitas vezes mal photoshopadas, na internet. Agora estamos nadando no oceano Vídeo gerado por IA De endossos falsos de celebridades a deepfakes, Transmissão de falso desastre. A tecnologia moderna confundiu de forma desagradável e inteligente a linha entre a realidade e a ficção, tornando quase impossível discernir o que é real.

E a situação está piorando rapidamente. Sora da OpenAI já está turvando as águas, mas agora seu “aplicativo de mídia social” viral Sora 2é o bilhete mais quente e enganoso da internet. Este é um feed estilo TikTok onde tudo é 100% falso. Este autor chama isso de “”sonho febril deepfakeA plataforma está continuamente melhorando para fazer a ficção parecer realista, com riscos significativos no mundo real.

Se tiver dificuldade em distinguir entre realidade e IA, você não está sozinho. Aqui estão algumas dicas para ajudá-lo a eliminar o ruído e descobrir a verdade sobre cada peça inspirada em IA.


Não perca nosso conteúdo técnico imparcial e análises baseadas em laboratório. Adicionar CNET Como fonte preferencial no Google.


Meu especialista em IA apresenta o vídeo de Sora

Do ponto de vista técnico, Sora Video é superior em comparação com concorrentes como: Meio da jornada V1 e Google eu vejo 3. Apresentando alta resolução, áudio sincronizado e criatividade incrível. O recurso mais popular de Sora é chamado “Cameo”, que permite usar a imagem de outra pessoa e inseri-la em quase qualquer cena gerada por IA. Esta é uma ótima ferramenta para criar vídeos terrivelmente realistas.

É por isso que muitos especialistas estão preocupados com Sola. O aplicativo torna mais fácil para qualquer pessoa criar deepfakes perigosos, espalhar informações erradas e confundir a linha entre o que é real e o que não é. Figuras públicas e celebridades são especialmente vulneráveis ​​a esses deepfakes, e sindicatos como o SAG-AFTRA estão apoiando a OpenAI. Fortalecer guarda-corpos.

Identificar conteúdo de IA é um desafio constante para empresas de tecnologia, plataformas de mídia social e todos os demais. Mas não é completamente desesperador. Há algumas coisas que você deve ter em mente para determinar se o seu vídeo foi criado usando Sora.

Procure a marca d’água Sora

Todos os vídeos criados com o aplicativo Sora iOS incluirão uma marca d’água quando baixados. Rebatendo na borda do vídeo está um logotipo branco da Sora (ícone de nuvem). É semelhante a como você pode marcar vídeos do TikTok com marca d’água. Marcar conteúdo com marca d’água é uma das principais maneiras pelas quais as empresas de IA podem ajudar a descobrir visualmente o conteúdo gerado por IA. google gêmeos Modelo “Nano Banana” Uma marca d’água será adicionada à imagem automaticamente. As marcas d’água são ótimas porque indicam claramente que o conteúdo foi criado com IA.

Atlas de IA

No entanto, as marcas d’água não são perfeitas. Uma delas é que, se a marca d’água estiver parada (sem movimento), ela poderá ser facilmente cortada. Mesmo marcas d’água móveis como Sora não são totalmente confiáveis ​​porque existem aplicativos projetados especificamente para removê-las. CEO da OpenAI, Sam Altman perguntou sobre issoEle disse que a sociedade precisa se adaptar a um mundo onde qualquer pessoa pode criar vídeos falsos. É claro que, antes de Sora, não existia uma maneira popular, facilmente acessível e sem habilidades de criar esses vídeos. No entanto, o seu argumento levanta uma questão válida sobre a necessidade de confiar em outros métodos para verificar a fiabilidade.

Verifique os metadados

Você provavelmente está pensando que não há como verificar os metadados de um vídeo para determinar se ele é real ou não. Eu entendo de onde você vem. Esta é uma etapa adicional, então você pode não saber por onde começar. Mas é uma ótima maneira de saber se um vídeo foi criado com Sora e é mais fácil do que você imagina.

Metadados são uma coleção de informações que são adicionadas automaticamente ao conteúdo quando ele é criado. Saiba mais sobre como as imagens e vídeos foram criados. Isso inclui o tipo de câmera usada para tirar a foto, local, data e hora em que o vídeo foi capturado e nome do arquivo. Todas as fotos e vídeos, sejam eles criados por humanos ou por IA, possuem metadados. E grande parte do conteúdo criado pela IA também incluirá credenciais de conteúdo que indicam suas origens de IA.

OpenAI faz parte da Coalition for Content Provenance and Trust. Isso significa Sora. O vídeo inclui: Metadados C2PA. pode ser usado ferramenta de validação Verifique os metadados de vídeos, imagens ou documentos da Content Authenticity Initiative. Veja como: (A Iniciativa de Autenticidade de Conteúdo faz parte do C2PA.)

Como verificar os metadados de fotos, vídeos e documentos

1. Navegue até o seguinte URL: https://verify.contentauthenticity.org/
2. Carregue o arquivo que deseja verificar.
3. Clique em Abrir.
4. Revise as informações no painel direito. Se foi gerado por IA, você deve incluí-lo na seção de resumo do conteúdo.

Ao executar um vídeo Sora por meio desta ferramenta, o vídeo será exibido como “Publicado por OpenAI”, indicando o fato de que foi gerado por IA. Todos os vídeos Sora devem incluir essas credenciais para garantir que foram criados com Sora.

Como todos os detectores de IA, esta ferramenta não é perfeita. Há muitas maneiras de evitar a detecção de vídeo por IA. Se você tiver um vídeo que não seja Sora, os metadados podem não conter os sinais que a ferramenta precisa para determinar se ele foi criado por IA. Como descobri em meus testes, os vídeos de IA criados com Midjourney, por exemplo, não são sinalizados. Mesmo que um vídeo tenha sido criado por Sora e baixado novamente por meio de um aplicativo de terceiros (como um aplicativo de remoção de marca d’água), é menos provável que a ferramenta o sinalize como IA.

Captura de tela de um vídeo Sora executado usando ferramentas da Content Authenticity's Initiative

A ferramenta de verificação da Content Authenticity Initiative sinalizou corretamente os vídeos criados com Sora como gerados por IA, juntamente com a data e hora da criação.

Captura de tela de Caitlin Chedraoui/CNET

Explore outros rótulos de IA e inclua o seu próprio

Se você usa as plataformas de mídia social da Meta, como Instagram ou Facebook, pode ajudá-lo um pouco a determinar se algo é IA. Meta é Sistema interno Ele é colocado para ajudar a sinalizar o conteúdo de IA e rotulá-lo como tal. Esses sistemas não são perfeitos, mas você pode ver claramente os rótulos das postagens sinalizadas. TikTok e YouTube Temos políticas semelhantes para rotular conteúdo de IA.

A única maneira verdadeiramente confiável de saber se algo foi gerado por uma IA é se o criador o divulgar. Muitas plataformas de mídia social agora oferecem configurações que permitem aos usuários rotular suas postagens com rótulos gerados por IA. Mesmo um simples crédito ou divulgação em uma legenda pode ajudar muito a ajudar todos a entender como algo foi criado.

Ao percorrer Sora, você percebe que nada é real. No entanto, depois de sair do aplicativo e compartilhar um vídeo gerado por IA, será nossa responsabilidade coletiva divulgar como o vídeo foi criado. À medida que modelos de IA como Sora continuam a confundir a linha entre a realidade e a IA, cabe a todos nós sermos o mais claros possível quando algo é real ou IA.

O mais importante é permanecer vigilante

Não há uma maneira confiável de saber com precisão se um vídeo é real ou IA. A melhor coisa que você pode fazer para evitar ser enganado é não acreditar automática e inquestionavelmente em tudo que vê online. Siga sua intuição e se algo parecer irreal, provavelmente é. Nesta era sem precedentes de perturbação da IA, a sua melhor defesa é observar mais de perto os vídeos que está a ver. Não basta olhar para ele ou rolar sem pensar. Verifique se há texto confuso, objetos faltando e comportamento não físico. Não se culpe se for enganado de vez em quando. Até os especialistas erram.

(Divulgação: a controladora da CNET, Ziff Davis, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de sistemas de IA.)

Source link