Se você pedir a uma IA para se olhar no espelho, ela não necessariamente se verá. Essa é a sensação que você tem quando pede a alguém para decidir se uma imagem é real ou gerada por uma IA.

Na semana passada, o Google fez um esforço muito limitado para ajudar as pessoas a distinguir entre o real e os deepfakes. O aplicativo Gemini permite compartilhar uma imagem e perguntar se ela é real. Verifique seu SynthID –um marca d’água digital – para informar se foi criado pelas ferramentas de IA do Google. (Enquanto isso, o Google também anunciou na semana passada que nano banana profissionalseu novo modelo de imagem torna ainda mais difícil detectar falsificações a olho nu. )

Atlas de IA

Dentro deste escopo limitado, a verificação da realidade do Google funciona muito bem. Gemini funciona rapidamente e informa se algo foi criado pela IA do Google. Nos meus testes, também funcionou com capturas de tela de imagens. E as respostas são rápidas e diretas. Sim, pelo menos metade desta imagem é falsa.

Mas pergunte sobre imagens criadas literalmente por outras pessoas. gerador de imagem E você não obterá uma resposta definitiva. O que você obtém é uma revisão das evidências. O modelo busca todas as informações típicas de que algo é artificial. Neste caso, estamos basicamente fazendo o que vemos com os nossos próprios olhos, mas não podemos confiar totalmente nos resultados.

A verificação SynthID do Google é confiável e necessária, mas pedir a um chatbot para avaliar algo sem marca d’água faz pouco sentido. O Google fornece ferramentas úteis para verificar a origem das imagens, mas se quisermos poder confiar novamente em nossos olhos na Internet, precisamos ser capazes de verificar imagens de todos os tipos de modelos de IA em todas as interfaces de IA que usamos.

Espero que em breve você consiga inserir uma imagem, digamos, em uma pesquisa no Google e ver se ela é falsa ou não. Deepfakes são tão bons que não precisam de verificação da realidade.

Existem prós e contras em verificar imagens com um chatbot.

Há pouco a dizer sobre a verificação SynthID do Google. Quando você pede ao Gemini (no aplicativo) para avaliar as imagens geradas pelo Google, o Gemini sabe o que está vendo. funciona. Eu gostaria de ver esse recurso implementado em todos os lugares onde o Gemini aparece, incluindo a versão do navegador e a Pesquisa Google. De acordo com o Google: Postagem de destaque no blogjá está em andamento.

O fato de o navegador Gemini ainda não possuir esse recurso significa que podemos ver como o próprio modelo (sem SynthID) responde quando questionado se uma imagem gerada por IA é real. Pedi à versão para navegador do Gemini que analisasse um infográfico que o Google forneceu aos repórteres como um folheto mostrando como funciona o novo modelo Nano Banana Pro. Foi gerado por uma IA e foi indicado como tal em seus metadados. O aplicativo Gemini usou o SynthID para descobrir. O navegador Gemini teve uma ilusão. Ele disse que o design poderia ser feito por IA ou por um designer humano. Ele ainda disse que a ferramenta SynthID não encontrou nada indicativo de IA. (No entanto, quando pedi para tentar novamente, a ferramenta disse que ocorreu um erro.) O resultado final? Eu não sabia disso.

E quanto a outros chatbots? Fizemos com que o Nano Banana Pro gerasse a imagem de um gato de smoking deitado em um tabuleiro de Banco Imobiliário. À primeira vista, a imagem parecia bastante realista. O colega desavisado para quem enviei pensou que era meu gato. Mas se você olhar mais de perto, encontrará erros. Por exemplo, o conjunto Monopólio não tem sentido. Park Place está em vários locais incorretos e tem cores desbotadas.

Uma imagem gerada por IA de um gato de smoking preto e branco deitado em um tabuleiro de Banco Imobiliário na sala de estar.

Este não é um gato de verdade ou um tabuleiro de jogo de Banco Imobiliário de verdade. Esta imagem foi gerada pelo modelo de imagem Nano Banana Pro AI do Google.

Criado por Jon Reed usando Gemini AI

Perguntamos a vários chatbots e modelos de IA se uma imagem foi gerada por IA, e as respostas variaram.

Gemini no meu telefone o encontrou instantaneamente usando o verificador SynthID. Gemini 3, um modelo de inferência de alto nível lançado esta semana, forneceu uma análise detalhada do motivo pelo qual a IA gerou os resultados. Gemini 2.5 Flash (o modelo padrão que você obtém ao selecionar “Rápido”) adivinhou que era uma foto real com base no nível de detalhe e realismo. Tentei o ChatGPT duas vezes em dois dias diferentes e obtive duas respostas diferentes. Um era uma explicação extensa do que era claramente real, e o outro era um tratado igualmente longo sobre por que era falso. Claude usa os modelos Haiku 4.5 e Sonnet 4.5 e diz que parece autêntico.

Ao testar imagens geradas por ferramentas de IA que não são do Google, o chatbot fez classificações com base na qualidade das imagens geradas. Imagens com características óbvias, como incompatibilidades de iluminação ou texto mal renderizado, foram detectadas de forma mais confiável como IA. Mas o tema era contradição. Na verdade, não poderia ser mais preciso do que uma observação crítica profunda com meus próprios olhos. Isso não é suficiente.

O futuro da detecção de IA

As ferramentas mais recentes do Google oferecem um caminho possível a seguir, mesmo que ainda esteja muito distante. Sim, uma solução para o crescente problema do deepfake é poder ver imagens em aplicativos de chatbot. Porém, precisa funcionar com mais imagens e mais aplicativos.

Nenhum conhecimento especial é necessário para detectar falsificações. você não deveria precisar encontrá-lo Aplicativo personalizadovocê pode analisar os metadados ou aprender diretamente sobre erros que podem indicar uma imagem gerada pela IA. Como demonstraram as melhorias drásticas nos modelos de imagem e vídeo nos últimos meses, essas instruções podem ser infalíveis hoje, mas inúteis amanhã.

leia mais: O Nano Banana Pro do Google cria imagens de IA hiper-realistas. é realmente assustador

Se você encontrar uma imagem na Internet e tiver dúvidas sobre ela, poderá acessar Gemini, Google Search, ChatGPT, Claude ou qualquer ferramenta de sua escolha para realizar uma verificação de marca d’água universal e difícil de remover. Os esforços nesse sentido são Coalizão sobre origem e autenticação de conteúdoou C2PA. Os resultados devem ser fáceis de serem verificados por uma pessoa comum, sem a necessidade de aplicativos ou conhecimentos especiais. Você deve poder usá-lo para coisas que usa todos os dias. Pergunte à IA e ela lhe dirá onde procurar.

Não há necessidade de adivinhar o que é verdade e o que não é. As empresas de IA têm a responsabilidade de nos fornecer uma verificação da realidade sólida e universal. Talvez este seja o caminho a seguir.

Source link