Uma análise publicada por especialistas em IA diz que a fraude deepfake se tornou “industrializada”.
Ferramentas para criar golpes customizados e até personalizados – por exemplo, aproveitando deepfakes Vídeo jornalistas suecos ou presidente Cipriotas – já não são especializados, mas são mais baratos e mais fáceis de implementar em escala, conforme indicado na análise Banco de dados de incidentes de IA.
Ele lista mais de uma dúzia de exemplos recentes de “falsificação de identidade com fins lucrativos”, incluindo um vídeo deepfake do primeiro-ministro da Austrália Ocidental, Robert Cook, promovendo um esquema de investimento e um vídeo de médicos deepfake. Promoção Creme para a pele.
Esses exemplos fazem parte de uma tendência em que os golpistas estão usando ferramentas de IA amplamente disponíveis para perpetrar roubos cada vez mais direcionados. No ano passado, um executivo financeiro de uma multinacional de Cingapura pagou quase US$ 500 mil a golpistas. Acredita-se que Houve uma videochamada com a liderança da empresa. Estima-se que os consumidores do Reino Unido tenham perdido Fraude no valor de £ 9,4 bilhões em nove meses até novembro de 2025.
“As capacidades atingiram repentinamente um nível em que conteúdo falso pode ser gerado por quase qualquer pessoa”, disse Simon Mylius, pesquisador do MIT que trabalha em um projeto envolvendo o banco de dados de incidentes de IA.
Eles calcularam que “fraude, golpes e manipulação direcionada” foram responsáveis pela maior parte dos incidentes relatados no banco de dados em 11 dos últimos 12 meses. Ele disse: “Tornou-se muito acessível a um ponto em que realmente não há barreira à entrada”.
“A escala está mudando”, disse Fred Heiding, pesquisador de Harvard que estuda golpes baseados em IA. “Está se tornando tão barato que quase qualquer pessoa pode usá-lo agora. Os modelos estão ficando realmente bons – estão ficando mais rápidos do que a maioria dos especialistas pensava.”
No início de janeiro, Jason Rebholz, executivo-chefe da empresa de segurança de IA Evoke, postou uma oferta de emprego no LinkedIn e foi imediatamente contatado por um estranho em sua rede que recomendou um candidato.
Em poucos dias, ele estava trocando e-mails com alguém que, no papel, parecia ser um engenheiro talentoso.
“Olhei o currículo e pensei: este é um currículo realmente ótimo. E então pensei, mesmo que houvesse alguns sinais de alerta, deixe-me apenas conversar.”
Então as coisas ficaram estranhas. Os e-mails dos candidatos foram direto para o spam. Havia esquisitices em seu currículo. Mas Rebholz já havia lidado com candidatos incomuns e decidiu prosseguir com as entrevistas.
Então, quando Rebholz atendeu a ligação, demorou cerca de um minuto para que o vídeo do candidato aparecesse.
“O pano de fundo era extremamente falso”, disse ele. “Parecia super, super falso. E estava realmente lutando para lidar com (áreas ao redor) as bordas da pessoa. Como se parte de seu corpo estivesse entrando e saindo… e então, quando estou olhando para seu rosto, é muito suave nas bordas.”
Rebholz continuou a conversa, não querendo enfrentar o constrangimento de perguntar diretamente ao candidato se aquilo era realmente uma fraude elaborada. Mais tarde, ele enviou a gravação para um contato de uma empresa de detecção de deepfake, que lhe disse que a imagem de vídeo do candidato foi gerada por IA. Eles rejeitaram o candidato.
Rebholz ainda não sabe o que o golpista queria: salários de engenharia ou segredos comerciais. enquanto houver relatórios Os hackers norte-coreanos que tentam conseguir um emprego na Amazon Evoke são uma startup, não um grande player.
“É como se estivéssemos sendo alvo disso, então todos estariam sendo alvo disso”, disse Rebholz.
Heiding disse que o pior está por vir. A tecnologia de clonagem de voz Deepfake é atualmente excelente – tornando mais fácil para os golpistas se passarem por um neto em perigo pelo telefone. Por outro lado, os vídeos deepfake ainda podem ser melhorados.
Isto poderá ter consequências enormes: para as nomeações, para as eleições e para a sociedade em geral. Heiding acrescentou: “Esse será o grande problema aqui, a total falta de confiança nas instituições digitais e nas instituições e no conteúdo em geral”.


















