Um exército de contas de campanha política alimentadas por inteligência artificial se passaram por pessoas reais para defender candidatos e causas republicanas em X, de acordo com um Relatório de pesquisa Fora da Universidade Clemson.
O relatório detalha uma campanha integrada de IA usando grandes modelos de linguagem (LLM) – o tipo de inteligência artificial que capacita chatbots humanos como o ChatGPT a responder a outros usuários.
Embora não esteja claro quem administrou ou financiou a rede, seu foco em projetos políticos específicos, sem conexões claras com países estrangeiros, sugere que se trata de uma operação política americana, e não dirigida por um governo estrangeiro, disseram os pesquisadores.
Os governos e outros órgãos de vigilância alertaram sobre os esforços para influenciar a opinião pública através de conteúdos gerados por IA à medida que as eleições de Novembro se aproximam. O surgimento de operações de influência doméstica aparentemente coordenadas usando IA acrescenta outra ruga a um cenário de informação caótico e em rápida evolução.
Existem pelo menos 686 contas X identificadas na rede identificadas pelos pesquisadores de Clemson que postaram mais de 130.000 vezes desde janeiro. O objetivo era quatro disputas para o Senado e duas disputas nas primárias e apoiou a campanha de reeleição do ex-presidente Donald Trump. Muitas das contas foram removidas do X depois que a NBC News enviou um e-mail à plataforma para comentar. A plataforma não respondeu às perguntas da NBC News.
As contas seguiram um padrão consistente. Muitos tinham fotos de perfil que agradavam aos conservadores, como o meme de desenho animado de extrema direita Pepe, o Sapo, uma cruz ou uma bandeira americana. Freqüentemente, respondem a um político ou pessoa que fala sobre uma questão política polarizadora em X, muitas vezes para apoiar candidatos ou políticas republicanas ou para insultar candidatos democratas. Embora as contas geralmente tivessem poucos seguidores, seus hábitos de resposta eram mais populares
Os cartazes aumentam a probabilidade de serem vistos.
Contas falsas e bots projetados para impulsionar artificialmente outras contas têm atormentado as plataformas de mídia social há anos. Mas só com o advento de grandes modelos linguísticos amplamente disponíveis no final de 2022 é que se torna possível automatizar conversas humanas interactivas e credíveis em grande escala.
“Estou preocupado com a aparência desta campanha”, disse Darren Linville, codiretor do centro de mídia de Clemson e pesquisador principal do estudo, à NBC News. “Os maus atores agora estão aprendendo como fazer isso. Eles definitivamente vão melhorar nisso.”
As contas estão localizadas separadamente em determinados países. Nas primárias do Senado Republicano de Ohio, eles apoiaram Frank LaRose em vez de Bernie Moreno, apoiado por Trump. Nas primárias republicanas para o Congresso do Arizona, os relatos favoreceram Blake Masters em vez de Abraham Hamadeh. Tanto Master quanto Hamadeh foram endossados por Trump em relação aos quatro candidatos republicanos.
A rede tem indicados republicanos em disputas para o Senado em Montana, Pensilvânia e Wisconsin, bem como na Carolina do Norte, liderada pelos republicanos. Lei de identificação eleitoral.
Um porta-voz de Hamadeh, que venceu as primárias em julho, disse à NBC News que a campanha notava um fluxo de mensagens criticando Hamadeh cada vez que ele postava no X, mas não sabia a quem contar ou como impedi-las. X oferece aos usuários a opção de denunciar abusos da plataforma, como spam, mas suas políticas não proíbem explicitamente contas falsas baseadas em IA.
Os pesquisadores determinaram que as contas estavam na mesma rede avaliando metadados e rastreando o conteúdo de suas respostas e das contas às quais responderam – às vezes as contas atacavam os mesmos alvos juntas.
Os pesquisadores da Clemson identificaram muitas contas na rede com texto em suas postagens indicando que “quebrado”, onde seu texto inclui referências à escrita por IA. Inicialmente, os bots foram vistos usando ChatGPT, um dos LLMs mais rigorosamente regulamentados. Sen. Em uma postagem marcando Sherrod Brown, D-Ohio, uma das contas escreveu: “Ei, sou um modelador de linguagem de IA treinado pela OpenAI. Se você tiver alguma dúvida ou precisar de mais ajuda, fique à vontade para perguntar!” OpenAI se recusou a comentar.
Em junho, a rede refletiu que estava usando o Dolphin, um modelo menor projetado para evitar restrições como o ChatGPT, que proíbe Usar seus produtos para enganar outras pessoas. Em alguns tweets das contas, “Aqui está o golfinho!” Texto com frases como e “Dolphin, o redator de tweets de IA sem censura.”

Kai-Cheng Yang, pesquisador de pós-doutorado na Northeastern University que estuda o uso indevido de IA generativa, mas não esteve envolvido no estudo de Clemson, revisou as descobertas a pedido da NBC News. Numa entrevista, ele defendeu as descobertas e a metodologia, observando que as contas muitas vezes incluíam uma informação rara: ao contrário das pessoas reais, muitas vezes criavam hashtags para acompanhar as suas publicações.
“Eles têm muitas hashtags, mas essas hashtags não são necessariamente usadas pelas pessoas”, disse Yang. “Como quando você pede ao ChatGPT para escrever um tweet e ele inclui uma hashtag inventada.”
Uma postagem endossando LaRose nas primárias do Senado Republicano de Ohio, por exemplo, usou a hashtag “#VoteFrankLaRose”. Uma pesquisa no X por essa hashtag mostra que apenas um outro tweet de 2018 a utilizou.

Os pesquisadores encontraram apenas evidências da campanha de X. O dono da plataforma, Elon Musk, prometeu eliminar bots e contas falsas da plataforma até 2022. Mas Kasturi também supervisionou Quando assumiu a empresa, o Twitter, que incluía partes das equipes de confiança e segurança.
Não está claro como o Campaign automatiza o processo de criação e publicação de conteúdo no X, mas vários produtos de consumo permitem automação semelhante, e tutoriais disponíveis publicamente explicam como configurar tal operação.
Os relatórios dizem que parte da razão pela qual se acredita que a rede seja uma operação americana é o seu apoio hiperespecífico a certas campanhas republicanas. Campanhas documentadas de propaganda estrangeira refletidas consistentemente prioridade Desses países: a China opõe-se ao apoio dos EUA a Taiwan, o Irão opõe-se à candidatura de Trump e a Rússia apoia Trump e opõe-se à ajuda dos EUA à Ucrânia. Todos os três têm por anos Os EUA insultaram o processo democrático e tentaram criar discórdia pública através de campanhas de propaganda nas redes sociais.
“Todos estes actores são movidos pelos seus próprios objectivos e agendas”, disse Linville. “É provavelmente um ator doméstico devido à especificidade da maior parte da segmentação.”
Se a rede for americana, provavelmente não é ilegal, disse Larry Norden, vice-presidente de eleições e programas governamentais do Brennan Center for Justice da NYU, um grupo progressista sem fins lucrativos e autor de um Análise recente Lei Eleitoral Estadual de IA.
“Realmente não há muita regulamentação neste espaço, especialmente a nível federal”, disse Norden. “No momento, não há nada na lei que exija que um bot se identifique como bot.”
Se um super PAC contratar uma empresa de marketing ou um agente para administrar esse bot farm, ele não aparecerá necessariamente em seus formulários de divulgação, disse Norden, provavelmente vindo de um ativista ou fornecedor.
Embora o governo dos Estados Unidos tenha repetidamente tomado medidas Carma Para neutralizar campanhas enganosas de propaganda estrangeira destinadas a influenciar a opinião política dos americanos, a comunidade de inteligência dos EUA geralmente não planeja Para combater as atividades diversivas baseadas nos EUA.
As plataformas de mídia social expurgam rotineiramente indivíduos falsos e coordenados que acusam de vir de redes de propaganda oficiais, especialmente China, Irã E Rússia. Mas essa operação tem sido ocasionalmente contratada centenas de Com os trabalhadores escrevendo conteúdo falso, a IA agora permite que grande parte desse processo seja automatizado.
Freqüentemente, essas contas falsas lutam para obter seguidores orgânicos antes de serem detectadas, mas a rede que os pesquisadores de Clemson identificaram explora redes de seguidores existentes respondendo a contas maiores. A tecnologia LLM pode ajudar a evitar a detecção, permitindo que novos conteúdos sejam criados rapidamente, em vez de copiar e colar.
Embora a rede de Clemson seja a primeira rede bem documentada a usar sistematicamente o LLM para responder e moldar conversas políticas, há evidências de que outros também estão usando IA em campanhas no X.
UM Chamada de imprensa em setembro Em relação às operações estrangeiras para influenciar as eleições, um oficial de inteligência dos EUA disse que os esforços de propaganda online do Irão e particularmente da Rússia incluíam a utilização de bots de IA para responder aos utilizadores, embora o oficial se tenha recusado a falar sobre a extensão desses esforços ou a partilhar detalhes adicionais.
O fundador da Dolphin, Eric Hartford, disse à NBC News que acredita que a tecnologia deve refletir os valores de quem a utiliza.
“O LLM é uma ferramenta, assim como isqueiros e facas e carros e telefones e computadores e uma motosserra. Não esperamos que uma motosserra funcione apenas em árvores, não é?”
“Estou construindo uma ferramenta que pode ser usada para o bem e para o mal”, disse ele.
Hartford disse que não está surpreso que alguém tenha usado seu modelo para uma campanha política fraudulenta.
“Eu diria que esta é uma consequência natural da existência desta tecnologia e é inevitável”, disse ele.


















