“Os avanços na tecnologia estão levando a guerra de informação nas plataformas de mídia social a um novo nível, tornando obsoleta a abordagem clássica dos bots”, disse Jonas Kunst, professor de comunicação na BI Norwegian Business School e um dos coautores do relatório.
Para especialistas que passaram anos monitorizando e combatendo campanhas de desinformação, o documento apresenta um futuro assustador.
“E se a IA não fosse apenas informação alucinatória, mas milhares de chatbots de IA trabalhando em conjunto para se disfarçarem de apoio popular onde não existe? Esse é o futuro que este artigo imagina – uma fazenda russa de trolls com esteróides”, disse Nina Jankowicz, ex-czar da desinformação da administração Biden e agora CEO do American Sunlight Project.
Os investigadores dizem que não está claro se esta tática já está a ser utilizada porque os sistemas atuais em vigor para rastrear e identificar fraudes organizadas não conseguem detetá-las.
“As características indescritíveis do mimetismo humano tornam muito difícil detectá-los e avaliar até que ponto estão presentes”, disse Kunst. “Não temos acesso à maioria das plataformas (de mídia social) porque as plataformas estão se tornando cada vez mais restritivas, por isso é difícil obter insights delas. Tecnicamente é definitivamente possível. Tenho certeza de que foi testado.”
Kunst acrescentou que estes sistemas provavelmente ainda estão em desenvolvimento e sujeitos à supervisão humana, prevendo que, embora possam não ter um grande impacto nas eleições intercalares de 2026 nos EUA, em Novembro, é muito provável que sejam utilizados para perturbar as eleições presidenciais de 2028.
Contas indistinguíveis em plataformas de mídia social são apenas um problema. Os investigadores dizem que a capacidade de mapear redes sociais em escala permite que os coordenadores de campanhas de desinformação tenham como alvo agentes em comunidades específicas para garantir o máximo impacto.
“Swarms com essas capacidades podem ser posicionados para obter o máximo impacto e adaptar as mensagens às crenças e sugestões culturais de cada comunidade, permitindo um direcionamento mais preciso do que os botnets anteriores”, escreveram.
Tais sistemas são inerentemente auto-aperfeiçoáveis, usando respostas às postagens como feedback para melhorar seu raciocínio, a fim de entregar melhor as mensagens. “Com sinal suficiente, eles poderiam executar milhões de testes microA/B, propagar variantes vencedoras na velocidade da máquina e iterar muito mais rápido que os humanos”, escreveram os pesquisadores.
Para combater a ameaça representada pelos enxames de IA, os investigadores estão a propor a criação de “observatórios de impacto da IA”. O observatório será composto por partes interessadas da academia e de organizações não governamentais e trabalhará para “padronizar as evidências, melhorar a consciência situacional e permitir respostas coletivas mais rápidas, em vez de penalidades de reputação de cima para baixo”.
Um grupo não incluído são os executivos das próprias plataformas de mídia social. Isto deve-se em grande parte ao facto de os investigadores acreditarem que há pouco incentivo para identificar estes rebanhos, uma vez que as empresas incentivam o envolvimento mais do que todas as outras.
“Digamos que os enxames de IA acontecem com tanta frequência que você não pode confiar em ninguém e as pessoas abandonam a plataforma”, diz Kunst. “É claro que isso ameaçaria o modelo. Seria melhor para as plataformas não revelarem isto se quisessem apenas aumentar o envolvimento, porque com mais envolvimento e mais anúncios a serem vistos, isso pareceria ser positivo para a avaliação de uma determinada empresa.”
Além da falta de ação por parte das plataformas, os especialistas acreditam que há pouco incentivo para o envolvimento dos governos. “O atual clima geopolítico pode não ser favorável aos ‘observatórios’ que monitorizam essencialmente as discussões online”, afirma Olejnik, e Janković concorda. “A coisa mais assustadora sobre este futuro é que há muito pouca vontade política para lidar com os danos que a IA cria, o que significa que[os enxames de IA]poderão em breve tornar-se uma realidade.”


















