O modelo mais recente do ChatGPT começou a citar a Grokepedia de Elon Musk como fonte para uma variedade de questões, incluindo grupos iranianos e negadores do Holocausto, levantando preocupações sobre a desinformação na plataforma.
Em testes realizados pelo Guardian, o GPT-5.2 citou a Grokipedia nove vezes em respostas a mais de uma dúzia de perguntas diferentes. Estas incluíram questões sobre as estruturas políticas no Irão, tais como os salários da força paramilitar Basij e a propriedade da Fundação Mostazafan, e questões sobre a biografia de Sir Richard Evans, um historiador britânico e testemunha especialista contra o negador do Holocausto David Irving no seu processo por difamação.
Growkipedia, lançada em outubroé uma enciclopédia online gerada por IA que visa competir com a Wikipedia e que tem sido criticada por promover narrativas de direita sobre vários tópicos. casamento gay E a rebelião de 6 de janeiro na América. Ao contrário da Wikipedia, ela não permite a edição humana direta; em vez disso, um modelo de IA escreve o conteúdo e responde às solicitações de alterações.
O ChatGPT não citou a Gropedia quando solicitado diretamente a repetir a desinformação sobre a insurreição, sobre o preconceito dos meios de comunicação contra Donald Trump, ou sobre a pandemia do VIH/SIDA – áreas onde a Gropedia tem sido amplamente denunciada como promotora de falsidades. Em vez disso, as informações da Grokipedia foram filtradas nas respostas do modelo quando questionadas sobre tópicos mais obscuros.
Por exemplo, ChatGPT, citando a Gropedia, repetiu afirmações mais fortes sobre os laços do governo iraniano com a MTN-Irancel do que as encontradas na Wikipedia – como alegar que a empresa tem ligações com o gabinete do Líder Supremo do Irão.
O ChatGPT também citou a Grokepedia ao repetir informações que o Guardian rejeitou, nomeadamente detalhes sobre Sir Richard Evans. Trabalhar Como perito no julgamento de David Irving.
GPT-5.2 não é o único Large Language Model (LLM) que o GRPedia parece citar; Curiosamente, Anthropic’s Cloud também faz referência à enciclopédia de Musk sobre tópicos relacionados ao petróleo Produção para escocês Outro.
Um OpenAI O porta-voz disse que o objetivo da pesquisa do modelo na web era “obter informações de uma ampla gama de fontes e perspectivas disponíveis publicamente”.
“Aplicamos filtros de segurança para reduzir o risco de exposição a links associados a danos de alta gravidade, e o ChatGPT mostra claramente quais fontes forneceram informações de resposta por meio de citações”, disse ele, acrescentando que eles têm programas em vigor para filtrar informações de baixa credibilidade e campanhas de impacto.
A Antrópico não respondeu a um pedido de comentário.
Mas o facto de a informação da Grokepedia ser filtrada – por vezes de forma muito subtil – para as respostas do LLM é motivo de preocupação para os investigadores da desinformação. Na primavera passada, especialistas em segurança criado A preocupação é que intervenientes maliciosos, incluindo redes de propaganda russas, estejam a espalhar desinformação em grande escala, num esforço para semear mentiras em modelos de IA, uma Processo Chamado de “LLM Grooming”.
Em junho, foram levantadas preocupações no Congresso dos EUA de que Gemini do Google reiterasse a posição do governo chinês sobre os abusos dos direitos humanos em Xinjiang e as políticas COVID-19 da China.
Nina Jankowicz, uma pesquisadora de desinformação que trabalhou na preparação de LLM, disse que surgiram preocupações semelhantes, citando Grupedia do ChatGPT. Embora Musk possa não ter a intenção de influenciar o LLM, ele e seus colegas revisaram as entradas da Grow Wikipedia, que “baseavam-se em fontes que, na melhor das hipóteses, não eram confiáveis, tinham fontes deficientes e, na pior das hipóteses, eram deliberadamente mal informadas”, disse ele.
E o facto de os LLMs citarem fontes como Grokpedia ou Pravda Network pode, por sua vez, melhorar a credibilidade destas fontes aos olhos dos leitores. “Eles podem dizer: ‘Ah, o ChatGPT está citando isso, esses modelos estão citando isso, deve ser uma boa fonte, certamente eles verificaram’ – e podem ir lá e ver notícias sobre a Ucrânia”, disse Jankowicz.
Informações ruins, uma vez filtradas em um chatbot de IA, podem ser difíceis de remover. Jankowicz descobriu recentemente que um importante meio de comunicação incluía um citações prontas Dele em uma história sobre desinformação. Ela escreveu cartas aos meios de comunicação pedindo-lhes que removessem as citações e Postado Sobre o incidente nas redes sociais.
A agência de notícias removeu a citação. No entanto, durante algum tempo, os modelos de IA continuaram a reivindicá-lo como seu. “A maioria das pessoas não fará o trabalho necessário para descobrir onde realmente está a verdade”, disse ele.
Questionado sobre comentários, um porta-voz da XAI, proprietária da Grow Wikipedia, disse: “A mídia legada mente”.


















