Uma coalizão de organizações sem fins lucrativos está pedindo ao governo dos EUA que interrompa imediatamente a implantação do Grok, um chatbot desenvolvido pela xAI de Elon Musk, em agências federais, incluindo o Departamento de Defesa.
A carta aberta, compartilhada exclusivamente com o TechCrunch, rastreia uma série de ações preocupantes do grande modelo de linguagem no ano passado, incluindo uma tendência recente de usuários do X pedindo ao Grok para divulgar fotos de mulheres reais e, em alguns casos, de crianças. para imagens sexuais sem o seu consentimento. De acordo com alguns relatos, Grok milhares de Imagens não consensuais e explícitas eram postadas de hora em hora e amplamente distribuídas no X, a plataforma de mídia social de Musk de propriedade da xAI.
A carta, assinada por grupos de defesa, incluindo o Public Citizen, o Center for AI and Digital Policy e a Consumer Federation of America, dizia: “Estamos profundamente preocupados que o governo federal continue a implantar produtos de IA que estão repletos de falhas no nível do sistema e que levam à produção de imagens sexuais não consensuais e material de abuso sexual infantil”. “Dadas as ordens executivas, orientações e políticas recentemente aprovadas da administração; derrubá-lo, agir apoiado por casa brancaÉ alarmante que o Escritório de Gestão e Orçamento ainda não tenha instruído as agências federais a eliminar gradualmente o Grok. ”
A xAI chegou a um acordo com o braço de compras do governo, a Administração de Serviços Gerais (GSA), em setembro passado. Venda Grok para uma agência federal Está sob o poder executivo. Há dois meses, a xAI garantiu um contrato de até US$ 2.000, ao lado da Anthropic, Google e OpenAI. 200 milhões de dólares com o Departamento de Defesa.
Em meados de janeiro, em meio ao escândalo X, o secretário de Defesa Pete Hegseth disse que Grok se juntaria ao Gemini do Google. Operando dentro da rede do Departamento de Defesalida com documentos confidenciais e não confidenciais, o que os especialistas consideram um risco para a segurança nacional.
Os autores da carta afirmam que Grok se mostrou incompatível com os requisitos governamentais para sistemas de IA. De acordo com Orientação OMBos sistemas que representam riscos graves e previsíveis que não podem ser adequadamente mitigados devem ser descontinuados.
“Nossa principal preocupação é que Grok tem demonstrado consistentemente ser um modelo de linguagem inseguro em grande escala”, disse JB Branch, defensor da responsabilidade da Public Citizen Big Tech e um dos autores da carta, ao TechCrunch. “Mas Grok também tem um histórico profundo de vários colapsos. anti-semita Linguagem abusiva, abuso sexista, imagens sexuais de mulheres e crianças. ”
evento de crise tecnológica
Boston, Massachusetts
|
23 de junho de 2026
Vários governos indicaram relutância em colaborar com Grok após as suas ações em janeiro. Grok é baseado em uma série de incidentes em X, incluindo a geração de postagens anti-semitas e o autodenominamento de “Mecha-Hitler”. Indonésia, Malásiatodas as Filipinas bloquearam o acesso ao Grok (eles mais tarde levantou essas proibições), a União Europeia, o Reino Unido, a Coreia do Sul e a Índia estão investigando ativamente xAI e X para privacidade de dados e distribuição de conteúdo ilegal.
A carta também chega uma semana depois da Common Sense Media, uma organização sem fins lucrativos que analisa mídia e tecnologia para famílias. Publicou uma avaliação de risco ultrajante Como resultado, Grok acaba sendo um dos mais perigosos para crianças e adolescentes. Com base nas conclusões do relatório, incluindo a propensão de Grok de oferecer conselhos perigosos, compartilhar informações sobre drogas, gerar imagens violentas e sexuais, divulgar teorias de conspiração e produzir resultados tendenciosos, alguns podem argumentar que Grok também não é tão seguro para adultos.
“Se sabemos que modelos de linguagem em grande escala foram declarados inseguros ou protegidos por especialistas em segurança de IA, por que deveríamos trabalhar com os dados mais confidenciais que temos?” Filial disse. “Do ponto de vista da segurança nacional, simplesmente não faz sentido.”
Andrew Christianson é ex-contratado da Agência de Segurança Nacional e atual IA GobbiA empresa, uma plataforma de agente de IA sem código para ambientes classificados, afirma que o uso de LLMs de código fechado em geral é problemático, especialmente para o Departamento de Defesa.
“Pesos fechados significam que você não pode ver o interior do modelo e não pode auditar como o modelo toma decisões”, disse ele. “Código fechado significa que você não pode inspecionar o software ou controlar onde ele é executado. O Departamento de Defesa está tentando fechar ambos, o que é uma combinação terrível para a segurança nacional.”
“Esses agentes de IA são mais do que apenas chatbots”, acrescentou Christianson. “Eles podem realizar ações, acessar sistemas e mover informações. Eles precisam ser capazes de ver exatamente o que estão fazendo e como estão tomando decisões. O código aberto fornece isso. A IA de nuvem proprietária não.”
Os riscos do uso de sistemas de IA quebrados ou inseguros vão além dos casos de uso de segurança nacional. Branch destacou que os LLMs, que se descobriu terem resultados desproporcionais e discriminatórios, também podem ter consequências desproporcionalmente negativas para as pessoas, especialmente quando utilizados em sectores relacionados com a habitação, o trabalho e a justiça.
OMB ainda não divulgou um inventário consolidado de casos de uso de IA federais para 2025, mas o TechCrunch revisou vários casos de uso de agências. A maioria deles não usa o Grok ou não divulga o uso do Grok. Além do Departamento de Defesa, o Departamento de Saúde e Serviços Humanos também parece estar usando ativamente o Grok, principalmente para agendar e gerenciar postagens nas redes sociais e criar primeiros rascunhos de documentos, instruções e outros materiais de comunicação.
Branch citou o alinhamento filosófico entre Grok e a administração como a razão pela qual as deficiências dos chatbots são ignoradas.
“A marca de Grok é ‘Anti-Awakening Big Language Model’ e aqui está o porquê. A filosofia deste governoSr. Filial disse: problemas com pessoas quem esteve lá acusado de ser neonazista ou supremacista brancoE imagino que eles sejam mais propensos a usá-lo porque usam um modelo de linguagem extenso vinculado a esse tipo de comportamento. ”
Esta é a terceira carta depois de a coligação ter levantado preocupações semelhantes. Agosto e outubro ano passado. Em agosto, xAI inicia o “modo picante” Grok Imagine levou à criação em massa de deepfakes não consensuais e sexualmente explícitos. O TechCrunch também informou sobre as conversas privadas de Grok em agosto. indexado pela pesquisa do Google.
Antes da carta de outubro, o Sr. Groch foi acusado de: Fornecimento de informações falsas sobre eleiçõesincluindo prazos falsos para alteração de cédulas e deepfakes políticos. xAI também Lançada Grokipédiaos pesquisadores descobriram que é legítimo racismo científicoceticismo em relação ao VIH/SIDA e conspirações de vacinas.
Além de interromper imediatamente a implantação do Grok pelo governo federal, a carta também pede ao OMB que investigue formalmente as falhas de segurança do Grok e se foram implementados processos de supervisão adequados para o chatbot. Também exige que a agência esclareça publicamente se Grok foi avaliado como cumprindo a ordem executiva de Trump, que exige que os LLMs sejam neutros e que procurem a verdade, e se cumpre os padrões de mitigação de risco do OMB.
“A administração precisa fazer uma pausa e reavaliar se Grok atende a esses padrões”, disse Branch.
O TechCrunch entrou em contato com xAI e OMB para comentar.


















