novoVocê pode ouvir os artigos da Fox News agora!
Uma disputa decorrente de questões sobre o uso de modelos antrópicos pela empresa de IA durante uma operação dos EUA visando o líder venezuelano Nicolás Maduro A parceria da empresa provocou uma revisão do Pentágono, com altos funcionários expressando preocupação de que a Anthropic possa representar um suposto “risco na cadeia de abastecimento”.
Axios relatou pela primeira vez a crescente tensão entre os dois o pentágono e Anthropic, empresa de tecnologia conhecida por sua ênfase na segurança da IA
A Antrópico ganhou um contrato de US$ 200 milhões com o Pentágono em julho de 2025.
Seu modelo de IA, Claude, foi o primeiro modelo a ser levado para redes hierárquicas.
Agora, “o relacionamento do Departamento de Guerra com a Anthropic está sendo revisto”, disse o porta-voz do Pentágono, Sean Parnell, à Fox News Digital.
“Nossa nação precisa que nossos parceiros estejam dispostos a ajudar nossos combatentes em qualquer luta”.

O Pentágono está a rever a Antropologia como um alegado “risco da cadeia de abastecimento”, liderado por Dario Amodi acima. (Priyanshu Singh/Reuters)
De acordo com um alto funcionário do governo, as tensões aumentaram quando a Anthropic perguntou se a nuvem foi usada para a operação de captura de Maduro, “o que indica uma preocupação real em todo o Departamento de Guerra de que eles possam não aprová-la”.
“Dado o comportamento da Anthropic, muitos altos funcionários do DoW começaram a ver a sua cadeia de abastecimento como um risco”, disse um alto funcionário do Departamento de Guerra. “Podemos exigir que todos os nossos fornecedores e contratados certifiquem que não usam nenhum modelo antropomórfico”.
As autoridades não entraram em detalhes sobre quando ou a quem a Antrópica fez a investigação.
A Anthropic levantou questões com um executivo da Palantir, sua parceira no acordo com o Pentágono, informou a Axios, citando um alto funcionário do governo.
Palantir não foi encontrado imediatamente para comentar.
Os antropólogos contestaram esse caráter. Um porta-voz disse que a empresa “não discutiu o uso de Claude para operações específicas com o Departamento de Guerra” e não discute tais assuntos “fora de discussões regulares sobre questões estritamente técnicas” com parceiros da indústria.
O porta-voz acrescentou que as conversas da Anthropic com o Pentágono “se concentraram num conjunto específico de questões de política de utilização – nomeadamente, as nossas limitações estritas em torno de armas totalmente autónomas e extensa vigilância doméstica – nenhuma das quais é relevante para as operações actuais”.

Os militares dos EUA supostamente usaram a ferramenta de IA da Anthropic, Claude, durante a operação para capturar o líder venezuelano Nicolas Maduro. (Kurt “Cyberguy” Knutson)

De acordo com um alto funcionário do governo, as tensões aumentaram quando a Anthropic perguntou se a nuvem foi usada para a operação de captura de Maduro, “o que indica uma preocupação real em todo o Departamento de Guerra de que eles possam não aprová-la”. (Adam Gray/Reuters)
As chamadas ‘armas sônicas’ foram realmente usadas na Venezuela
“Estamos tendo conversas produtivas com o DoW, de boa fé, sobre como continuar esse trabalho e resolver essas questões complexas”, disse o porta-voz.
Funcionários do Pentágono, no entanto, negaram que as restrições à vigilância em massa ou a armas totalmente autónomas estejam no centro da actual disputa.
O Pentágono está a pressionar as principais empresas de IA a autorizarem as suas ferramentas para “todos os fins legais”, para garantir que os modelos comerciais possam ser implementados em ambientes operacionais sensíveis sem restrições impostas pela empresa.
Um alto funcionário do Departamento de Guerra disse que outras empresas líderes de IA estão “trabalhando de boa fé com o Pentágono” para garantir que seus modelos possam ser usados para todos os fins legítimos.
“O ChatGPT da OpenAI, o Gemini do Google e o Grok da xAI concordaram com isso nos sistemas não confidenciais dos militares e já concordaram com todos os sistemas, e esperamos que o resto das empresas cheguem lá em ambientes confidenciais em um futuro próximo”, disse o funcionário.
A forma como esta disputa será resolvida poderá moldar futuros contratos de IA de defesa. Se o departamento insistir no acesso irrestrito para utilizações militares legítimas, as empresas poderão enfrentar pressão para reforçar ou repensar as salvaguardas internas quando trabalharem com clientes de segurança nacional.
Por outro lado, a resistência das empresas às políticas centradas na segurança realça a crescente fricção na intersecção entre a segurança nacional e a governação corporativa da IA — uma tensão cada vez mais visível à medida que os sistemas fronteiriços de IA são integrados nas operações de defesa.
Nem a Antrópica nem o Pentágono confirmaram Claude foi usado em Maduro Sistemas avançados de IA, como a Operação Claude, são projetados para fazer algo que os analistas humanos enfrentam sob pressão de tempo: digerir grandes quantidades de dados em segundos.
Numa operação estrangeira de alto risco, isto pode significar resolver rapidamente as comunicações interceptadas, resumir relatórios de inteligência, assinalar anomalias em imagens de satélite ou cruzar referências de registos de viagens e dados financeiros para confirmar a localização de um alvo. Em vez de vasculhar centenas de páginas de informação bruta, os planeadores podem pedir ao sistema que revele os detalhes mais relevantes e identifique potenciais pontos cegos.
Clique aqui para baixar o aplicativo Fox News
Os modelos de IA podem ajudar os planejadores de guerra a percorrer os cenários – e se um comboio for redirecionado, se o clima mudar ou se um alvo se mover inesperadamente. Ao sintetizar rapidamente dados logísticos, informações do terreno e padrões adversários conhecidos, o sistema pode apresentar aos comandantes opções e riscos quase em tempo real.
O debate sobre armas totalmente autónomas – sistemas capazes de selecionar e atacar alvos sem a participação de decisores humanos – tornou-se um dos tópicos mais controversos no desenvolvimento da IA militar. Os proponentes argumentam que tais sistemas podem reagir mais rapidamente do que os humanos em combates de alta velocidade. Os críticos alertam que a remoção do julgamento humano Decisão fatal Se um dispositivo cometer um erro fatal, isso levantará profundas preocupações legais e de responsabilidade.


















