A Anthropic está resistindo à pressão do Pentágono para que as empresas de IA permitam que os militares dos EUA usem sua tecnologia para “qualquer propósito legal”. Novo relatório Axios.
O governo teria feito exigências semelhantes à OpenAI, Google e xAI. Um funcionário anônimo do governo Trump disse à Axios que uma dessas empresas concordou e as outras duas provavelmente mostraram alguma flexibilidade.
Os humanos, por outro lado, são supostamente os mais resistentes. Em resposta, o Pentágono aparentemente ameaçou cancelar um contrato de US$ 200 milhões com a empresa de IA.
Em janeiro, O Wall Street Journal informou Houve um desacordo significativo entre funcionários da Humanidade e do Departamento de Defesa sobre como o modelo Claude deveria ser usado. O WSJ então relatou: Claude foi usado em operações militares dos EUA O objetivo era prender Nicolás Maduro, então presidente da Venezuela.
A Anthropic não respondeu imediatamente ao pedido de comentários do TechCrunch.
Um porta-voz da empresa disse à Axios que a empresa “não discutiu o uso do Claude para operações específicas com o Departamento do Exército”, mas está “focada em questões específicas relativas à política de uso: armas totalmente autônomas e restrições severas à vigilância doméstica em massa”.


















