antrópico Disse Na quinta-feira, não pôde cumprir “em sã consciência” a exigência do Pentágono de remover as precauções de segurança dos seus modelos de inteligência artificial e de dar aos militares dos EUA acesso irrestrito às suas capacidades de IA.
O Departamento de Defesa ameaçou cancelar o contrato de US$ 200 milhões e considerar a Anthropic um “risco da cadeia de suprimentos”, uma designação com sérias implicações financeiras, se a empresa não atendesse ao pedido até sexta-feira.
O Chefe do Executivo, Dario Amodei, disse num comunicado que as ameaças do Secretário da Defesa, Pete HegsethA posição da empresa não mudará e ele espera que Hegseth “reconsidere”.
“Nossa forte prioridade é continuar servindo o departamento e nossos combatentes – com as duas salvaguardas solicitadas em vigor”, disse ele. “Estamos prontos para continuar o nosso trabalho para apoiar a segurança nacional dos Estados Unidos”.
No centro do impasse entre o Departamento de Defesa e a antropologia está um desacordo sobre como a empresa de IA poderá usar seu produto, a nuvem. Pentágono pede antropização fechar a grade de segurança e permitir qualquer uso legítimo da nuvem, enquanto a Anthropic tem pressionado contra permitir que a nuvem seja usada em vigilância doméstica em larga escala ou em sistemas de armas autônomos que podem matar pessoas sem intervenção humana.
Após meses de controvérsia e pressão governamental, Hegseth supostamente dado Amodei terá de esperar até sexta-feira à noite para concordar com as exigências do Pentágono ou enfrentará ações punitivas.
A aceitação da Anthropic foi vista como um teste de alto nível para sua afirmação de ser a mais preocupada com a segurança das principais empresas de IA, bem como se alguma parte da indústria de IA se oporia aos desejos do governo de usar a tecnologia para fins controversos e potencialmente letais.
Na sua declaração, Amodei disse que a utilização de IA para armas autónomas e vigilância doméstica em grande escala “está para além dos limites do que a tecnologia atual pode fazer de forma segura e fiável”.
O Departamento de Defesa concedeu vários acordos lucrativos nos últimos anos a empresas de tecnologia para construir ou integrar tecnologia de IA nos sistemas militares dos EUA. Em julho do ano passado, a Anthropic era uma das várias grandes empresas de tecnologia, incluindo Google e OpenAI Obtenha contratos no valor de até US$ 200 milhões Com o Departamento de Defesa. O que diferenciou a Antrópica e intensificou o seu conflito com o Pentágono é que até esta semana era o único modelo de IA aprovado para utilização em sistemas confidenciais militares. (xAI de Elon Musk chegou a um acordo Também será usado em sistemas classificados a partir desta semana.)
A tecnologia da Anthropic já chegou tem sido usado para aplicações militaresIsso inclui a captura do líder venezuelano Nicolás Maduro pelos EUA no mês passado, destacando o uso crescente da IA em conflitos. O crescimento da tecnologia de armas autónomas, como os drones que podem operar mesmo quando desligados de um operador humano, também aumentou preocupações de longa data sobre como a IA será utilizada em situações de vida ou morte.
A Anthropic e a Amodei são há muito tempo alguns dos mais proeminentes defensores da regulamentação e das precauções de segurança no desenvolvimento da IA, tendo mesmo assinado um acordo com os militares esta semana. uma política básica Não lance novos modelos de IA sem primeiro garantir a sua segurança. Amodei pede regulamentação e História da oposição política Diante de Donald Trump, a promessa de Hegseth de remover a “consciência” das forças armadas e de prosseguir políticas militares agressivas veio contra ele.
Se Hegseth cumprir sua ameaça de classificar a Antrópica como um risco para a cadeia de suprimentos, seria um grande golpe para a empresa de IA. A designação, que é comumente usada para adversários estrangeiros, restringiria outros vendedores que fazem negócios com ela Militares dos EUA Utilizando produtos da Antrópico.


















