antrópico Disse Na quinta-feira, não pôde cumprir “em sã consciência” a exigência do Pentágono de remover as precauções de segurança dos seus modelos de inteligência artificial e de dar aos militares dos EUA acesso irrestrito às suas capacidades de IA.

O Departamento de Defesa ameaçou cancelar o contrato de US$ 200 milhões e considerar a Anthropic um “risco da cadeia de suprimentos”, uma designação com sérias implicações financeiras, se a empresa não atendesse ao pedido até sexta-feira.

O Chefe do Executivo, Dario Amodei, disse num comunicado que as ameaças do Secretário da Defesa, Pete HegsethA posição da empresa não mudará e ele espera que Hegseth “reconsidere”.

“Nossa forte prioridade é continuar servindo o departamento e nossos combatentes – com as duas salvaguardas solicitadas em vigor”, disse ele. “Estamos prontos para continuar o nosso trabalho para apoiar a segurança nacional dos Estados Unidos”.

No centro do impasse entre o Departamento de Defesa e a antropologia está um desacordo sobre como a empresa de IA poderá usar seu produto, a nuvem. Pentágono pede antropização fechar a grade de segurança e permitir qualquer uso legítimo da nuvem, enquanto a Anthropic tem pressionado contra permitir que a nuvem seja usada em vigilância doméstica em larga escala ou em sistemas de armas autônomos que podem matar pessoas sem intervenção humana.

Após meses de controvérsia e pressão governamental, Hegseth supostamente dado Amodei terá de esperar até sexta-feira à noite para concordar com as exigências do Pentágono ou enfrentará ações punitivas.

A aceitação da Anthropic foi vista como um teste de alto nível para sua afirmação de ser a mais preocupada com a segurança das principais empresas de IA, bem como se alguma parte da indústria de IA se oporia aos desejos do governo de usar a tecnologia para fins controversos e potencialmente letais.

Na sua declaração, Amodei disse que a utilização de IA para armas autónomas e vigilância doméstica em grande escala “está para além dos limites do que a tecnologia atual pode fazer de forma segura e fiável”.

O Departamento de Defesa concedeu vários acordos lucrativos nos últimos anos a empresas de tecnologia para construir ou integrar tecnologia de IA nos sistemas militares dos EUA. Em julho do ano passado, a Anthropic era uma das várias grandes empresas de tecnologia, incluindo Google e OpenAI Obtenha contratos no valor de até US$ 200 milhões Com o Departamento de Defesa. O que diferenciou a Antrópica e intensificou o seu conflito com o Pentágono é que até esta semana era o único modelo de IA aprovado para utilização em sistemas confidenciais militares. (xAI de Elon Musk chegou a um acordo Também será usado em sistemas classificados a partir desta semana.)

A tecnologia da Anthropic já chegou tem sido usado para aplicações militaresIsso inclui a captura do líder venezuelano Nicolás Maduro pelos EUA no mês passado, destacando o uso crescente da IA ​​em conflitos. O crescimento da tecnologia de armas autónomas, como os drones que podem operar mesmo quando desligados de um operador humano, também aumentou preocupações de longa data sobre como a IA será utilizada em situações de vida ou morte.

A Anthropic e a Amodei são há muito tempo alguns dos mais proeminentes defensores da regulamentação e das precauções de segurança no desenvolvimento da IA, tendo mesmo assinado um acordo com os militares esta semana. uma política básica Não lance novos modelos de IA sem primeiro garantir a sua segurança. Amodei pede regulamentação e História da oposição política Diante de Donald Trump, a promessa de Hegseth de remover a “consciência” das forças armadas e de prosseguir políticas militares agressivas veio contra ele.

Se Hegseth cumprir sua ameaça de classificar a Antrópica como um risco para a cadeia de suprimentos, seria um grande golpe para a empresa de IA. A designação, que é comumente usada para adversários estrangeiros, restringiria outros vendedores que fazem negócios com ela Militares dos EUA Utilizando produtos da Antrópico.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui