Nas últimas duas semanas, colisão Uma batalha entre o CEO da Anthropic, Dario Amodei, e o secretário de Defesa, Pete Hegseth, sobre o uso de IA pelos militares.

A Anthropic recusa-se a permitir que os seus modelos de IA sejam utilizados para vigilância em massa do público americano ou para armas totalmente autónomas que realizam ataques sem intervenção humana. Ao mesmo tempo, Hegseth argumentou que o Pentágono não deveria ser limitado pelas regras do fornecedor e que qualquer “uso legal” da tecnologia deveria ser permitido.

Na quinta-feira, Amodei sinalizou publicamente Apesar das ameaças de que a sua empresa possa ser designada como um risco para a cadeia de abastecimento, a Anthropic não recua. Mas à medida que o ciclo de notícias avança, vale a pena rever exactamente o que está em jogo nesta batalha.

No centro desta batalha está quem controla os poderosos sistemas de IA: as empresas que os constroem ou os governos que os querem implantar.

Com o que os Antrópicos estão preocupados?

Como mencionado acima, a Anthropic não quer que seus modelos de IA sejam usados ​​para vigilância em massa da população americana ou para armas autônomas que não envolvam humanos na determinação de alvos ou no disparo de tiros. Embora os empreiteiros de defesa tradicionais normalmente tenham pouco a dizer sobre a forma como os seus produtos são utilizados, a Anthropic tem argumentado desde a sua criação que a tecnologia de IA tem riscos únicos e, portanto, requer as suas próprias salvaguardas. Do ponto de vista da empresa, a questão é como manter estas salvaguardas quando a tecnologia é utilizada nas forças armadas.

As forças armadas dos EUA já dependem de sistemas altamente automatizados, alguns dos quais são mortais. Embora a decisão de usar força letal tenha sido historicamente deixada aos humanos, existem poucas restrições legais ao uso militar de armas autónomas. O Pentágono não proíbe explicitamente sistemas de armas totalmente autónomos. De acordo com Diretiva do Departamento de Defesa de 2023Os sistemas de IA podem selecionar e atacar alvos sem intervenção humana, desde que cumpram determinados padrões e sejam revistos por altos funcionários da defesa.

É exatamente isso que deixa a Anthropic tão desconfortável. A tecnologia militar é inerentemente secreta, por isso, mesmo que os militares dos EUA tomem medidas para automatizar a tomada de decisões letais, podemos não saber disso até que esteja operacional. E se você usar os modelos da Anthropic, isso pode ser considerado “uso legal”.

evento de crise tecnológica

Boston, Massachusetts
|
9 de junho de 2026

A posição da Anthropic não é que tais usos devam ser permanentemente retirados da mesa. Acontece que o modelo ainda não é poderoso o suficiente para suportá-los com segurança. Imagine um sistema autônomo identificando erroneamente um alvo, intensificando um conflito sem permissão humana ou tomando decisões mortais num piscar de olhos que ninguém pode reverter. Quando você coloca uma IA fraca no comando de suas armas, você acaba com uma máquina muito rápida e confiante que não é boa para tomar decisões de alto risco.

A IA também tem o poder de aumentar a vigilância legítima dos cidadãos americanos a um grau alarmante. De acordo com a legislação atual dos EUA, a vigilância dos cidadãos dos EUA já é possível através da recolha de mensagens de texto, e-mails e outras comunicações. A IA muda a equação ao permitir a detecção automatizada de padrões em grande escala, resolução de entidades em conjuntos de dados, pontuação preditiva de risco e análise comportamental contínua.

O que o Pentágono quer?

O argumento do Pentágono é que deveria ser capaz de implantar a tecnologia da Antrópico para qualquer uso legal que considere necessário, em vez de ser limitado pelas políticas internas da Antrópico em relação a coisas como armas autónomas e vigilância.

Mais especificamente, o secretário Hegseth argumentou que o Departamento de Defesa não deveria ser limitado pelas regulamentações dos fornecedores e estaria comprometido com o “uso legal” da tecnologia.

Sean Parnell, porta-voz chefe do Pentágono, disse: Postagem X de quinta-feira O ministério disse que não tem interesse em realizar vigilância doméstica em grande escala ou em implantar armas autônomas.

“Isso é o que pedimos: permitir que o Departamento de Defesa use modelos antrópicos para qualquer propósito legal”, disse Parnell. “Este é um pedido simples e de bom senso para evitar que a Anthropic comprometa potencialmente operações militares críticas e coloque em perigo os combatentes da nossa nação. Não permitiremos que nenhuma empresa dite os termos de como as decisões operacionais são tomadas.”

Ele acrescentou que a Anthropic deve tomar uma decisão até às 17h01. ET na sexta-feira. “Caso contrário, encerraremos nossa parceria com a Anthropic e veremos isso como um risco na cadeia de suprimentos para a Dow”, disse ele.

Apesar da posição do Pentágono de que não deveria ser limitado por políticas de uso corporativo, as preocupações do Secretário Hegseth sobre o Antrópico pareciam por vezes estar relacionadas com queixas culturais. em Palestras realizadas nos escritórios da SpaceX e xAI em janeiroHegseth criticou “acordei a IA” em seu discurso, que alguns viram como um prelúdio para uma rivalidade com a Anthropic.

“A IA do Departamento de Guerra não vai acordar”, disse Hegseth. “Estamos construindo armas e sistemas para a guerra, não chatbots para salas de professores da Ivy League.”

E agora?

O Pentágono está a ameaçar declarar a Antrópico um “risco da cadeia de abastecimento” (efetivamente colocando a Antrópico na lista negra de fazer negócios com o governo) ou invocar a Lei de Produção de Defesa (DPA) para forçar a empresa a ajustar os seus modelos às necessidades militares. Hegseth deu à Anthropic tempo para responder até sexta-feira às 17h01. Mas com o prazo a aproximar-se, ninguém sabe se o Pentágono irá cumprir a sua ameaça.

Esta não é uma luta da qual qualquer um dos lados possa facilmente abandonar. Sachin Seth, capitalista de risco da Trousdale Ventures que se concentra em tecnologia de defesa, disse que o rótulo de risco da cadeia de suprimentos da Anthropic pode significar “apagar as luzes” para a empresa.

Mas se a Anthropic fosse retirada do Departamento de Defesa, isso poderia se tornar uma questão de segurança nacional, disse ele.

“[O departamento]terá que esperar de seis a 12 meses para que o OpenAI ou o xAI se atualizem”, disse Seth ao TechCrunch. “Então você pode ter até um ano e eles podem acabar usando o segundo ou terceiro melhor modelo em vez do melhor modelo.”

É justo dizer que o xAI está classificado, preparando-se para substituir o Antrópico e considerando a propriedade A retórica de Elon Musk A empresa afirma que não tem problemas em dar ao Pentágono controle total sobre sua tecnologia. recente relatório Isso mostra que a OpenAI pode seguir a mesma linha vermelha da Antrópica.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui