O presidente Donald Trump pediu na sexta-feira às agências federais dos EUA que suspendam seu uso. Claude AI da Antrópico A empresa recusou-se a dar permissão ao Pentágono para usá-lo para vigilância doméstica em massa ou para sistemas de armas totalmente autônomos.

presidente Postado Em sua plataforma Truth Social, ele ordenou que o governo federal “cessasse imediatamente” o uso das ferramentas da Anthropic e disse que agências governamentais como o Departamento de Defesa eliminariam seu uso gradualmente ao longo de um período de seis meses. Ele também denunciou a Anthropic como “esquerdistas radicais, bandidos”. A postagem sinalizou o último passo em um confronto entre a Antropic e o governo federal que se intensificou significativamente esta semana.

Claude é amplamente utilizado em todo o Departamento de Defesa, inclusive em sistemas classificados, mas a administração Trump está tentando usar a tecnologia para “qualquer propósito legal”. A Anthropic insistiu nos contratos existentes que a tecnologia não pode ser usada em sistemas autônomos de armas ofensivas sem vigilância em massa ou intervenção humana do público americano.

Distintivo CNET AI Atlas. Clique para ver mais

No início desta semana, o secretário de Defesa Pete Hegseth disse: O CEO da Antrópico, Dario Amodei, disse: Ele disse que usaria poderes raramente usados ​​para forçar a Anthropic a usar Claude para fins legítimos pelo Departamento de Defesa ou rotular a empresa como um risco na cadeia de suprimentos, colocando em risco seu uso pelo governo e empreiteiros de defesa. Hegseth deu à Anthropic um prazo de sexta-feira para cumprir.

O CEO da Antrópico, Dario Amodei, disse: declaração A empresa, que foi fundada com foco na segurança da IA, disse que era “incapaz, em sã consciência, de cumprir” um pedido para remover uma cláusula contratual que impediria Claude de ser usado para sistemas de armas totalmente autônomos ou vigilância doméstica.

leia mais: As câmeras Ring da Amazon se aprofundam na vigilância policial e governamental

Preocupações com IA e vigilância em massa

Amodei expressou preocupação pelo facto de a lei não ter acompanhado o potencial de vigilância em massa dos cidadãos americanos. O governo já pode adquirir informações como o histórico de navegação e a atividade pessoal dos americanos sem mandado, mas o advento da inteligência artificial aumenta ainda mais o risco. “A IA poderosa torna possível coletar esses dados dispersos e individualmente inócuos de forma automática e em escala para criar uma imagem abrangente da vida de todos”, escreveu ele.

Michael Pastor, reitor do programa de direito tecnológico da Faculdade de Direito de Nova York, disse em um e-mail que é comum no direito contratual as partes buscarem clareza nos termos. “A Anthropic está certa em analisar com atenção o que significa ‘para um propósito legal’”, disse ele. “A Antrópico teria justificativa para agitar a bandeira se o Pentágono não quiser revelar se usará a tecnologia da Antrópico para vigilância doméstica em massa.”

Claude da Antrópico é supostamente o sistema de IA mais amplamente usado nas forças armadas dos EUA. As alternativas podem incluir ferramentas da OpenAI, Google ou xAI de Elon Musk.

Memorando interno O Wall Street Journal informou Na sexta-feira, o CEO da OpenAI, Sam Altman, disse aos funcionários que a empresa tem as mesmas linhas vermelhas da Anthropic: nenhuma vigilância doméstica em massa ou armas ofensivas autônomas. Altman disse acreditar que essas proteções podem ser gerenciadas por meio de requisitos técnicos, como a exigência de que modelos sejam implantados na nuvem. (Divulgação: a empresa controladora da CNET, Ziff Davis, entrou com uma ação judicial contra a OpenAI em 2025, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de sistemas de IA.)

Funcionários do Google e OpenAI petição Apela à sua empresa para que apoie a Anthropic, que se recusa a permitir a utilização de modelos de IA para vigilância doméstica em massa ou sistemas de armas letais totalmente autónomos. A petição afirma que o Pentágono está “tentando dividir cada empresa com medo de que a outra ceda. Essa estratégia só funciona se ninguém souber a posição da outra”.

Tal como acontece com a tecnologia de consumo, os sistemas de inteligência artificial são amplamente adotados em ambientes governamentais e militares. As capacidades destas ferramentas melhoraram significativamente ao longo dos últimos anos e o ritmo da mudança não está a abrandar. A regulamentação e a supervisão da IA ​​não acompanharam o ritmo. A IA ampliou o seu dano potencial ao tornar a vigilância corporativa e governamental mais fácil e barata.

O pastor disse que a disputa pode ter implicações significativas na forma como os governos e as empresas de tecnologia podem influenciar-se mutuamente quando as suas opiniões sobre o uso apropriado da tecnologia entram em conflito. “Os humanos podem sentir que ceder aqui abre uma caixa de Pandora para Claude explorar”, diz ele.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui