Como o próprio CEO Sam Altman admitiu, o acordo da OpenAI com o Departamento de Defesa é “definitivamente apressado” e “a ótica não parece boa”.

traseira As negociações entre a Antropic e o Departamento de Defesa foram interrompidas. Na sexta-feira, o presidente Donald Trump instruiu as agências federais a pararem de usar a tecnologia da Antrópica. Período de transição de 6 mesesO secretário de Defesa, Pete Hegseth, disse que estava designando as empresas de IA como um risco na cadeia de suprimentos.

depois disso, OpenAI anunciado em breve Afirmou ter chegado a um acordo único para implantar o modelo em um ambiente classificado. A Anthropic disse que traça um limite quando se trata de armas totalmente autônomas e do uso de sua tecnologia na vigilância doméstica em massa, e Altman disse que o mesmo limite existe para OpenAI, mas havia algumas questões óbvias. “A OpenAI foi honesta sobre suas medidas de segurança?” Por que a Antrópica conseguiu chegar a um acordo quando não conseguiu?

Assim, embora os executivos da OpenAI defendessem o acordo nas redes sociais, a empresa também Uma postagem no blog descrevendo essa abordagem.

Na verdade, a postagem lista três áreas onde os modelos da OpenAI não podem ser usados: vigilância doméstica em massa, sistemas de armas autônomos e “decisões automatizadas de alto risco (como sistemas como crédito social)”.

A empresa disse que, em contraste com outras empresas de IA que “reduziram ou removeram barreiras de segurança e dependem principalmente de políticas de uso como a principal medida de segurança em implantações de segurança nacional”, o contrato da OpenAI protege as linhas vermelhas “através de uma abordagem mais ampla e em camadas”.

“Mantemos total discrição sobre nossa pilha de segurança, implantamos-a através da nuvem, temos pessoal autorizado da OpenAI informado e temos fortes proteções contratuais”, disse o blog. “Tudo isso se soma às já fortes proteções da lei dos EUA.”

evento de crise tecnológica

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

A empresa acrescentou: “Não sabemos por que a Anthropic não chegou a este acordo, mas esperamos que a Anthropic e mais laboratórios o considerem”.

Depois que a postagem for publicada, Mike Masnick da Techdirt argumentou: Isto porque o acordo estabelece que “a vigilância doméstica é absolutamente permitida” e que a recolha de dados pessoais está sujeita às seguintes normas. Ordem Executiva 12333 (juntamente com muitas outras leis). Masnick descreveu a ordem como “uma forma de a NSA encobrir a sua vigilância doméstica através de escutas telefónicas *fora dos Estados Unidos* e capturando comunicações, mesmo que contenham informações de ou sobre americanos”.

em Postagem no LinkedInKatrina Mulligan, Diretora de Parcerias de Segurança Nacional da OpenAI, argumentou que grande parte do debate sobre a linguagem contratual pressupõe que “a única coisa que existe entre o povo americano e o uso da IA ​​para vigilância doméstica em massa e armas autônomas é uma cláusula política de uso único em um único contrato com o Departamento do Exército”.

“Isso não vai funcionar de uma forma ou de outra”, disse Mulligan, acrescentando que “a arquitetura de implantação é mais importante do que a linguagem contratual (…) Ao limitar a implantação a APIs em nuvem, garantimos que nosso modelo não seja integrado diretamente em sistemas de armas, sensores ou outro hardware operacional”.

Altman também respondeu a perguntas sobre o acordo com X, dizendo: Admiti que estava com pressa. Isso resultou em uma enorme reação contra o OpenAI ( Claude da Anthropic ultrapassa ChatGPT da OpenAI na App Store da Apple Sábado). Então, por que fazer isso?

“Queríamos realmente acalmar a situação e achamos que o acordo oferecido era bom”, disse Altman. “Se o nosso julgamento estiver correto e isso levar a uma distensão entre o (Departamento do Exército) e a indústria, então a nossa empresa parecerá um génio e uma empresa que não mediu esforços para ajudar a indústria. Caso contrário, a nossa empresa (…) continuará a ser caracterizada como precipitada e descuidada.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui