CEO da Anthropic, Dario Amodei emitiu um comunicado Terça-feira para “esclarecer as coisas” sobre o alinhamento da empresa com as políticas de IA da administração Trump, respondendo ao que ele chamou de “um aumento recente em afirmações imprecisas sobre a postura política da Antthropic”.

“A antropologia baseia-se num princípio simples: a IA deve ser uma força para o progresso humano, não uma ameaça”, escreveu Amodei. “Isso significa construir produtos que realmente funcionem, ser honesto sobre os riscos e benefícios e trabalhar com pessoas que levam a sério a questão de fazer isso da maneira certa.”

A resposta de Amodei foi então Inuyama da semana passada na Anthropic Palestrantes de líderes de IA e membros importantes da administração Trump, incluindo o czar da IA ​​David Sachs e o consultor sênior de políticas de IA da Casa Branca Shriram Krishnan — todos acusam os gigantes da IA ​​de alimentar o medo de prejudicar a indústria.

O primeiro golpe veio do saxofone. O cofundador da Anthropic, Jack Clark, disse: Suas esperanças e “medos apropriados” em relação à IA incluem que ela seja uma criatura poderosa, misteriosa e “um tanto imprevisível”, e não uma máquina confiável que possa ser facilmente aprendida e colocada em funcionamento.

saxofone resposta: “A Anthropic está implementando uma sofisticada estratégia de aquisição regulatória baseada no fomento do medo. A Anthropic é a principal responsável pelo frenesi regulatório estatal que está prejudicando o ecossistema de startups.”

Senador do estado da Califórnia, Scott Wiener, autor Projeto de lei de segurança de IA SB 53, defendidocondenou os “esforços do presidente Trump para proibir os estados de agir com base na IA sem promover proteções federais”. Sachs então dobrou suas afirmações, alegando que a Anthropic estava trabalhando com o Sr. Weiner para “impor iniciativas regulatórias de IA de esquerda”.

Seguiram-se comentários adicionais de defensores da anti-regulamentação, como Sunny Madra, COO da Groq. eu estou dizendo A Anthropic disse que estava “causando perturbações em toda a indústria” ao insistir em algumas salvaguardas de IA em vez de inovação livre.

evento de crise tecnológica

São Francisco
|
27 a 29 de outubro de 2025

Amodei disse em comunicado que acredita que a gestão do impacto social da IA ​​​​deve ser uma questão de “política sobre política” e que todos querem garantir que os Estados Unidos tenham liderança no desenvolvimento de IA e, ao mesmo tempo, construir tecnologia que beneficie os americanos. Ele defendeu o trabalho da Anthropic com a administração Trump em áreas-chave da política de IA, citando exemplos de quando ele flertou pessoalmente com o presidente.

Por exemplo, Amodei destacou o trabalho da Anthropic com o governo federal. Entregar Claude ao Governo Federal e um acordo de US$ 200 milhões entre a Anthropic e o Departamento de Defesa (a mudança de nome exigiria a aprovação do Congresso, mas Amodei o chamou de “Departamento do Exército”, ecoando a terminologia preferida de Trump). Ele também observou que a Anthropic elogiou publicamente o Plano de Ação de IA do presidente Trump e apoia seus esforços para expandir o fornecimento de energia para “vencer a corrida da IA”.

Apesar desta atitude cooperativa, a Anthropic tem enfrentado resistência dos seus pares por se afastar do consenso de Silicon Valley em certas questões políticas.

A empresa atraiu a ira das autoridades do Vale do Silício pela primeira vez quando Propõe uma proibição de 10 anos A disposição, que diz respeito à regulamentação da IA ​​a nível estatal, enfrentou oposição bipartidária generalizada.

Muitos no Vale do Silício, incluindo os líderes da OpenAI, argumentam que a regulamentação estatal da IA ​​desacelerará a indústria e entregará as rédeas à China. Amodei respondeu que o risco real é que os EUA continuem a carregar os poderosos chips de IA da Nvidia em data centers na China, e a Anthropic acrescentou: limite Ela vendeu seus serviços de IA para uma empresa controlada pela China, mesmo quando suas receitas foram afetadas.

“Existem produtos que não fabricamos e riscos que não queremos correr, mesmo que ganhemos dinheiro”, disse Amodei.

A Anthropic também caiu em desuso entre certos atores poderosos.Suporta SB 53 da Califórniaum simples projeto de lei de segurança que exigiria que os maiores desenvolvedores de IA publicassem protocolos de segurança para seus modelos Frontier. Amodei observou que o projeto de lei inclui uma exclusão para empresas com menos de US$ 500 milhões em receita bruta anual, o que isentaria a maioria das startups de encargos indevidos.

“Alguns sugeriram que podemos estar interessados ​​em prejudicar de alguma forma o ecossistema de startups”, escreveu Amodei, referindo-se à postagem de Sachs. “As startups são um dos nossos clientes mais importantes. Trabalhamos com dezenas de milhares de startups e fazemos parcerias com centenas de aceleradores e VCs. Claude está conduzindo toda uma nova geração de empresas nativas de IA e não faz sentido danificarmos esse ecossistema.”

Amodei disse em um comunicado que a empresa aumentou sua taxa de execução de US$ 1 bilhão para US$ 7 bilhões nos últimos nove meses, ao mesmo tempo em que “implanta IA de maneira ponderada e responsável”.

“A Antrópico está comprometida com o envolvimento construtivo em questões de políticas públicas. Se concordarmos, dizemos isso. Se discordarmos, oferecemos alternativas para consideração”, escreveu Amodei. “Continuaremos a ser honestos e diretos e a apoiar as políticas que acreditamos serem corretas. Os riscos desta tecnologia são grandes demais para serem feitos de outra forma.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui