SAN FRANCISCO – A antropia está impedindo as empresas e organizações chinesas de usar seus serviços de inteligência artificial, disse o gigante da tecnologia dos EUA ao endurecer as restrições às “regiões autoritárias”.

A startup conhecida por seus modelos Claude Chatbot e IA é avaliada em um aumento de US $ 183 bilhões (US $ 235,6 bilhões). Fortemente apoiados pela Amazon, ele se posiciona como focado na segurança da IA ​​e no desenvolvimento responsável.

Empresas com sede na China, assim como em outros países, incluindo Rússia, Coréia do Norte e Irã, já não conseguiram acessar os serviços comerciais da Anthrópica por preocupações legais e de segurança.

Apesar das restrições, alguns grupos “continuam acessando nossos serviços de várias maneiras, como através de subsidiárias incorporadas em outros países”, disse a empresa dos EUA em comunicado datado de 5 de setembro.

Portanto, “esta atualização proíbe empresas ou organizações cujas estruturas de propriedade as sujeitam ao controle de jurisdições em que nossos produtos não são permitidos, como a China, independentemente de onde operam”, afirmou em comunicado.

“Empresas sujeitas a controle de regiões autoritárias como a China enfrentam requisitos legais que podem obrigar -os a compartilhar dados, cooperar com serviços de inteligência ou tomar outras ações que criam riscos de segurança nacional”.

A Anthrópica disse que a atualização de seus termos de serviço afetaria as entidades mais de 50 % de propriedade, direta ou indiretamente, por empresas baseadas em regiões não suportadas.

“A segurança do desenvolvimento da IA ​​requer compromisso coletivo de impedir seu uso indevido por adversários autoritários”, afirmou.

A Anthropic, com sede em São Francisco, foi fundada em 2021 por ex -executivos do Openai, o que faz o chatbot chatgpt.

Ele disse nesta semana que possui mais de 300.000 clientes comerciais e que o número de contas no ritmo de gerar mais de US $ 100.000 anualmente é quase sete vezes maior do que um ano atrás. AFP

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui