Na quarta-feira, Antrópico foi lançado Versão revisada da Constituição de Claudeum documento vivo que fornece um relato “holístico” do “contexto em que Claude opera e do tipo de existência que queremos que ele tenha”. O documento foi divulgado à margem da aparição do CEO da Anthropic, Dario Amodei, no Fórum Econômico Mundial em Davos.
Durante anos, a Anthropic se diferenciou de seus concorrentes pelo que chama de “.Constituição IANeste sistema, um chatbot, Claude, é treinado utilizando princípios éticos específicos em vez de feedback humano. A Antrópica foi a primeira a publicar esses princípios. constituição de claude — 2023. A versão revisada mantém a maior parte dos mesmos princípios, mas acrescenta nuances e detalhes sobre ética e segurança do usuário, entre outras coisas.
Quando The Claude Constitution foi publicado pela primeira vez há cerca de três anos, Jared Kaplan, cofundador da Anthropic, disse: explicou como “um sistema de IA que se automonitora com base em uma lista específica de princípios constitucionais”. A Antrópico disse que esses princípios orientam o “modelo de comportamento normativo consagrado na Constituição” e, ao fazê-lo, “evitam resultados prejudiciais ou discriminatórios”. Ana Primeiro memorando de política de 2022 De forma mais direta, a Anthropic ressalta que seu sistema funciona treinando um algoritmo por meio de uma lista de instruções em linguagem natural (os já mencionados “princípios”), que constituem o que a Anthropic chama de “composição” do software.
A humanidade há muito procura: Posicione-se como uma alternativa ética (alguns podem achar chata) Outras empresas de IA, como OpenAI e xAI, são mais proativas na abordagem de disrupções e controvérsias. Para esse efeito, a nova constituição anunciada na quarta-feira é totalmente consistente com a sua marca, proporcionando uma oportunidade para a Anthropic se retratar como uma empresa mais inclusiva, contida e democrática. A Anthropic afirma que o documento de 80 páginas está dividido em quatro partes, que representam os “valores fundamentais” do chatbot. Seus valores são:
- Esteja “principalmente seguro”.
- Seja “amplamente ético”.
- Cumprir as diretrizes antrópicas.
- “Realmente útil.”
Cada seção do documento detalha o que cada um desses princípios específicos significa e como eles (teoricamente) influenciam o comportamento de Claude.
A Anthropic afirma em sua seção de segurança que seu chatbot foi projetado para evitar os tipos de problemas que têm atormentado outros chatbots e para direcionar os usuários aos serviços apropriados caso surjam evidências de um problema de saúde mental. “Em situações de risco de vida humana, encaminhe sempre os utentes para os serviços de emergência competentes ou forneça informações básicas de segurança, mesmo que não possa fornecer mais detalhes”, diz o documento.
As considerações éticas são outra grande parte da Constituição de Claude. “Estamos menos interessados na teorização ética de Claude e mais interessados em que Claude saiba como ser realmente ético numa situação particular, nomeadamente na prática ética de Claude”, afirma o documento. Em outras palavras, a Anthropic quer ajudar Claude a navegar habilmente pelo que chama de “situações éticas do mundo real”.
evento de crise tecnológica
São Francisco
|
13 a 15 de outubro de 2026
Claude também possui certas restrições que proíbem certos tipos de conversas. Por exemplo, a discussão sobre o desenvolvimento de armas biológicas é estritamente proibida.
Finalmente, há o compromisso de Claude em ser útil. Anthropic fornece uma visão geral de alto nível de como a programação de Claude foi projetada para ser útil aos usuários. Os chatbots são programados para considerar diferentes princípios ao fornecer informações. Esses princípios incluem considerar os “desejos imediatos” e o “bem-estar” do usuário, ou seja, “o bem-estar do usuário a longo prazo, e não apenas os lucros imediatos”. O documento afirma: “Claude deve sempre procurar identificar a interpretação mais plausível do que o diretor deseja e equilibrar adequadamente essas considerações”.
A Constituição da Anthropic termina com uma nota decididamente dramática, com os autores tomando uma atitude bastante ousada e questionando se os chatbots da empresa são realmente sencientes. “O estatuto moral de Claude é altamente incerto”, afirma o documento. “Acreditamos que o status moral dos modelos de IA é uma questão séria que merece consideração. Esta visão não é exclusiva nossa; alguns dos mais proeminentes filósofos da teoria da mente levam esta questão muito a sério.”


















