CháHá muitas coisas que a IA pode fazer. Ele pode organizar sua lista de compras e entreter seus filhos criando uma história especial para eles dormirem quando estiverem se rebelando. Pode torná-lo mais eficiente no trabalho e ajudar o nosso governo a trabalhar de forma mais eficaz.

O que está menos escrito e sobre o que precisamos de gritar mais alto agora são os riscos inerentes à militarização da IA. Nos últimos três meses, a Casa Branca de Donald Trump terá utilizado a IA duas vezes para efectuar mudanças de regime, ou – no caso mais recente no Irão – para chegar o mais perto possível dela, e deixou que os iranianos comuns terminassem o trabalho.

Primeiro, o modelo Cloud AI da Anthropic – que a maioria das pessoas usa como uma alternativa um pouco mais sensata ao ChatGPT – foi supostamente usado Ambos planearam e executaram um plano para expulsar Nicolás Maduro do seu complexo na Venezuela, mas não está claro como o modelo foi utilizado em detalhe. Então, neste fim de semana, aprenderemos Ferramentas de IA reutilizadasAnalisar a inteligência que ajudou a determinar a enorme quantidade de mísseis disparados contra o Irão, causando enormes danos. Obviamente para identificar alvos E executando a simulação.

É difícil exagerar a importância de ambos os momentos. A IA tem sido utilizada no planeamento e execução de operações militares, causando um número desconhecido de vítimas e caos no Médio Oriente.

Se isso faz você se sentir desconfortável, você não está sozinho. O CEO da Anthropic, Dario Amodei, se encontrou em uma situação muito ruim. Disputa pública com o presidente dos EUA Foi então que ele se recusou a flexibilizar duas “linhas vermelhas” para a nuvem: que ela não deveria ser usada para vigilância doméstica em grande escala, nem para criar armas totalmente autônomas que selecionassem e atacassem alvos sem controle humano significativo. No entanto, a OpenAI tomou medidas imediatas e assinou um acordo com o Pentágono afirma que os termos do seu acordo Isso significa que Na verdade, tem uma segurança mais forte do que a Antrópica queria.

Independentemente das cláusulas específicas do contrato, vale a pena repetir: uma ferramenta que começou a vida pública como uma interface de chat para resumir e-mails e ajudar você a escrever uma carta de apresentação agora está em algum lugar ao longo da cadeia que transforma informações em violência.

Costumava ser: “Quem deve controlar a IA e o que acontece se ela tiver uso militar?” Essas perguntas foram feitas. Em essência, houve debate entre acadêmicos em painéis. Havia preocupações, mas pareciam distantes porque não foram concretizadas. Quando Maduro foi cercado por forças especiais em janeiro e bombas começaram a cair IrãAparentemente, com a ajuda da IA, esse cálculo mudou.

O princípio básico do conflito armado é manter armas grandes e assustadoras, mas nunca usá-las. Eles são para prevenção. O princípio da destruição mutuamente assegurada significava que as pessoas estavam relutantes em apertar o botão da bomba atômica. (Preocupante, Dicas iniciais de cenários de jogos de guerra Os tomadores de decisão em IA estão muito satisfeitos com as armas nucleares.)

Isso não é mais uma desculpa. Mais países utilizarão a IA no seu planeamento e operações militares – bem, porque tem demonstrado ser eficaz, embora haja questões éticas óbvias se a IA for utilizada para tomar decisões militares. Quando os historiadores militares olham para o que aconteceu nos últimos meses, é fácil vê-los a pensar que usar a IA desta forma seria semelhante às armas nucleares lançadas sobre o Japão: marcando um momento em que primeiro uma coisa ficou clara e depois outra não ficou clara.

O CEO da Anthropic, Dario Amodei, fala em Davos em janeiro. Fotografia: Denis Baliboz/Reuters

Então, o que podemos fazer sobre isso? Um pouco. Deveríamos ter imposto uma proibição total do uso de IA militar. Estamos nos afastando de Demis Hassabis há mais de uma década desde tomou uma posição de princípio E disse que venderia sua empresa, DeepMind, ao Google somente se este concordasse em não permitir o uso militar da tecnologia. No ano passado, a empresa, agora chamada Alphabet, fechou silenciosamente abandonei minha promessa Que não usará IA para armas. E as ações de Trump abriram um buraco nesta ideia.

Mas agora a comunidade internacional precisa de trabalhar arduamente para tirar Trump do abismo. Os aliados deveriam pressionar a Casa Branca de Trump não só para que seja responsável na sua utilização militar da IA, mas para que aceite restrições vinculativas. Isto deve incluir compromissos internacionais, normas de contratação transparentes e uma supervisão significativa, aos quais outros devem aderir, em vez de tratar a ética como um travão à acção. Porque se as forças armadas mais poderosas do mundo normalizarem os modelos de IA de consumo como parte de campanhas de mudança de regime, a forma como olhamos para a IA: estaremos num mundo totalmente novo e mais perigoso.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui