Modelos generativos de IA, como o GPT-4 da OpenAI, são capazes de raciocínio complexo e podem produzir texto semelhante ao humano. A IA também pode criar imagens e vídeos falsos incrivelmente realistas, conhecidos como deepfakes, que têm o potencial de minar a confiança na mídia e atrapalhar as eleições. Por exemplo, vídeos deepfake de figuras públicas poderiam ser usados ​​para espalhar desinformação, gerando confusão e desconfiança.

A desinformação gerada pela IA também poderia ser usada para manipular os mercados financeiros ou incitar a agitação social. A parte perturbadora é que ninguém sabe exatamente o que vem a seguir. Estas tecnologias abrem portas à inovação – mas sem regulamentação adequada, as ferramentas de IA podem ser mal utilizadas de formas difíceis de prever ou controlar.

Os métodos tradicionais de teste e regulação de software são insuficientes quando se trata de ferramentas generativas de IA que podem criar imagens ou vídeos artificiais. Esses sistemas evoluem de maneiras que nem mesmo seus criadores conseguem prever totalmente, especialmente depois de serem treinados em grandes quantidades de dados provenientes de interações com milhões de pessoas, como no caso do ChatGPT.

O SB 1047 procurou abordar esta preocupação exigindo que as empresas implementassem “interruptores de interrupção” no seu software de IA que pudessem desativar a tecnologia em caso de problema. A lei também exigiria que criassem planos de segurança detalhados para qualquer projeto de IA com um orçamento de mais de 100 milhões de dólares (132 milhões de dólares).

Os críticos disseram que o projeto de lei era muito amplo, o que significa que poderia afetar projetos ainda de menor risco. Mas o seu principal objectivo era estabelecer protecções básicas numa indústria que está, sem dúvida, a evoluir mais rapidamente do que os legisladores conseguem acompanhar.

Califórnia como líder global

O que a Califórnia decidir pode afetar o mundo. Como líder tecnológico global, a abordagem do Estado à regulamentação da IA ​​poderia estabelecer um padrão para outros países, como fez no passado. Por exemplo, a liderança da Califórnia na definição de padrões rigorosos de emissões de veículos através da Lei de Privacidade do Consumidor da Califórnia, e a sua regulamentação inicial de automóveis autónomos, influenciou outros estados e países a adoptarem medidas semelhantes.

Mas ao vetar o SB 1047, a Califórnia pode ter enviado uma mensagem de que não está preparada para liderar a regulamentação da IA. Isto poderia deixar espaço para outros países intervirem – países que podem não se importar tanto como os EUA com a ética e a segurança pública.

Source link