SA Coreia do Sul lançou um esforço para regulamentar a IA, introduzindo uma das leis mais abrangentes do mundo que poderia servir de modelo para outros países, mas a nova lei já enfrentou oposição.
As leis, que obrigariam as empresas a rotular o conteúdo gerado pela IA, foram criticadas por startups tecnológicas locais, que dizem que vão longe demais, e por grupos da sociedade civil, que dizem que não vão longe o suficiente.
A Lei Básica de IA, que entrou em vigor na quinta-feira da semana passada, surge em meio a Crescente inquietação global com a mídia criada artificialmente e tomada de decisão automatizada, por ex. Os governos lutam para acompanhar o ritmo Com tecnologias em rápido crescimento.
A lei obrigará as empresas que prestam serviços de IA a:
-
Adicione marcas d’água digitais invisíveis a resultados claramente artificiais, como desenhos animados ou obras de arte. Para deepfakes realistas, são necessários rótulos visíveis.
-
“IA de alto impacto”, que inclui sistemas usados diagnóstico médicoPara a colocação e aprovação de empréstimos, os operadores terão de realizar avaliações de risco e documentar a forma como as decisões são tomadas. O sistema pode estar fora de alcance se um humano tomar a decisão final.
-
Relatórios de segurança serão necessários para modelos de IA extremamente poderosos, mas o padrão foi tão alto que as autoridades governamentais admitem que nenhum modelo em todo o mundo o atenda atualmente.
As empresas que violarem as regras enfrentam multas de até 30 milhões de won (£ 15.000), mas o governo prometeu um período de carência de pelo menos um ano antes que as multas sejam impostas.
Acredita-se que a lei seja a “primeira do mundo” a ser totalmente implementada por um país e é fundamental para a ambição da Coreia do Sul de se tornar uma das três principais potências mundiais de IA, ao lado dos EUA e da China. Autoridades do governo dizem que a lei está 80-90% focada em promover a indústria, em vez de restringi-la.
Alice Oh, professora de ciência da computação no Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST), disse que embora a lei não fosse perfeita, sua intenção era desenvolver sem sufocar a inovação. No entanto uma pesquisa Em dezembro, a Startup Alliance descobriu que 98% das startups de IA não estavam prontas para conformidade. Seu codiretor, Lim Jung-wook, disse que a decepção foi generalizada. “Há um pouco de ressentimento”, disse ele. “Por que temos que ser os primeiros a fazer isso?”
As empresas devem determinar por si próprias se os seus sistemas se qualificam como IA de alto impacto, um processo que os críticos dizem ser demorado e criar incerteza.
Alertam também para o desequilíbrio competitivo: todas as empresas coreanas enfrentam regulamentação, independentemente da sua dimensão, enquanto apenas as empresas estrangeiras que cumprem determinados limites – como a Google e a OpenAI – devem cumpri-las.
O impulso para a regulamentação desenvolveu-se num contexto interno singularmente carregado que deixou grupos da sociedade civil preocupados com o facto de a lei não ir suficientemente longe.
contas da Coreia do Sul De acordo com um relatório de 2023 da empresa de proteção de identidade Security Hero, com sede nos EUA, os deepfakes representam 53% de todas as vítimas globais de pornografia. Uma investigação em agosto de 2024 Enorme rede de salas de chat do Telegram exposta Criação e distribuição de imagens sexuais de mulheres e meninas geradas por IA, prenunciando fraude Que mais tarde se espalharia pelo chatbot Grok de Elon Musk.
No entanto, as origens da lei são anteriores a esta crise, com o primeiro projecto de lei relacionado com a IA a ser apresentado no Parlamento em Julho de 2020. Foi repetidamente paralisado devido a disposições que foram acusadas de dar prioridade aos interesses da indústria em detrimento da segurança civil.
Grupos da sociedade civil afirmam que a nova lei oferece proteção limitada às pessoas prejudicadas pelos sistemas de IA.
Quatro organizações, incluindo Minbyun, um grupo de advogados de direitos humanos, emitiram uma declaração conjunta no dia seguinte à sua implementação, argumentando que a lei quase não contém disposições para proteger os cidadãos dos riscos da IA.
Os grupos observaram que, embora a lei estabeleça proteções para “utilizadores”, esses utilizadores eram hospitais, empresas financeiras e instituições públicas que utilizam sistemas de IA, e não pessoas afetadas pela IA. Argumentaram que a lei não estabelecia quaisquer sistemas de IA proibidos e que a isenção para a “participação humana” criava lacunas significativas.
Comissão de Direitos Humanos do país criticou O decreto de aplicação esclarece a falta de definições claras de IA de alto impacto, observando que aqueles com maior probabilidade de sofrer violações de direitos residem em pontos cegos regulatórios.
Num comunicado, o Ministério da Ciência e TIC disse esperar que a lei “elimine a incerteza jurídica” e crie “um ecossistema doméstico de IA saudável e seguro”, acrescentando que continuará a clarificar as regras através de directrizes revistas.
Especialistas disseram que a Coreia do Sul escolheu deliberadamente um caminho diferente de outras jurisdições.
Ao contrário do modelo regulatório estrito baseado no risco da UE, da abordagem amplamente sectorial e orientada para o mercado dos EUA e da Grã-Bretanha, ou da combinação da China de política industrial liderada pelo Estado e regulamentação detalhada específica de serviços, a Coreia do Sul optou por um quadro mais flexível e baseado em princípios, disse Melissa Hyesun Yoon, professora de direito na Universidade de Hanyang, especializada em governação de IA.
Esta abordagem centra-se no que Yoon descreve como “promoção e regulamentação baseada na fé”.
“A estrutura da Coreia servirá como um ponto de referência útil nas discussões globais sobre governança de IA”, disse ele.


















