CINGAPURA – Um escritório de advogados de Singapura está a tratar as violações da sua política de inteligência artificial generativa (GenAI) como um crime potencialmente dispensável, na sequência de um caso histórico do Tribunal Superior que condenou os advogados a pagar 800 dólares em custos pessoais por citarem casos de alucinação, ou casos que não existiram de facto e foram gerados pela IA.
As empresas abordadas pelo Business Times disseram que as violações das suas diretrizes de IA seriam tratadas como questões disciplinares graves, com consequências que vão desde a restrição do acesso às ferramentas até à rescisão.
Stephanie Yuen Thio, sócia-gerente da TSMP Law, disse que a chave para a política de IA do escritório é que os advogados devem continuar a cumprir suas responsabilidades profissionais.
“Como qualquer software que usamos, a IA é apenas uma ferramenta; é nossa responsabilidade garantir que o produto final seja preciso e relevante”, disse ela.
Os advogados que violarem esta política violam os termos do seu contrato de trabalho e estarão sujeitos às “consequências apropriadas”, acrescentou.
Na Withers KhattarWong, as violações das políticas de IA podem resultar em ações disciplinares que vão desde reciclagem e acesso limitado a ferramentas até sanções formais baseadas em recursos humanos e procedimentos de conformidade.
“O princípio é claro”, disse Chenthil Kumarasingam, líder regional da empresa para resolução de disputas na Ásia. “Os advogados permanecerão pessoalmente responsáveis por seu trabalho, independentemente de a IA ser usada ou não.”
Da mesma forma, Drew & Napier trata as violações de IA “como qualquer outra violação, com políticas robustas e potencial para ação disciplinar”, disse o diretor de tecnologia, Rakesh Kirpalani.
A resposta das empresas segue uma decisão do Tribunal Superior de 29 de setembro, na qual o secretário assistente Tan Yu Qing concluiu que os advogados dos demandantes agiram de forma “inadequada, irracional e negligente” ao citar autoridades fictícias geradas pela ferramenta GenAI em petições escritas.
O advogado dos demandantes, Lalwani Anil Mangan, da DL Law Corporation, inicialmente caracterizou o erro como “clerical” e “um erro tipográfico” na correspondência com o tribunal. Ele admitiu pela primeira vez, depois de ser questionado numa audiência em 22 de julho, que o incidente “não existiu”.
Este será provavelmente o primeiro caso em Singapura onde as alucinações de IA foram citadas como jurisprudência.
Lalwani revelou mais tarde que o advogado júnior estava usando um aplicativo de IA para gerar as citações, mas não conseguiu verificá-lo antes de apresentar a petição em nome de seu cliente.
O secretário assistente Tan ordenou que o réu pagasse pessoalmente US$ 800 em custas, além da taxa normal de registro, para compensar o tempo e as despesas desnecessárias incorridas como resultado da conduta inadequada do Sr.
Relativamente à questão da responsabilidade de supervisão destacada neste caso, a posição do escritório de advogados é que o advogado principal é totalmente responsável pelo resultado de todo o trabalho, mesmo que o trabalho assistido por IA seja inicialmente preparado por um funcionário júnior.
Na Withers KhattarWong, nosso escritório emprega um sistema de vigilância de dois níveis. Embora os advogados juniores possam usar as ferramentas GenAI para obter eficiência, os advogados seniores são responsáveis por validar os resultados e garantir a conformidade antes que qualquer coisa seja enviada ou compartilhada externamente.
A empresa também conduziu módulos de treinamento sobre os riscos de engenharia imediata, alucinações e citações fabricadas, e enfatizou que os advogados nunca devem presumir que o resultado está correto sem verificação independente, disse Kumarasingam.
O TSMP realiza reuniões semanais de equipe e mensais em toda a empresa para compartilhar experiências de uso de IA e problemas que surgem.
“Como a IA jurídica ainda está em seus estágios iniciais de desenvolvimento e implementação, acredito que a liderança responsável de escritórios de advocacia requer uma abordagem pragmática”, disse Yuen Tio.
Kirpalani disse que na Drew & Napier, os advogados são especificamente instruídos a revisar todo o trabalho da GenAI e explicar sua posição na prática. Espera-se também que esclareça o uso da IA, se solicitado.
Ele acrescentou que a exigência de apresentar documentos de múltiplas autoridades – os casos nos quais os advogados planejam confiar para arquivar – oferece uma oportunidade importante para verificar todas as citações.
A Allen & Gledhill construiu sob medida sua própria ferramenta de IA, A&GEL, com salvaguardas para reduzir o risco de alucinações, disse Stanley Lai, chefe de prática de propriedade intelectual e codiretor de prática de segurança cibernética e proteção de dados.
Durante o desenvolvimento, a empresa identificou mais de 100 casos potenciais de uso de IA e selecionou aqueles com maior impacto e maior chance de sucesso, ao mesmo tempo em que otimizou o resultado para facilitar a validação por advogados.
“Saber quando e como aproveitar a IA é uma habilidade em si”, diz Lai. “Esperamos que os advogados compreendam que, embora a IA possa melhorar os fluxos de trabalho existentes, ela não pode substituir o julgamento matizado, o raciocínio ético e as habilidades interpessoais que definem a prática jurídica eficaz.”
Yuen Tio disse: “O resultado final é este: as ferramentas legais de IA devem ser usadas da mesma forma que usaríamos o trabalho de um bom estagiário. Precisamos verificar nosso trabalho para garantir que nossas obrigações profissionais para com nossos clientes sejam cumpridas”.
“Confiar em artefatos de IA sem verificar é causar problemas”, acrescentou ela.
Horário comercial