NOVA YORK – O Sr. Jerome Dewald sentou -se com as pernas cruzadas e as mãos dobradas em seu colo em frente a um painel de juízes do estado de Nova York, prontos para argumentar por uma reversão da decisão de um tribunal inferior em sua disputa com um ex -empregador.

O tribunal permitiu que Dewald, que não é advogado e estava se representando, acompanhando seu argumento com uma apresentação em vídeo.

Quando o vídeo começou a ser reproduzido, mostrou um homem aparentemente mais jovem que os 74 anos do Sr. Dewald vestindo uma camisa azul de colarinho e um suéter bege e parado na frente do que parecia ser um fundo virtual borrado.

Alguns segundos depois do vídeo, um dos juízes, confuso com a imagem na tela, perguntou a Dewald se o homem era seu advogado.

“Eu gerei isso”, ele respondeu. “Isso não é uma pessoa real.”

O juiz, a juíza Sallie Manzanet-Daniels, do 1º Departamento Judicial da Divisão de Apelação, fez uma pausa por um momento. Ficou claro que ela estava descontente com a resposta dele.

“Teria sido bom saber que, quando você fez sua inscrição”, ela o levou.

“Eu não aprecio ser enganado”, acrescentou ela antes de gritar para alguém desligar o vídeo.

O que Dewald não divulgou foi que ele criou o Avatar Digital usando o software de inteligência artificial (AI), o exemplo mais recente de IA rastejando para o sistema jurídico dos EUA de maneiras potencialmente preocupantes.

A audiência na qual Dewald fez sua apresentação, em 26 de março, foi filmada por câmeras do sistema judicial e relatada anteriormente pela Associated Press.

Chegou em 4 de abril, Dewald, o autor no caso, disse que ficou impressionado com o constrangimento na audiência. Ele enviou aos juízes uma carta de desculpas, expressando profundo arrependimento e reconhecendo que suas ações “inadvertidamente enganaram” o Tribunal.

Ele usou o software depois de tropeçar em suas palavras em procedimentos legais anteriores. Usar a IA para a apresentação, ele pensou, pode aliviar a pressão que ele sentiu no tribunal.

Ele acrescentou que planejava fazer uma versão digital de si mesmo, mas encontrou “dificuldades técnicas”, o que o levou a criar uma pessoa falsa para a gravação.

“Minha intenção nunca era enganar, mas apresentar meus argumentos da maneira mais eficiente possível”, disse ele em sua carta aos juízes. “No entanto, reconheço que a divulgação e a transparência adequadas devem sempre ter precedência.”

Um empresário auto-descrito, Dewald, estava apelando uma decisão anterior em uma disputa de contrato com um ex-empregador. Ele finalmente apresentou uma discussão oral na audiência de apelação, gaguejando e fazendo pausas frequentes para se reagrupar e ler comentários preparados de seu celular.

Por mais envergonhada que fosse, Dewald poderia se confortar com o fato de que os advogados reais tiveram problemas para usar a IA no tribunal.

Em 2023, um advogado de Nova York enfrentou severas repercussões depois que ele usou o ChatGPT para criar um breve breve repleto de opiniões judiciais falsas e citações legais. O caso mostrou as falhas de confiar na IA e reverberado durante todo o comércio legal.

No mesmo ano, Michael Cohen, ex -advogado e fixador do presidente Donald Trump, forneceu a seu advogado citações legais falsas que recebeu do Google Bard, um programa de IA. Cohen finalmente pediu misericórdia do juiz federal que presidia seu caso, enfatizando que ele não sabia que o serviço de texto generativo poderia fornecer informações falsas.

Alguns especialistas disseram que a IA e os grandes modelos de idiomas podem ser úteis para as pessoas que têm assuntos legais para lidar, mas não podem pagar advogados. Ainda assim, os riscos da tecnologia permanecem.

“Eles ainda podem alucinar – produzir informações muito atraentes” que são “falsas ou sem sentido”, disse Daniel Shin, diretor assistente de pesquisa do Centro de Tecnologia Legal e Court da William & Mary Law School. “Esse risco deve ser abordado.” NYTIMES

Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.

Source link