Uma juíza sênior criticou advogados que aparentemente usaram em dois casos ferramentas de IA ao prepararem argumentos escritos, que se referiam a jurisprudência falsa. Ela pediu a reguladores e líderes do setor que garantam que advogados conheçam suas obrigações éticas.
"Há sérias implicações para a administração da justiça e para a confiança do público no sistema judiciário se a inteligência artificial for mal utilizada", disse a juíza Victoria Sharp em uma decisão por escrito.
"Nessas circunstâncias, medidas práticas e eficazes devem agora ser tomadas por aqueles dentro da profissão jurídica com responsabilidades individuais de liderança... e por aqueles com a responsabilidade de regulamentar a prestação de serviços jurídicos."
A decisão foi tomada depois que advogados de todo o mundo foram forçados a se explicar por confiarem em elementos falsos, desde que o ChatGPT e outras ferramentas de IA se tornaram amplamente disponíveis.
Sharp advertiu em sua decisão que advogados que se referirem a casos inexistentes estarão violando seu dever de não enganar o tribunal, o que também pode ser considerado desacato ao tribunal.
Ela acrescentou que "nos casos mais graves, a colocação deliberada de material falso perante o tribunal com a intenção de interferir na administração da justiça equivale ao delito criminal de perverter o curso da justiça".
Sharp destacou que os reguladores legais e o judiciário emitiram orientações sobre o uso da IA por advogados, mas disse que "a orientação por si só é insuficiente para lidar com o uso indevido da inteligência artificial".
Sam Tobin
Reuters
Fonte: @terrabrasil
Postar um comentário
Agradecemos pelo seu comentário!