Feed mikle

Justiça rejeita recurso por erros causados por IA e advogado pode ser punido

justica rejeita recurso erros causados ia advogado punido
Via @o_antagonista | O recente caso na Justiça de Salta, Argentina, reacendeu o debate sobre o uso de inteligência artificial (IA) na elaboração de documentos legais, especialmente após um recurso em um caso de abuso sexual ser rejeitado devido à incoerência causada pelo uso indevido de tecnologia. O juiz Pablo Zerdán, responsável pelo Juzgado de Garantías de Séptima Nominación, considerou inadmissível a impugnação apresentada, apontando questões processuais e problemas relacionados à incorreta utilização de IA no processo.

Por que a decisão judicial questionou o uso de inteligência artificial?

O juiz Zerdán destacou que não era possível apelar à elevação para julgamento, conforme as leis locais. Além disso, encontrou erros claros que sugerem o uso de IA na elaboração do recurso, como o uso de referências normativas não condizentes com o direito penal argentino e atribuições equivocadas de artigos do Código Processual Penal de Salta.

Por exemplo, o artigo 299, citado no recurso, trata de inspeções técnicas, enquanto o 301 refere-se a alvarás de moradia, assuntos que não se relacionavam ao caso analisado, o que evidencia falta de revisão profissional diante dos resultados fornecidos por ferramentas automatizadas.

Quais são os principais riscos do uso de IA em documentos jurídicos?

A crescente adoção de IA no Direito vem para agilizar tarefas e padronizar documentos, mas o tribunal alertou sobre os perigos dessa prática sem o devido acompanhamento profissional. A confiança excessiva na tecnologia pode gerar documentos imprecisos, incluindo citações incorretas de jurisprudência ou normas, o que fere gravemente a ética jurídica.

Entre os principais riscos associados ao uso indiscriminado de IA na área jurídica, podemos destacar:

  • Citação de legislação ou jurisprudência inexistente, ou inadequada
  • Incorporações automáticas de informações irrelevantes ao caso
  • Erros de interpretação de normas e procedimentos locais
  • Possibilidade de exposição a sanções éticas e disciplinares

Como o tribunal respondeu ao uso indevido da inteligência artificial no processo?

Diante dos problemas identificados, o tribunal de Salta emitiu um alerta firme sobre os perigos do uso automático de IA em documentos jurídicos. Situações como a presença de termos como “COMPLETAR” ou “IDENTIFICAR PRUEBA”, deixados pelo modelo de IA, indicam integração inadequada e falta de revisão criteriosa pelo advogado responsável.

O tribunal estabeleceu um prazo de 72 horas para que o profissional apresentasse fundamentos jurisprudenciais corretos, sob pena de possíveis sanções pelo Tribunal de Ética do Colégio de Advogados de Salta, deixando claro que a supervisão humana é indispensável.

Não é a primeira vez que isso acontece, como pode ser visto na postagem a seguir:

A inteligência artificial pode substituir o trabalho dos advogados ou apenas complementá-lo?

A utilização de tecnologia no setor jurídico é uma tendência permanente, mas sua principal função deve ser complementar, não substituir, a análise rigorosa realizada pelo advogado. Ferramentas de IA possibilitam automatização de tarefas repetitivas e análise de grandes volumes de dados, porém seu uso exige interpretação, revisão e validação humana.

O caso em Salta reforça que, para garantir a ética e a precisão no âmbito jurídico, é essencial equilibrar a inovação tecnológica com o controle profissional, assim prevenindo falhas graves e preservando a autenticidade do trabalho advocatício.

Redação O Antagonista
Fonte: @o_antagonista

1/Comentários

Agradecemos pelo seu comentário!

  1. The court's decision highlights the risks of relying on AI in legal matters. For strategic thinking, try ブロックブラスト for a fun challenge!

    ResponderExcluir

Postar um comentário

Agradecemos pelo seu comentário!

Anterior Próxima